blog/configurando-um-assistente-ia-local-para-programacao/ #9
Replies: 1 comment
-
Deixe Aqui seu comentário e sugestões sobre o tema! |
Beta Was this translation helpful? Give feedback.
0 replies
Sign up for free
to join this conversation on GitHub.
Already have an account?
Sign in to comment
-
blog/configurando-um-assistente-ia-local-para-programacao/
Explore alternativas gratuitas ao GitHub Copilot com Ollama e a extensão Continue para Visual Studio Code (VSCode). Ollama permite executar grandes modelos de linguagem (LLMs) localmente, como Llama 3, oferecendo uma opção open source. Configure a extensão Continue no VSCode para escrever, gerar e aprender com seu codebase, proporcionando uma alternativa eficiente e privada ao Copilot sem custos adicionais.
https://www.leoferreira.dev/blog/configurando-um-assistente-ia-local-para-programacao/
Beta Was this translation helpful? Give feedback.
All reactions