Pitch: Github Copilot rodando localmente (ollama-copilot).
Estou aqui para compartilhar com vocês um projeto que estou trabalhando nos ultimos dias.
A Ideia deste projeto é usar ferramentas de LLM locais como Ollama e permitir que o mesmo funcione como um proxy para o Github copilot. Isso permite com que plugins de vscode, neovim e outras IDEs possam se plugar neste proxy e utilizar esta alternativa.
Para quem possui uma GPU o mesmo acaba funcionando bem, já que exige certo nível de capacidade computacional.
https://github.com/bernardo-bruning/ollama-copilot
Ainda possuem muitas melhorias para ser feita, mas qualquer sugestão é considerada bem vinda!