Criei um clone do Ollama, mas para clientes em nuvem
Eu precisava de um Chat client que pudesse ter vários agentes, de diferentes serviços, com diferentes system prompts, para realizar tarefas do dia-a-dia, como documentar um código, traduzir algo, conversar... Mas nenhum cliente de IA dava certo pra isso.
Claro, eu podia ir na ChatGPT, pagar R$ 100,00 por mês e criar meus próprios modelos. Mas já viu onde está o problema disso. Existem modelos mais poderosos que o o1-mini
e eu sabia que podia usar eles de graça através da API, como o Deepseek e Llama3 no Groq, com uma performance absurdamente boa.
Mas nenhum Chat client fazia isso direito. Eu queria algo simples, que pudesse configurar meus modelos, minhas integrações e ter meus agentes ali. Então eu fiz o meu próprio Copilot4:
Alguns dos recursos:
- Multi-modelos: configure vários modelos com seus próprios system prompts de diferentes fontes que compartilhem uma API compatível com OpenAI. Até mesmo o Ollama funciona aqui.
- Syntax-highlighting: resposta markdown colorida automaticamente conforme a IA vai te mandando o conteúdo.
- Cross-platform: escrito com C# como uma aplicação para Consoles.
- Sem contas, sem premium: nada de pagar a mais pra ter um recursinho à mais. Tudo open-source.
E alguns dos recursos que pretendo adicionar em breve:
- Chat multi-modal: para modelos que suportam conversa multimodal (imagens, documentos), poder anexar os mesmos.
- Suporte à memória: embutir um banco de dados de memória através de um modelo alternativo.
- Suporte à RAG: adicionar suporte à mecanismos de RAG. Ainda tenho que ver como fazer isso.
Se quiser saber mais, eu publiquei o código fonte aqui.