Executando verificação de segurança...
3

Tabnine é freemium com período trial. Parece que o plano basic vai ser removido:
https://docs.tabnine.com/main/welcome/readme/tabnine-subscription-plans/basic

Faço como você, tenho sempre algumas abas abertas no browser com Ai-chat. Eu tenho login em 13 até o momento, vou variando entre elas. Algumas respondem de forma totalmente diferente, ajuda muito isso. Pra Rubber duck debugging é uma beleza. Só precisam melhorar a interface gráfica, colocar o chat-input numa barra lateral (esquerda) e deixar todo o texto "aberto" pra ler. Ficar toda hora fazendo scroll em um espaço pequeno (por causa do chat-input embaixo) é bem chato.

No vs-code tenho o copilot e agora gemini. Por enquanto não to pagando nada, to esperando a poeira assentar. Mas é vida que segue, não tem mais como voltar. Uso todo dia e se pudesse pra tudo. Tem hora que entra em loop e não agrega muito. Pra tudo que gera tem que revisar e muitas vezes "dar um tapa" pra manter clean-code. Ajudaria ainda mais se a AI tivesse memória permanente pra aprender conosco. Um dia chega lá.

Acho que no futuro as placas GPU evoluirão pra conterem um LLM completo e "plugável". Aí sim vai ficar bacana programar, porque vamos poder treinar nossa própria AI da forma como programamos, bem específica pro domínio do software desenvolvido.

Carregando publicação patrocinada...
1

Sim, o Tabnine é freemium desde o princípio, mas eu não sabia que o basic seria removido, obrigado por avisar!

Sobre o que você comentou:

Ajudaria ainda mais se a AI tivesse memória permanente pra aprender conosco.

Algumas ferramentas oferecem esse tipo de mecanismo em algum nível. Ollama mantém uma certa "memória" se você utiliza os modelos via terminal, o Aider, se não me falha a memória, também consegue guardar bastante contexto. O problema é que é completamente inviável conseguir usar modelos "adequados" como um 70b, por exemplo, localmente. E, realmente, agora que você mencionou, acho que é o que mais me faz falta. Esses dias eu precisei fazer uma análise de um volume de dados grande demais para um humano, mas pequeno, penso eu, para uma LLM. A minha ideia foi basicamente atribuir os dados em variáveis dentro dos prompts para, posteriormente, conseguir cruzar as informações de forma granular. No final das contas eu desisti de usar IA e parti pra uma outra abordagem, porque eu precisava dessa "memória" entre os inputs pra fazer a análise funcionar da forma como eu gostaria e não consegui nada que me proporcionasse uma "memória com o tamanho adequado"(furava o teto do contexto provavelmente), então os dados acabavam sendo "esquecidos".

Enfim, eu penso um pouco como você, acho que em algum momento a gente vai chegar numa situação em que rodar os modelos localmente ou isolada em um contexto específico, de modo que não vaze nenhum tipo de dado para redes externas, será "go to". Enquanto a gente ainda não tem o necessário pra chegar a isso, a gente vai trabalhando com o que pode haha.

Brigadão pela contribuição!

1

Tem que ser local e pessoal, ou pertinente a uma corporação. Cada um com a sua...

Eu programo todo dia. Imagina após um ano, refinando minha AI, melhorando e treinando todo dia com a minha experiência e conhecimento. Eu teria algo como Jarvis e Friday, as duas inteligências artificiais do Homem de Ferro.