Executando verificação de segurança...
1

Sim, o Tabnine é freemium desde o princípio, mas eu não sabia que o basic seria removido, obrigado por avisar!

Sobre o que você comentou:

Ajudaria ainda mais se a AI tivesse memória permanente pra aprender conosco.

Algumas ferramentas oferecem esse tipo de mecanismo em algum nível. Ollama mantém uma certa "memória" se você utiliza os modelos via terminal, o Aider, se não me falha a memória, também consegue guardar bastante contexto. O problema é que é completamente inviável conseguir usar modelos "adequados" como um 70b, por exemplo, localmente. E, realmente, agora que você mencionou, acho que é o que mais me faz falta. Esses dias eu precisei fazer uma análise de um volume de dados grande demais para um humano, mas pequeno, penso eu, para uma LLM. A minha ideia foi basicamente atribuir os dados em variáveis dentro dos prompts para, posteriormente, conseguir cruzar as informações de forma granular. No final das contas eu desisti de usar IA e parti pra uma outra abordagem, porque eu precisava dessa "memória" entre os inputs pra fazer a análise funcionar da forma como eu gostaria e não consegui nada que me proporcionasse uma "memória com o tamanho adequado"(furava o teto do contexto provavelmente), então os dados acabavam sendo "esquecidos".

Enfim, eu penso um pouco como você, acho que em algum momento a gente vai chegar numa situação em que rodar os modelos localmente ou isolada em um contexto específico, de modo que não vaze nenhum tipo de dado para redes externas, será "go to". Enquanto a gente ainda não tem o necessário pra chegar a isso, a gente vai trabalhando com o que pode haha.

Brigadão pela contribuição!

Carregando publicação patrocinada...
1

Tem que ser local e pessoal, ou pertinente a uma corporação. Cada um com a sua...

Eu programo todo dia. Imagina após um ano, refinando minha AI, melhorando e treinando todo dia com a minha experiência e conhecimento. Eu teria algo como Jarvis e Friday, as duas inteligências artificiais do Homem de Ferro.