Microsoft anuncia ferramenta para corrigir “alucinações” de modelos de IA
A solução funciona comparando o conteúdo suspeito com fontes confiáveis. Utilizando um modelo classificador, a ferramenta detecta trechos que possam estar incorretos, fabricados ou irrelevantes. Quando isso ocorre, um segundo modelo é acionado para corrigir os erros com base em "documentos de referência" predefinidos.
A ferramenta pode ser aplicada a qualquer modelo de geração de texto, como o Llama, da Meta, e o GPT-4, da OpenAI.
No entanto, especialistas alertam que essa abordagem não soluciona a causa raiz das alucinações, e pode agravar questões de confiança e explicabilidade nos modelos de IA, levando os usuários a acreditarem que as respostas são mais precisas do que realmente são.