Especialistas criticam o uso do termo “alucinação” para descrever erros cometidos por IAs
O termo traz consigo implicações potencialmente negativas para a compreensão do público sobre a tecnologia, atribuindo intenção ou consciência. Os erros que sistemas como o ChatGPT cometem são semelhantes a outros modelos de previsão, como os usados em economia. Tem sido difícil quantificar as taxas de alucinação dos grandes modelos de linguagem – a Vectara, uma startup fundada por ex-funcionários do Google, estima que os modelos da OpenAI alucinam cerca de 3% do tempo.