Cientistas desenvolvem método para tentar identificar alucinações em respostas geradas por modelos de IA
A abordagem envolve o uso de mais dois LLMs que analisam se uma resposta foi gerada incorretamente devido à falta de informações precisas. O estudo, realizado com modelos Llama 2, Mistral Instructor e Falcon, conseguiu identificar alucinações em até 80% das vezes. As informações são do site Nature.