Inteligências artificiais treinadas com dados gerados por outras IAs podem sofrer degradação na qualidade de seus conteúdos, segundo estudo
Esses modelos, especialmente aqueles voltados para a geração de conteúdo, dependem de grandes volumes de dados reais, como imagens e textos, para produzir resultados de alta qualidade. Contudo, sem a inserção contínua de novos dados, eles tendem a reutilizar suas próprias produções.
Pesquisadores introduziram o termo "Model Autophagy Disorder" (Transtorno de Autofagia do Modelo) para descrever esse fenômeno, que pode levar a saídas distorcidas e de baixa qualidade, inclusive fazendo uma analogia à doença da vaca louca, onde o consumo de restos de animais infectados provoca uma doença neurodegenerativa.
Em experimentos, rostos gerados por IA começaram a apresentar artefatos e a se assemelhar cada vez mais uns aos outros, enquanto números manuscritos se tornaram ilegíveis. Algo semelhante acontece quando não há atualização contínua de dados reais.
Os pesquisadores alertam que se isso não for controlado, pode comprometer a qualidade e diversidade dos dados disponíveis na internet, representando um desafio para o futuro desenvolvimento de modelos, que poderiam se tornar limitados pelas suas próprias criações.