Executando verificação de segurança...
5

Inteligências artificiais treinadas com dados gerados por outras IAs podem sofrer degradação na qualidade de seus conteúdos, segundo estudo

Esses modelos, especialmente aqueles voltados para a geração de conteúdo, dependem de grandes volumes de dados reais, como imagens e textos, para produzir resultados de alta qualidade. Contudo, sem a inserção contínua de novos dados, eles tendem a reutilizar suas próprias produções.

Pesquisadores introduziram o termo "Model Autophagy Disorder" (Transtorno de Autofagia do Modelo) para descrever esse fenômeno, que pode levar a saídas distorcidas e de baixa qualidade, inclusive fazendo uma analogia à doença da vaca louca, onde o consumo de restos de animais infectados provoca uma doença neurodegenerativa.

Em experimentos, rostos gerados por IA começaram a apresentar artefatos e a se assemelhar cada vez mais uns aos outros, enquanto números manuscritos se tornaram ilegíveis. Algo semelhante acontece quando não há atualização contínua de dados reais.

Os pesquisadores alertam que se isso não for controlado, pode comprometer a qualidade e diversidade dos dados disponíveis na internet, representando um desafio para o futuro desenvolvimento de modelos, que poderiam se tornar limitados pelas suas próprias criações.

Carregando publicação patrocinada...
1

Mas isso eles fizeram por opinião ou testaram de verdade.

Se você fazer a IA consumir algo produzido pela IA, obviamente dará problema, nem precisa de um estudo pra isso.

Tem que analisar se um curadoria, ou seja analisar os resultados da IA e eliminar resultados ruins para não ir para o treinamento pode gerar o mesmo efeito ou se pode melhorar a qualidade.