[REFLEXÃO] A IA e a sua Autodestruição
Estamos vivendo o início da era da Inteligência Artificial acessível, sendo esta, uma tecnologia que aprende estudando projetos humanos, seja para código, para arte, ou redição de textos.
Cada vez mais as pessoas estão optando por usar a IA e seus resultados para produzir conteúdo dos mais diversos que sejam.
A pergunta que fica é: Quanto tempo até a IA começar a analisar conteúdos publicados por usuários que tenham sido gerados também por IA, ou resumindo, quanto tempo até ela começar a "aprender consigo mesma"?
E mais do que isso, como será que ela se comportaria após algumas "gerações" de aprendizado?
Por exemplo:
Gerações de aprendizado:
-
Conteúdo 100% humano
-
Conteúdo parcialmente humano com fragmentos de IA
-
Conteúdos totalmente gerados por IA
Será que em um cenário desse tipo, os resultados começariam a se tornar inconsistentes o suficiente para que seu uso fosse reconsiderado? Se levarmos em conta a margem de erro de alguns resultados, e que esses mesmos erros são disseminados por aí, ela passaria a aprender um conteúdo incorreto e tratar como certo, possivelmente gerando mais e mais erros.
Qual o pensamento de vocês sobre esse cenário? e o que esperam da IA nos próximso 10 anos?