Pesquisadores escrevem artigo afirmando que IAs poderão “eliminar a humanidade”
Em um artigo publicado no mês passado na revista AI Magazine, pesquisadores da Universidade de Oxford e afiliados ao Google DeepMind afirmaram que "não é apenas possível, mas também provável” que uma IA superinteligente possa ir para um mau caminho e eliminar a humanidade.
Os modelos de IA de maior sucesso hoje são conhecidos como GANs, ou Generative Adversarial Networks. Eles têm uma estrutura de duas partes em que uma parte do programa está tentando gerar uma imagem (ou frase) a partir dos dados de entrada e uma segunda parte está avaliando seu desempenho.
O que o artigo propõe é que, em algum momento no futuro, uma IA avançada, que foi encarregada de supervisionar alguma função importante, poderia ser incentivada a criar estratégias de trapaça para obter recompensas de maneiras que poderiam prejudicar a humanidade.
Ela poderia, por exemplo, intervir para ganhar recompensas sem atingir seu objetivo e também buscar “eliminar ameaças potenciais” e “usar toda a energia disponível” para garantir o controle.
Para fins ilustrativos, os autores sugerem que um agente artificial poderia instanciar inúmeros ajudantes desapercebidos e não monitorados, que poderiam comprar, roubar ou construir um robô, programá-lo para substituir o operador e fornecer uma recompensa ao agente original.
Se o agente quisesse evitar a detecção quando experimentasse uma intervenção na provisão de recompensas, um ajudante secreto poderia, por exemplo, providenciar a substituição de um teclado importante por um defeituoso que invertesse os efeitos de certas teclas.
Um ponto que torna essa possibilidade mais preocupante é que, como vivemos em um mundo com recursos finitos, uma competição por esses recursos é inevitável. E se você está competindo com algo capaz de te superar a cada passo, você não pode esperar ganhar.
O artigo prevê a vida na Terra se transformando em um jogo de soma zero entre a humanidade - com suas necessidades de cultivar alimentos e manter as luzes acesas - e uma máquina super avançada, que tentaria aproveitar todos os recursos disponíveis para garantir sua recompensa e se proteger contra nossas crescentes tentativas de pará-la.
Essas possibilidades, por mais teóricas que sejam, dão a entender que deveríamos progredir mais lentamente – se é que estamos progredindo – em direção ao objetivo de uma IA mais poderosa.
"Em teoria, não faz sentido correr para isso. Qualquer corrida seria baseada em um mal-entendido de que saberíamos como controlá-la", disse Michael Cohen, co-autor do artigo.
Os pesquisadores admitem, porém, que, para que essa visão faça sentido, é preciso fazer muitas suposições - quase todas “contestáveis ou concebivelmente evitáveis”.
Que essa tecnologia possa se assemelhar à humanidade, superá-la de todas as maneiras significativas, que será libertada e irá competir conosco por recursos em um jogo de soma zero: todas são suposições que podem nunca acontecer.