Executando verificação de segurança...
1

DeepMind publica artigo sobre riscos associados à AGI

A DeepMind divulgou um extenso artigo com mais de 100 páginas descrevendo estratégias para o desenvolvimento seguro da AGI — inteligência artificial geral, definida como uma máquina com capacidades cognitivas comparáveis às humanas.

Os autores do estudo estimam que essa tecnologia pode emergir até 2030 e buscam, com o documento, compreender de que forma a AGI poderia causar “danos severos”. O relatório classifica os riscos em quatro categorias principais: uso indevido, desalinhamento, erros e riscos estruturais — e propõe medidas para mitigá-los.

No caso do uso indevido, os pesquisadores alertam que sistemas com capacidades muito superiores às humanas poderiam ser empregados por agentes mal-intencionados para explorar vulnerabilidades zero-day ou até desenvolver vírus sintéticos com potencial bélico. Como resposta, a DeepMind sugere a implementação de protocolos de segurança robustos após o treinamento e o uso de mecanismos de “desaprendizado”, capazes de suprimir completamente funcionalidades perigosas.

O risco de desalinhamento envolve situações em que a AGI ignora limites definidos por seus desenvolvedores e toma decisões contrárias à intenção humana. Para mitigar esse cenário, a empresa recomenda testes de estresse rigorosos, monitoramento contínuo, ambientes de execução seguros (sandboxes) e supervisão humana direta.

Já os erros se referem a danos não intencionais, causados por ações mal interpretadas pela AGI ou por falhas humanas na sua operação. Esse tipo de falha pode ter consequências graves, especialmente em contextos militares. A principal recomendação, nesse caso, é limitar o grau de poder da AGI desde os estágios iniciais de desenvolvimento.

Por fim, os riscos estruturais abrangem efeitos não previstos que emergem da interação entre múltiplos sistemas de AGI e a complexidade da sociedade humana. Um exemplo seria a criação de informações falsas tão convincentes que tornariam indistinguível o que é real.

Apesar das preocupações levantadas, os pesquisadores destacam que o documento deve ser visto como um “ponto de partida para conversas importantes”. Não há garantias de que a AGI se tornará realidade até 2030.

Carregando publicação patrocinada...