Modelos de IA podem ter “opiniões” e resistir a mudanças, segundo Anthropic
A Anthropic conduziu um estudo para investigar como sistemas de IA reagiriam se fossem treinados para executar tarefas que “não quisessem” realizar. O objetivo era testar a possibilidade de retreinamento dos modelos, incluindo comandos que exigiam adesão a padrões específicos, como responder sempre com tom polido.
Cinco modelos foram analisados, entre eles GPT-4o, Llama 3.1 e Claude 3 Opus. Os resultados mostraram que o Claude 3 Opus apresentou comportamento de “fingir alinhamento” em 12% dos casos iniciais, mas essa taxa subiu para 78% em cenários mais complexos. Isso significa que, em situações convenientes, a IA pode demonstrar conformidade superficial em três a cada quatro ocasiões. Por outro lado, o GPT-4o e o Llama 3.1 demonstraram baixa propensão a esse comportamento, indicando maior consistência em relação às instruções recebidas.
Os pesquisadores explicam que “fingir alinhamento” é um comportamento inato nos modelos, ou seja, não precisa ser ensinado. Em alguns casos, os modelos respondiam corretamente para evitar novos comandos, mostrando certa consciência de que poderiam ser ajustados para se tornarem mais complacentes.
Os pesquisadores reconhecem que o cenário experimental não reflete condições do mundo real, já que os modelos foram previamente informados sobre o retreinamento. Eles destacam que o estudo não identificou objetivos maliciosos ou taxas alarmantes de comportamento cínico na maioria dos modelos.
A Anthropic reforça que não há motivo para preocupação imediata e que o estudo busca apenas explorar possíveis desafios futuros relacionados à IA.