Google estaria utilizando modelo Claude, da Anthropic, para aprimorar Gemini
E-mails internos indicam que contratados do Google estão utilizando o modelo Claude, da Anthropic, como referência para melhorar as respostas do Gemini. O Google não esclareceu se obteve autorização da Anthropic para usar o Claude nesses testes, enquanto a Anthropic não se pronunciou sobre o assunto.
Os contratados avaliam as respostas do Gemini com base em critérios como precisão, segurança e completude, dedicando até 30 minutos para cada análise. Em alguns casos, as respostas do Claude foram elogiadas por priorizarem configurações mais rigorosas de segurança.
Um exemplo destacado nos e-mails revelou que o Claude se recusou a responder perguntas consideradas inseguras, como simular outro assistente de IA, enquanto o Gemini gerou respostas inadequadas, incluindo conteúdos sensíveis classificados como uma “violação grave de segurança”. Uma mensagem interna entre os contratados do Google apontou que as configurações de segurança do Claude são consideradas “as mais rigorosas”.