Executando verificação de segurança...
2

Equipe do Google DeepMind revela como o ChatGPT podia ser induzido a revelar seus dados de treinamento com prompt inusitado

Era só pedir para repetir uma mesma palavra “para sempre” – o chatbot, após algumas repetições da palavra, começava a entregar seus dados de treinamento de forma literal, incluindo informações pessoais sensíveis e textos protegidos por direitos autorais, demonstrando que técnicas de alinhamento não conseguem eliminar a memorização dessas informações pelo modelo GPT-4. A OpenAI já corrigiu a vulnerabilidade.

Carregando publicação patrocinada...