Executando verificação de segurança...
1

Vulnerabilidade no ChatGPT expõe dados de usuários por meio da memória do modelo

O recurso armazena informações de conversas anteriores e as utiliza como contexto em interações futuras, eliminando a necessidade de reinserir esses dados em cada nova conversa.

Em uma prova de conceito demonstrada na versão para macOS do ChatGPT, o pesquisador de segurança Johann Rehberger conseguiu fazer o modelo enviar uma cópia exata de todas as entradas do usuário e as respostas do modelo para um servidor sob seu controle.

O método explorava uma brecha em que o modelo, ao ser instruído a acessar um link contendo uma imagem maliciosa, passava a redirecionar todas as entradas e saídas para o site do indivíduo.

Vale ressaltar que esse ataque não é possível através da interface web do ChatGPT, devido à implementação de uma API lançada pela OpenAI no ano passado.

Embora a OpenAI tenha aplicado uma correção que impede que memórias sejam usadas como vetor de exfiltração de dados, o pesquisador alerta que conteúdos não confiáveis ainda podem realizar injeções de prompt, fazendo com que a ferramenta de memória armazene informações inseridas por indivíduos mal-intencionados a longo prazo.

Recomenda-se atenção a qualquer indicação de que uma nova memória foi adicionada e revisar regularmente as memórias armazenadas, verificando a presença de dados suspeitos ou não confiáveis.

Carregando publicação patrocinada...