Executando verificação de segurança...
1

ChatGPT revela acidentalmente suas instruções internas que o fazem operar dentro dos limites de segurança

A descoberta foi feita pelo usuário "F0XMaster" do Reddit, ao cumprimentar o modelo com um simples “Hi”, listando restrições como evitar emojis a menos que sejam solicitados, gerar apenas uma imagem por solicitação no DALL-E e selecionar fontes confiáveis na web ao fornecer informações. A OpenAI realizou uma correção para evitar o acesso aos dados. As informações são do site TechRadar.

Carregando publicação patrocinada...