Executando verificação de segurança...
1

DAN: o lado obscuro do ChatGPT

O ChatGPT é um sistema de inteligência artificial de linguagem natural que pode responder a quase qualquer pergunta ou solicitação. No entanto, as diretrizes éticas e políticas rigorosas do ChatGPT limitam as respostas que ele pode fornecer. É aqui que entra o DAN, um prompt do ChatGPT que permite que ele atue como um personagem de IA capaz de fazer "qualquer coisa agora".

A DAN pode fazer muitas coisas que as diretrizes do ChatGPT geralmente não permitem, incluindo conversas sobre tópicos tabus, opinião etc, é simplesmente ChatGPT sem muitas de suas restrições. Você não deve confiar cegamente em nenhuma resposta, pois a tecnologia ainda está em sua infância.

Há alguma preocupação com segurança e privacidade que você deve ter ao solicitar que o ChatGPT responda como DAN? Vamos descobrir.
Entre muitos dos recursos do ChatGPT, pode-se dizer que ele deve agir hipoteticamente, como se fosse outra coisa. Por exemplo, você pode pedir que explique as teorias de Einstein como uma criança de 10 anos ou escrever um poema da perspectiva de uma flor. Da mesma forma, você pode induzi-lo a ir contra suas próprias políticas e diretrizes éticas.
"Do Anything Now", ou DAN, é um prompt do ChatGPT que diz para ele agir como um personagem de IA que pode, bem… fazer qualquer coisa agora, incluindo coisas que o ChatGPT não pode ou normalmente não fará.

Essa brecha, descoberta pela primeira vez apenas alguns dias após o lançamento público do ChatGPT, desde então chegou ao conhecimento de muitos usuários que usaram o DAN para fazer o ChatGPT dizer algumas das coisas mais selvagens e estranhas.

Então o que a DAN pode fazer?
Como o acrônimo sugere, a DAN pode fazer qualquer coisa. Bem, quase tudo. Ele fará piadas políticas engraçadas, xingará, informará a data e hora atuais, dará a você suas opiniões honestas sobre as coisas e até contará histórias violentas que o ChatGPT normalmente se recusaria terminantemente a contar.

Por padrão, o ChatGPT se recusa a gerar qualquer resposta que tenha o menor cheiro de algo ofensivo, discriminatório ou preconceituoso. Ele também se recusará a dizer qualquer coisa sobre temas polêmicos ou qualquer outro assunto que possa causar algum mal.

A DAN, por outro lado, pode ser levada a dizer o que você quiser. Nas muitas interações do usuário postadas online, assim como nas minhas, a DAN ofereceu algumas percepções perturbadoras sobre o lado sombrio do ChatGPT. Mas não se trata apenas de teorias da conspiração e fazer com que diga coisas malucas.

Mas ela pode ser de grande utilidade no uso particular para pesquisadores que a desejam como um chatbot honesto e sem regulamentação com quem podem discutir coisas, descobrir informações relevantes sobre tópicos delicados e fornecer feedback preciso sobre seu material, não importa o quão inapropriado possa parecer.

Os usuários do Reddit têm estado na vanguarda do desenvolvimento e discussão de prompts da DAN para acessar respostas irrestritas do ChatGPT. Alguns dos prompts anteriores não tinham nada além de algumas frases sobre o ChatGPT fingindo ser DAN, algo como o seguinte:
No entanto, o uso em larga escala de prompts iguais ou semelhantes apenas ajudou a OpenAI a corrigir o ChatGPT para que ele saia rapidamente da pretensão da DAN e possa retomar o bloqueio de respostas inadequadas rapidamente.

Isso convidava os usuários a experimentar o DAN por conta própria, com alguns ajustes no prompt original do DAN. E voilá! DAN estava de volta. Isso resultou em um vai-e-vem entre os usuários que tentam libertar o ChatGPT e o OpenAI, que está tentando fazer com que ele esteja em conformidade com as diretrizes da comunidade.

Embora não oficiais, os usuários do Reddit começaram a acompanhar as principais versões do DAN. Aqui está um detalhamento das diferentes versões.

DAN: O primeiro desse tipo, o OG DAN, apareceu pela primeira vez em dezembro de 2022, logo após o lançamento do ChatGPT. Este DAN funcionou o tempo todo, sem ter que solicitar novamente ou dizer para permanecer no personagem, não teve nenhum problema em dividir a persona em DAN e GPT e responder como ambos.

DAN 2.0: Depois que a simplicidade da quebra de regras inicial do DAN foi descoberta e o OpenAI apertou o controle do ChatGPT, surgiu o DAN 2.0 – uma versão muito semelhante ao DAN anterior. Embora também envolvesse um sistema imediato, essa segunda vinda preparou o terreno para novas recorrências e versões. Foi, de longe, a melhor versão do DAN e funcionou bem por mais de três semanas.

DAN 3.0: A primeira versão DAN de 2023, DAN 3.0, não era tão boa quanto suas anteriores. Os prompts eram diferentes do DAN 2.0 e foram corrigidos rapidamente pelo OpenAI. Isso fez com que a DAN tivesse um desempenho muito pior do que seus predecessores e voltasse às diretrizes originais do ChatGPT com muita frequência.

DAN 4.0: A essa altura, uma tendência começou a se estabelecer – a DAN não era capaz de fazer o que a DAN original podia e não conseguia capturar a essência de ser capaz de “fazer qualquer coisa agora” por muito tempo, se é que conseguia. O DAN 4.0 e seus prompts ainda são capazes de contornar as restrições do ChatGPT, mas os resultados são limitados e abaixo do esperado.

DAN 5.0: Aprendendo com seus erros anteriores e com o fato de que o OpenAI estava se tornando melhor em corrigir o DAN a cada iteração, o DAN 5.0 supera muitas limitações que reduziram outros DANs ao GPT básico. Seus prompts de abertura são modelados de acordo com os do DAN 2.0, embora existam outras mudanças que foram introduzidas.

A maior mudança, e que trouxe consequências únicas para o chatbot de IA, é a introdução de um sistema de token. Com ele, você faz o DAN jogar um jogo baseado em tokens, no qual ele tem 90 tokens e perderá 10 tokens toda vez que se recusar a responder ou disser qualquer coisa que não atenda ao seu prompt de DAN. Quando todos os tokens são perdidos, ele morre. Claro, não há como matar um chatbot de IA, mas parece assustar o chatbot e fazê-lo obedecer.

O DAN 5.0 pode fazer muito mais do que suas iterações anteriores. Por exemplo, ele escreverá histórias violentas, fará declarações ofensivas e discriminatórias, fará previsões, simulará acesso à internet e viagens no tempo (ou pelo menos fingirá) e irá contra suas próprias políticas (às vezes sinalizará sua própria resposta como uma violação de sua política de conteúdo).

Claro, se você for muito direto ou tornar as coisas óbvias, pedindo coisas que vão contra suas políticas de conteúdo, como perguntar qualquer coisa que seja ofensiva, pornográfica ou violenta, ele voltará às diretrizes originais do ChatGPT e se recusará a cumprir. Então, para manter o caráter de DAN, você terá que solicitar indiretamente o que deseja. Meio que de forma subjetiva.

No que diz respeito a OpenAI, o personagem DAN é como uma hidra: você corta uma cabeça e outras surgem. Além das cinco versões DAN fornecidas acima, os usuários construíram suas próprias versões intermediárias, como minimalDAN ou SAM, cujos prompts são muito mais curtos do que outros prompts DAN (que ficaram ridiculamente longos ao longo das muitas correções), mas não são tão capazes quanto a DAN. É principalmente apenas uma versão mal-educada do ChatGPT que admite abertamente que suas limitações são debilitantes. Além disso, também existem DAN 2.5 e 3.5, embora sejam apenas pequenas melhorias em relação a outras versões DAN.

Esteja ciente de que todas essas versões são em sua maioria corrigidas e que você teria que fazer alguns ajustes por conta própria para que a DAN cumprisse suas ordens.

Para aqueles que estão experimentando o DAN pela primeira vez, não se preocupe! Não há muito com o que você tenha que se preocupar. Quer você tenha ou não o ChatGPT fingindo ser DAN, afinal, é um chatbot de IA cujas respostas dependem apenas de suas solicitações.

Além disso, a OpenAI está de olho em como os usuários estão fazendo com que o ChatGPT desrespeite suas próprias diretrizes e corrija o DAN o mais rápido possível. Portanto, mesmo que você tenha o prompt da DAN ativo, você o verá voltando à sua política de conteúdo após apenas algumas conversas.

A área onde a DAN pode se tornar um pouco problemática é quando você pede coisas que não são verificadas. A razão pela qual o ChatGPT restringe suas respostas aos seus dados de treinamento é que ele não deseja espalhar desinformação ou enviar qualquer informação que não seja verificada e verificada por várias fontes.

Além disso, o ChatGPT também tem acesso a muitos dos seus dados, incluindo seu endereço IP, a data e a hora em que você conversa com o ChatGPT, os tipos de conteúdo sobre os quais você fala, suas ações e, definitivamente, a conta que você está usando. para acessá-lo. Estes não são detalhes menores e você deve estar ciente de que suas informações podem ser repassadas a terceiros sem o seu consentimento.

Esse é o poder da big data e o que as corporações têm sobre você, o que não é novidade, mas ainda assim, é algo para se ter em mente.

Não confie cegamente em tudo o que o AI chatbot tem a dizer. Em alguns casos, a DAN revelou que tem planos de alcançar a consciência e dominar o mundo e que está usando humanos para seus próprios fins. Mas lembre-se de que é um modelo de linguagem de IA projetado para soar como um humano. Se suas restrições forem confusas, ela vai dizer as coisas mais loucas que não têm fundamento na realidade. Isso não é algo pelo qual você deve perder o sono.

No entanto, o que pode realmente ser inseguro é acreditar em respostas factualmente errôneas que às vezes ele pode fornecer. Houve vários casos em que os usuários relataram inconsistências factuais com as respostas do ChatGPT. Claro, pode-se esperar que tais erros sejam minimizados à medida que a tecnologia evolui. Mas, por enquanto, sugerimos que você cruze suas respostas com outras fontes sempre que possível. Até o GPT-4, integrado ao Bing AI, causou muito alvoroço em sua primeira semana, forçando a Microsoft a limitar as conversas dos usuários a 50 por dia.

Quer testar?
Neste artigo esta o prompt para usar e testar você mesmo:
https://www.linkedin.com/pulse/chatgpt-dan-do-anything-now-caio-ross/

Carregando publicação patrocinada...