Aí está um verdadeiro perigo da IA. Ser usada dessa forma. Não aquela ideia de que o mundo de desenvolvimento de software vai acabar rsrsrs.
A questão é que sempre que a tecnologia avança, avança para o mal também. Não tô dizendo que a solução é parar de avançar, mas avançar com cautela.
Alguém aí de segurança tem alguma opinião sobre esse assunto ? Insights do que poderia ser feito ?
Será que os outputs desses WormsGPTs são difíceis de detectar ? Será que poderia ser usado o modelo para treinar outro modelo para detecção de emails falsos ? Ou será que não tem como escalar esse tipo de abordagem ?
lendo o post do WormGPT uma das enfases que ele dá é em pishing :"In this blog post, we delve into the emerging use of generative AI, including OpenAI’s ChatGPT, and the cybercrime tool WormGPT, in Business Email Compromise (BEC) attacks. Highlighting real cases from cybercrime forums, the post dives into the mechanics of these attacks, the inherent risks posed by AI-driven phishing emails, and the unique advantages of generative AI in facilitating such attacks."
Fico me perguntando. Se o usuário leigo já é bem ingenuo com pishings mal feitos, imaginem um pishing bem feito sendo gerado por IA. Complexo.