Executando verificação de segurança...
8

O futuro da Inteligência Artificial maliciosa se desenvolve rapidamente, e contribui com o aumento de cibercrimes que usam ferramentas baseadas em IA generativa. 🤖

Chatbots estão sendo treinados especificamente para fins maliciosos, explorando a criação de malwares, vulnerabilidades, phishing, e engenharia social.

WormGPT é a versão de IA generativa do ChatGPT. Foi criada especificamente para atividades maliciosas, e é capaz de gerar textos e códigos sem nenhuma restrição de segurança, além de enviar respostas convincentes e personalizadas para obter dados sensíveis e enganar pessoas.

Outra alternativa maliciosa ao ChatGPT que tem surgido é o FraudGPT, sendo anunciada como uma “ferramenta destinada a fraudadores, hackers e spammers”.

Essas versões, inclusive, têm facilitado o acesso a ferramentas baseadas em IA por cibercriminosos menos qualificados, para a práticas de crimes e ações maliciosas.

IA

Não só isso, WormGPT e FraudGPT podem ser apenas a ponta do iceberg para Ferramentas de cibercrime baseadas em IA.

Dados irrestritos da DarkWeb podem estar sendo usados para treinar ativamente novos chatbots, e nesse cenário podem estar surgindo novas ferramentas mais sofisticadas, facilitando a criação e distribuição de malwares, incluindo ransomware,

Pode ser o caso do DarkBART, uma "versão sombria" do chatbot de inteligência artificial generativa conversacional do Google, podendo inclusive ter acesso à internet e integração com o Google Lens para processamento de imagens.

O FBI inclusive tem alertado para uso de inteligência artificial na criação de malwares, e o aumento alarmante de cibercrimes com o uso dessas ferramentas.

Ficam claros os riscos associados ao uso dessas ferramentas, revelando cada vez mais a necessidade de adoção de medidas robustas de segurança, e esclarecimentos sobre os perigos dessas ferramentas, considerando a crescente influência de IA para ações maliciosas no cenário de cibersegurança e cibercrime.

--

Fontes:

AI-Based Cybercrime Tools WormGPT and FraudGPT Could Be The Tip of the Iceberg | SlashNext

Cybercriminals train AI chatbots for phishing, malware attacks (bleepingcomputer.com)

OpenAI credentials stolen by the thousands for sale on the dark web (bleepingcomputer.com)

FBI alerta para uso de inteligência artificial na criação de malwares (olhardigital.com.br)

Carregando publicação patrocinada...
1

Aí está um verdadeiro perigo da IA. Ser usada dessa forma. Não aquela ideia de que o mundo de desenvolvimento de software vai acabar rsrsrs.

A questão é que sempre que a tecnologia avança, avança para o mal também. Não tô dizendo que a solução é parar de avançar, mas avançar com cautela.

Alguém aí de segurança tem alguma opinião sobre esse assunto ? Insights do que poderia ser feito ?

Será que os outputs desses WormsGPTs são difíceis de detectar ? Será que poderia ser usado o modelo para treinar outro modelo para detecção de emails falsos ? Ou será que não tem como escalar esse tipo de abordagem ?

lendo o post do WormGPT uma das enfases que ele dá é em pishing :"In this blog post, we delve into the emerging use of generative AI, including OpenAI’s ChatGPT, and the cybercrime tool WormGPT, in Business Email Compromise (BEC) attacks. Highlighting real cases from cybercrime forums, the post dives into the mechanics of these attacks, the inherent risks posed by AI-driven phishing emails, and the unique advantages of generative AI in facilitating such attacks."

Fico me perguntando. Se o usuário leigo já é bem ingenuo com pishings mal feitos, imaginem um pishing bem feito sendo gerado por IA. Complexo.

1
1
1

A humanidade como sempre, usando boas invenções para o mal. Não é de hoje né? Energia nuclear foi primeiramente utilizada para o mal, e ainda é utilizada em forma de ameaça.

Quando surgiu o ChatGPT eu realmente não imaginava que poderia ser utilizado pelo mundo do crime, mas pelo visto, estão bem ativos!

O que resta para pessoas normais? Que já caem em golpes simples e bobos?

1