O futuro da Inteligência Artificial maliciosa se desenvolve rapidamente, e contribui com o aumento de cibercrimes que usam ferramentas baseadas em IA generativa. 🤖
Chatbots estão sendo treinados especificamente para fins maliciosos, explorando a criação de malwares, vulnerabilidades, phishing, e engenharia social.
WormGPT é a versão de IA generativa do ChatGPT. Foi criada especificamente para atividades maliciosas, e é capaz de gerar textos e códigos sem nenhuma restrição de segurança, além de enviar respostas convincentes e personalizadas para obter dados sensíveis e enganar pessoas.
Outra alternativa maliciosa ao ChatGPT que tem surgido é o FraudGPT, sendo anunciada como uma “ferramenta destinada a fraudadores, hackers e spammers”.
Essas versões, inclusive, têm facilitado o acesso a ferramentas baseadas em IA por cibercriminosos menos qualificados, para a práticas de crimes e ações maliciosas.
Não só isso, WormGPT e FraudGPT podem ser apenas a ponta do iceberg para Ferramentas de cibercrime baseadas em IA.
Dados irrestritos da DarkWeb podem estar sendo usados para treinar ativamente novos chatbots, e nesse cenário podem estar surgindo novas ferramentas mais sofisticadas, facilitando a criação e distribuição de malwares, incluindo ransomware,
Pode ser o caso do DarkBART, uma "versão sombria" do chatbot de inteligência artificial generativa conversacional do Google, podendo inclusive ter acesso à internet e integração com o Google Lens para processamento de imagens.
O FBI inclusive tem alertado para uso de inteligência artificial na criação de malwares, e o aumento alarmante de cibercrimes com o uso dessas ferramentas.
Ficam claros os riscos associados ao uso dessas ferramentas, revelando cada vez mais a necessidade de adoção de medidas robustas de segurança, e esclarecimentos sobre os perigos dessas ferramentas, considerando a crescente influência de IA para ações maliciosas no cenário de cibersegurança e cibercrime.
--
Fontes:
AI-Based Cybercrime Tools WormGPT and FraudGPT Could Be The Tip of the Iceberg | SlashNext
Cybercriminals train AI chatbots for phishing, malware attacks (bleepingcomputer.com)
OpenAI credentials stolen by the thousands for sale on the dark web (bleepingcomputer.com)
FBI alerta para uso de inteligência artificial na criação de malwares (olhardigital.com.br)