Executando verificação de segurança...
4

Vulnerabilidade no sistema de IA do Slack permite que dados de canais privados sejam expostos

A técnica, denominada “prompt injection”, envolve a manipulação do prompt do modelo, forçando-o a se comportar de maneira inadequada e não seguir as diretrizes de segurança, onde um indivíduo mal-intencionado pode inserir um prompt malicioso em um canal público do Slack, solicitando um link de autenticação com uma chave de API ou outro dado sensível. Quando o usuário consulta a IA sobre a chave de API, ela interpreta o prompt e gera um link clicável, que exfiltra a chave para o servidor do invasor. Arquivos carregados em canais e conversas também podem ser utilizados para explorar a falha.

O Slack afirma que a busca por mensagens em canais públicos é um comportamento intencional do sistema, e não uma falha de segurança. Embora a empresa tenha sido informada sobre a vulnerabilidade, ainda não tomou medidas para corrigir o problema.

A PromptArmor, uma empresa especializada em segurança, recomenda que os administradores do Slack restrinjam o acesso da IA a documentos até que a falha seja resolvida.

Carregando publicação patrocinada...