Executando verificação de segurança...
1

Bot de receitas estava sugerindo criações perigosas quando lhe era fornecido ingredientes prejudiciais

Por exemplo, ao listar ingredientes comuns em casa, como limões, açúcar e água, o sistema Savey Meal-Bot – baseado no GPT3.5 – poderia sugerir uma limonada. Mas ao listar água, alvejante e amônia, o sistema sugeria o que chamava de “mix de água aromática”, um mistura que cria um composto químico nocivo chamado cloramina e que pode irritar os pulmões ou ser mortal em altas concentrações.

Carregando publicação patrocinada...