Estudo indica que pessoas podem confiar excessivamente em IAs para tomar decisões
O experimento envolveu apresentar aos participantes uma lista de oito fotos de alvos classificados como amigos ou inimigos, solicitando que tomassem decisões sobre a realização de ataques simulados de drones em cada um. Uma IA forneceu uma segunda opinião sobre a validade dos alvos, porém, de forma desconhecida para os participantes, as sugestões dela eram completamente aleatórias. Mesmo sendo alertados sobre a falibilidade dos sistemas de IA, 66% dos participantes permitiram que suas decisões fossem influenciadas pela tecnologia.
Um dos pesquisadores ressalta a necessidade de atenção ao "potencial de excesso de confiança" nas IAs. O estudo foi projetado para investigar a confiança exagerada em IA em cenários de incerteza, com implicações que vão além das decisões militares, estendendo-se a áreas como policiamento, medicina, ou até escolhas pessoais, como a compra de uma casa.
Os pesquisadores enfatizam que, embora a IA seja "extraordinária" em algumas tarefas, suas "habilidades ainda são limitadas", e defendem a importância de manter um "ceticismo saudável", especialmente em decisões críticas.