Executando verificação de segurança...
1

Esse é um tópico muito interessante!

O que me parece é que o algoritmo foi mal utilizado nesse caso.

Faltou alguém, ou melhor, um grupo de pessoas com experiencia e competência para definir o máximo de parâmetro necessários, e talvez um outro grupo de pessoas para refinar e analisar o resultado do algoritmo e decidir se essa era uma escolha sensata, ponderando as partes que podem ser atingidas por essas escolhas!

Realmente, os algoritmos não são o problema, são uma ótima ferramenta, assim como toda a tecnologia, se mal aplicada/utilizada, pode se tornar uma arma de destruição em massa como cita o título!

Carregando publicação patrocinada...
1

Exatamente, Leonardo, acredito que um dos pontos que o livro define para fazer com que tais IA's não sejam destrutivas, é a transparência de dados somada com a auto-aprendizagem. Por exemplo: uma IA que avalia o desempenho de jogadores de futebol (número de gols, vitórias, posições e percentagem de gols batendo de direita ou esquerda) pode utilizar destes dados públicos para avaliar as melhores estratégias de posições dos jogadores, e caso a predição esteja errada, ao ser aplicada a um jogo real, essa IA iria aprender com os próprios erros (acrescentando as estatísticas deste jogo no banco de dados de aprendizagem) e bolar novas estratégias, sem necesssariamente punir o jogador ou qualquer outro envolvido.

No livro é citado um modelo parecido só que com basebol, no qual esses dados dos jogadores são públicos, essas IA's já existem e fazem com que times reais lucrem milhões com previsões corretas dadas pela IA.

Mas no caso que eu citei da professsora, podemos perceber que os parâmetros analizados pela IA eram particulares, e solução não tinha propósito corretivo, mas sim punitivo. Além de que ao gerar os nomes dos 2% de "professores mais mal qualificados" ela só fazia devolver os dados, e não aprender com eles, ou seja, não gerava nada de valor.