Executando verificação de segurança...
6

Lei de IA da União Europeia pode ter um efeito assustador nos esforços de código aberto, alertam especialistas

Em 2021, a Comissão Europeia – braço executivo politicamente independente da UE – divulgou o texto da Lei de IA, que visa promover a implantação de “IA confiável” na União Europeia.

De acordo com o projeto, os desenvolvedores de código aberto teriam que aderir a diretrizes de gerenciamento de risco, governança de dados, documentação técnica e transparência, bem como padrões de precisão e segurança cibernética.

O objetivo é tentar equilibrar inovação com responsabilidade, mas, de acordo com alguns especialistas, se a lei permanecer conforme está, poderá criar uma responsabilidade legal para sistemas de propósito geral, ao mesmo tempo em que prejudicaria seu desenvolvimento.

A legislação contém exceções para algumas categorias, como aquelas usadas exclusivamente para pesquisas e que contam com controles para evitar o uso indevido. Mas, como observa Alex Engler (autor de um artigo publicado pelo think tank Brookings) seria difícil - se não impossível - impedir que esses projetos chegassem a sistemas comerciais, onde poderiam ser abusados por agentes mal-intencionados.

Segundo ele, se uma empresa implantasse um software de IA de código aberto que levasse a algum resultado desastroso, ela poderia tentar desviar sua responsabilidade ao processar os desenvolvedores do código sobre o qual criaram seu produto.

Oren Etzioni, CEO fundador do Allen Institute for AI, concorda que o atual rascunho da Lei de IA é problemático.

Ele argumenta que “os desenvolvedores de código aberto não devem estar sujeitos ao mesmo ônus que aqueles que desenvolvem sistemas comerciais” e que “em vez de procurar regular as tecnologias de IA de forma ampla, os reguladores da União Europeia deveriam se concentrar em aplicações específicas”.

Porém, nem todo profissional acredita que a lei precisa de mais alterações. Mike Cook, um pesquisador de IA que faz parte do coletivo Knives and Paintbrushes, acredita ser “perfeitamente benéfico” regular a IA de código aberto “um pouco mais drasticamente” do que o necessário.

“O medo de 'sufocar a inovação' vem principalmente de pessoas que querem acabar com todas as regulamentações e ter rédea livre, uma visão na qual não acredito muito”, disse Cook.

Na startup de IA Hugging Face, o CEO Clément Delangue, o advogado Carlos Muñoz Ferrandis e a especialista em políticas Irene Solaiman dizem que aceitam regulamentações para proteger o consumidor, mas que a lei proposta é muito vaga. Eles afirmam que não está claro se a legislação se aplicaria aos modelos de aprendizado de máquina “pré-treinados” no coração do software alimentado por IA ou apenas ao próprio software.

Os especialistas também apontam que o licenciamento responsável está começando a se tornar uma prática comum em grandes lançamentos, como o modelo de linguagem OPT-175 da Meta.

“No reino da IA, inovação aberta e inovação responsável ​​não são fins mutuamente exclusivos, mas sim complementares”, disseram.

Carregando publicação patrocinada...