Executando verificação de segurança...
0

Sistemas de IA com “risco inaceitável” serão proibidos na União Europeia

A nova regulamentação faz parte da AI Act, um conjunto de regras abrangente que visa regular o uso da tecnologia na União Europeia.

O regulamento classifica os sistemas de IA em quatro níveis de risco. Tecnologias de “risco mínimo”, como filtros de spam de e-mail, não estarão sujeitas à supervisão regulatória. Sistemas de “risco limitado”, como chatbots de atendimento ao cliente, terão uma supervisão mais branda. Já sistemas de “risco alto”, como aqueles usados em diagnósticos médicos e recomendações de saúde, enfrentarão uma regulamentação mais rigorosa. Por fim, os sistemas classificados como tendo “risco inaceitável” serão totalmente proibidos.

Entre os sistemas banidos estão aqueles que manipulam decisões de usuários de maneira subliminar ou enganosa, tecnologias que realizam coleta biométrica “em tempo real” em locais públicos e sistemas que tentam interpretar emoções de pessoas em ambientes de trabalho ou escolares.

Empresas que utilizarem essas tecnologias na União Europeia estarão sujeitas a multas, independentemente do local onde estejam sediadas, podendo ser penalizadas em até 35 milhões de euros ou 7% de sua receita anual do ano fiscal anterior.

A legislação prevê exceções. A polícia, por exemplo, poderá utilizar sistemas de reconhecimento biométrico em locais públicos para buscas direcionadas a vítimas de sequestro ou para prevenir ameaças “específicas, substanciais e iminentes” à vida, desde que obtenha autorização de um órgão governamental competente. No entanto, decisões que possam causar impactos legais adversos não poderão ser baseadas exclusivamente nas saídas desses sistemas.

Além disso, a lei permite o uso de sistemas de análise emocional em ambientes de trabalho e escolas, desde que haja justificativas médicas ou de segurança, como no caso de aplicações terapêuticas.

Carregando publicação patrocinada...