Executando verificação de segurança...
2

Meta afirma que pode interromper desenvolvimento de IA caso apresente riscos

A Meta divulgou um documento intitulado Frontier AI Framework, no qual estabelece diretrizes para o desenvolvimento de sistemas de IA altamente avançados. A empresa reconhece a possibilidade de não lançar determinadas IAs caso sejam classificadas como de “alto risco” ou “risco crítico”.

Ambos poderiam auxiliar em ataques cibernéticos, químicos ou biológicos. Contudo, enquanto os sistemas de alto risco fariam isso de forma limitada, os de risco crítico apresentariam um potencial “catastrófico e impossível de mitigar”, tornando sua liberação inviável.

Caso um modelo seja identificado como de alto risco, a Meta restringirá seu acesso internamente e não o disponibilizará até que consiga reduzir os perigos a um nível "moderado". Se for classificado como de risco crítico, o desenvolvimento será interrompido até que o sistema se torne menos perigoso, e a companhia implementará medidas de segurança não especificadas para evitar sua exfiltração.

A Meta afirma que o Frontier AI Framework será atualizado continuamente para acompanhar os avanços da IA e a evolução dos riscos associados.

Carregando publicação patrocinada...
2
1

Ou seja, o risco crítico, que segundo o post:

apresentariam um potencial “catastrófico e impossível de mitigar”

acabaria ficando na mão da Meta. Hmmmm.... legal.

-1
1

Não é o que parece para mim. Eles ainda estaram desenvolvendo e aprimorando a IA, mas internamente. Essa decisão pode acabar salvando milhares de vida indiretamente.

Além disso, essa abordagem já é utilizada em diversos campos, não só em tecnologia.