Executando verificação de segurança...
3

OpenAI determina que modelo GPT-4o apresenta risco de nível médio

Antes de disponibilizar a tecnologia ao público, a empresa contratou um grupo externo de especialistas em segurança, conhecidos como “red teamers”, para identificar possíveis falhas e riscos, como a criação de clones de voz não autorizados, geração de conteúdo inapropriado e reprodução de áudio protegido por direitos autorais.

A avaliação final foi realizada com base em quatro categorias distintas, sendo elas cibersegurança, ameaças biológicas, autonomia e persuasão, sendo esta a que apresentou o risco mais elevado.

Embora a OpenAI tenha contado com avaliadores externos, a maior parte da avaliação de riscos ainda é conduzida internamente pela empresa.

As informações são do site The Verge.

Carregando publicação patrocinada...