OpenAI determina que modelo GPT-4o apresenta risco de nível médio
Antes de disponibilizar a tecnologia ao público, a empresa contratou um grupo externo de especialistas em segurança, conhecidos como “red teamers”, para identificar possíveis falhas e riscos, como a criação de clones de voz não autorizados, geração de conteúdo inapropriado e reprodução de áudio protegido por direitos autorais.
A avaliação final foi realizada com base em quatro categorias distintas, sendo elas cibersegurança, ameaças biológicas, autonomia e persuasão, sendo esta a que apresentou o risco mais elevado.
Embora a OpenAI tenha contado com avaliadores externos, a maior parte da avaliação de riscos ainda é conduzida internamente pela empresa.
As informações são do site The Verge.