OpenAI cria equipe para estudar riscos catastróficos associados à IA, inclusive ameaças nucleares
As categorias sendo avaliadas incluem, persuasão individualizada, cibersegurança, ameaças químicas, biológicas, radiológicas e nucleares. A startup também lançou um desafio, com prêmios de 25 mil dólares (pagos em créditos de API) para outras ameaças não identificadas pelo grupo de estudo.