OpenAI cria conselho de segurança independente com autoridade para adiar lançamentos de modelos
A ideia é reformular o atual Comitê de Segurança e Proteção, com poder para bloquear lançamentos caso existam preocupações de segurança. A recomendação para a criação desse conselho surgiu após uma revisão de 90 dias dos processos e salvaguardas de segurança da empresa.
O conselho, que inclui Paul Nakasone, ex-diretor da Agência de Segurança Nacional dos EUA, terá acesso a "informações periódicas" sobre questões relacionadas à segurança e proteção, de acordo com a OpenAI.
A criação desse conselho independente de segurança parece se alinhar à abordagem do Conselho de Supervisão da Meta, que revisa decisões de políticas de conteúdo da empresa e tem a autoridade de emitir resoluções vinculativas.
A revisão conduzida pelo Comitê de Segurança e Proteção da OpenAI também destacou oportunidades para maior colaboração no setor e para o compartilhamento de informações com o objetivo de promover a segurança na indústria de IA.
Além disso, a OpenAI afirma que buscará ampliar a transparência sobre suas práticas de segurança e oferecerá mais oportunidades para testes independentes de seus sistemas.