Executando verificação de segurança...
1

OpenAI cria conselho de segurança independente com autoridade para adiar lançamentos de modelos

A ideia é reformular o atual Comitê de Segurança e Proteção, com poder para bloquear lançamentos caso existam preocupações de segurança. A recomendação para a criação desse conselho surgiu após uma revisão de 90 dias dos processos e salvaguardas de segurança da empresa.

O conselho, que inclui Paul Nakasone, ex-diretor da Agência de Segurança Nacional dos EUA, terá acesso a "informações periódicas" sobre questões relacionadas à segurança e proteção, de acordo com a OpenAI.

A criação desse conselho independente de segurança parece se alinhar à abordagem do Conselho de Supervisão da Meta, que revisa decisões de políticas de conteúdo da empresa e tem a autoridade de emitir resoluções vinculativas.

A revisão conduzida pelo Comitê de Segurança e Proteção da OpenAI também destacou oportunidades para maior colaboração no setor e para o compartilhamento de informações com o objetivo de promover a segurança na indústria de IA.

Além disso, a OpenAI afirma que buscará ampliar a transparência sobre suas práticas de segurança e oferecerá mais oportunidades para testes independentes de seus sistemas.

Carregando publicação patrocinada...
1

Maior piada isso. A OpenAI lançou um modelo a pressa, porque fizeram um IA com reflexão, já com medo de que logo outras empresas tivessem um modelo usando a mesma lógica do O(1).

Basicamente a OpenAI vai pensar na sua competividade e lançar os modelos e pronto.