Executando verificação de segurança...
2

"O pedido de uma moratória de 6 meses para fazer progresso da IA além do GPT-4 é uma péssima ideia.

Estou vendo muitas novas aplicações em educação, saúde, alimentação, ... isso vai ajudar muitas pessoas. Melhorar o GPT-4 ajudará. Vamos equilibrar o enorme valor que a IA está criando versus riscos realistas.

Não há uma maneira realista de implementar uma moratória e impedir que todas as equipes ampliem os LLMs, a menos que os governos intervenham. Fazer com que os governos façam uma pausa em tecnologias emergentes que eles não entendem é anticompetitivo, estabelece um precedente terrível e é uma péssima política de inovação.

A IA responsável é importante e a IA tem riscos. A narrativa popular da imprensa de que as empresas de IA estão se descontrolando enviando códigos inseguros não é verdadeira. A grande maioria (infelizmente, não todas) das equipes de IA leva a sério a IA responsável e a segurança. Vamos investir mais em segurança enquanto avançamos a tecnologia, em vez de sufocar o progresso.

Uma moratória de 6 meses não é uma proposta prática. Para promover a segurança da IA, os regulamentos em torno da transparência e da auditoria seriam mais práticos e fariam uma diferença maior."

Andrew NG, no linkedin

Além de que, os signatários (pelo menos os citados) nem são da área...

Carregando publicação patrocinada...