Executando verificação de segurança...
1

Cientistas e nomes notáveis da tecnologia assinam carta aberta solicitando pausa no treinamento de IAs similares ao GPT-4 por pelo menos 6 meses

Com mais de mil signatários – incluindo Elon Musk, Emad Mostaque (do Stable Diffusion), Steve Wozniak (co-fundador da Apple), além de engenheiros da Meta e Google – a carta argumenta que empresas estão “presas em uma corrida fora de controle para desenvolver e implantar mentes digitais cada vez mais poderosas que ninguém – nem mesmo seus criadores – pode entender, prever ou controlar”. Até o fechamento desta edição, ninguém da OpenAI teria assinado a carta.

Carregando publicação patrocinada...
3

Imagine que você é responsável pela frota armada de um país: desde o recrutamento e treinamento, até os recursos e tecnologias envolvidas na proteção do país. Se um país vizinho começa a desenvolver novos tipos de arma, é seu dever desenvolver também para não ser um alvo fácil em caso de guerra. A ameaça de ter uma arma que pode ser usada é mais forte do que o fato de usar a arma.

Pausar o treinamento de IAs é como se o país que já tem um ótimo armamento falasse "vamos todos parar de desenvolver armas, olha como isso é perigoso!". Você não sabe realmente se todos os outros pararão de desenvolver. E se algum continuar desenvolvendo e te deixar para trás? E quem não tem isso bem desenvolvido e se sente ameaçado (seja por uma invasão no país ou pela perda de market share da própria empresa), o que poderá fazer?

Agora, misturando os dois exemplos: e se as empresas americanas decidirem realmente "fazer do jeito certo", mas a Rússia ou a China investirem em empresas do próprio país para dominarem a área de inteligência artificial, o que impedirá isso?

Esse é um assunto bem mais complexo do que apenas "vamos desacelerar e refletir sobre como não fazer IAs malvadas".

2

"O pedido de uma moratória de 6 meses para fazer progresso da IA além do GPT-4 é uma péssima ideia.

Estou vendo muitas novas aplicações em educação, saúde, alimentação, ... isso vai ajudar muitas pessoas. Melhorar o GPT-4 ajudará. Vamos equilibrar o enorme valor que a IA está criando versus riscos realistas.

Não há uma maneira realista de implementar uma moratória e impedir que todas as equipes ampliem os LLMs, a menos que os governos intervenham. Fazer com que os governos façam uma pausa em tecnologias emergentes que eles não entendem é anticompetitivo, estabelece um precedente terrível e é uma péssima política de inovação.

A IA responsável é importante e a IA tem riscos. A narrativa popular da imprensa de que as empresas de IA estão se descontrolando enviando códigos inseguros não é verdadeira. A grande maioria (infelizmente, não todas) das equipes de IA leva a sério a IA responsável e a segurança. Vamos investir mais em segurança enquanto avançamos a tecnologia, em vez de sufocar o progresso.

Uma moratória de 6 meses não é uma proposta prática. Para promover a segurança da IA, os regulamentos em torno da transparência e da auditoria seriam mais práticos e fariam uma diferença maior."

Andrew NG, no linkedin

Além de que, os signatários (pelo menos os citados) nem são da área...