Executando verificação de segurança...
1

Para Geoffrey Hinton, um dos mais importantes pesquisadores de IA, abrir grandes modelos de linguagem é equivalente a armas nucleares open source

Além de ser "perigoso" e uma "loucura completa", Hinton "adoraria" que os governos proibissem as empresas de abrirem seus modelos – uma posição contrária à de Yann LeCun, cientista-chefe de IA da Meta, e que, junto com Hinton, recebeu o Prêmio Turing em 2018. As informações são do canal do YouTube da University College Dublin.

Carregando publicação patrocinada...
4

Primeiramente, é importante destacar que os princípios científicos por trás das armas nucleares já são "open source" em termos de disponibilidade de informações. Porém a construção prática de uma arma nuclear envolve material extremamente restritos, como o urânio enriquecido, que é altamente regulamentada e simpelsmente impossível de ser obtido por entidades não autorizadas.

Os projetos das bombas atômicas "Fat Man" e "Little Boy", usadas durante a Segunda Guerra Mundial, têm de fato documentos e informações técnicas que foram desclassificados e são publicamente acessíveis há décadas.

O Irã foi forçado a cancelar seu projeto de uma bomba nuclear simplesmente porque não conseguiu obter urânio enriquecido suficiente.

De forma semelhante, enquanto o código de grandes modelos de linguagem possa ser aberto, a verdadeira barreira está na capacidade de treinar esses modelos.

2
1

Acho engraçado um pesquisador dizendo que adoraria que tivesse uma proibição. Ele quer limitar o acesso as IAs apenas ele e os amiguinhos será?
Vou até pesquisar para conhecer melhor esse ai, e tentar entender as opiniões dele. Porque não fez sentido esse comentario dele, pelo menos pra mim.

1

"Esse aí" é o Geoffrey Hinton, um dos precursores em deep learning no mundo. Aliás, um dos primeiros e melhores cursos de deep learning do Coursera é dele, fora diversas outras contribuições. Ele não é um burocrata engravatado que está dizendo isso porque quer manter um monopólio, longe disso. Ele é, na verdade, um acadêmico de prestígio na área, e minoria, tenho que dizer, que acredita que essas IAs do momento são extremamente perigosas e seu uso deve ser controlado.

Agora eu particularmente não concordo com ele, não acho que existe toda essa ameaça nesses LLMs (large language models). De fato acredito que modelos com os pesos e vieses públicos permitirão a criação de produtos melhores, mais ajustados a certos nichos e com preço menor para os consumidores. Acho que ainda estamos por ver aquele avança significativo que vai fazer a gente pensar que uma IA pode vir a ser a "skynet".