Executando verificação de segurança...
2

Apesar do hype, a Inteligência Artificial Geral – com capacidade similar à humana – continua um “sonho distante”, acreditam cientistas cognitivos

O Teste de Turing – quando uma máquina tenta se passar por um ser humano através de uma sessão de perguntas e respostas – não seria um bom método para avaliar a capacidade de cognição de IAs. Outro problema dos grandes modelos de linguagem seria a abordagem de imitar apenas aspectos da linguagem que são orientados estatisticamente, em vez de tentar entender sua estrutura ou sua capacidade de acumular conhecimento. Esses conceitos são relacionados à engenharia ou ciência da computação, em vez de pautados na ciência cognitiva ou psicologia.

Carregando publicação patrocinada...
2

Não só os ciêntistas cognitivos kkk eu também.

Bom, pelo que lembro sobre as aulas de Neurociência, existem alguns fatores que eu considero:

1 - Nem de longe temos um computador capaz de processar as informações que um cerebro humano processa. Visão, audição, tato, noção espacial, paladar, batimentos cardiacos, estou em perigo? estou com fome? quem falou meu nome? o carro passa nesse espaço? O que essa pessoa está falando? Lembrar de algo de 2 anos para responder essa pergunta.... isso são apenas estimulos externos! Tudo isso é processado de forma quase perfeita, simutanea e sem aquecimento!

Para termos uma noção, um robô que ande, pegue um objeto e guarde esse objeto demanda de um esforço de processamento tremendo, e esse é um dos problemas das IAs, realizar tarefas simples demandam um esforço enorme, embora elas possam conversar, que é um trabalho congnitivo complexo, estão muito longe da capacidade de processamento e intelecto humano.

2 - A Inteligência Artificila Geral já parece impossivel no momento. Mas o que está sendo pintado na mídia é na verdade um cerebro de matrioska! Um computador com capacidade de processamento quase infinito, que saiba de tudo, que consegue tomar suas decisões e gerenciar suas informações como um Deus.

Sempre vemos os perigos da intenligencia artificial como as dos filmes, bem no estilo matrix ou skynet do exterminador do futuro. O real perigo é o uso inresponsavel, que poderá nos levar a problemas sociais sérios como iniciar uma era da informação duvidosa. Na verdade, veremos isso sendo testado nas proximas eleições, deep fake, fake news, fake audios etc.

3 - Sendo verdade essas redes que todos falam, com seus perigos dignos de filmes sci-fi, elas já deveriam ter sido paradas como os experimentos envolvendo redes artificiais de neuronios. Cultivar neuronios em laboratorio era um experimento de pesquisa interessante da neurociencia até surgir certos questionamentos. O fato era que essas redes de neuronios criavam novas conexões, aprendiam e interagiam, inclusive respondendo estimulos, logo, começou-se a falar que eram organismos vivos e criou-se um dilema ético envolvendo essas coisas. Esses pequenos cerebros estavam vivos? tinham consciencia? sentiam dor? medo?....

Com as redes neurais ninguem está falando disso, não são organicas, certo? certo. Mas não estão funcionando como as redes de neuronios? não respondem estimulos? não processam informação?

if (redeNeural == redeOrganica)
    printf("Somos Deuses!");

Se aceitarmos que redes neurais é em algum grau como as redes neurais organicas, estamos falando da criação de um organismo vivo, e se criamos vida, somos Deuses! igualzinho no filme Prometheus hahaha só espero que as redes neurais artificiais não sejam uma especie de alien disfarçado.

1

Que bom que tem quem está estudando isso seriamente. Não podemos glorificar algo que parece uma revolução mas é um pequeno passo adiante ao que existia antes, e falta uma maratona inteira pela frente, e que o cansaço virá logo.

Precisamos ouvir os cientistas sempre. Pelo menos os sérios (hoje muitos estão se tornando marketeiros).


Farei algo que muitos pedem para aprender a programar corretamente, gratuitamente. Para saber quando, me segue nas suas plataformas preferidas. Quase não as uso, não terá infindas notificações (links aqui).