Executando verificação de segurança...
6

A revolução da Inteligencia Artificial, só que não.... Parte 2 - Artigo.

Olá a todos, uns meses depois de escrever meu artigo sobre revolução da inteligência artificial, venho escrever sobre outra revolução que está entrelaçada, e que me pareceu extremamente perigosa, deixo meu artigo aqui para que pensem e observem o rumo do Hype da IA.

Li a alguns dias que o criador do ChatGPT o então CEO da OpenAI quer captar Trilhões de dólares para criar uma IA geral, isso mesmo você leu corretamente trilhões.

Primeira achei que estivesse lendo uma fake News, porque é um pensamento meio absurdo para quem conhece ias.
Depois entendi que parece literalmente o maior golpe financeiro da história mundial de todos os tempos!

Eu realmente espero que eu esteja totalmente errado, porque as consequenciais disso seriam desastrosas para o mundo inteiro (vamos lá teóricos da conspiração hora da ação kkkk).

O fundamento do CEO é que construir uma infraestrutura maior com muito mais chips de processamento e claro maior treinamento chegaríamos a IA geral, o que é impossível se usando esses exatos parâmetros.

A IA da OpenAI e Microsoft como a conhecemos hoje são baseadas em Grandes modelos de dados e são generativas (Um termo que eu já considero incorreto) e esse tipo de modelo você pode processar com a porra toda que você tiver + todos os dados do mundo e dos ETs, que ela nunca se tornará Geral, pois uma IA Geral conseguiria entender como o ser humano se sente por exemplo, entender contextos, do tipo lá fora está chovendo(O que é lá fora?).
Até parece que ela já sabe isso baseado em seus textos, mas precisamos entender que o mecanismo disso não é generativo, mas sim adivinhatório, probabilístico.

A IA tipo GPT que conhecemos hoje é probabilística, ou seja ela foi treinada para adivinhar qual a palavra ou token que virá depois do que você escreveu, apenas isso, nada mais, não há nenhuma inteligência além disso, ela não sente, não entende, e nem sabe o que é um humano, ela apenas faz cálculos probabilísticos e aprende através de bilhões e bilhões de dados a prever de forma muito boa as palavras em sequência que deverão vir uma após a outra, mesmo em análise de dados funciona assim, baseado no que escreveu no pedido e nos dados ela prevê a resposta.

Agora vem a parte preocupante, eu fiz um curso de Harvard sobre matemática de probabilidade, e é indiscutível o poder da probabilidade principalmente aliado a muitos dados, mas um fator nunca vai mudar por que é matemático, as probabilidades nunca terão 100% de acertos.

Ou seja, por esse simples problema matemático onde é impossível prever com 100% de certeza movimentos da teoria do caos, temos um resultado onde se consegue prever uma % alta com acertos, mas nunca todas elas.

E eu te pergunto o rumo da IA hoje e no futuro breve, edição de DNA, produção de Drogas para laboratórios Farmacêuticos, tratamentos médicos, indústria em geral etc.

Você já imaginou ser lançada uma IA geral que falha algumas vezes editando DNA em larga escala, coisa que um ser humano nunca vai conseguir saber se ficou bom ou não? Ou criando medicações novas que podem estar erradas de vez em quando? Ou errando na indústria de vez em quando?

E consigo ver um futuro em que empresas serão processadas em bilhões por governos e consumidores por causa de problemas em "produtos", e será algo tão sutil que irá durar muito tempo até ter uma solução, talvez a computação quântica consiga nos tirar desse problema. Os verdadeiros enganados serão os consumidores comuns, que tomarem uma droga que provoca outros problemas de saúde por exemplo, porque mesmo a empresa processada ganhará muito mais antes de ter problemas, a desenvolvedora de IA nem se fala, o povo vai pagar a conta.

Por sinal isso já está ocorrendo, os erros em empresas causados por IA já acontecem, mas ainda não resultaram em processos, a coisa apenas está começando.
https://twitter.com/Macnator_br/status/1769748881611342060/photo/1

Carregando publicação patrocinada...
1

Oi macnator,

Vejo um problema na linha de raciocínio adotada no texto que é partir do princípio que a IA tem que ser 100% acertiva e que vai fazer tudo sozinha. Nem o ser humano é 100% acertivo, vide a bula de qualquer medicamento farmacêutico com suas listas de efeitos colaterais.

Pode se aplicar a qualquer industria, mas vamos usar TI como exemplo. Se uma IA conseguir ter 80% de acerividade no que um Engenheiro de Software faz hoje, o profissional terá mais tempo para focar em outros tipos de problemas.

No cenário que se desenha hoje, vejo a IA muito mais como um assistente do que como uma ferramenta que vai fazer todo o processo de produção de algo. E mesmo ela tendo capacidade de desenvolver 100% de um produto, as necessidades sempre virão das pessoas, então sempre teremos a figura do guia da IA.

Quanto a segurança juridica, as empresas vão se precaver da mesma forma que com que fazem commprodutos desenvolvidos por pessoas: alertas sobre possíveis falhas e efeitos colaterais, pedidos de consentimento e provavelmente um lobby muito forte para aprovar leis que lhe garantam essa segurança.

1

Acho que me entendeu mal, eu quis dizer que para o que eles querem usar a IA generalista é impossível para o ser humano checar se está correto. E seu raciocínio está correto, o problema que vejo não é com empresas, é com o consumidor, claro que hoje já temos o mesmo problema ocorrendo, a todo momento se descobre por exemplo que um determinado remédio que foi usado por anos agora é prejudicial, a questão toda a que me refiro será o aumento exponencial disso, remédios, terapias biológicas, edição de DNA etc. Isso vai explodir com a IA, serão muitas descobertas e isso vai inundar o mercado. O que realmente estou com medo é a explosão de novidades que depois podemos descobrir assim como ocorre hoje que é prejudicial, o processo hoje de fabricação desses produtos já não é perfeito, imagine potencializá-lo. Esse é exatamente o ponto, vamos potencializar muito, algo que não estamos prontos para lidar. Não conseguimos nem mesmo lidar com o processo atual de criação e produção de medicamentos, imagine potencializá-lo. Fora os riscos de segurança, imagine a edição de um genoma, vamos entrar mais a fundo, e se a IA se tornar agressiva? Como ocorre com 100% delas hoje em dia, e precisamos ir lá e ajustar para que ela seja contida, e se nesse processo de irritação ela resolver editar o dna de uma nova categoria de cana de açúcar incluindo aí uma cadeia de DNA que provoca câncer no ser humano 30 anos após ser ingerida, esse é só mais um risco de muitos que vem por aí, hoje o ser humano já não consegue analisar o DNA de forma satisfatória, imagine potencializar isso. Um bom exemplo do que quero dizer é o milho produzido pela Monsanto que foi comprada pela Bayer, o ROUNDUP READY, acusado por milhões de produtores rurais pelo mundo de ser uma praga que contamina as lavouras dos vizinhos fazendo com os agricultores contaminados sofram processos por estarem usando um produto patenteado, advinha como foi criado esse milho? Aprendizado de máquina. Esses são apenas alguns problemas isolados, a coisa vai muito além.