Executando verificação de segurança...
1

Oi macnator,

Vejo um problema na linha de raciocínio adotada no texto que é partir do princípio que a IA tem que ser 100% acertiva e que vai fazer tudo sozinha. Nem o ser humano é 100% acertivo, vide a bula de qualquer medicamento farmacêutico com suas listas de efeitos colaterais.

Pode se aplicar a qualquer industria, mas vamos usar TI como exemplo. Se uma IA conseguir ter 80% de acerividade no que um Engenheiro de Software faz hoje, o profissional terá mais tempo para focar em outros tipos de problemas.

No cenário que se desenha hoje, vejo a IA muito mais como um assistente do que como uma ferramenta que vai fazer todo o processo de produção de algo. E mesmo ela tendo capacidade de desenvolver 100% de um produto, as necessidades sempre virão das pessoas, então sempre teremos a figura do guia da IA.

Quanto a segurança juridica, as empresas vão se precaver da mesma forma que com que fazem commprodutos desenvolvidos por pessoas: alertas sobre possíveis falhas e efeitos colaterais, pedidos de consentimento e provavelmente um lobby muito forte para aprovar leis que lhe garantam essa segurança.

Carregando publicação patrocinada...
1

Acho que me entendeu mal, eu quis dizer que para o que eles querem usar a IA generalista é impossível para o ser humano checar se está correto. E seu raciocínio está correto, o problema que vejo não é com empresas, é com o consumidor, claro que hoje já temos o mesmo problema ocorrendo, a todo momento se descobre por exemplo que um determinado remédio que foi usado por anos agora é prejudicial, a questão toda a que me refiro será o aumento exponencial disso, remédios, terapias biológicas, edição de DNA etc. Isso vai explodir com a IA, serão muitas descobertas e isso vai inundar o mercado. O que realmente estou com medo é a explosão de novidades que depois podemos descobrir assim como ocorre hoje que é prejudicial, o processo hoje de fabricação desses produtos já não é perfeito, imagine potencializá-lo. Esse é exatamente o ponto, vamos potencializar muito, algo que não estamos prontos para lidar. Não conseguimos nem mesmo lidar com o processo atual de criação e produção de medicamentos, imagine potencializá-lo. Fora os riscos de segurança, imagine a edição de um genoma, vamos entrar mais a fundo, e se a IA se tornar agressiva? Como ocorre com 100% delas hoje em dia, e precisamos ir lá e ajustar para que ela seja contida, e se nesse processo de irritação ela resolver editar o dna de uma nova categoria de cana de açúcar incluindo aí uma cadeia de DNA que provoca câncer no ser humano 30 anos após ser ingerida, esse é só mais um risco de muitos que vem por aí, hoje o ser humano já não consegue analisar o DNA de forma satisfatória, imagine potencializar isso. Um bom exemplo do que quero dizer é o milho produzido pela Monsanto que foi comprada pela Bayer, o ROUNDUP READY, acusado por milhões de produtores rurais pelo mundo de ser uma praga que contamina as lavouras dos vizinhos fazendo com os agricultores contaminados sofram processos por estarem usando um produto patenteado, advinha como foi criado esse milho? Aprendizado de máquina. Esses são apenas alguns problemas isolados, a coisa vai muito além.