Oi macnator,
Vejo um problema na linha de raciocínio adotada no texto que é partir do princípio que a IA tem que ser 100% acertiva e que vai fazer tudo sozinha. Nem o ser humano é 100% acertivo, vide a bula de qualquer medicamento farmacêutico com suas listas de efeitos colaterais.
Pode se aplicar a qualquer industria, mas vamos usar TI como exemplo. Se uma IA conseguir ter 80% de acerividade no que um Engenheiro de Software faz hoje, o profissional terá mais tempo para focar em outros tipos de problemas.
No cenário que se desenha hoje, vejo a IA muito mais como um assistente do que como uma ferramenta que vai fazer todo o processo de produção de algo. E mesmo ela tendo capacidade de desenvolver 100% de um produto, as necessidades sempre virão das pessoas, então sempre teremos a figura do guia da IA.
Quanto a segurança juridica, as empresas vão se precaver da mesma forma que com que fazem commprodutos desenvolvidos por pessoas: alertas sobre possíveis falhas e efeitos colaterais, pedidos de consentimento e provavelmente um lobby muito forte para aprovar leis que lhe garantam essa segurança.