Como Bacharel em Direito, creio que há muitas coisas que uma IA precisa superar para que possa exercer o 'cargo de juiz', primeiro, ela precisa decidir, a IA do momento, o chat GPT em suas respostas fica em cima do muro, e sempre fica emitidindo alertas, por exemplo. Se eu forço uma escolha, no dia de hoje 15/04, pergunto: você prefere azul ou rosa? (Consegue um decisão objetiva em uma pergunta simples) - resp: Como modelo de linguagem AI, eu não tenho preferências pessoais, emoções ou capacidade de fazer escolhas subjetivas. (meu grifo) Sou projetado para fornecer informações e ajudar com perguntas de natureza factual ou conceitual. Portanto, não posso dar uma decisão objetiva em uma pergunta sobre preferências pessoais, como a escolha entre azul e rosa (...)
Em minha opinião, se o Juiz não tem capacidade de fazer escolhas subjetivas, e se por no lugar do réu, da vítima, ele não tem como ser um bom juiz, ou até de ser juiz.
Conhecimento enciclopédico, o AI tem bastante e pode ser até atualizado para o dia do julgamento.
Imagine-se a IA tem como objetivo proteger a humanidade, e sem conhecimento dos reais interesses da humanidade, decide que não podemos mais fumar, ou usar combustível, não seria horrível.
Meu texto está horrível, mas deixo como uma contribuição para discussão.
Ela emite sua opnião exatamente porque assim que foi concebida pelos seus criadores. Mas ela realmente tem poder de fazer julgamento por si.
Além disso, essas inteligências podem medir incoerências em decisões, caso o grau esteja alto, então o advogado teria direito a um recurso com maior velocidade.
Os juizes também podem detectar e dimunuir falhas em suas decisões.
Por fim nenhum modelo de IAs, faz "escolhas" ela apenas decide aquilo que tem maior chance de estar correto, e para quem cria, ela mostra o grau de possibilidade de estar certa.
Acrescentando mais um pouco de pimenta, e se a IA prender uma pessoa inocente, quem responde pelo erro?
Possivelmente teria um revisor humano que levaria a culpa.
Por fim como acontece na justiça comum, caso as IAs fossem usados em larga escala em julgamentos, a justiça toleraria alguns erros para manter as coisas como estão.
Usando em baixa escala, ela seria apenas uma ferramenta para decisões tomadas por humanos.
Bom relato. Só não gostei muito do exemplo do que ela decide porque isso é legislar e não julgar.
Até o conhecimento enciclodépico pode ser questionado, eu fiz um outro comentário (acima ou abaixo) sobre isso. Nem isso podemos contar, esse conhecimento é usado para gerar texto e não para produzir novo conhecimento e isso precisa ficar muito claro para todos. Em muitos casos é bastante confuso.
Fui mal nas minhas palavras, com certeza o Lenio Strek me daria um puxão de orelha, o que eu quiz dizer é que o sistema não chega a uma conclusão, não decide, ele opta por ficar em cima do muro.
A minha preocupação é até maior com isso de ficar em cima do muro. ELe não está decidindo nada, ele está só produzindo um texto. Ele não toma decisões. Ele tem alguma diretriz, que é fácil manipular, mas semrpe em cima de criaação de texto. Ele não é oque as pessoas acham que ele é, por isso eu fico muito apreensivo porque será usado de forma errada. Hoje pelo menos não há como ele chegar a alguma conclusão, não é que ele foi programado para só ficar em cima do muro. De fato é mais uam questão de palavras, eu acho que você entendeu a questão, ele não tem consicência, nem subjetiva, nem objetiva.
Eu discordaria, a humanidade seria otima se não fumasse nem usasse combustivel fossil pra locomoção (não no exterminio a curto prazo, mas campanhas de diminuição até a eliminação total), existe já carros eletricos e muitos por ai, pra natureza é otimo, o uso de combustivel não pode ser eliminado, mas se for reduzido a 80% seria algo magnifico, pelo menos tirando de transportes e colocando energia eletrica como fotovoltaicos no teto de todos carros, a longo prazo seria otimo, e um Juiz sem decisão pessoal e com raciocinio logica seria bom para diminuir a corrupção que acontece a rodo.
Não sou da area de direito e passei minha visão, pode ser total bobagem o que eu falei, enfim, minha opinião.
Então, essa é a sua opinião, que pode ser a minha também, mas não é a certa, nem a errada. A IA não poderia fazer esse tipo de coisa, nem mesmo no futuro, e se fizer a humanidade não tem mais importância alguma.
Veja meu comentário acima que isso é legislar e não julgar.
E por último, esqueci também de mencionar, que faz parte da nossa legislação o direito das pessoas serem julgadas por iguais, se a gente delegar isso para uma máquina, isso não seria concebível com a nossa atual Constituição. (sei que não tem nada a ver com o tópico principal, mas é um detalhe)
E na parte de fumar, quem mais lucra com isso é o governo, lucra com imposto sobre o fumo, imposto sobre a venda e diminuição de pagamentos ao inss e aposentados.