Executando verificação de segurança...
3
Carregando publicação patrocinada...
2

Acho que não seria. A IA não serve para substituir os humanos, serve para dar mais produtividade. Se alguém usar indevidamente deveria ter uma punição muito séria de acordo com o possível dano causado.

Também a IA é um termo muito genérico. É como dizer como seria se colocasse mais açúcar na comida. Em muita coisa ficará ruim. O exemplo nem é o melhor, mas foi o que deu para pensar rapidinho. O fato é que a IA de hoje não pode nem fazer cosquinha nisso. A IA de amanhã ninguém sabe oque será, por isso muitos a temem. Qualquer especulação em cima disso não ajuda muito, é o mesmo que dizer quais serão os números da Mega Sena, a chance de acertar é pequena, a não ser que esteja falando da semana passada, aí é fácil acertar acertar, mas já não tem utilidade.

As pessoas estão deslumbradas com a IA sem motivo. Especificamente o CHat GPT é apenas um gerador de textos "muito simples". Ele não possui conhecimento e não faz julgamento, apenas pode produzir um texto que parece que ele está fazendo isso, e isso engana muita gente. O que mais precisamos entender é o que a IA é e o que ela não é. Sem entender esse básico da ferramenta ela é um perigo, não por ela em si, mas pelo uso errado que as pessoas fazem dela.

Hoje ela cometeria atrocidades com a humanidade, de um lado ou outro, fora que faria julgamentos de acordo com a visão de quem a programou. Pode ser que um dia ela consiga ser mais justa que qualquer juiz, que impõe muito a sua visão, o que não deveria acontecer, mas democracia e justiça são um teatrinho que a sociedade criou para não acontecer o caos (não sou eu que digo isso, tem filósofo importante que não me recordo o nome que traz isso), então por falta de algo melhor vamos usando e eu estou bem com isso, até o dia que eu achar a improvável melhor solução.

Faz sentido para você?

Espero ter ajudado.

Farei algo que muitos pedem para aprender a programar corretamente, gratuitamente. Para saber quando, me segue nas suas plataformas preferidas. Quase não as uso, não terá infindas notificações (links aqui).

2

Um possibilidade é a IA pegar todo o histórico de processos e decisões feitas por juízes humanos e a leis e se basear nisso para gerar duas decisões, como foi no treinamento do chatGPT.

As pessoas tendem a pegar os exemplos mais complexos, no caso, os processos jurídicos cheios de nuances, falta de provas concretas e reviravoltas, e dizer "Vamos ver se a IA consegue resolver essa", mas o pensamento deveria ser de dar à IA os processos mais banais, que são maioria e atolam o judiciário, tipo um carro bateu na traseira do outro e não quer pagar, ou um consumidor que recebeu um produto com defeito a a empresa não quer dar assistência. Casos em que existe pouca decisão

Nesses casos mais banais, uma IA atual consegue cuidar do processo, pois o antes/durante/depois são bem conhecidos e amplamente documentados e daria espaço para juízes humanos cuidar de casos mais complexos. E também humanos também poderiam ficar em atualizar essas leis que a IA está baseada, pois a sociedade muda e as leis precisam mudar.

1

Como Bacharel em Direito, creio que há muitas coisas que uma IA precisa superar para que possa exercer o 'cargo de juiz', primeiro, ela precisa decidir, a IA do momento, o chat GPT em suas respostas fica em cima do muro, e sempre fica emitidindo alertas, por exemplo. Se eu forço uma escolha, no dia de hoje 15/04, pergunto: você prefere azul ou rosa? (Consegue um decisão objetiva em uma pergunta simples) - resp: Como modelo de linguagem AI, eu não tenho preferências pessoais, emoções ou capacidade de fazer escolhas subjetivas. (meu grifo) Sou projetado para fornecer informações e ajudar com perguntas de natureza factual ou conceitual. Portanto, não posso dar uma decisão objetiva em uma pergunta sobre preferências pessoais, como a escolha entre azul e rosa (...)
Em minha opinião, se o Juiz não tem capacidade de fazer escolhas subjetivas, e se por no lugar do réu, da vítima, ele não tem como ser um bom juiz, ou até de ser juiz.
Conhecimento enciclopédico, o AI tem bastante e pode ser até atualizado para o dia do julgamento.
Imagine-se a IA tem como objetivo proteger a humanidade, e sem conhecimento dos reais interesses da humanidade, decide que não podemos mais fumar, ou usar combustível, não seria horrível.
Meu texto está horrível, mas deixo como uma contribuição para discussão.

2

Ela emite sua opnião exatamente porque assim que foi concebida pelos seus criadores. Mas ela realmente tem poder de fazer julgamento por si.

Além disso, essas inteligências podem medir incoerências em decisões, caso o grau esteja alto, então o advogado teria direito a um recurso com maior velocidade.

Os juizes também podem detectar e dimunuir falhas em suas decisões.

Por fim nenhum modelo de IAs, faz "escolhas" ela apenas decide aquilo que tem maior chance de estar correto, e para quem cria, ela mostra o grau de possibilidade de estar certa.

1
1

Possivelmente teria um revisor humano que levaria a culpa.

Por fim como acontece na justiça comum, caso as IAs fossem usados em larga escala em julgamentos, a justiça toleraria alguns erros para manter as coisas como estão.

Usando em baixa escala, ela seria apenas uma ferramenta para decisões tomadas por humanos.

2

Bom relato. Só não gostei muito do exemplo do que ela decide porque isso é legislar e não julgar.

Até o conhecimento enciclodépico pode ser questionado, eu fiz um outro comentário (acima ou abaixo) sobre isso. Nem isso podemos contar, esse conhecimento é usado para gerar texto e não para produzir novo conhecimento e isso precisa ficar muito claro para todos. Em muitos casos é bastante confuso.

1

Fui mal nas minhas palavras, com certeza o Lenio Strek me daria um puxão de orelha, o que eu quiz dizer é que o sistema não chega a uma conclusão, não decide, ele opta por ficar em cima do muro.

1

A minha preocupação é até maior com isso de ficar em cima do muro. ELe não está decidindo nada, ele está só produzindo um texto. Ele não toma decisões. Ele tem alguma diretriz, que é fácil manipular, mas semrpe em cima de criaação de texto. Ele não é oque as pessoas acham que ele é, por isso eu fico muito apreensivo porque será usado de forma errada. Hoje pelo menos não há como ele chegar a alguma conclusão, não é que ele foi programado para só ficar em cima do muro. De fato é mais uam questão de palavras, eu acho que você entendeu a questão, ele não tem consicência, nem subjetiva, nem objetiva.

2

Eu discordaria, a humanidade seria otima se não fumasse nem usasse combustivel fossil pra locomoção (não no exterminio a curto prazo, mas campanhas de diminuição até a eliminação total), existe já carros eletricos e muitos por ai, pra natureza é otimo, o uso de combustivel não pode ser eliminado, mas se for reduzido a 80% seria algo magnifico, pelo menos tirando de transportes e colocando energia eletrica como fotovoltaicos no teto de todos carros, a longo prazo seria otimo, e um Juiz sem decisão pessoal e com raciocinio logica seria bom para diminuir a corrupção que acontece a rodo.
Não sou da area de direito e passei minha visão, pode ser total bobagem o que eu falei, enfim, minha opinião.

2

Então, essa é a sua opinião, que pode ser a minha também, mas não é a certa, nem a errada. A IA não poderia fazer esse tipo de coisa, nem mesmo no futuro, e se fizer a humanidade não tem mais importância alguma.

Veja meu comentário acima que isso é legislar e não julgar.

1

E por último, esqueci também de mencionar, que faz parte da nossa legislação o direito das pessoas serem julgadas por iguais, se a gente delegar isso para uma máquina, isso não seria concebível com a nossa atual Constituição. (sei que não tem nada a ver com o tópico principal, mas é um detalhe)

-1

E na parte de fumar, quem mais lucra com isso é o governo, lucra com imposto sobre o fumo, imposto sobre a venda e diminuição de pagamentos ao inss e aposentados.

1

Eu pagaria pra ver!

Atuo no Direito há muito tempo e já vi centenas (ou milhares) de decisões. A grande maioria é resultado de uma construção lógica do processo - análise das provas e frases colocadas pelos juízes nas "decisões que não decidem" (do tipo 'intime-se o MP'). E isso é bom, porque você consegue montar o quebra-cabeça que aponta a condução do processo para uma certa decisão. Em outras palavras, não há surpresa na sentença.

Porém, uma pequena parte destas decisões são carregadas de emoção e utilizam um princípio muito importante que é constitucionalmente protegido no nosso país: A proporcionalidade.

O que é o princípio da proporcionalidade?

Em resumo, é quando dois direitos se confrontam, e o juiz da causa precisa decidir por um deles. Gosto de usar de exemplo o clássico direito de legítima defesa. Você pode matar alguém, se alguém estiver na iminência de te matar (isso demonstra uma outra questão fundamental da nossa lei: Nenhum direito é absoluto).

A proporcionalidade é, então, você colocar duas forças disputando um espaço onde só uma poderá sobreviver. Por isso você dá 'vitória' para a que você achar que tem 0,000001% a mais de força que a outra.

Dito tudo isso, reafirmo o que disse no início: Literalmente pagaria para ver uma decisão de uma IA no lugar de um juiz.

Imagino que nesse caso, a IA utilizaria matemática/estatística para me dizer qual direito deveria prevalecer em cada caso, levando em consideração não apenas o contexto do caso, mas também de uma sociedade como um todo. E isso é um argumento largamente utilizado por aqueles que entendem a sociedade de uma forma, quando na verdade a maioria pensa diferente. E vivemos numa democracia!

1

À parte de toda a questão moral. Se a intenção é minimizar os erros e maximizar o conceito de justiça, o que me parece razoável, certamente IAs serão muito melhores que humanos. O resto é conceito moral e esse estranhamento de ter que pensar nessas coisas tão novas para o nosso tempo.

Relativizar a eficiência das máquinas em detrimento de pessoas, para qualquer área do conhecimento humano, é um assunto que será vencido cedo ou tarde.

1

Eles precisam de um Rosto para criminalizar e Existem Muitos "anti robôs" desenvolvidos pelos cybersecurity ... para Eles adaptarem isso, custaria milhões em dólares só pela luxúria de conceberem acesso aos "chat da Vida" ... A ferramenta é bem vinda obviamente, mas Não deve tratá-la como uma Verdade absoluta é um avanço válido e devemos acolher, Não substituir mão de obra e pessoas ... Minha Opinião muito superficial sobre o assunto pode ser debatida Mas Não ache que eu penso 100% desse jeito...

1

O problema da IA em um julgamento é que ela foi feita e treinada por alguém. A vantagem seria manter a coerências em decisões judiciais. Ou seja, após treinado e alimentada com uma boa base de decisões judiciais e interpretações da lei, ela sempre julgaria conforme essas decisões, mesmo que o interesse econômico e politico do momento mude, algo comum na justiça.

Do outro lado, o treinamento pode ser feito exatamente por pessoas com más intenções, afinal estamos falando de algo treinado por pessoas no poder, e não tem local com mais más intenções do que lá.

Do outro lado, ao manter a coerência e continuar a trabalhar com as regras do jogo, a IA tem o poder semelhante a uma constituição, a constituição estabelece regras que não deveriam ser mudadas, assim as decisões e lutas politicas possuem uma regra clara que os agentes terão que disputar, evitando boa parte dos abusos.

Ou seja, ter coerência pode fazer com que a maioria desses abusos na justiça acabe.