Isaac Asimov e o ChatGPT
Estava eu, há alguns dias, rolando o feed infinito do YouTube, procrastinando a leitura de um livro que tinha acabado de pegar para ler, quando me vem o post do nosso queridíssimo Michel Tel... Quero dizer, Filipe Deschamps. Na imagem dizia "Engenheiros de prompt já estão ganhando salários de até 28 mil dólares/mês", porém na descrição havia um trecho que me chamou muito a atenção, lá dizia "(...) Descritos como 'psicólogos de IA' esses especialistas não necessariamente precisam de habilidades de programação para desvendar capacidades ocultas desses sistemas por meio de comandos em linguagem natural". Bom, fechei o YouTube e, finalmente, comecei a leitura do livro. Lá pelas tantas linhas do livro Eu, robô, do escritor Isaac Asimov, publicado em 1950, um trecho me chamou mais atenção ainda.
"(...) (Susan Calvin) havia nascido em 1982. (...) Ela aprendeu a calcular os parâmetros necessários para corrigir possíveis variáveis no 'cérebro positrônico', a construir 'cérebros' na teoria, de tal forma que as respotas dadas aos estímulos podiam ser previstas com exatidão. Em 2008, ela terminou o doutourado e começou a trabalhar na United State Robots como 'psicóloga roboticista'".
Para a minha surpresa o autor "previa" de maneira realista o advento da inteligência artificial, um dos assuntos mais falados nos últimos meses, e, surpreendentemente a criação de uma nova profissão. Não preciso dizer que a partir daí não procrastinei mais essa leitura.
Lá pela metade do livro outra coisa me chamou atenção, as 3 leis mais famosas nos universos da ficção científica sobre robôs, as 3 leis da robótica. São elas:
- Um robô não pode ferir ou deixar que um humano se fira.
- Um robô deve obedecer as ordens dadas por humanos, salvo em caso de conflito com a primeira lei.
- Um robô deve proteger sua própria existência, também em casos onde a primeira e a segunda lei não sejam ignoradas.
Segundo Asimov, nesse trecho de uma entrevista Isaac Asimov: Three Laws of Robotics, as três leis foram criadas quando um amigo apontou um padrão que vinha se repetindo nos contos produzidos pelo escritor: os robôs sempre acabavam destruindo ou se rebelando ante seus criadores. Um efeito Frankenstein. A partir daí, seus contos passaram a se basear nessas 3 leis fundamentais a fim de evitar sempre a destruição dos seus criadores.
Desde então um pensamento vem se repetindo na minha cabeça: "Se Asimov, em seus contos, precisou que leis houvessem de ser impostas aos seus robôs para que o fim de seus contos não fossem sempre os mesmos (o criador perdendo para a criatura), e se alguns fatos de seus contos já são realidade para nós, como a inteligência artificial e os psicólogos de IAs, não seria então necessário que leis éticas fossem impostas a toda e qualquer IA produzida pelas big techs para que não caiamos no mesmo erro dos primeiros contos de asimov?".
O ChatGPT e seus concorrentes ainda são um embrião, mas a velocidade de crescimento dessas tecnologias é tão grande que há 6 meses não ouvíamos deles e hoje é assunto até para quem não é da área. Talvez uma discussão maior sobre um possível 'freio de mão' ético precise ser levantada o quanto antes a fim de sempre termos o controle do que criamos e do que criam, pois não dá pra esperar que todos tenham o mínimo de senso ético ao produzir tecnologias.