Executando verificação de segurança...
4

Vai julgar o livro pela capa mesmo? IA emite opiniões sobre pessoas a partir de fotos dos seus rostos

Recentemente li uma noticia que me deixou pasmo. Apesar de hoje em dia já serem corriqueiras as notícias de Inteligências Artificiais fazendo coisas incríveis como é o caso da GPT-3 e o Dall-E que começou a viralizar em plataformas como o TikTok nos últimos tempos, dessa vez minha cabecinha de nerd ficou fervendo e soltando fumaça pelos ouvidos pensando nas possibilidades. Consegui imaginar 14.000.604 em que dava errado.

A IA a que me refiro foi criada por cientistas do Stevens Institute of Technology, em colaboração com as Universidades de Princeton e de Chicago. Os pesquisadores pediram a milhares de candidatos para emitirem opiniões a respeito das fotos que lhes foram apresentadas, as respostas foram então utilizadas para treinar a rede neural. Assim, a base das opiniões que formaram essa rede neural é humana, e como tudo que é humano é também falho, difícil não ficar com uma pulga atrás da orelha.

As próprias mentes por trás do projeto reconheceram que essa tecnologia em mãos erradas pode ser usada para fins não tão nobres. Um dos exemplos citados foi a manipulação de fotos para tornar o rosto de uma pessoa mais confiável com base nas opiniões emitidas pela IA (imagina isso na mão de políticos brasileiros em época de eleição).

Ou mesmo, imaginemos uma combinação dela com o já citado Dall-E, capaz de criar imagens do zero. Bastava então pedir a criação de um rosto confiável e boom! Temos então uma pessoa falsa, com um rosto falso para usarmos para qualquer fim, inclusive para criar esquemas de pirâmide liderados por uma persona que sequer existe.

Acontecimentos passados já mostram que isso é possível, clique aqui para ver . E a tendência é que de agora em diante essas coisas podem se tornar muito mais comuns, engenhosas e eficientes.

Algum tempo atrás achei que já estava ficando preocupante quando o Twitter divulgou que o seu algoritmo havia ficado "levemente" racista. Cortando pessoas negras das fotos e favorecendo pessoas brancas e mulheres. Veja aqui

E se nós não já não somos bons o suficiente como humanos, como serão as máquinas a que daremos consciência?

De qualquer forma, para nós entusiastas de tecnologia é uma ótima época para se estar vivo, estamos testemunhando a transformação do mundo como um todo, ou o começo do fim 😂

Certo cuidado é sempre necessário quando tratamos desses assuntos, mas isso não quer dizer também que devemos travar a inovação. Apesar de preocupado, estou aguardando a OpenAI liberar meu acesso para brincar um pouquinho com o Dall-E também.

Se você gostou desse tipo de conteúdo aqui dentro do TabNews, me diz na aba de comentários, sugestões também são sempre bem vindas. Um feedback é importante para saber se/como devo continuar.

Carregando publicação patrocinada...
1

@victorodev de fato esse é um assunto muito sensível e minha mente também consegue imaginar diversos caminhos e desenvolvimentos desse tema. E essa I.A. me lembrou a pesquisa feita pelo cientista Samuel George Morton que queria categorizar e prever comportamentos dos humanos ao analisar o formato do crânio.

E pela sensibilidade do tema, também se torna difícil conversar sobre ele, o que gera um outro problema.

Mas em resumo, vejo que é uma ferramenta perigosa onde mesmo que se consiga usar ela para o bem, automaticamente se encontrará uma forma de usar ela para o mal. Fora que, quanto melhor ela for no extremo do bem, também automaticamente ela vai se tornar "melhor" no extremo do mal.

1

Eu não havia ouvido falar dessa pesquisa que você citou Filipe, mas de fato, as consequências desses estudos são inversamente proporcionais tanto para o bem, quanto para o mal.

Esses pesquisadores andam pisando em ovos!