Executando verificação de segurança...
1

Como algoritimos de relevancia funcionam?!

Escrevi esse post em 16 de julho de 2020, muita coisa mudou durante a pandemia, gostaria de abrir uma discussão e perguntar para vocês se concordam comigo ou não.

Justificativa:

Imagine que a internet é uma grande biblioteca onde todos podem publicar um livro, e o algoritmo é o bibliotecário. Quanto mais o bibliotecário sabe sobre sua personalidade e sobre seus interesses mais fácil ficará para indicar livros nessa vasta biblioteca. A diferença entre o algoritmo e o bibliotecário de verdade é que um é desenvolvido para cada vez mais acertar o que é relevante para você, enquanto o outro além de saber o que é mais relevante também pode indicar assuntos totalmente diferentes do seu pensamento.

       No mundo há cerca de 4 bilhões de pessoas que têm acesso a internet e de acordo com um relatório pela Global Digital Statshot, cerca de 3,5 bilhões destas possuem cadastro em alguma rede social. Cada indivíduo sedento por informações e praticidade no dia a dia expoẽ de forma avassaladora cada um de seus “eventos” na web, diante disso entra em discussão onde e quais dados estão sendo utilizados.

       O que é interagido com o sistema, rapidamente é armazenado e as informações adquiridas são transformadas em signals, que significa qualquer ação relevante suficiente para ser armazenada e indexada. Uma extensa lista de signals é coletada e analisada a cada instante, diante disso, fica simples sugerir à aquela pessoa o que lhe interessa e quais são suas preferências. Ademais, quanto mais se abastece esses algoritmos de dados mais precisos eles ficam, jorrando no usuário não só uma extensa lista de suas predileções mas também retirando das suas pesquisas aquilo que é indesejável, tornando o indivíduo cada vez mais preso a determinados grupos. Para John Dewey, citado por Eli Parieser (apud PARIESER, 2012, P37), "Tudo o que obstrui a liberdade e a plenitude da comunicação cria barreiras que dividem os seres humanos em grupos e panelinhas, em seitas e facções antagonistas, minando assim o modo de vida democrático. "

Diante disso, outros assuntos que possa interessar são excluídos das interações cotidianas, contudo, não há uma escolha própria pois os algoritmos já faz tais sugestões, introduzindo de forma compulsória os assuntos dos quais julgam ser interessantes para aquele indivíduo.

A limitação de informação cria parâmetros pouco aproveitáveis, o indivíduo é aprisionado e posto em uma posição não mais inflexível. A obscuridade de informações semelhantes não o deixa chegar a conteúdos que o desafie e o faça mudar de opinião, gosto ou preferência.

       Esse é o problema que a sociedade atual apresenta com o avanço da tecnologia e dos meios sociais online, cada vez mais os usuários estão acostumados a receber essas informações personalizadas, e é exatamente essa a idéia das empresas e de tudo que pode ser permeado pelo filtro bolha, a maximização do “eu”, o aproveitamento extremado da utilização das preferências dos usuários e o retorno que essa personalização gera para quem detém as informações desses indivíduos

       Cada vez mais entregamos o fornecimento de conhecimento para os outros e ficamos vulneráveis a suas escolhas (Gillespie, 2014). Para o autor esses algoritmos não são consequências e sim um mecanismo construído socialmente e institucionalmente gerenciado para convencer o julgamento público. Quanto mais adentro de um círculo, maior a zona de conforto que filtra e, em teoria, protege o usuário daquilo no mundo exterior que difere dos seus gostos. Assim, o indivíduo tenderia a se isolar e se alimentar somente do que lhe foi apresentado pelos algoritmos, tornando suas opiniões cada vez menos embasadas e ainda incapaz de analisar aquilo que sequer sabe que existe.

Tarleton Gillespie, em seu artigo “The relevance of algorithms” separa o funcionamento deles em um mapa conceitual em 16 dimensões, mas destaca 6 com mais valor político, sendo elas Padrões de inclusão (onde nos bancos de dados os dados úteis são separados e catalogados), Ciclos de antecipação (onde a utilização dos dados históricos dos usuários criam uma relevância sobre o seu comportamento), Avaliação de relevância (onde os indicadores do que o usuário quer são tão complexos que nem percebemos a utilização até dos rastros do cursor podem modificar o resultado), A promessa da objetividade algorítmica (que na verdade é a aproximação da objetividade), o entrelaçamento com a prática (a sociedade molda os algoritmos da mesma maneira que eles moldam a sociedade analisando seu comportamento e se modificando com ele) e a produção de públicos calculados (do mesmo jeito que a tv dispõe entretenimento para o público e público para os anunciantes, os algoritmos necessitam de um valor de mercado para existir e quanto mais suas comparações acertarem nossas afinidade, mais perfilado ficam nossos perfil), tornando cada vez mais fácil a aceitação de notícias com viés duvidoso, e o inevitável surgimento das temidas Fake news.

Objeto:

O Fake news, que do inglês significa "notícia falsa", é um fenômeno recorrente na contemporaneidade devido às redes sociais e à rápida proliferação de informação na internet. Este consiste na manipulação de fatos divulgados em forma de noticiário, ou seja, na transmissão de mentira.

       A situação atual das notícias e o modo que a população em geral acessa essa informação tem se tornado cada vez mais preocupante. Isso se deve pelo fato de que, apesar de as fake news não serem um fenômeno recente, a proliferação desse tipo de notícia e a velocidade com que elas se espalham têm crescido exponencialmente nas últimas décadas, com a ajuda dos algoritmos e os consequentes filtros bolha.

       O maior problema das fake news é a capacidade de controlar populações por meio da adulteração de dados. Num contexto educacional, Aro e Gomes (2017) afirmam que houve uma queda na qualidade da leitura dos alunos, apesar de estarem lendo mais, por causa da falta de verificação da origem das informações que recebem. Essa realidade, que afeta não somente os jovens como também os adultos, traz a necessidade de desenvolver um pensamento crítico apurado. 

Após analisar três títulos do jornal The i-Piauí Herald, o qual divulgava falso noticiário com objetivos humorísticos, Gerson e Dornelles (2012) concluem que, para saber interpretar e distinguir notícias falsas das verdadeiras, é necessário um alto nível de conhecimento do que acontece no cenário nacional e internacional, assim como uma elevada experiência de vida.

Visto que essas habilidades são difíceis de ser adquiridas, Aro e Gomes (2017) propõem um estudo com alunos do 8º ano do ensino fundamental da cidade de Campo Grande. Neste, compreende-se um questionário sobre o conhecimento dos estudantes perante as notícias falsas, aulas práticas com debates envolvendo o contato com fake news e, por fim, o levantamento de um manual com instruções que auxiliam na detecção da origem de uma informação propagada na internet.

Em relação com os estudos acima, Klöckner (2017) demonstra que as fake news têm atingindo e englobado diferentes áreas, e somente o jornalismo minucioso poderá mudar esse cenário. O programa criado pela rádio gaúcha, visa exatamente esse ponto, reunir não apenas peritos no assunto discutido, como jornalistas com ânsia pela verdade. A forma como alguns veículos de informação têm tratado as notícias, é preocupante, disseminando-as de forma sutil, até mesmo em tom de humor, passando despercebido a força que essas notícias sem qualquer fundamento, tem sobre a sociedade.

Nesse momento, espera-se do jornalismo com credibilidade que unam-se a fim de espantar esse fantasma da fake news, a dimensão com a qual poderá atingir, é espantoso, a falta de conhecimento do público em geral, a facilidade em transmitir e disseminar essas ideias contribuem para corriqueiramente, estas notícias façam um estrago grande nos ideias sociais, sem qualquer pudor, chegando aos leitores com a desculpa de que há apenas a disseminação do humor.

No contexto político, a conclusão que Lavarda, Sanchotene e Silveira (2016) chegaram foi que as redes sociais são um ambiente potencializador da propagação de boatos, o que interferiu, de acordo com sua pesquisa, no impeachment de Dilma Roussef em 2016. Segundo os autores, três das cinco notícias mais compartilhadas no Facebook na semana anterior ao Impeachment da presidente Dilma Roussef eram caracterizadas como fake news.

São claras as imensas proporções alcançadas pelas fake news no Brasil, ainda mais, segundo Conroy, Rubin e Chen (2016), com a baixa capacidade dos humanos de detectar mentiras, que, baseado na meta-análise de mais de 200 experimentos é apenas 4% melhor que a sorte.

As fake news são complexas pelo fato de, por elas, ser possível manipular o que é falso e o que é verdadeiro. Por mais que um algoritmo ou agência de notícias tentam ser imparciais, sempre haverá uma inclinação. A que ponto isso também não é manipulação de informação, por mais que seja "verdadeira"?

O noticiário falso consegue ser superficial e de pouco impacto como nos boatos, mas também ser extremamente poderoso, conseguindo, por exemplo modificar o curso político de um país, tanto no Impeachment como na eleição de um presidente.

Boa parte da população é largamente afetada por não saber lidar com a validação de informação, por isso que medidas como as apresentadas nos artigos lidos devem ser implementadas.

Além disso, é mais cômodo para um indivíduo ler e ouvir notícias que apoiam a própria opinião, mesmo sendo mentira, do que aquelas confiáveis, mas de conteúdo discordante ao seu ponto de vista. O perigo dessa situação é que as pessoas se deixam ser manipuladas por receberem as informações que querem, sendo que o objetivo do noticiário é relatar os fatos diários, de forma imparcial.

Dessa forma, as seguintes perguntas não podem deixar de ser feitas: Será que todos preferem obter informações confiáveis, mas nem sempre favoráveis ao próprio ponto de vista? Não é mais cômodo ler e ouvir aquilo que vai de encontro ao que acredita?

Hipótese:

Silva (2017) relata uma situação de nível governamental, a eleição de Donald Trump no mesmo ano, que foi beneficiada pela proliferação de notícias falsas. De acordo com o mesmo autor, as eleições presidenciais estadunidenses manipuladas por fake news tiveram uma repercussão na Europa, onde alguns países presenciaram processos eleitorais em 2017. Uma preocupação por verificar o conteúdo das notícias se intensificou, abrindo lugar para a criação e uso de ferramentas que realizam esse fim.

Duas dessas ferramentas, a Fact-Checking e a CrossCheck, foram relatadas por Silva (2017). A primeira consiste em seções nos sites das principais agências de notícias que cuidam de verificar os fatos publicados na internet. A segunda é uma empresa que oferece serviços de checagem de informações.

Com uma proposta mais inovadora, Conroy, Rubin e Chen (2015) propõem ferramentas com abordagens linguística e de análise de dados da rede para detectar fake news. Sobre esse mecanismo, que envolve o aprendizado de máquina (machine learning), planeja-se alcançar uma maneira automática de avaliar textos potencialmente enganadores baseado nas propriedades do conteúdo e padrões da comunicação mediada por computadores. Os autores afirmam que a ferramenta já está apresentando resultados muito precisos nas tarefas de classificação dentro de domínios limitados.

E se em vez de focar na produção de públicos calculados, houvesse foco na capacitação da pesquisa? Em vez de receber o que é mais relevante de acordo com a padronização individual criada pelo algoŕtimo, esse pudesse de forma deliberada apresentar também o que é mais relevante sobre o tema e tudo aquilo que engloba o que foi pesquisado sem ter um viés ligado diretamente a pessoa, deixando mais ética e neutra a informação que é destinada ao indivíduo. Estudos ainda precisam ser feitos porém mais do que nunca no periodo atual ja é possivel analisar a utilização desses algoritimos e como atingem a sociedade, conclusões mais aprimoradas somente poderão ser tiradas quando esses meios de checagem e os proprios algoritimos começarem a tratar esses tipos de conteudo. Atualmente muitas plataformas como o twitter estão mudando suas regras para combater as fake news e a manipulação politica. De acordo com uma pesquisa realizada pela Knight Foundation, o twitter identificou grupos de contas que se vinculavam a esses sites repetidamente, geralmente de maneiras que pareciam coordenadas ou mesmo automatizadas. No site oficial da instituição contem um interativo detalhando essas descobertas e mostra como as noticias falsas realmente se espalharam durante a eleição. Isso tudo é apenas o começo dessa nova era tecnologica, que possui muitos problemas e terá tantos outros pela frente. Só o tempo e estudos aprofundados irão dizer o caminho correto que esses algoritimos irão trilhar.

Carregando publicação patrocinada...