Liberdade de expressão não é o mesmo que liberdade de realização

A política inescrupulosa sobre como funcionam os algoritmos de busca está impedindo as empresas de tecnologia de resolver problemas reais.

A imagem pode conter uma pessoa Multidão Audiência Pessoa Discurso Casaco Terno Roupas Sobretudo Roupas Bandeira e Símbolo

Salve esta história
Salve esta história

Os algoritmos que controlam a forma como encontramos informações online estão de volta às notícias – mas é preciso apertar os olhos para encontrá-los.

“Trump acusa o Google de enterrar notícias conservadoras nos resultados de pesquisa”, diz uma manchete do New York Times de 28 de agosto. A história apresenta um presidente pomposo, uma série de tweets amargos e acusações de censura.“Algoritmos” são mencionados, mas apenas no décimo segundo parágrafo.

Trump, como muitos outros políticos e comentadores, encontrou nas empresas de pesquisa e de redes sociais alvos fáceis no debate sobre a liberdade de expressão e a censura na Internet.“Eles estão preparando tudo para que quase todas as histórias e notícias sejam ruins”, tuitou recentemente o presidente. Ele acrescentou: “Eles controlam o que podemos e não podemos ver. Esta é uma situação muito séria – e será resolvida!”

Renee DiResta (@noUpside) é uma líder inovadora da WIRED, diretora de pesquisa da New Knowledge e bolsista da Mozilla sobre mídia, desinformação e confiança. Ela é afiliada ao Berkman-Klein Center em Harvard e ao Data Science Institute da Columbia University.

Trump está parcialmente certo: eles controlam o que podemos ver e o que não podemos. Mas “eles” não são os CEO do Google, do Facebook e de outras empresas de tecnologia.“Eles são algoritmos opacos e poderosos que determinam qual conteúdo será lido, assistido e compartilhado por bilhões de usuários da Internet.

Estes algoritmos são invisíveis, mas têm um enorme impacto na formação das experiências online dos indivíduos e da sociedade como um todo. O algoritmo de recomendação de vídeos do YouTube, por exemplo, inspira 700 milhões de horas de visualização por dia e pode espalhar desinformação, perturbar eleições e incitar à violência. Esses algoritmos precisam ser corrigidos.

Mas, por enquanto, a conversa que deveríamos ter – como podemos consertar algoritmos – está sendo cooptada e pervertida por políticos e colunistas que gritam sobre a censura e retratam erroneamente a moderação de conteúdo como a morte da liberdade de expressão online. Seria bom lembrar-lhes que liberdade de expressão não significa liberdade de alcance. Não há direito à amplificação algorítmica. Na verdade, este é exatamente o problema que precisa ser resolvido.

Para ver como funciona esse algoritmo de amplificação, basta dar uma olhada no RT, ou Russia Today, canal de propaganda estatal russo que também é um dos mais populares no YouTube. A RT gerou mais de 6 bilhões de visualizações em 22 canais, mais do que MSNBC e Fox News juntas. De acordo com o diretor de produtos do YouTube, Neil Mohan, 70% das visualizações no YouTube vêm de recomendações, portanto os algoritmos do site são os grandes responsáveis ​​por amplificar a propaganda da RT centenas de milhões de vezes.

Como? A maioria dos telespectadores da RT não procura propaganda russa. Os vídeos que obtêm visualizações são conteúdos RT clicáveis ​​e transitáveis: vídeos de tsunamis altos, meteoritos caindo em prédios, ataques de tubarões, acidentes em parques de diversões, alguns deles de anos atrás, mas com comentários feitos há menos de uma hora. Essa “pornografia de desastre” é muito emocionante; esses vídeos são vistos dezenas de milhões de vezes e provavelmente assistidos até o fim. Como resultado, o algoritmo do YouTube provavelmente pensa que vale a pena oferecer outros conteúdos da RT aos espectadores desse conteúdo e, portanto, um YouTuber americano em busca de notícias rapidamente se vê observando a perspectiva russa sobre Hillary Clinton, a imigração e os eventos atuais. Esses vídeos aparecem em playlists de reprodução automática junto com conteúdo de organizações de notícias legítimas, dando à própria RT maior legitimidade por associação.

Mais popular
A ciência
Uma bomba-relógio demográfica está prestes a atingir a indústria da carne bovina.
Matt Reynolds
Negócios
Dentro do complexo ultrassecreto de Mark Zuckerberg no Havaí
Guthrie Scrimgeour
Engrenagem
Primeiro, dê uma olhada no Matic, o aspirador robô redesenhado
Adriane So
Negócios
As novas alegações de Elon Musk sobre a morte de macacos estimulam novas demandas de investigação da SEC
Dhruv Mehrotra

A Internet social é mediada por algoritmos: motores de recomendação, busca, tendências, preenchimento automático e outros mecanismos que preveem o que queremos ver a seguir. Os algoritmos não entendem o que é propaganda e o que não é, ou o que são “notícias falsas” e o que são fatos verificados. O trabalho deles é fornecer conteúdo relevante (relevante para o usuário, é claro), e eles fazem isso muito bem. Tão bom que os engenheiros que criaram esses algoritmos às vezes ficam confusos: “Mesmo os criadores nem sempre entendem por que recomendam um vídeo e não outro”, diz Guillaume Chaslot, ex-engenheiro do YouTube que trabalhou no algoritmo do site.

Esses algoritmos opacos com o único propósito de “continuar monitorando”, combinados com bilhões de usuários, são uma receita perigosa. Nos últimos anos, vimos quão terríveis podem ser as consequências. Propaganda como conteúdo de RT é disseminada em todo o lado para criar desinformação e aumentar a polarização, especialmente durante eleições democráticas. Os algoritmos do YouTube também podem radicalizar, apresentando “discursos de supremacia branca, negação do Holocausto e outros conteúdos perturbadores”, escreveu recentemente Zeynep Tufekci no Times.“O YouTube pode tornar-se uma das ferramentas mais poderosas para a radicalização no século XXI.”

No entanto, o problema vai além do YouTube. A desinformação prejudicial antivacinação pode ter uma classificação elevada nas pesquisas do Google. E no Facebook, o discurso de ódio pode prosperar e alimentar o genocídio. O relatório das Nações Unidas sobre o genocídio em Mianmar afirma: “O papel das redes sociais é muito importante. O Facebook tornou-se uma ferramenta útil para aqueles que procuram espalhar o ódio num ambiente onde, para a maioria dos utilizadores, o Facebook é a Internet… Até que ponto às quais as publicações e as publicações no Facebook levaram à discriminação e à violência no mundo real devem ser examinadas de forma independente e cuidadosa.”

Então, o que nós podemos fazer sobre isso? A solução não é proibir a classificação algorítmica ou fazer barulho sobre a regulamentação dos resultados que o Google pode retornar. Os algoritmos são uma ferramenta inestimável para dar sentido ao vasto universo de informações na Internet. Há uma enorme quantidade de conteúdo que pode preencher o feed ou a consulta de pesquisa de qualquer pessoa; a classificação e a classificação são uma necessidade e nunca houve evidências de que os resultados mostrassem distorções sistemáticas. No entanto, o preconceito inconsciente é um problema para qualquer algoritmo; é por isso que as empresas de tecnologia investigaram alegações conservadoras de preconceito após o fiasco do Facebook Trending News em 2016. Nenhuma evidência confiável jamais surgiu. Mas há um problema de confiança e de incompreensão sobre como funcionam as classificações e os feeds, e isso permite que políticos inescrupulosos ganhem impulso. A melhor solução para este problema é aumentar a transparência e a literacia na Internet, permitindo aos utilizadores compreender melhor porque veem o que veem e criar estes poderosos sistemas de curadoria com um sentido de responsabilidade pelo que devolvem.

Rate article