O caso para reduzir a fala

A imagem pode conter uma pessoa Esportes Calçados Esportivos Roupas Calçados Roupas e Golfe

As redes sociais são máquinas do Juízo Final. Eles distraem, dividem e te deixam louco; não podemos mais ouvir uns aos outros, falar com coerência ou mesmo pensar. Como resultado, os nossos laços sociais, cívicos e políticos estão a desintegrar-se.

Pessoas em todos os lugares estão recorrendo às suas telas para confirmar o que já pensam e repetir o que seus colegas já disseram. Eles se submetem à vigilância e acolhem bem a manipulação algorítmica. Ao acreditar no absurdo, cometem injustiças. E alguns até perdem a cabeça. Nós nos esgotamos. Todo mundo sabe disso, até mesmo os vendedores de tecnologia. Tim Cook, presidente-executivo da Apple, lamentou numa conferência sobre privacidade em outubro passado que as plataformas e algoritmos que muitos esperavam que melhorassem o melhor da humanidade tivessem libertado o pior.

Jason Pontin (@jason_pontin) é colaborador da WIRED. Anteriormente, foi editor-chefe e editor do MIT Technology Review; antes disso, ele foi editor da Red Herring. Ele é agora sócio sênior da Flagship Pioneering, uma empresa com sede em Boston que financia empresas que resolvem problemas de saúde, nutrição e sustentabilidade. Pontin não escreve sobre as empresas do portfólio da Flagship ou seus concorrentes.

Agora eu também sei disso. Vejo mentiras e narcisismo, crueldade e credulidade, e posso rastrear as suas causas. Mas, durante muito tempo, fui um maximalista da liberdade de expressão – uma pessoa que acreditava que a humanidade precisava de tanta liberdade de expressão quanto pudesse suportar. Eu acreditava em um mercado de ideias, onde as más ideias seriam derrotadas e as boas ideias seriam melhoradas. Nisto fui condicionalmente liberal. Minha inspiração foi John Stuart Mill e seu “livro filosófico de uma verdade”, On Liberty (1859). Esta verdade, agora chamada simplesmente de “Princípio do Dano de Mill”, afirma: “O único propósito pelo qual o poder pode ser exercido legalmente sobre qualquer membro de uma comunidade civilizada é evitar danos a outros”.

Certa vez, convoquei o fantasma de Mill num ensaio sobre “Liberdade de Expressão numa Era de Empoderamento Tecnológico” para argumentar que o princípio do dano pode não apenas determinar os limites legais do discurso em países que protegem a liberdade de expressão (em resumo: a lei americana protege o promoção de atos ilegais até o ponto em que crimes graves sejam “iminentes” e “prováveis”), mas também definem os termos de serviço das empresas de Internet, que podem censurar qualquer discurso a seu critério. O dano, argumentei com confiança, deveria ser o único padrão que as empresas de Internet usam ao decidir o que proibir, com “dano” incluindo danos físicos e alguns danos comerciais, mas excluindo insultos pessoais, religiosos ou ideológicos. Eu estava errado.

Achei que nada de ruim aconteceria se homens e mulheres dissessem o que queriam. Hoje é difícil acreditar nisso. Num catálogo demasiado tedioso para listar, em apenas 72 horas no mês passado soubemos que Cesar Sayoc foi radicalizado no Facebook e ameaçou outros no Twitter antes de enviar bombas caseiras a mais de uma dúzia de críticos do Presidente Trump; que Robert Bowers compartilhou teorias de conspiração e postagens antissemitas no Gab antes de supostamente matar 11 pessoas e ferir outras seis; e que Jair Bolsonaro, o político brasileiro de direita mais conhecido pelo seu ódio aos homossexuais, aos afro-brasileiros, às mulheres e ao próprio pluralismo, realizou uma campanha de desinformação no WhatsApp antes de vencer as eleições presidenciais. Talvez os três, até mesmo Bolsonaro, fossem loucos antes das redes sociais; mas as redes sociais licenciaram a sua raiva de diferentes maneiras.

O alvoroço do mês passado aumentou um clima geral de ansiedade sobre os mecanismos e a influência das redes sociais. Ninguém se orgulha de seu vício em internet, mas agora esses vícios parecem significativos. A investigação apoia cada vez mais a intuição de que o discurso de ódio conduz a comportamentos de ódio. Em resposta, alguns dos que melhor compreendem as redes sociais rejeitaram a tradição liberal e acreditam que, uma vez que não podemos regular o nosso próprio comportamento, deveríamos regular melhor as empresas que incitam e encorajam o mau comportamento.

Em janeiro passado, Zeynep Tufekci, socióloga que estuda o impacto das novas tecnologias, escreveu na revista WIRED: “A noção de John Stuart Mill de que o ‘mercado de ideias’ elevará a verdade é completamente desmentida pela viralidade das notícias falsas” e requer “políticas soluções” com “enormes compromissos”. Minha colega da WIRED Ideas, Renee DiResta, diretora de pesquisa da New Knowledge, que defende as empresas contra ataques de desinformação nas redes sociais, lembrou aos “políticos uivando sobre a censura” que “liberdade de expressão não significa acesso livre” e insistiu que “responsabilize as empresas de tecnologia”. exigem transparência sobre como seus algoritmos e moderação funcionam.”

Mais popular
A ciência
Uma bomba-relógio demográfica está prestes a atingir a indústria da carne bovina.
Matt Reynolds
Negócios
Dentro do complexo ultrassecreto de Mark Zuckerberg no Havaí
Guthrie Scrimgeour
Engrenagem
Primeiro, dê uma olhada no Matic, o aspirador robô redesenhado
Adriane So
Negócios
As novas alegações de Elon Musk sobre a morte de macacos estimulam novas demandas de investigação da SEC
Dhruv Mehrotra

Não entusiasmadas com a regulamentação e em responder às exigências dos seus clientes por uma experiência online mais amigável, as empresas de Internet prometeram mudar. Em janeiro passado, o Facebook concordou com a União Europeia sobre um “código de conduta” voluntário segundo o qual removeria o “discurso de ódio” dentro de 24 horas. Globalmente, a rede social removeu 280 mil publicações que violavam os seus padrões de discurso de ódio em todos os meses de 2017. O Twitter, por sua vez, retirou sua afirmação de que é a “ala da liberdade de expressão do partido”. Falando aos parlamentares britânicos no início deste ano, Sinead McSweeney, vice-presidente de políticas públicas da empresa para a Europa, Médio Oriente e África, disse que a “filosofia ao estilo de John Stuart Mill” estava em descompasso com os tempos: “Não é não é mais possível defender qualquer discurso na esperança de que a sociedade se torne um lugar melhor porque o racismo, a homofobia… ou o extremismo serão desafiados. Devemos tomar medidas para limitar a visibilidade dos símbolos de ódio, negar o acesso à plataforma a pessoas que estão associados a grupos violentos.”Em setembro, o Twitter adotou novas regras que proíbem o “discurso desumanizador”. Agora a regra é: “Seja gentil ao twittar”.

Em outubro, participei do debate sobre discursos quando o Breitbart News publicou um memorando vazado do Google me listando como um dos “principais pensadores na área”. O site de extrema direita apresentou o documento de 85 páginas como prova de que os algoritmos do Google estão suprimindo vozes conservadoras, uma suspeita comum entre a direita.(Trump tuitou: “Google e outros… escondem informações e notícias que são boas. Eles controlam o que podemos e o que não podemos ver.”)O vazamento foi captado por outros sites de direita e pela mídia estatal russa: “O Google agora está praticando a ‘boa censura’ por uma questão de civilidade, confirma o briefing interno vazado”, gritou RT. com.

Na realidade, o meu envolvimento foi menor: há um ano, uma empresa de investigação britânica contratada pela Google entrevistou-me. Enquanto o gigante das buscas lutava com o lançamento de um mecanismo de busca e site de notícias fortemente censurado, de codinome Dragonfly, na China, em meio a controvérsias internas, à demissão e à repreensão de um pesquisador sênior enquanto ele lutava para moderar vídeos e comentários no YouTube, ajudei a empresa a pensar através de como seus algoritmos amplificavam ou silenciavam o que era dito e ouvido. Se a visão de Mill de um mercado de ideias era utópica, a Google não queria que o seu código contribuísse para uma distopia digital, tanto na China como noutros lugares.

Mais popular
A ciência
Uma bomba-relógio demográfica está prestes a atingir a indústria da carne bovina.
Matt Reynolds
Negócios
Dentro do complexo ultrassecreto de Mark Zuckerberg no Havaí
Guthrie Scrimgeour
Engrenagem
Primeiro, dê uma olhada no Matic, o aspirador robô redesenhado
Adriane So
Negócios
As novas alegações de Elon Musk sobre a morte de macacos estimulam novas demandas de investigação da SEC
Dhruv Mehrotra

As oito recomendações contidas no memorando eram racionais e modestas (embora o Google tenha sido rápido em esclarecer que não eram políticas corporativas, acrescentando: “O Google está comprometido com a liberdade de expressão – apoiar o livre fluxo de ideias é fundamental para a nossa missão”). A empresa precisa ser mais consistente: “Não tome partido”, “controle o tom, não o conteúdo”. Mais transparente: “Seguir claramente os padrões e políticas”, “explicar as tecnologias”. Mais responsivo: “melhorar as comunicações”, “levar os problemas a sério”. E deveria ser mais “empoderador”. Fornecer “diretrizes positivas” e “melhores sinalizações”.

Terei todo o gosto em apoiar estas propostas, pois promovem a imparcialidade. Refletem em grande parte um consenso emergente sobre o discurso entre as empresas de Internet. Mas, como um vitoriano sem o seu Deus, senti-me vazio e ansioso sem um princípio defensável: tudo o que ouvi foi o rugido melancólico, longo e recuado do liberalismo. Encontrei um novo princípio no trabalho do filósofo Justin Hu, jovem professor do MIT, que recomenda o que chama de “intolerância discursiva” como forma de salvar o mercado das ideias de Mill, quando o mercado está lotado de canalhas vendendo produtos falsificados e produzindo trocos baratos. Os anarquistas estão trabalhando em porões em bombas que explodirão completamente o mercado.

Hu escreve que “devemos descobrir como nos dar bem apesar das nossas diferenças”.(Escrevi sobre este tema em maio passado: “Quatro regras para aprender a falar novamente”). Em particular, ele pergunta se deveríamos ser tolerantes com opiniões das quais não gostamos e, em caso afirmativo, até que ponto. Ao responder a esta questão, Hu também se refere a Mill: “Dada a nossa falibilidade, Mill acreditava que um mercado discursivo de ideias que funcionasse bem – isto é, um fórum público onde a diversidade de opinião é avaliada com base na razão e na evidência – é o nosso melhor chance de conhecimento e prosperidade.” . Mas Hu, tal como eu, pensa que Mill está subtilmente enganado: a tolerância, argumenta ele, nem sempre é a melhor forma de garantir um mercado discursivo. No mundo real, por vezes temos de impedir que as opiniões se espalhem “ao não nos envolvermos numa interacção racional com elas”.

Para explicar isso, Hu dá um exemplo que vale a pena citar na íntegra: “Suponha que exista uma crença amplamente difundida, chame-a de X, que afirma que os membros de certos grupos (alvo X) são inferiores, ignorantes, indignos de confiança ou tendenciosos em certos aspectos. Questões Suponhamos ainda que a crença em X esteja tão profundamente arraigada que os argumentos racionais contra X falham por razões que nada têm a ver com os méritos epistêmicos do próprio X. Nesse caso, a prevalência de crenças em uma comunidade de X ameaça sua discursividade. mercado: As vozes dos alvos X serão efetivamente silenciadas e as suas opiniões não serão valorizadas. Neste caso, dado o objetivo de garantir um mercado de ideias que funcione bem, temos razões para ser discursivamente intolerantes com X e com os crentes em X. Poderíamos procurar criar incentivos práticos para não defender X”.

Rate article