Você removeu racistas do seu site? Ótimo, agora comece a trabalhar

A infotodemia Kovid-19 ensinou gigantes de redes sociais como o YouTube e o Reddit, uma lição importante: eles podem e devem tomar medidas para controlar o conteúdo em seus sites.

corda presa

Salve esta história
Salve esta história

Para aqueles que monitoram as políticas das plataformas, o grande exílio dos criadores maliciosos do conteúdo na segund a-feira foi melhor tarde do que nunca. Por muito tempo, um contingente muito pequeno de criadores de conteúdo extremamente odiado usou o amor do Vale do Silício pela Primeira Emenda para controlar o curso dos eventos no campo da moderação do conteúdo comercial. Chamando todas as tentativas de controlar seu discurso de “censura”, essas pessoas e grupos foram capazes de criar uma cobertura para o uso de ameaças à morte, perseguição e outros incitamentos à violência, a fim de forçar a oposição. Funcionou por um longo tempo. Ainda. Parece a limpeza coordenada de Twitch, Reddit e YouTube, houve um acerto de contas para aqueles que usam racismo e feminilidade para atrair atenção e ganhar dinheiro nas redes sociais.

Nos últimos cinco anos, estudo supreshistas brancos na Internet e como eles usam a ignorância intencional dos tecnólogos sobre como os danos causam no mundo real. No centro de Shorensteinsky da Harvard School of Kennedy, lidero um grupo de pesquisadores que estudam as consequências da política de linema o n-line e como as plataformas conectam fios com ervas daninhas. Muitas vezes, acontece que o que está acontecendo na rede não é mais deixado na rede. Com base nos métodos de manipular a mídia para esconder suas personalidades e motivos, a massa de racistas começou a aparecer em público na véspera das eleições de Trump, incluindo a ascensão da chamada alt-right. Graças às redes sociais, somos todos testemunhas de violência dos supremas brancos, incluindo o assassinato de Heiser Heyer em Charlotsville e um ataque a muçulmanos em Kraistcher. Pesquisadores, jornalistas e ativistas estão lutando por expor essas redes e conduzir pesquisas fundamentais necessárias para detectar, documentar e desmembrar campanhas de desinformação.

Opinião com fio
Sobre o site

JOAN DONOVAN (@Bostonjoan) – Diretora de pesquisa do Centro Shorensteinovsky para a Mídia, Política e Política do Estado na Harvard School Kennedy.

Após a exceção na segund a-feira, parece que pesquisadores, jornalistas e ativistas finalmente ouviram.

Não é por acaso que essa coragem recé m-adquirida de empresas que operam em redes sociais se manifesta no meio da pandemia global. Os últimos meses de trabalho com desinformação médica em torno de Kovi d-19 ensinaram a essas empresas uma lição importante: elas devem – e podem – tomar ações decisivas para controlar quem está em seus locais. É hora de ter tempo, e seria melhor apenas o começo.

O que exatamente aconteceu? Em primeiro lugar, Twitch removeu as serpentinas acusadas de violência sexual e até suspendeu a campanha de Trump por violar o ódio. A plataforma de jogo dificilmente restringe o surto de feminino em relação a mulheres e transferências em sua plataforma, semelhante ao Gamergate. No início deste ano, ela nomeou um conselho consultivo para o desenvolvimento de uma política de segurança comunitária, que, por sua vez, causou uma resposta de usuários insatisfeitos que viram um prenúncio da censura nisso. Embora plataformas de nicho como Twitch não atraiam atenção especial em comparação com a avalanche do Facebook e Twitter, elas são o espaço central para jovens que passam inúmeras horas no bat e-papo, percorrendo os mundos virtuais. Como a cena punk nos anos 90, os jogos se tornaram o principal território para o recrutamento de jovens rebeldes, o que ainda forma suas opiniões políticas.

Após a exceção na segund a-feira, parece que pesquisadores, jornalistas e ativistas finalmente ouviram.

Apesar de seu passado sombrio, o Reddit tem sido recentemente em quarentena em comunidades contendo ódio e desinformação. Na segund a-feira, ele excluiu mais de 2. 000 comunidades por violar as condições para a prestação de serviços, incluindo The_Donald, o infame Sabredit, conhecido pelo fato de que em 2016 ele criou um exército de memes de Trump. Os moderadores de_donald há muito planejaram este evento e estão tentando criar sua própria infraestrutura em outro lugar. Desde 2015, um grupo dedicado de usuários é organizado no R/AwaySthatesUsubredDits, que trabalha incansavelmente para expor o crescimento do ódio na plataforma e salvar a comunidade segura para todos os usuários. Mesmo após as recentes ações do Reddit, esse grupo continua seu trabalho para garantir que mesmo as menores comunidades de racistas não sobreviverão ao exílio.

O YouTube também excluiu os relatos de vários racistas famosos, autoridades femininas e ultr a-diretas que usaram uma plataforma para discutir suas posições políticas racistas e coletar doações. Muitos se perguntaram por que demorou tanto tempo para excluir essas contas, especialmente desde que o YouTube do ano passado mudou sua política de inimizade em resposta ao conteúdo que contém pedidos de suprematismo.

A perda de acesso ao YouTube, Twitch e Reddit não é um pouco. Isso significa que os encarnadores de ódio não poderão usar essas principais formas de redes sociais para atrair um novo público e forçar suas vítimas a silenciar. Como muitos dos que foram excluídos dependem de seus nomes para atrair atenção e doações, será difícil para eles voltarem a essas plataformas e alcançar a fama anterior. Nesta semana, outras comunidades e contas racistas e sexistas que criam “conteúdo de fronteira” começaram a excluir vídeos antigos e fortalecer a moderação. No entanto, não leve isso para o “efeito de resfriamento”; É um reconhecimento que incitar o ódio e a perseguição às mulheres, a população de cores e o LGBTK não estarão mais ocultos sob a cobertura da liberdade de expressão.

Mais popular
A ciência
Uma bomba demográfica de uma ação lenta está prestes a atingir a indústria de carne bovina
Matt Reynolds
Negócios
Dentro do complexo supe r-secreto Mark Zuckerberg no Havaí
Gatrine Skrimjor
Engrenagem
Primeira olhada em Matic, um aspirador de robô processado
Adrienne co
Negócios
Novas declarações de Elon Mask sobre a morte de um macaco estimulam novos requisitos para a investigação da SEC
Dhruv Mehrotra

Embora o Twitter e o Facebook não tenham participado de segunda s-feiras na segund a-feira para combater o ódio, essa limpeza se tornou uma continuação de várias semanas das ações menores que eles tomaram. Na terç a-feira, o Facebook os seguiu proibindo e excluindo relatos de pessoas associadas à facção Boogaloo, um grupo ant i-governamental que vem a comícios da Black Lives Matter armada e vestida de camisas havaianas. Isso também ocorre no contexto de duas crises de saúde pública: covid-19 e racismo sistêmico. A Covid-19 parecia forçar todas as empresas tecnológicas a agir de maneira mais agressiva e consistente nos últimos meses; Ele estabeleceu as bases para que eles tomassem medidas mais ativas contra o conteúdo racista, já que o país acorda com a gravidade e a onipresença da superioridade branca.

Não faz muito tempo, antes da pandemia, cada plataforma focava apenas na sua base de usuários, respeitando o princípio do triplo fundo, equilibrando o lucro com o impacto social e ambiental. Agora, tendo testemunhado os resultados horríveis da desinformação médica não verificada, essas mesmas empresas compreendem a importância de fornecer acesso a factos oportunos, locais e relevantes. Tendo aceite esta verdade sobre a desinformação médica, é impossível ignorar o facto de que o conteúdo racista e misógino não verificado também é horrível quando deixado à vista do público a qualquer momento. Infelizmente, sabemos a violência a que isso leva. Infelizmente, sabemos que as duas crises – racismo e Covid-19 – estão profundamente interligadas.

Sem uma estratégia de curadoria de conteúdo, as empresas de tecnologia estarão sempre um passo atrás dos manipuladores da mídia, dos desinformadores e dos transmissores de ódio e medo.

Já vimos o expurgo do YouTube, Twitter e Facebook. No entanto, para tirar o máximo partido de tais ações, precisamos de um plano para o que vem a seguir. Não podemos permitir que os resultados desta expulsão monumental desapareçam como resultado da pressão política sobre as empresas tecnológicas para manterem uma falsa neutralidade em relação a conteúdos racistas e misóginos.

Em abril de 2018, Zuckerberg testemunhou perante o Congresso e anunciou que em breve empregaria 20. 000 pessoas em segurança e moderação de conteúdo. Mas sem uma estratégia de curadoria de conteúdo, as empresas de tecnologia estarão sempre um passo atrás dos manipuladores da mídia, dos desinformadores e dos transmissores de ódio e medo. A moderação é um plano para remover o que é prejudicial, enquanto a curadoria encontra ativamente o que é útil, contextual e, o mais importante, verdadeiro.

A verdade precisa de um defensor, e deve vir na forma de um grande bando de bibliotecários que desce ao Vale do Silício para criar a Internet que merecemos – um ecossistema de informação que sirva as pessoas. A bênção e a maldição das redes sociais é que elas precisam permanecer abertas para que possamos tirar o máximo proveito delas; mas a abertura deve ser temperada pela curadoria e moderação fortes e consistentes que estes bibliotecários podem fornecer para que a voz de todos seja protegida e amplificada.

É responsabilidade das empresas de plataforma selecionar conteúdo sobre temas controversos para garantir que seus sistemas não reforcem o ódio ou o tornem lucrativo. As empresas tecnológicas que se recusarem a adaptar-se à cultura tornar-se-ão obsoletas.

WIRED Opinion publica artigos de escritores terceirizados que representam uma ampla gama de pontos de vista. Leia outras opiniões aqui. Poste sua opinião em opin@wired. com.

Rate article