Próximo: o melhor sistema de recomendação

Os algoritmos usados ​​pelo Facebook, YouTube e outras plataformas nos fazem cruzar os links. Mas esses sistemas geralmente contribuem para a disseminação de desinformação, abuso e polarização. É possível moderar sua decência?

A imagem pode conter proteção e texto

Salve esta história
Salve esta história

Logotipo

Banco de dados de inteligência artificial →

Sou usuário do Pinterest há muito tempo. Eu tenho pastas criadas há vários anos e cobrindo os dois interesses passados ​​(casamentos no estilo Art Deco) e recentes (festas por ocasião do primeiro aniversário no estilo de um pato de borracha). Quando vou ao site, eles me oferecem muitas recomendações – alfinetes com imagens coloridas de roupas infantis, além de alfinetes com receitas para satisfazer pratos da panela instantânea. A cada clique, as recomendações estão se tornando cada vez mais específicas. Clique em uma receita para sopa de galinha e outras opções aparecerão. Clique em um alfinete que representa patos de borracha, e os muffins de pato e uma placa de pato aparecerão sob o título do mesmo ”.

Essas são frases be m-vindas e inofensivas. E eles me fazem clicar.

Mas quando um projeto recente de estudo de descoberta me levou aos memes anti-islâmicos no Pinterest, uma noite clicando nesses pinos criados por personalidades falsas associadas à agência de pesquisa da Internet aumentou minha fita. Minha experiência em trabalhar com crianças e receitas se transformou em uma estranha confusão dos vídeos de Dinesh d’Suza, o escandaloso comentarista de direito e projetos de bordados russos em linguagem.

Renee de The Mount of Mount (@noupside) é o autor de Ideas for Wired, escreve sobre discurso e internet. Ela estuda a manipulação da narrativa como diretora de pesquisa da New Knowledge, é pesquisadora da Mozilla em questões da mídia, desinformação e confiança e também colabora com o centro de Berkman-Klyain em Harvard e o Instituto de Ciência dos Dados da Columbia University . No passado, ela era membro da equipe dos fundadores do The Logistic Startup Haven, um capitalista de risco na OATV e um comerciante na Jane Street.

Existem sistemas consultivos em todos os lugares e, embora a transformação da minha fita do Pinterest tenha sido rápida e pronunciada, isso dificilmente pode ser chamado de anomalia. O BuzzFeed disse recentemente que os grupos do Facebook estão levando as pessoas ao conteúdo da conspiração, criando um públic o-alvo construído para spamers e propagandistas. Siga um defensor do ISIS no Twitter e, sob a bandeira de “quem seguir”, vários outros aparecerão. E o professor de sociologia Zeynep Tuskuchi em seu artigo recente no New York Times chamou o YouTube de “grande radicalizador”: “Parece que você nunca será” hardcore “para o algoritmo de recomendações do YouTube”, escreveu ela.”Ele promove, recomenda e espalha o vídeo de tal maneira que parece estar constantemente levantando apostas”.

Hoje, os sistemas de recomendação são talvez a maior ameaça de coesão da sociedade na Internet e, como resultado, uma das maiores ameaças à coesão da sociedade em um mundo offline. Os sistemas de recomendação com os quais interagimos são quebrados de tal maneira que isso leva a sérias conseqüências: fortalecendo as teorias da conspiração, os jogos de notícias, a penetração do delirium no discurso principal e a desinformação dos eleitores. Os sistemas de reconhecimento se transformaram em um grande polarizador.

Ironicamente, a conversa sobre sistemas recomendados e poder curatorial dos gigantes sociais também é muito polarizada. Na semana passada, um dos criadores chegou ao escritório do YouTube com uma arma, indignada por a plataforma ter sido demonizada e reduziu a classificação de alguns vídeos em seu canal. Na sua opinião, foi censura. Isso não é assim, mas a discussão no Twitter em torno do tiro ilustrou claramente a tensão fumegante sobre como as plataformas controlam o conteúdo: existem aqueles que aderem a uma visão absoluta da liberdade de expressão e acredita que qualquer moderação é a censura, e existem Aqueles que acreditam, essa moderação é necessária para promover normas que respeitem a experiência da comunidade.

Como as conseqüências das soluções curatoriais estão se tornando cada vez mais sérias, devemos perguntar: podemos tornar os sistemas de recomendação da Internet mais éticos? E se sim, como?

A busca por uma solução começa com uma compreensão de como esses sistemas funcionam, porque fazem exatamente o que são destinados. Como regra, os sistemas de recomendação funcionam de duas maneiras. O primeiro é um sistema baseado no conteúdo. O sistema pergunta se esse conteúdo se parece com outras pessoas que esse usuário havia gostado anteriormente? Se você assistiu duas temporadas, digamos: “Lei e Ordem”, o sistema RECO Netflix provavelmente decidirá que você vai gostar dos dezessete anos restantes e que os dramas criminais processuais geralmente são adequados. O segundo tipo de filtração é o sistema de filtragem de articulações chamadas. Este sistema pede que eu possa determinar sobre esse usuário e o que as pessoas gostam? Esses sistemas podem ser eficazes antes mesmo de fornecer o sistema de feedback com suas ações. Se você se registrar no Twitter e seu telefone indicará que você está em Chicago, nas ofertas iniciais “para quem seguir”, serão apresentadas as equipes esportivas populares de Chicago e outras contas que as pessoas como em sua área geográfica serão apresentadas. Sistemas de recomendação aprendem; Ao fortalecer suas posições, pressionar e dar curtidas, elas oferecerão bens com base em seus cliques, curtidas e pesquisas, bem como nas solicitações de pessoas semelhantes ao seu perfil cada vez mais perfeito. É por isso que, indo para o Conselho Ant i-Islâmico do Pinterest, criado por trolls russos, recebi vídeos ultr a-corretos e artesanato em linguagem russa por várias semanas; Foi o conteúdo que outras pessoas que passaram algum tempo nessas anotações gostaram.

Mais popular
A ciência
Uma bomba demográfica de uma ação atrasada está prestes a surpreender com a indústria de carne bovina
Matt Reynolds
Negócios
Dentro do complexo supe r-secreto Mark Zuckerberg no Havaí
Gatrine Skrimjor
Engrenagem
Primeira olhada em Matic, um aspirador de robô processado
Adrienne co
Negócios
Novas declarações de Elon Mask sobre a morte de um macaco estimulam novos requisitos para a investigação da SEC
Dhruv Mehrotra

Agora imagine que o usuário está interessado em conteúdo mais extremo que a “Lei e Ordem” e “Chicago Sport”. O que então? Os algoritmos do Pinterest não vêem a diferença entre a oferta de bolas com patos e propaganda extremista; O sistema do Twitter não entende o que incentiva as pessoas a seguir contas extremistas adicionais, e o mecanismo de grupos no Facebook não entende por que direcionar os amantes da teoria da conspiração para novas comunidades de conspiração – talvez uma má idéia. Os sistemas na verdade não entendem o conteúdo, eles simplesmente retornam que, de acordo com suas previsões, nos farão clicar. Isso ocorre porque sua principal função é ajudar a alcançar um ou dois indicadores de desempenho específicos (KPI) selecionados pela empresa. Controlamos o que podemos medir. É muito mais fácil medir o tempo gasto no site ou as estatísticas médias mensais do usuário do que quantificar os resultados do fornecimento de conspiração ou conteúdo fraudulento aos usuários. E quando essa dificuldade é combinada com custos indiretos com pessoas indignadas que acreditam que a moderação do conteúdo viola a liberdade de expressão, é fácil entender por que as empresas preferem não intervir.

Mas, de fato, isso não é liberdade de mão – não há direito de se fortalecer na Primeira Emenda, e o algoritmo já decide o que você verá. Recomendações baseadas em conteúdo e sistemas de filtração colaborativa nunca são neutros; Eles sempre classificam um vídeo, código PIN ou grupo contra outro quando decidem o que mostrar. Eles têm sua opinião e influência, embora não nessa forma simplificada ou tendenciosa, como dizem alguns críticos. E, como o conteúdo extremo, polarizador e sensacional continua subindo ao topo, torn a-se mais óbvio que os algoritmos curatoriais precisam de supervisão e recalculação adicionais do peso para levar em consideração o que eles oferecem.

Alguns desses trabalhos já estão em andamento. O projeto Redirect, desenvolvido pelo Google Jigsaw, redireciona certos tipos de usuários que procuram vídeos do YouTube sobre terrorismo – pessoas que aparentemente são guiadas não apenas por curiosidade. Em vez de propor conteúdo mais cruel, esse sistema de recomendações faz com que o contrário – direciona os usuários para o conteúdo destinado à sua deradicação. O projeto, associado ao extremismo violento, foi implementado há vários anos, o que significa que o YouTube sabe há muito tempo sobre o problema conceitual e como seus sistemas consultivos possuem. Isso faz com que sua solução resolva o problema em outras áreas, redirecionando os usuários para a Wikipedia para verificar os fatos ainda mais iminentes.

Rate article