Há um problema de anorexia em tiktok

A plataforma de mídia social para adolescentes precisa melhorar o algoritmo de recomendação e estabelecer cooperação com especialistas em distúrbios alimentares.

critério

Salve esta história
Salve esta história

Comunidades “pr o-operacionais” – sites, blogs, fóruns e redes sociais dedicadas à promoção de distúrbios alimentares como a anorexia – apareceram na Internet quase desde o momento de sua origem. Portanto, não é de surpreender que, como disse o BuzzFeed no mês passado, alguns usuários do Tiktok tenham encontrado um conteúdo alarmant e-para data em sua página “para você” -uma seção personalizada da plataforma, que provavelmente é exibida, que provavelmente vai gostar Usuários.

A detecção, destruição e remoção da análise do conteúdo torno u-se um ritual para empresas da Web. Em 2001, o Yahoo excluiu 113 sites externos de seus servidores. MySpace, Tumblr, Instagram, Pinterest, Reddit e muitas outras plataformas de mídia social encontraram problemas pró-A-A-Ane. Em conexão com essa história amplamente anunciada, torn a-se uma pena que Tiktok não tenha se preparado melhor, limitand o-se a uma afirmação de que ele não permite “conteúdo que promove hábitos nutricionais que podem causar problemas de saúde”. Mas agora que a política do Tiktok está sob um microscópio, que recomendações a empresa receberá de um histórico mais longo de regulamentação das comunidades o n-line que promove o anime e como exatamente seus usuários devem se preocupar?

Opinião com fio
Sobre o site

A Dra. Isabelle Jerrard é professora de mídia digital e sociedade na Universidade de Sheffield. Seus estudos no campo da moderação de conteúdo nas redes sociais foram publicados em publicações como The Guardian e The Washington Post. Ela também aconselha as empresas que operam em redes sociais, incluindo o Instagram.

O problema de Tiktok é que a página dele “para você” funciona exatamente como deveria: fornece aos usuários uma experiência personalizada e, portanto, agradável, mostrando a eles o que eles provavelmente querem ver. Anteriormente, eu já escrevi que o mesmo problema existe no Instagram, Pinterest e Tumblr. Tais algoritmos de recomendações são pão com óleo para plataformas de redes sociais. Quanto mais agradável para você na plataforma, maior a probabilidade de você ficar e, se ficar, a empresa poderá manter sua geração de dados lucrativa.

Mas o problema que a maioria das grandes empresas de mídia social tem enfrentado é que os algoritmos de recomendação não são realmente treinados para fazer julgamentos morais e médicos sobre o conteúdo que recomendam. Você gosta de gatos? O TikTok pensa que sim, com base no que você gosta e no que procura, então seu algoritmo mostrará mais gatos. Viva, gatos! Mas exatamente a mesma fórmula se aplica a conteúdos potencialmente prejudiciais. Você tem anorexia? O TikTok pensa assim, e é por isso que traz para você uma tonelada de vídeos provocativos. Vá em frente!

Em um artigo recente do BuzzFeed, alguns usuários do TikTok falaram sobre como receberam acidentalmente recomendações para vídeos votados positivamente em sua página For You. É difícil descrever o comportamento dos defensores de ana sem assustar os leitores, mas pode incluir o compartilhamento de dicas sobre dieta e técnicas de limpeza, a escrita de histórias pessoais e a parceria com um “amigo” para incentivar ainda mais a perda de peso. Graças a instituições de caridade como a Beat, sabemos que pacientes com transtornos alimentares muitas vezes relatam sentir-se “desencadeados” por certas imagens ou palavras. Se um usuário do TikTok vê constantemente postagens estimulantes em sua página Para você, isso pode muito bem ser prejudicial para ele. Mas uma das frustrações dos pesquisadores de mídia social é que o funcionamento interno dos sistemas de recomendação como a página Para Você é notoriamente opaco, tornando difícil descobrir por que alguns usuários veem certas recomendações e outros não. Um artigo recente da New Media and Society observa que os usuários de mídias sociais costumam criar teorias complexas para descobrir como funcionam os sistemas de recomendação, o que o autor chama de “fofoca algorítmica”.

Sem descartar as afirmações de ninguém sobre as recomendações “Para você”, os leitores devem estar cientes de que é improvável que os usuários que não gostam de vídeos sobre transtornos alimentares os recomendem aleatoriamente. Um porta-voz do TikTok explicou que os usuários também podem controlar o conteúdo que veem, como colocar “corações” nos vídeos, clicar em “não estou interessado” e seguir os usuários.“Dessa forma, com o tempo, os usuários verão mais conteúdo de sua preferência.”

Rate article