O plano imprudente de Elon Mask de fazer sexo pago no Twitter

A monetização do conteúdo para adultos pode fazer sentido do ponto de vista dos negócios e da esfera social. Mas, na prática, o Twitter não poderá implement á-lo.

dinheiro em um fundo vermelho à luz dos holofotes

Salve esta história
Salve esta história

Na semana passada, o Washington Post informou que Elon Musk planeja acelerar o desenvolvimento de um produto para monetizar o conteúdo de adultos no Twitter que ele mais ou menos confirmou na tarde de sábado. Obviamente, os planos de máscara – o último esquema de enriquecer a pessoa mais rica do planeta – não têm nada a ver com o apoio de trabalhadores da indústria do sexo. A escolha a favor de expandir o conteúdo adulto no momento do aumento da atenção ao trabalho sexual e do Alcorão é arriscado, especialmente contra os antecedentes dos relatórios que Musk planeja cancelar a proteção de transgêneros-a população na plataforma, que muitas vezes se cruzando com o sexo trabalhadores.

Inscrever-se para
Inscrev a-se na Wired e mantenh a-se a par de todas as suas idéias favoritas.

A transição para a monetização também ameaça destruir o abrigo: desde que o Bureau Federal de Investigações dos EUA confiscou o Backpage em abril de 2018, três dias antes de o presidente Trump assinar a lei sobre a provisão da oportunidade de lidar com o sexo comercial o n-line (FOSTA), Twitter torno u-se a única grande plataforma de mídia social tolerante a profissionais do sexo. Mesmo na ausência de pagamentos diretos, o Twitter permanece um refúgio seguro para as profissionais do sexo (criadores de conteúdo adulto, bem como aqueles que prestam serviços pessoalmente) nas condições do cenário digital puritano. Mas, para que a monetização funcione, o Twitter deve reconsiderar seus métodos de moderação de conteúdo e fortalec ê-los, o que contradiz diretamente o juramento da máscara para proteger a “liberdade de expressão”.

É mais provável que a monetização seja realizada com pressa e sem resolver problemas levantados por uma das equipes internas da empresa, sensíveis às dificuldades de conteúdo e moderação de adultos. Isso se deve em parte ao fato de que, desde sext a-feira, equipes como uma equipe de treinamento de máquinas, ética, transparência e responsabilidade (meta) não existem mais. Essa etapa ameaça um perigo ainda maior para as profissionais do sexo, especialmente para os transitórios, que já estão passando por um risco astronomicamente alto de violência, que continua a crescer com cada novo ato antibrax-desnificador.

Uma tentativa fracassada de monetizar conteúdo adulto poderia exacerbar as preocupações em meio a um pânico moral crescente de que profissionais do sexo e adultos queer são sexualmente desviantes e, portanto, uma ameaça para menores, reforçando a crença de que não pertencemos à plataforma dominante de redes sociais, que aceita usuários com idade 13 anos. E tal movimento de Musk ameaça mudar a experiência de cada usuário do site.

Uma das muitas razões pelas quais a homofobia, a transfobia e a vadiafobia – a opressão sistémica dos trabalhadores do sexo – se cruzam é ​​porque todos somos vistos como uma ameaça para as crianças. O trabalho sexual online não está imune a esse preconceito. No início deste ano, Casey Newton e Zoe Schiffer relataram no The Verge que o Twitter estava desenvolvendo um projeto de assinatura no estilo “OnlyFans”, mas o esforço foi suspenso devido a preocupações sobre material de exploração sexual infantil (CSEM, às vezes chamado de material de exploração sexual) . abuso infantil ou CSAM). Um grupo de pesquisadores internos, apelidado de Red Team, decidiu que o Twitter não poderia lançar com segurança um projeto chamado Adult Content Monetization (ACM) antes de lidar com o CSEM, que eles acreditavam que pioraria o problema do ACM. O projeto foi cancelado em maio, poucas semanas depois de Musk se oferecer para comprar o Twitter por US$ 44 bilhões.

As conclusões da Equipa Vermelha baseiam-se em dois conceitos errados sobre o trabalho sexual: primeiro, que este, juntamente com o tráfico de seres humanos, existe num continuum que inclui o “tráfico sexual” e, segundo, que as plataformas que fornecem conteúdo para adultos não aplicam uma política agressiva de moderação.

Mais popular
A ciência
Uma bomba-relógio demográfica está prestes a atingir a indústria da carne bovina.
Matt Reynolds
Negócios
Dentro do complexo ultrassecreto de Mark Zuckerberg no Havaí
Guthrie Scrimgeour
Engrenagem
Primeiro, dê uma olhada no Matic, o aspirador robô redesenhado
Adriane So
Negócios
As novas alegações de Elon Musk sobre a morte de macacos estimulam novas demandas de investigação da SEC
Dhruv Mehrotra

Na verdade, o CSEM é quase onipresente na Internet; a sua existência tem sido usada há muito tempo como um porrete por grupos religiosos de direita, como o Exodus Cry e o Centro Nacional de Exploração Sexual (NCOSE, anteriormente Morality in Media) contra a presença online de profissionais do sexo. No entanto, todas as plataformas online que identificam CSEM são obrigadas por lei a comunicar as suas conclusões ao Centro Nacional para Crianças Desaparecidas e Exploradas (NCMEC). Por exemplo, no seu relatório, Newton e Schiffer observam que “em 2019, Mark Zuckerberg vangloriou-se de que o montante que o Facebook gasta em recursos de segurança excede toda a receita anual do Twitter”.

No entanto, a afirmação de que o conteúdo adulto está inextricavelmente ligado à violência contra crianças claramente não é verdadeiro. A NCose chama apenas o Fans como um site que fornece “materiais sobre violência sexual de crianças, comércio sexual, vídeo com estupro e muitos outros crimes”, mas os números falam sobre outra coisa. Em seu último relatório anual, a NCMEC constatou que, por exemplo, a Pornhub anunciou 9. 029 casos do CSEM em 2021, e esse número excedeu o Twitter – 86 666. Facebook, apesar de seu sólido orçamento de segurança, registrou 22. 118 952 casos que são quase 2. 500 vezes mais que o que de Pornhub. SomenteFANS relatou um indicador zero.

E sites adultos monitoram mais cuidadosamente a moderação do conteúdo para impedir a propagação do CSEM. Como todo criador de conteúdo adulto é conhecido, para carregar conteúdo em sites de clipe-um termo guarda-chuva para plataformas on-line que monetizam o conteúdo de adultos através de clipes, canais de streaming e sites de fãs, e uma confirmação de personalidade é necessária, e a personalidade é necessária e, recentemente, dados biométricos. Somente o conteúdo da Fans também deve passar por moderação algorítmica e humana antes da aprovação para confirmar que todos os modelos foram verificados.(Somente o Fans contém seus próprios moderadores que verificam cada conteúdo antes de sua publicação, em parte porque a empresa está interessada em proteger seus criadores, que também são a única fonte de renda). As mensagens diretas também são cuidadosamente modificadas e qualquer menção a reuniões pessoais para as quais apenas osFans podem ser acusados ​​de tráfico de pessoas podem levar a constante desapego.

Os veteranos do setor podem confirmar que regras estritas para o conteúdo se aplicam em sites de clipes – eles se tornaram ainda mais após a adoção de fosta – limitando quais tipos de conteúdo podem ser vendidos e quais não são. Por exemplo, o conteúdo associado à hipnose tem sido limitado a pelo menos desde 2017, quando as empresas que fornecem cartões de crédito consideraram os excessos “ilegais ou imorais” e começaram a ameaçar as plataformas que lhes permitem demonização. Como Ana Valens sugere no DOT diário, a emoção das plataformas financeiras é provavelmente explicada pelo medo de um reembolso e alegações de que os clientes foram “forçados” a gastar mais dinheiro em conteúdo ou clipes.

Mais popular
A ciência
Uma bomba-relógio demográfica está prestes a atingir a indústria da carne bovina.
Matt Reynolds
Negócios
Dentro do complexo ultrassecreto de Mark Zuckerberg no Havaí
Guthrie Scrimgeour
Engrenagem
Primeiro, dê uma olhada no Matic, o aspirador robô redesenhado
Adriane So
Negócios
As novas alegações de Elon Musk sobre a morte de macacos estimulam novas demandas de investigação da SEC
Dhruv Mehrotra

Outras restrições tinham mais a ver com os costumes sociais e a legislação do que com o remorso do comprador: sangue, agulhas e não-consenso estavam entre os outros fetiches “imorais” abolidos, junto com a hipnose. A modelo fetichista Sophie Ladder mantém um documento do Google atualizado frequentemente com uma lista de fetiches que são atualmente aceitáveis ​​em vários sites de clipes. O sangue, por exemplo, é proibido ou restrito em todos os locais, exceto um.

Enquanto isso, eu estava passando por conteúdo adulto extremamente explícito no Twitter, que não proíbe imagens de “fluidos corporais”, desde que os usuários as sinalizem como mídia sensível. Embora o Twitter proíba “comportamento sexual violento”, a política parece se aplicar apenas a estupro e agressão sexual, e não à violência consensual como no BDSM.

O Twitter não restringe conteúdo adulto porque não possui regras para conteúdo adulto. De forma alguma. No momento em que este artigo foi escrito, o Twitter não tinha nenhuma regra que restringisse conteúdo adulto, desde que seja consensual, devidamente marcado como sensível e não incluído em áreas mais públicas, como fotos de perfil ou fotos de cabeçalho.(Não classifico CSEM como “conteúdo adulto” porque, por definição, não contém adultos).

Historicamente, embora o Twitter nunca tenha sido tão hostil às trabalhadoras do sexo como, digamos, Meta, ele mantém uma política de “não pergunte, não conte” em relação a elas, disse-me um funcionário do Twitter. E apesar de não ter política de conteúdo, o Twitter suprime algoritmicamente conteúdo adulto, intencionalmente ou não.

Na verdade, nem o Twitter sabe como os seus algoritmos são aplicados, como é o caso da maioria dos algoritmos de aprendizagem automática utilizados pelas redes sociais e motores de busca. Os algoritmos de aprendizado de máquina melhoram com base nas ações dos usuários, que codificam seus preconceitos sem interferir. O resultado é o que é conhecido como viés algorítmico, que neste caso, mesmo que não intencional, afeta mais as trabalhadoras do sexo. Os profissionais do sexo e os ativistas são mais propensos a serem sinalizados pelo algoritmo do Twitter para o shadow banning, uma prática em que determinados utilizadores ou conteúdos são suprimidos artificialmente. Além disso, semelhante aos algoritmos do Instagram que sinalizam a nudez com base em pixels da cor da pele, o Twitter identifica e restringe algoritmicamente conteúdo adulto que ainda não esteja sinalizado como “sensível”.

Nesse contexto, o plano de máscara da máscara teoricamente faz sentido, tanto dos pontos de vista dos negócios quanto dos sociais. Do ponto de vista dos negócios, isso trará mais lucro no Twitter. Do ponto de vista social, isso pode impedir a censura algorítmica de profissionais do sexo e teoricamente destigmatize o trabalho sexual. Os temores de que a ACM de alguma forma transformará o Twitter em um “site pornô” ou, pior ainda, em um “site pornô infantil”, são infundados. A monetização adequada do conteúdo de adultos pode reduzir significativamente a quantidade de CSEM no Twitter devido a meios mais confiáveis ​​de detectar conteúdo antes de sua publicação.

Mais popular
A ciência
Uma bomba-relógio demográfica está prestes a atingir a indústria da carne bovina.
Matt Reynolds
Negócios
Dentro do complexo ultrassecreto de Mark Zuckerberg no Havaí
Guthrie Scrimgeour
Engrenagem
Primeiro, dê uma olhada no Matic, o aspirador robô redesenhado
Adriane So
Negócios
As novas alegações de Elon Musk sobre a morte de macacos estimulam novas demandas de investigação da SEC
Dhruv Mehrotra

No entanto, na prática, a máscara terá que fortalecer a moderação do conteúdo para impedir o CSEM no site – o que contradiz sua “liberdade de expressão” defensora – ou dobra a importância da aut o-expressão com a moderação mínima, abrindo assim o Gateways para conteúdo terrível, que antes disso permaneceu na Web Shadow Dark e no Facebook de grupos privados.

Se o Twitter apresentará a ACM, ele provavelmente enfrentará uma opção: exigir de todos os usuários do Twitter confirmação da confirmação da idade para impedir a publicação ou acesso ao CSEM ou proibir completamente o conteúdo adulto não emonetizado para obter um serviço de assinatura. De qualquer forma, a vigilância algorítmica de toda a mídia visual se intensificará inevitavelmente.

Se o Twitter seguir os passos de apenas fãs, a plataforma provavelmente proibirá uma natureza nu não emaneta em contas desprotegidas. Como resultado, as pessoas que não são criadoras de conteúdo adulto, mas de tempos em tempos publicam natureza nua, por exemplo, trabalhadores da indústria do sexo ou pedagogos sexuais, terão que editar seu conteúdo de acordo com as novas regras, se geralmente tiverem permissão para Fique no Twitter.

Outro problema nos espera. A função do Twitter entre os trabalhadores do sexo como o nosso mais recente paraíso digital semipúblico significa que antes de introduzir novos conteúdos, o Twitter terá de decidir se precisa de moderar retroactivamente os meios de comunicação existentes. Para moderadores humanos, esta é simplesmente uma tarefa impossível. No que diz respeito à inteligência artificial, embora possa parecer suficientemente simples analisar algoritmicamente todas as mídias visuais em busca de nudez, essa inteligência artificial, como mostra a experiência do Instagram, é tendenciosa contra pessoas de cor, pessoas gordas e educadores sexuais – e isso dado que o Instagram tem tem moderado a mídia visual desde o seu início. Em contraste, o Twitter precisa de rever material de uma década, e desenvolver a tecnologia para uma tarefa tão difícil custaria a Musk vários milhões de dólares a mais, para não mencionar o tempo muito além das duas semanas que ele alegadamente deu aos funcionários para se prepararem.

Talvez o Twitter possa implementar algoritmos rudimentares para facilitar o processo de moderação. Mas a moderação de conteúdo em grande escala sem uma grande equipe de moderadores humanos – especialmente devido ao escrutínio intensificado das políticas de moderação de conteúdo do Twitter – tal tarefa seria impensável sob qualquer liderança, especialmente sob Musk, que planeja demitir a grande maioria dos funcionários do Twitter. e já demitiu quase metade. Além disso, o Twitter e o Meta terceirizam a maior parte das responsabilidades de moderação de conteúdo para terceiros, privando os moderadores de conteúdo dos benefícios da empresa, e Musk possui um longo histórico de violações trabalhistas.

Como resultado, o Twitter de Musk – com a falta de moderadores humanos, escassas políticas de doxxing e falta de interesse em proteger as trabalhadoras do sexo como pessoas e não apenas como “criadoras de conteúdo” – simplesmente não tem a infraestrutura ou o compromisso para monetizar conteúdo adulto de forma responsável. .

A forma como Musk decide tratar as trabalhadoras do sexo como de costume fornecerá informações sobre como ele planeja expandir a política para incluir outros usuários. Afinal, somos pessoas marginalizadas e descartáveis, o teste perfeito para novas políticas e tecnologias. As próximas semanas e meses testarão a nossa capacidade de proteger a nós mesmos e uns aos outros contra abusos. Estas batalhas pela subsistência e pela segurança não são novidade para nós. Para Musk, este é um novo inferno que poderá arrastá-lo para um atoleiro com os trabalhadores, os reguladores e o público. Receio que ele esteja nos sacrificando nesta guerra ridícula que já está determinado a perder, e se sua última façanha conseguir salvar o Twitter, o sangue derramado para salvá-lo será o das trabalhadoras do sexo.

Rate article