O caso para regulamentar o design da plataforma

Ao se concentrar na proteção do conteúdo do usuário de acordo com a Seção 230, você se distrai da ameaça real: escolhas descuidadas de design de aplicativos.

Colagem de fotos com a imagem de um adolescente em um telefone com um código de computador e palavras para você

Salve esta história
Salve esta história

No verão de 2017, três adolescentes de Wisconsin morreram em um acidente de carro em alta velocidade. No momento da colisão, os meninos registraram sua velocidade usando o filtro de velocidade do Snapchat como 190 km/h. Este não foi o primeiro incidente deste tipo: o mesmo filtro esteve ligado a vários outros acidentes entre 2015 e 2017.

OPINIÃO COM FIO
SOBRE O SITE

Hani Farid é professor do Departamento de Engenharia Elétrica e Ciência da Computação e da Escola de Informação da Universidade da Califórnia, Berkeley, e consultor sênior do Projeto Contra-Extremismo.

Brandi Nonnecke é diretora do CITRIS Policy Lab e professora assistente de pesquisa na Goldman School of Public Policy da Universidade da Califórnia, Berkeley.

Pais de adolescentes de Wisconsin estão processando o Snapchat, argumentando que seu produto, que recompensa “troféus, listras e reconhecimento social” para usuários que excedem o limite de velocidade de 160 km/h, foi inadvertidamente projetado para incentivar a direção perigosa em alta velocidade. O tribunal de primeira instância decidiu inicialmente que a Seção 230 da Lei de Decência nas Comunicações isentava o Snapchat de responsabilidade, dizendo que o aplicativo não era responsável por conteúdo de terceiros criado por pessoas usando seu filtro de velocidade. Mas em 2021, o Nono Circuito anulou a decisão do tribunal de primeira instância.

As plataformas estão amplamente protegidas de responsabilidade por este tipo de conteúdo ao abrigo da Secção 230. Mas neste importante caso, Lemmon v. Snap – O Nono Circuito fez uma distinção crítica entre o design de produto prejudicial da própria plataforma e a hospedagem de conteúdo prejudicial de terceiros. O argumento não era que o Snapchat criasse ou postasse conteúdo prejudicial, mas que projetou negligentemente um recurso de filtro de velocidade que incentivava comportamentos perigosos. O Nono Circuito considerou corretamente que o tribunal de primeira instância errou ao confiar na Seção 230 como defesa. Foi o instrumento jurídico errado. Em vez disso, o tribunal recorreu ao Snapchat por projetar negligentemente o Speed ​​​​Filter, um ato ilícito comum de responsabilidade pelo produto.

Infelizmente, nos últimos anos, e recentemente durante as audiências orais na Suprema Corte dos EUA no Gonzalez contra o Google, os tribunais não conseguiram entender e fazer a diferença entre conteúdo prejudicial e decisões de design prejudiciais. Os juízes que consideram esses casos e legisladores que buscam conter abusos e atividades prejudiciais na Internet devem lembrar essa diferença e se concentrar no design descuidado dos produtos da plataforma, e não se distrair com declarações amplas sobre a Seção 230 em relação ao conteúdo prejudicial.

O caso do caso Gonzalez é baseado na questão de saber se a seção 230 YouTube protege não apenas ao colocar conteúdo de terceira parte, mas também ao emitir recomendações direcionadas aos usuários. O advogado de Gonzalez alegou que o YouTube não deveria receber imunidade na Seção 230 pelas recomendações do vídeo, afirmando que o ato de supervisão e recomendações de materiais de terceira parte que ele mostra, por si só, é a criação de conteúdo. O advogado do Google contestou que seu algoritmo de recomendação é neutro e se aplica a todo o conteúdo que ele recomenda os usuários da mesma forma. Mas esses argumentos não são verdadeiros. Não há necessidade de consultar a Seção 230 para impedir o dano considerado neste caso. O ponto não é que as recomendações do YouTube tenham criado um novo conteúdo, mas que os algoritmos “neutros” das recomendações sejam projetados descuidadamente para não fazer diferenças entre, digamos, vídeo do ISIS e vídeo com gatos. De fato, as recomendações são ativamente preferidas por conteúdo prejudicial e perigoso.

Funções consultivas como “procuram mais” e “recomendadas para você”, que subjacem à base do caso Gonzalez, contribuem significativamente para os danos, pois preferem materiais ultrajantes e sensacionais, além de incentivar os usuários para criar esse conteúdo. O YouTube desenvolveu suas funções consultivas para aumentar o envolvimento dos usuários e a receita da publicidade. Os criadores deste sistema precisavam saber que ele encorajaria e promoveria o comportamento prejudicial.

Rate article