Os anúncios do Facebook são discriminatórios? É complicado

O sistema de direcionar os anúncios de publicidade da empresa é criticado por gênero e viés étnico. Em alguns casos, o medicamento pode ser pior que a doença.

Construção da habitação

Salve esta história
Salve esta história

Nas últimas semanas, o ciclo da mídia do Facebook fez uma curva quádruplos. A princípio, inesperadamente para o governo Trump, o Departamento de Habitação e Desenvolvimento Urbano apresentou um tribunal por violação da lei sobre moradias justas, acusand o-a de práticas de publicidade discriminatórias ao colocar anúncios para a venda de moradias.

Alguns dias depois, pesquisadores da Universidade Nordeste publicaram uma versão preliminar do artigo, que descreve um conjunto interessante de experimentos de publicidade mostrando que o Facebook realmente diferenciou os anúncios de moradia e trabalho, dependendo de gênero e raça. Finalmente, em abril, a Câmara dos Deputados e o Senado introduziram a lei sobre algoritmos de contabilidade (Lei de Responsabilidade Algorítmica AAA, naturalmente), exigindo que grandes empresas tecnológicas verifiquem a inteligência artificial, que controla as plataformas como Facebook e Gogle, para a presença de sinais de preconceito discriminatório.

Esse drama ocorre contra os antecedentes de muitas outras reivindicações, que afirma que o Facebook se entrega à publicidade discriminatória, permitind o-nos direcionar anúncios na venda de moradias na corrida e no andar, na qual a empresa, de fato, admitiu, prometendo proibir proibir esta função.

Antonio Garcia Martinez (@Antoniogm) é escritor e autor de Ideas for Wired. Ele trabalhou anteriormente na equipe de monetização inicial do Facebook, onde liderou o trabalho em direcionar. Suas memórias de “Monkey Chaos” de 2016 se tornaram o bes t-seller do New York Times e o melhor livro do ano, de acordo com a NPR.

O processo do HUD e o projeto de lei da AAA são um passo à frente em comparação com as reivindicações anteriores sobre o viés dos algoritmos, que potencialmente podem ter consequências de melhor alcance. Para entender o porquê, você precisa vasculhar um pouco a semântica e a prática da publicidade no Facebook.

Comece com o termo “segmentação”. No significado geralmente aceito, esta é uma categoria muito ampla que pode significar coisas completamente diferentes. Esse setor contém os dados que o anunciante usa para segmentar o público: os dados fornecidos pelo Facebook (digamos, californias de 25 a 35 anos) ou os dados que o anunciante traz o Facebook (digamos, a história das visualizações e compras dos usuários no comércio eletrônico do site). O ponto principal é que, independentemente de dados do Facebook ou do anunciante, as mãos do anunciante estão nas alavancas da segmentação, determinando qual conjunto de usuários verá seu anúncio.

Mas dada a complexidade do processo de compra e leilão de anúncios, a segmentação não é a única coisa que determina quem vê um anúncio. Dentro do segmento especificado pelo anunciante, o Facebook pode alterar o tipo de usuário que verá aquele anúncio direcionado.

Isso é comumente chamado de otimização, e é disso que trata o processo do HUD e da AAA. Especialmente para anúncios amplamente direcionados – digamos, todos os millennials americanos – o próprio Facebook restringe ainda mais o alvo definido com base no que sabe sobre o usuário e sua plataforma. Se o anúncio for sobre moda, ele terá como alvo usuários que demonstraram interesse em marcas de moda. Se o lançamento inicial da publicidade para um público geral mostrar que um subsegmento, como os residentes do Texas, responde mais a ela do que outros, então rapidamente começará a direcionar a publicidade apenas para os residentes do Texas.

Num mundo de segmentação perfeita, onde o anunciante tem controle absoluto sobre a experiência do usuário e conhece todos os dados dos usuários do Facebook, a otimização não é necessária. Um anunciante sofisticado poderia simplesmente treinar os mesmos modelos de aprendizado de máquina do Facebook.

Mais popular
A ciência
Uma bomba-relógio demográfica está prestes a atingir a indústria da carne bovina.
Matt Reynolds
Negócios
Dentro do complexo ultrassecreto de Mark Zuckerberg no Havaí
Guthrie Scrimgeour
Engrenagem
Primeiro, dê uma olhada no Matic, o aspirador robô redesenhado
Adriane So
Negócios
As novas alegações de Elon Musk sobre a morte de macacos estimulam novas demandas de investigação da SEC
Dhruv Mehrotra

Em um mundo de otimização perfeita, onde o Facebook conhece até mesmo dados de compras fora do Facebook, a segmentação seria desnecessária. O Facebook poderia simplesmente levar em conta o que o anunciante sabe sobre o que o usuário comprou ou visualizou e entregar os melhores anúncios possíveis.

Na realidade, é claro, nem a segmentação nem a otimização são perfeitas, portanto ambas as funções funcionam de forma interdependente: os anunciantes não confiam no Facebook o suficiente para entregar todos os seus dados de segmentação, e o Facebook não quer compartilhar seus dados de otimização (pelo menos não intencionalmente). ) com estranhos.

Na realidade comercial da compra de anúncios, o anunciante envia sua melhor estimativa sobre o público-alvo, algum criativo do anúncio e um lance para uma ação desejada do usuário, como um clique ou instalação de um aplicativo. O Facebook usa a segmentação de anunciantes para restringir o conjunto de alvos potenciais e, quando um desses usuários aparece, estima a probabilidade de clicar em um anúncio ou baixar um aplicativo.

É essa avaliação combinada – a segmentação do anunciante e a suposição otimizada do Facebook sobre um usuário interessado nesse conjunto de destino – decide qual anúncio em sua fita do Facebook ou Instagram. Se a segmentação do anunciante for muito precisa – por exemplo, os usuários que viram um determinado produto na Internet – o Facebook nada mais é do que um mensageiro mostrando o mesmo anúncio desse pequeno grupo (relativamente) de pessoas. Se a segmentação for muito ampla, o Facebook exerce um controle significativo sobre quem vê o que vê que potencialmente expande sua responsabilidade no caso de, por exemplo, a lei sobre moradias justas.

O objetivo da publicidade de software – uma coisa mágica que move centenas de bilhões de dólares por ano e permitiu que o Google e o Facebook atingissem um custo total de mais de US $ 1 trilhão – é direcionar sistematicamente a publicidade para o segmento mais suscetível dentro do grande grupo de a população. Antitricalmente, o regulamento proposto exige publicidade para cada segmento, independentemente da eficiência. Esta é uma força regulatória intransponível que foi encontrada com (quase) pelo objeto imobiliário do praticante da indústria no valor de um trilhão de dólares.

Se inscrever
Inscrev a-se na Wired e mantenh a-se a par de todas as suas idéias favoritas.

Aqui está o que é importante: segmentação – a parte do processo que os próprios anunciantes trazem para a festa – é relativamente facilmente ajustável. Se a demonstração de anúncios para a venda de moradias com base na racial ou na etnia do usuário for ilegal, simplesmente proibir os anunciantes de segmentar esses anúncios por racial ou etnia. O Facebook já reconhece automaticamente a publicidade de álcool ou política e aplica várias regras de segmentação para isso. Por exemplo, no Facebook, é impossível anunciar usuários de álcool com menos de 21 anos de idade (ou qualquer idade em países como a Arábia Saudita), e o Facebook monitora estritamente isso.

Mas para garantir que a otimização – a parte do estreitamento que o Facebook Algoritmos Control mostrará os anúncios imparciais da habitação e o trabalho de cada grupo racial e de gênero é muito mais complicado. Por exemplo, o algoritmo do Facebook pode muito bem decidir direcionar um anúncio para imóveis de elite para um rico índice postal, no qual os brancos prevalecem demograficamente, violando assim a lei sobre moradias justas. O Facebook pode não saber que seu algoritmo de otimização é tendencioso; No final, ele não usou a afiliação racial explicitamente. No entanto, ela violou a lei.

Mais popular
A ciência
Uma bomba-relógio demográfica está prestes a atingir a indústria da carne bovina.
Matt Reynolds
Negócios
Dentro do complexo ultrassecreto de Mark Zuckerberg no Havaí
Guthrie Scrimgeour
Engrenagem
Primeiro, dê uma olhada no Matic, o aspirador robô redesenhado
Adriane So
Negócios
As novas alegações de Elon Musk sobre a morte de macacos estimulam novas demandas de investigação da SEC
Dhruv Mehrotra

Curiosamente, para garantir que a publicidade seja enviada de forma imparcial, significa entender melhor o racial e o gênero dos usuários para evitar preconceitos. A equipe do Facebook Optimizers pode fazer a melhor suposição sobre o campo, a raça e a etnia de cada usuário e garantir que a emissão de anúncios em determinadas categorias, como moradia e trabalho, seja imparcial.

Mas é mais complicado do que parece.

Obviamente, o Facebook já possui as categorias multiculturais de segmentação – de língua espanhola, afr o-americanos, asiáticas – mas uma coisa é distribuir todos os 200 milhões de usuários americanos por categorias e oferecer vários por cento dos melhores como segment o-alvo. Uma suposição completamente diferente e muito mais complicada – para supor sobre cada usuário pertencente a uma raça ou grupo étnico específico, especialmente os usuários sobre os quais o Facebook pode não ter muitos dados.

Para que o Facebook seja capaz de criar classificações confiáveis ​​no chão e etnia para todos os usuários dos Estados Unidos, ele pode ter que recorrer a fontes de dados da terceira parte, especialmente para os usuários, sobre os quais ele tem pouca informação. Considere a segmentação de jiu-jitsu astutas usadas pelos pesquisadores do nordeste para criar seus segmentos raciais-alvo. Como os cientistas de outras fontes foram capazes de obter uma quantidade igual de branco e preto? Bem, eles pegaram as anotações públicas dos eleitores da Carolina do Norte, que obviamente registram a corrida e metade dos eleitores, e depois carregaram essas listas de eleitores no Facebook para segmentar.

Este produto para segmentação é chamado de público personalizado e geralmente é usado por campanhas políticas durante as eleições – como regra, para atingir apoiadores de um determinado lote (embora possam us á-lo para afiliação racial). O Facebook pode fazer algo semelhante usando notas públicas ou privadas de empresas que fornecem dados do consumidor para compar á-los com os usuários e fazer suposições razoáveis ​​sobre sua raça ou campo.

Como você gosta da ideia de que o Facebook será obtido de fontes abertas, como listas de eleitores e certificados de propriedade, a fim de classificar cada americano no chão, raça e etnia? Ou mesmo construir modelos internos mais complexos com base no comportamento do usuário para fazer as mesmas marcas? Sim eu também. Se a empresa seguir esse caminho, a solução para o problema do viés poderá levar a problemas ainda maiores de confidencialidade.

Mais provavelmente, do que todos esses hacks confusos, o Facebook pode decidir cancelar qualquer otimização para indústrias ajustáveis, como emprego e moradia, além de limitar a segmentação pelos próprios anunciantes. Isso permitirá que a empresa não ajude os anunciantes que tentam violar a lei em moradias justas.

Rate article