Humanidades não podem salvar grandes tecnologias de si mesmas

Contratando trabalhadores socioculturais para corrigir o viés, você perde de vista as deficiências dessas áreas subestimadas.

Colagem de imagens de biblio-coorâmeros que são atacados, e Mark Zuckerberg

Salve esta história
Salve esta história

Logotipo

Banco de dados de AI →

Muitos dizem que o problema da tecnologia está em sua inclinação quantitativa, na matemática “difícil” usada no mundo humano mais suave. O técnico é Mark Zuckerberg: transformar garotas bonitas em números e vagando pelos milagres sociais dos metavselnaya, mas tão embaraçosos em qualquer comunicação humana que ele é capturado instantaneamente como lembrança. O mundo das pessoas contém Tsuk, mas isso também é tudo o que ele sofre de falhas incríveis. Muitos acreditam que esse fracasso, a falta de qualidades sociais e éticas, ele compartilha com o setor com o qual está tão conectado.

E, portanto, como a grande tecnologia falha na compreensão das pessoas, muitas vezes ouvimos que, em sua equipe, deveria simplesmente haver mais pessoas que entendem. Ele manchetes como “Mestres das Humanidades – o futuro da indústria tecnológica” e “Por que as ciências dos computadores precisam das ciências humanas” são frequentemente encontradas em artigos sobre tecnologia e negócios nos últimos anos. Sugeri u-se que assistentes sociais e bibliotecários pudessem ajudar a indústria tecnológica na luta contra os danos das redes sociais para jovens negros e a disseminação de informações erradas, respectivamente. Muitos antropólogos, sociólogos e filósofos – especialmente aqueles que têm um ensino superior e sentem um laço financeiro devido ao fato de que a ciência acadêmica prefere – se apresse em demonstrar sua utilidade aos gigantes tecnológicos, cujos salários iniciais tornariam o professor médio de humanidades.

Nos últimos anos, estudo trabalhadores nã o-ráticos na indústria tecnológica e de mídia. Os argumentos a favor de “atrair” especialistas em questões socioculturais não levam em consideração o fato de que esses papéis e trabalhadores já existem na indústria tecnológica e, em sentido diferente, sempre existiram. Por exemplo, muitos pesquisadores modernos de UX têm ensino superior no campo da sociologia, antropologia, biblioteca e ciências da informação. E os professores e especialistas do EDI (equidade, diversidade e inclusão) geralmente ocupam cargos no Departamento de Empresas Tecnológicas de RH.

No entanto, recentemente, a indústria tecnológica tem estudado as possibilidades de usar conhecimento nã o-rático para resolver alguns problemas sociais associados a seus produtos. Cada vez mais, as empresas tecnológicas recorrem a professores de direito e filosofia, a fim de ajud á-los a entender os meandros legais e morais de gerenciar as plataformas, ativistas e cientistas, para proteger usuários marginais e outros especialistas para ajudar a resolver esses problemas de plataformas, como opressão algorítmica , desinformação, gestão da comunidade, be m-estar do usuário, ativismo digital e revolução. Essas indústrias, com base em dados, estão lutando para complementar seu know-how técnico e enormes matrizes de dados com conhecimento social, cultural e ético, ou o que eu chamo de dados “suaves”.

Mas você pode adicionar tantos funcionários que trabalham com dados “suaves” e pouco mudarão se o setor não valorizar esses dados e experiência. De fato, muitos cientistas, políticos e outros especialistas socioculturais no campo da IA ​​e ética tecnológica observam uma tendência alarmante quando as empresas tecnológicas estão procurando sua experiência e depois os negligenciam em favor de mais trabalhos e trabalhadores técnicos.

Houve momentos em que eu estava cercado por uma grande variedade nos espaços da indústria tecnológica do que nos espaços acadêmicos, dos quais vem as principais críticas às grandes tecnologias.

Essa experiência é especialmente demonstrada claramente por esse momento difícil na área de desenvolvimento da ética da IA, quando a indústria tecnológica pode aplicar a inclusão de papéis nã o-ráticos, mas na verdade adiciona quadros éticos e socioculturais aos nomes das postagens Em última análise, isso deve ocupar os “mesmos velhos” tecnólogos. Mais importante, em nosso amor por essas profissões “suaves”, muitas vezes subestimadas, não devemos ignorar suas restrições quando se trata de alcançar as altas metas estabelecidas para elas.

Apesar da importância de apoiar o trabalho crítico realizado por esses subestimados e não tendo recursos suficientes, não há razão para acreditar que seus representantes são melhor adaptados para serem árbitros de padrões éticos. Essas pessoas têm uma experiência social e cultural muito reais e importantes, mas todas as suas áreas de atividade enfrentam seus próprios dilemas estruturais e lugares fracos.

Se inscrever
Inscrev a-se na Wired e mantenh a-se a par de todas as suas idéias favoritas.

Tome a antropologia – uma disciplina que surgiu como parte integrante do projeto colonial ocidental. Embora hoje a antropologia cultural frequentemente persegue os objetivos da justiça social, não há garantias de que o antropólogo (85 % nos Estados Unidos seja branco) orientar ou usar algoritmos menos tendenciosos do que, digamos, um cientista da computação. Talvez o exemplo mais famoso seja a PredPol, uma empresa multimilionária de dólares em proteção preditiva da ordem pública, que Rukha Benjamin chamou de parte do “New Jim Code”. A PredPol foi criada por Jeff Brantingem, professor de antropologia da Universidade da Califórnia.

Outras comunidades acadêmicas apoiadas por aqueles que defendem “dados soft” estão no mesmo conflito. A sociologia, que ocupou a observação precoce da população negra e sua avaliação quantitativa, desempenhou um papel nas tecnologias de observação modernas, que na grande maioria dos casos rastreiam comunidades negras. Em meu próprio campo de pesquisa – pesquisa crítica na Internet – muitos brancos, e eu não conseguia me concentrar nos problemas de raça e racismo. Na verdade, muitas vezes sou um dos poucos pesquisadores negros e marrons presentes em conferências em nossa área. Houve momentos em que eu estava cercado por uma grande variedade nos locais da indústria tecnológica do que em locais acadêmicos, de onde vem a grande crítica tecnológica.

Os assistentes sociais provavelmente acrescentarão uma diversidade tão necessária à tecnologia. Na grande maioria dos casos, as mulheres são realizadas por mulheres, e essa é uma profissão bastante diversificada: mais de 22 % dos negros e 14 % dos latin o-americanos/latin o-americanos. No entanto, os assistentes sociais também estão envolvidos na violência do estado em relação às comunidades marginalizadas. Por exemplo, um assistente social em c o-autoria com um Brantingem escreveu um artigo controverso no qual seu trabalho em um departamento de polícia preditivo foi expandido para a classificação automática de gangues.

Mais popular
A ciência
Uma bomba demográfica de uma ação lenta está prestes a atingir a indústria de carne bovina
Matt Reynolds
Negócios
Dentro do complexo supe r-secreto Mark Zuckerberg no Havaí
Gatrine Skrimjor
Engrenagem
Primeira olhada em Matic, um aspirador de robô processado
Adrienne co
Negócios
Novas declarações de Elon Mask sobre a morte de um macaco estimulam novos requisitos para a investigação da SEC
Dhruv Mehrotra

Outro exemplo da integração do serviço social e da previsão automatizada é o Laboratório Safelab da Universidade Colombiana. Um dos primeiros grandes projetos de laboratório foi dedicado à luta contra a Banditry. Para coletar e anotar postagens para jovens nas redes sociais de Chicago, assistentes sociais, análise de dados e representantes das comunidades locais foram usados. O laboratório desenvolveu uma ferramenta para identificar mensagens “agressivas” e prever quais delas podem levar à violência offline. Embora o projeto, é claro, busque bons objetivos – os pesquisadores enfatizam que desejam a intervenção dos assistentes sociais, e não a polícia – ele inevitavelmente concentr a-se observando comunidades negras e marrons. E embora os assistentes sociais sejam frequentemente guiados por boas intenções, Dorothy Roberts observa que o sistema de apoio social às crianças é um instituto racista, que é desproporcionalmente destrói famílias negras. Por fim, como Chris Gilliard escreveu recentemente: “A tecnologia de observação sempre” encontra seu nível “. Seu olhar sempre será direcionado aos negros – mesmo que não fosse a” intenção “do inventor. [.] Sistemas de observação, independentemente de seus Origem, sempre existirá para servir as autoridades “. Essa verdade é confirmada pela rapidez com que o trabalho do SafeLab foi adotado pela polícia, bem como uma concessão de meio milhão de dólares, que os pesquisadores receberam da DARPA para expandir as gangues automatizadas “indicador de agressão” para uma ferramenta semelhante para investigar Recrutamento do ISIS em redes sociais. Sarah T. Hamid, chefe da campanha da Police Technologies na Web da Kardzary Technologies Resistance, citou esta concessão

Finalmente, embora a profissão de um bibliotecário seja frequentemente mencionada como uma que pode salvar a grande tecnologia dos dilemas de desinformação, alguns representantes da LIS (biblioteca e ciência da informação) afirmam que eles precisam percorrer um longo caminho antes de lidar com essa tarefa. A Safia Noble observou a ideologia “incolor” dessa profissão (pouco mais de 83 % do branco) e às vezes causando compromisso de ansiedade com a neutralidade. Esse compromisso, conforme explicado no livro por Justiça do Conhecimento, leva ao fato de que muitos bibliotecários acreditam: “Como servimos a todos, devemos permitir materiais, idéias e valores de todos”. Em outras palavras, os bibliotecários geralmente justificam a resolução de racistas, transferências e outras informações prejudiciais para ficarem ao lado de outros materiais, dizendo que deveriam considerar “todas as partes” e permitir que as pessoas encontrem o caminho para “melhores” informações. As plataformas geralmente cometem o mesmo erro, permitindo que a desinformação e o conteúdo nojento florescesse na Internet.

Mais popular
A ciência
Uma bomba demográfica de uma ação lenta está prestes a atingir a indústria de carne bovina
Matt Reynolds
Negócios
Dentro do complexo supe r-secreto Mark Zuckerberg no Havaí
Gatrine Skrimjor
Engrenagem
Primeira olhada em Matic, um aspirador de robô processado
Adrienne co
Negócios
Novas declarações de Elon Mask sobre a morte de um macaco estimulam novos requisitos para a investigação da SEC
Dhruv Mehrotra

A luta dessas profissões e disciplinas não é única – todo instituto americano enfrenta realidades semelhantes. Uma descrição detalhada das restrições dessas áreas não significa que elas não sejam, de várias maneiras . E nunca direi que agora, quando as universidades costumam conduzir uma luta perdida por financiar disciplinas não láticas, essas disciplinas não são cruciais para os mestres do STEM e seus futuros empregos. Claro, eles são importantes. No entanto, devemos avaliar honestamente o que pode realmente alcançar essas tentativas fragmentadas de costurar experiência sociocultural em equipes e organizações técnicas que acabam tendo todo o poder.

Se você não levar em consideração as deficiências estruturais dessas esferas, ela não será condenada apenas desde o início, mas também potencialmente muito prejudicial à responsabilidade por essas tecnologias por falhas tecnológicas atuais (especialmente sem recursos sérios e autoridades reais) . Por exemplo, a variedade que essas funções podem trazer provavelmente não serão suficientes para forçar as empresas tecnológicas a serem melhores sobre marginais, especialmente aqueles que foram atraídos para indicar problemas. Perguntar às mulheres – especialmente negros – “consertar” a tecnologia – em si o problema, e desconfortavelmente ecoa o cenário político americano mais amplo dos últimos anos, que pede às mulheres negras que salvem a democracia, mas não as apoia. E os tecnólogos têm uma vasta experiência em ignorar mulheres negras e outras comunidades marginalizadas. Além disso, o trabalho que os funcionários que trabalham com dados suaves devem ser o mais difícil em tecnologia.(De fato, a tarefa de criar inteligência artificial real desaparece em comparação com como tornar o Facebook semelhante a um espaço online democrático seguro). Trabalho complexo para levar em consideração os interesses das pessoas, a sociedade e a cultura devem ser de responsabilidade de toda a indústria, e não de uma tarefa secundária, para a qual aqueles que mais sofreram com a indústria deveriam lutar.

Apesar do fato de que “dados suaves” estão agora em moda, essa ênfase no exame sociocultural pode ser uma tendência passageira para a indústria. E mesmo se provarmos seu valor para a tecnologia, não podemos permitir que o financiamento e o sucesso das humanidades dependam do interesse constante das indústrias tecnológicas e das disciplinas-tronco. Se, como o Whittaker descreveu bem, a indústria tecnológica e os militares fizeram um trabalho impressionante para aproveitar a pesquisa acadêmica técnica no campo da IA, não há razão para pensar que as ciências humanitárias e sociais que estão constantemente localizadas sob fogo poderão ser capazes Para enfrentar seu poder avassalador. Devemos armar essas áreas com financiamento e outros recursos necessários para resistir aos caprichos e influência da grande tecnologia. E isso significa respeito pela existência das humanidades e seu exame, independentemente do STEM, IA e outros desenvolvimentos tecnológicos. Outros quase garantem que seus esforços sejam inscritos nos efeitos prejudiciais de grandes tecnologias e até usados ​​para otimiz á-lo ou disfarçar.

Rate article