IA falada pode contribuir para a propagação de estereótipos sociais

À medida que a IA está se tornando cada vez mais faladora, os designers precisam pensar na ética da gênero não apenas dos votos, mas também das melhores nuances dos modelos de fala.

Símbolos masculinos e femininos com as cabeças de robôs

Salve esta história
Salve esta história

Logotipo

Banco de dados de AI →

Processando uma linguagem natural

Alexa, Siri, Watson e seus irmãos e irmãs de “falar” da IA ​​facilitam nossa vida, mas ao mesmo tempo fortalecem os estereótipos de gênero. Secretários digitais educados e humildes, como Alexa e Siri, são apresentados como mulheres. E o Jeopardy Campeão Assertivo e Onívoro! Watson é mais chamado de “ele”. No caminho, novas gerações de IA, o que tornará esse problema ainda mais significativo, e será muito mais difícil de evitar. À medida que essa área se desenvolve, os desenvolvedores precisam garantir que criem um mundo mais amplo e não copiem o mundo em que as diferenças de gênero são o tempo todo. Os linguistas podem ajud á-los com isso.

No verão passado, a UNESCO divulgou um relatório no qual alertou as “conseqüências perturbadoras” da IA ​​de gênero. Os pesquisadores recomendaram estudar mais minuciosamente a questão de por que muitos sistemas modernos de IA baseados na fala e interagir com milhões de pessoas em todo o mundo costumam ser inadimplentes em uma voz feminina, mesmo que afirmem que não têm gênero. Embora qualquer esforço para estudar e resolver o problema da IA ​​e do gênero mereça aprovação, os autores do relatório e outros perderam um ponto importante: não se trata apenas de mudar de pronomes ou características de voz. Para abordar seriamente o problema dos estereótipos de gênero na IA, é necessário prestar atenção não apenas à voz do sistema.

Opinion Wired
Sobre o site

Sharone Khorovit – Hendler – estudante de pó s-graduação em antropologia linguística em SUNY Albany com sotaque para a pesquisa de gênero. Sua dissertação “navegando no binário” (“navegação em binars”) é um estudo da apresentação de gênero na comunidade nã o-guerreira. James Hendler é professor de ciência da computação, diretor do Instituto de Pesquisa e Aplicação de Dados do Instituto Politécnico Renseral, membro da Associação para o Desenvolvimento da Inteligência Artificial. Seu último livro “Máquinas sociais: a colisão vindoura de inteligência artificial, redes sociais e humanidade” (Apress, 2017) fala sobre as novas consequências das tecnologias de inteligência artificial.

Hoje, os sistemas estão passando de laboratórios de inteligência artificial para produtos industriais que falam entre si, indo muito além da estrutura do formato “perguntas-respostas” de nossos assistentes de bolso. Essas novas “máquinas sociais” poderão se tornar parceiras na interação multimídia na tomada de decisão entre várias pessoas. Por exemplo, em vez de responder a uma solicitação de um usuário sobre o restaurante chinês mais próximo, Jeet-Agent falado em um futuro próximo poderá interagir com um grupo de pessoas para ajudá-las a escolher para onde ir. Tal IA participará de uma conversa como membro do grupo: “Bem, se Bob e Bill desejam cozinha chinesa, e Mary ama tailandês, por que não visitar a assinatura de fusão em uma rua vizinha?”Ele vai dizer. Ou talvez mais descaradamente para declarar: “Ok, então vamos para a fusão”.

Na linguística, é considerado concedido que os modelos de fala em uma conversa causam suposições de gênero, independentemente da voz ou aparência do falante. Por exemplo, na cultura americana padrão, os homens são descritos na literatura como pessoas que costumam “tomar um lugar” em uma conversa: muitas vezes interrompem, usam mais palavras, recusam algumas polições sociais e falam mais confiança óbvia. As mulheres, pelo contrário, são estereotipicamente menores e educadas, dão mais evidências e sinais do que escutam, e mais oferecem do que o ditado. Além disso, tom, velocidade, escolha de palavras e outras pequenas alterações podem alterar a percepção do interlocutor.

Alguns tentam resolver esse problema, criando sistemas com vozes digitais assexuais, mas ainda perdem um recurso importante. Mesmo no infeliz do chatbot, o usuário pode determinar o piso masculino ou feminino com base nessas características coloquiais. No exemplo anterior com um restaurante, a primeira frase provavelmente será percebida como educada e feminina, enquanto a última afirmação, como regra, é percebida como homem. Estudos recentes também mostraram que esses sinais podem superar o som estereotipado de uma voz masculina ou feminina e até contradizer as declarações diretas do falante, seja uma pessoa ou um carro em relação à sua própria personalidade. Do ponto de vista da IA, o fato de Siri responder “Não tenho gênero” não muda o fato de que as pessoas na grande maioria dos casos percebem o programa como mulher.

Os designers precisam prestar mais atenção aos problemas éticos que surgem como resultado desse raciocínio. Se as novas AIs continuarem a corresponder aos estereótipos de papel de gênero existentes, o estereótipo de uma mulher passiva e humilde contra o líder/especialista de um homem com conhecimento só se fortalecerá. No entanto, os designers podem se tornar poderosos condutores de mudança não apenas em nossa cultura, mas também em países em desenvolvimento onde a posição escravizada das mulheres está se tornando um problema internacional cada vez mais sério. Imagine a influência de um consultor de negócios em negócios ou medicina, que parece para uma mulher, e a IA, um ajudante com um estilo de fala masculino por padrão, terá um impacto. Um número maior de AIs percebidos pelas mulheres como especialistas pode ajudar a mudar a percepção da sociedade e levar ao fato de que as mulheres assumirão mais essas posições.

Rate article