A IA emocional não substituirá a empatia

Ilustração conceitual de IA emocional com múltiplas telas representando emoções usando olhos e boca

Em 2023, a IA emocional – tecnologias que podem detectar e interagir com as emoções humanas – tornar-se-á uma das aplicações dominantes da aprendizagem automática. Por exemplo, a Hume AI, fundada por Alan Cowen, ex-pesquisador do Google, desenvolve ferramentas para medir emoções por meio de expressões verbais, faciais e vocais. A empresa sueca Smart Eyes adquiriu recentemente a Affectiva, uma divisão do MIT Media Lab que desenvolveu a rede neural SoundNet, um algoritmo que classifica emoções como a raiva a partir de amostras de áudio em menos de 1, 2 segundos. Até a plataforma de vídeo Zoom está apresentando o Zoom IQ, um recurso que em breve fornecerá aos usuários análises em tempo real de emoções e envolvimento durante uma reunião virtual.

CONSULTE MAIS INFORMAÇÃO

Esta história faz parte do WIRED World in 2023, nosso briefing anual de tendências. Leia outros artigos desta série aqui – baixe ou solicite um exemplar da revista.

Em 2023, as empresas de tecnologia começarão a lançar chatbots avançados que podem imitar de perto as emoções humanas e criar conexões mais empáticas com os usuários nos setores bancário, educacional e de saúde. O chatbot Xiaoice da Microsoft já está indo bem na China, com usuários interagindo com ele mais de 60 vezes por mês, em média. Ele também passou no teste de Turing: os usuários não conseguiram reconhecê-lo como um bot em 10 minutos. Uma análise da consultoria Juniper Research mostra que o número de interações com chatbots na área da saúde aumentará quase 167% em relação a 2018, atingindo 2, 8 mil milhões de interações anuais em 2023. Isto irá libertar tempo da equipa médica e potencialmente poupar cerca de 3, 7 mil milhões de dólares para os sistemas de saúde em todo o mundo.

Em 2023, a IA emocional também se tornará comum nas escolas. Em Hong Kong, algumas escolas secundárias já utilizam um programa de inteligência artificial desenvolvido pela Find Solutions AI, que mede os micromovimentos dos músculos no rosto dos alunos e identifica uma série de emoções negativas e positivas. Os professores utilizam este sistema para monitorar mudanças emocionais nos alunos, bem como sua motivação e concentração, permitindo-lhes tomar medidas oportunas caso um aluno perca o interesse.

O problema é que a maior parte da IA ​​emocional é baseada em ciência pobre. Os algoritmos de IA emocional, mesmo quando treinados em conjuntos de dados grandes e diversos, reduzem as expressões faciais e os tons às emoções, sem levar em conta o contexto social e cultural da pessoa e da situação. Por exemplo, os algoritmos podem reconhecer e relatar que uma pessoa está chorando, mas nem sempre conseguem determinar com precisão a causa e o significado das lágrimas. Da mesma forma, um rosto carrancudo não significa necessariamente que uma pessoa esteja com raiva, mas é provável que o algoritmo chegue a essa conclusão. Por que? Todos nós adaptamos as nossas expressões emocionais de acordo com as normas sociais e culturais, por isso as nossas expressões nem sempre são um verdadeiro reflexo do nosso estado interior. Muitas vezes as pessoas fazem “trabalho emocional” para mascarar as suas emoções reais, e a forma como expressam as suas emoções é provavelmente uma resposta aprendida e não uma expressão espontânea. Por exemplo, as mulheres são frequentemente mais propensas do que os homens a modificar as suas emoções, especialmente aquelas às quais são atribuídos significados negativos, como a raiva, porque isso é esperado delas.

Assim, as tecnologias de IA que fazem suposições sobre estados emocionais são susceptíveis de exacerbar a desigualdade racial e de género na nossa sociedade. Por exemplo, um relatório da UNESCO de 2019 mostra o impacto negativo de uma abordagem de género à tecnologia de IA, onde sistemas de assistentes de voz “femininos” são criados de acordo com estereótipos de passividade emocional e subserviência.

A IA de reconhecimento facial também pode perpetuar a desigualdade racial. Uma análise de 400 jogos da NBA usando dois programas populares de reconhecimento de emoções – Face e Face API da Microsoft – descobriu que os jogadores negros, em média, experimentaram mais emoções negativas, mesmo quando sorriam. Estes resultados apoiam outras pesquisas que mostram que se espera que os homens negros projetem emoções mais positivas no local de trabalho porque são estereotipados como agressivos e ameaçadores.

As tecnologias de IA emocional tornar-se-ão mais comuns em 2023, mas, se não forem contestadas e examinadas, reforçarão os preconceitos raciais e de género sistémicos, reproduzirão e intensificarão as desigualdades no mundo e prejudicarão ainda mais aqueles que já são marginalizados.

Rate article