O sinal para a ajuda que eu criei torno u-se viral. Agora pode ser usado para outros fins

Os esforços be m-intencionados para integrar o sinal da mão com tecnologias digitais podem expor pessoas vulneráveis ​​aos perigos da detecção e escalada da violência.

Colagem de fotos com a imagem de um sinal de ajuda com um rosto distorcido e um símbolo de ansiedade

Salve esta história
Salve esta história

Logotipo

Banco de dados de inteligência artificial →

Em 2020, ajudei a criar um “sinal de ajuda” – um sinal com uma mão que diz a amigos, parentes e estranhos: “Preciso que você me verifique de uma maneira segura”. Nossa equipe promoveu um “sinal de ajuda” nas redes sociais, antecipando o crescimento da violência de gênero associada à pandemia, e torno u-se viral em novembro de 2021, durante a ansiedade, as instruções para permanecer em casa e a disseminação de videochamadas.

Opinion Wired
Sobre o site

Andrei Gunraj – Vic e-presidente de interação pública com o Canadian Women’s Fund. Ela lidou com a prevenção da violência e intervenção de gênero, igualdade e inclusão, prática ant i-radiológica sistêmica, direitos humanos e saúde sexual e reprodutiva. Ela gosta de feminismo interseccional e educação pública inovadora, é treinadora, oradora e autora.

Casos de uso de mulheres e meninas para obter ajuda para receber assistência em situações perigosas estavam nas notícias. Por exemplo, uma mulher usou um sinal de ajuda durante uma parada de transporte para obter ajuda de um marido cruel e a outra para notificar a equipe do posto de gasolina de que ela estava segurando seu e x-namorado brutal contra sua vontade. Como resultado, as pessoas be m-intencionadas estão tentando integrar um sinal para obter ajuda nas tecnologias digitais. Uma das empresas que possui ferramentas para trabalhar com câmeras de inteligência artificial solicitadas a incorporar um reconhecimento de sinal para obter ajuda em seu sistema de segurança, e essas tentativas amadoras foram discutidas nas redes sociais.

A chamada é óbvia: o reconhecimento automático pode ser útil para um amigo ou colega que está do outro lado da videochamada, que pode não notar uma pessoa usando um sinal para obter ajuda. O desejo das pessoas de ajudar aqueles que podem estar em perigo é digno de admiração, mas essas novas aplicações da tecnologia entendem incorretamente o objetivo e o uso de um sinal de ajuda.

Tais tentativas fazem parte da tendência crescente no uso da inteligência artificial para reconhecer o desastre: experimentos sobre o desastre reconhecem no gado, como galinhas, gado e porcos, dão resultados promissores, uma vez que a IA, ao que parece, é melhor que o nu ouvido, sinais de cakofonia de gritos, gritos e animais grunhidos.

Mas as pessoas não são galinhas ou gado. A intenção de abusar e controlar pode transformar os luditas em especialistas. Nas relações perigosas, sempre surge a questão que é responsável pela técnica.

Um sinal de ajuda é intencionalmente uma ferramenta efêmera projetada para ajudar as pessoas a se comunicar sem dizer uma palavra e não deixar traços digitais. Isso me dói … eu não posso dizer em voz alta … você estará perto enquanto eu descobrir? A fadiga é uma característica importante, dado que os atacantes tendem a controlar e manipular. Eles escondem, perseguem e monitoram os dispositivos. Os abrigos femininos ajudam regularmente as vítimas a lidar com smartphones hackeados, aplicativos indesejáveis ​​para rastrear a localização e a gravação de voz, câmeras escondidas e afins. Os conselhos de anúncios, redes sociais e até o rádio de verão podem ajudar os invasores a zombar das pessoas que supostamente amam. No caso de um “sinal de ajuda”, os invasores podem usar o mesmo mecanismo de inteligência artificial, criado para garantir a segurança, para avis á-los de que a pessoa a quem eles causam dor tenta usar o “sinalização de ajuda”.

Existem outros problemas relacionados às ferramentas de IA para detectar angústia nas pessoas. Isso inclui programas para digitalizar estudantes de estudantes e procurar informações na Internet para aut o-mutilação e violência, bem como identificar confusão, tédio e distração dos estudantes no público virtual. Além de considerações éticas e questões de confidencialidade, sua aplicação se baseia na crença de que podemos determinar com segurança que alguém estava com problemas e agir de acordo com isso, de modo a realmente ajud á-lo. Essas ferramentas funcionam com base em uma fé positivista de que, quando uma pessoa está sofrendo, ele expressa essas maneiras externamente previsíveis. E quando expressam isso, desejam uma certa intervenção.

Mais popular
A ciência
Uma bomba demográfica de uma ação lenta está prestes a atingir a indústria de carne bovina
Matt Reynolds
Negócios
Dentro do complexo supe r-secreto Mark Zuckerberg no Havaí
Gatrine Skrimjor
Engrenagem
Primeira olhada em Matic, um aspirador de robô processado
Adrienne co
Negócios
Novas declarações de Elon Mask sobre a morte de um macaco estimulam novos requisitos para a investigação da SEC
Dhruv Mehrotra

No entanto, estudos mostram que nossa suposição de que o patrimônio humano corresponde a emoções não é totalmente verdadeiro. A discrepância entre o corpo e as emoções pode ser mais pronunciada em relacionamentos prejudiciais. As pessoas que estão sujeitas a violência falam de desunião, sobre a necessidade de “deixar seu corpo” para sobreviver. Alguns dizem que precisam fazer todo o possível para esconder o ressentimento, lesão e dor, que são forçados a fazer isso para apaziguar os infratores e observadores de terceiros que os apoiam. Eles falam sobre como monitoram cuidadosamente cada um de seus movimentos, como mastigam, pisam e respiram e o que são punidos quando simplesmente existem, para que isso irrite seus criminosos.

Não tenho certeza se podemos obter dados para lidar com esse desequilíbrio aterrorizante de forças. Existem muitos exemplos de como as ferramentas de inteligência artificiais agem com base em nossos preconceitos, discriminação e interpretações incorretas, refletindo nossa preguiça e visões distorcidas. Relacionamentos prejudiciais parecem ser um conjunto particularmente difícil de dados.

E como reagir se é descoberto que uma pessoa sofreu de violência? O alarme será enviado, digamos, ao serviço de resgate, à polícia ou a um amigo? E se fizer mais mal do que bem? O período mais perigoso para uma mulher em violência ocorre quando ela age para se afastar de um parceiro em violência. Tomar medidas pode provocar um invasor para aumentar a violência e é mais provável que aceite uma circulação fatal. E aqueles que estão passando por alto risco de violência de gênero, incluindo mulheres e mulheres raciais entre povos indígenas, mulheres com deficiência, bem como quires e transexuais, enfrentam perigos únicos na interação com as autoridades.

Quando mulheres e pessoas com diferentes sexos não podem se afastar de seus criminosos, quando não chamam a polícia ou não vão ao hospital, eles têm suas próprias razões. As ações iniciadas pela inteligência artificial são uma ferramenta estúpida em situações tão difíceis.

As ferramentas para detectar abusos e responder a eles usando a IA podem nos privar da oportunidade de escolher, mas o término das experiências é uma reação. A saída é não parar de procurar maneiras pelas quais a IA pode nos ajudar a acabar com o abuso. Mas devemos perceber melhor seus riscos e armadilhas. Vozes sábias exigem cálculos que levam em consideração lesões, reconhecimento de que a tecnologia pode criar e agravar lesões e um desejo constante de evit á-las, bem como um design baseado nas realidades das pessoas que buscam igualdade. Em vez de exigir que as tecnologias identifiquem abusos, poderíamos direcionar seu potencial em uma direção diferente. Talvez a IA nos ajude a fortalecer a confiança e a competência na resposta proativa a sinais sobre abuso na vida de pessoas próximas a nós, independentemente de elas usarem o sinal para obter ajuda ou não. Talvez ele nos permita assumir uma posição imparcial e oferecer ajuda às vítimas no espírito de preocupação, confronta nossa tendência cultural de ignorar e estigmatizar com vergonha.

Você estará ao meu lado? Talvez a inteligência artificial nos ajude a aprender a se tornar excelentes assistentes que sabem como responder em todas as situações únicas.

A opinião da Wired publica artigos de autores de terceiros, representando uma ampla gama de pontos de vista. Leia outras opiniões aqui, além de se familiarizar com nossas regras para enviar artigos aqui. Você pode enviar o artigo no site da opinião@wird. com.

Rate article