Na Ucrânia, a identificação dos mortos custa um centavo

O governo usa a inteligência artificial do Clearview para identificar soldados russos caídos, mas isso distrai a atenção dos perigos associados ao reconhecimento de pessoas.

Um soldado verifica os destroços

Salve esta história
Salve esta história

Cinco dias após o início da invasão em escala completa da Rússia na Ucrânia, há um ano, nesta semana, a empresa americana Clearview AI ofereceu ao governo ucraniano acesso livre à sua tecnologia para reconhecer pessoas, propondo us á-lo para reunir famílias, identificar combatentes russos e lutar desinformação. Logo depois, o governo ucraniano informou que estava usando essa tecnologia para escanear os rostos dos soldados russos mortos para identificar seus corpos e notificar suas famílias. Em dezembro de 2022, Mikhail Fedorov, vice-primeiro-ministro e ministro da Transformação Digital da Ucrânia, publicou no Twitter uma fotografia de si mesmo com o CEO da Clearview AI Hoan Tons-Thatt, agradecendo à empresa por apoio.

Contabilizar os mortos e informar as famílias sobre o destino de seus parentes é um imperativo dos direitos humanos, registrados em tratados, protocolos e leis internacionais, como as convenções de Genebra e os principais princípios de tratamento digno do comitê internacional morto da Cruz Vermelha (ICRC). Também está associado a obrigações muito mais profundas. Cuidar dos mortos é uma das práticas humanas mais antigas que nos torna pessoas como uma linguagem e capacidade de introspecção. O historiador Thomas Lacker, em sua meditação épica “The Work of the Dead”, escreve que “desde que as pessoas começaram a discutir esse tópico, a preocupação com os mortos foi considerada a base da religião, estado, clã, tribo, capacidade de lamentar, compreensão O membro da vida, a própria civilização. “Mas a identificação dos mortos usando a tecnologia do reconhecimento de pessoas usa o peso moral desse tipo de cuidado para autorizar a tecnologia que causa sérios problemas com os direitos humanos.

Na Ucrânia, onde a guerra mais sangrenta da Europa está em andamento desde a Segunda Guerra Mundial, o reconhecimento de pessoas pode parecer outra ferramenta para resolver o problema sombrio de identificar os caídos, juntamente com os registros digitalizantes em mordides, laboratórios de DNA móvel e exumação de enterros em massa.

Mas ela trabalha? Ton, isso afirma que a tecnologia de sua empresa “funciona de maneira eficaz, independentemente dos danos ao rosto que podem ser infligidos a uma pessoa falecida”. Existem poucos estudos confirmando essa afirmação, mas os autores de um pequeno estudo consideraram os resultados “promissores”, mesmo para pessoas que estão em estado de decomposição. No entanto, o antropólogo judicial Luis Fontrider, e x-chefe do serviço médico forense do CICV, que trabalhou em zonas de conflito em todo o mundo, lança dúvidas sobre essas alegações.”Essa tecnologia não tem confiabilidade científica”, diz ele.”Isso não é absolutamente aceito pela comunidade forense”.(A identificação do DNA continua sendo o padrã o-ouro.) Os forenses “entendem a tecnologia e a importância de novos desenvolvimentos”, mas uma pressa usando o reconhecimento de pessoas, de acordo com o Fontrandraid, é “uma combinação de política e negócios com uma pequena parcela da ciência . “”Não há soluções mágicas para identificação”, diz ele.

O uso da tecnologia não verificada para a identificação de soldados caídos pode levar a erros e ferir famílias. “Mas mesmo que o uso do reconhecimento de pessoas na forense fosse apoiado por dados científicos, não pode ser usado para estabelecer os nomes dos mortos. é muito perigoso para os vivos.

Se inscrever
Inscrev a-se na Wired e mantenh a-se a par de todas as suas idéias favoritas.

Organizações como a Anistia Internacional, a Fundação Eletrônica Frontier, o Projeto de Supervisão da Tecnologia de Surveilância e o Projeto de Defesa de Imigrantes, anunciaram a tecnologia de pessoas de monitoramento em massa, que ameaçam a vida privada, aprimora a vida privada, os métodos da Polícia do Racisis TSE, ameaçam o direito de protestar e pode levar a uma prisão ilegal. Damini Satija, chefe da responsabilidade algorítmica da Anistia Internacional e Vic e-Diretora de Tecnologia de Anistia, afirma que a tecnologia de reconhecimento de pessoas mina os direitos humanos, “reproduzindo a discriminação estrutural em uma escala, automatizando e corrigindo a desigualdade social existente”. Na Rússia, a tecnologia de reconhecimento de pessoas é usada para suprimir a dissidência política. Ele não cumpre os padrões legais e éticos quando usado em agências policiais da Gr ã-Bretanha e dos Estados Unidos e é usado contra comunidades marginais em todo o mundo.

A Clearview AI, que vende principalmente os seus produtos à polícia, tem uma das maiores bases de dados conhecidas de fotografias faciais, com 20 mil milhões de imagens, e planeia recolher mais 100 mil milhões de imagens, o equivalente a 14 fotografias de cada pessoa no planeta. A empresa prometeu aos investidores que em breve “quase todas as pessoas no mundo serão identificadas”. Reguladores em Itália, Austrália, Reino Unido e França declararam ilegal a base de dados da Clearview e ordenaram que a empresa removesse fotografias dos seus cidadãos. Na UE, a coligação Reclaim Your Face, que reúne mais de 40 organizações públicas, apelou à proibição total da tecnologia de reconhecimento facial.

A pesquisadora de ética em IA, Stephanie Hair, diz que a Ucrânia está “usando uma ferramenta e promovendo uma empresa e um CEO que se comportaram não apenas de forma antiética, mas também ilegal”. Ela sugere que este é um caso de “os fins justificam os meios”, mas pergunta: “Por que é tão importante que a Ucrânia possa identificar soldados russos mortos usando Clearview AI? Como isso é necessário para proteger a Ucrânia ou vencer a guerra?”

Mais popular
A ciência
Uma bomba-relógio demográfica está prestes a atingir a indústria da carne bovina.
Matt Reynolds
Negócios
Dentro do complexo ultrassecreto de Mark Zuckerberg no Havaí
Guthrie Scrimgeour
Engrenagem
Primeiro, dê uma olhada no Matic, o aspirador robô redesenhado
Adriane So
Negócios
As novas alegações de Elon Musk sobre a morte de macacos estimulam novas demandas de investigação da SEC
Dhruv Mehrotra

Penso que a resposta a estas perguntas pode ser encontrada na entrevista de Fedorov no início da guerra. O jornalista perguntou a ele: “Que casos de uso do Clearview AI você tem em mente?”Fedorov respondeu: “Eu começaria dizendo que a maioria desses casos de uso não serão públicos, não poderemos compartilhá-los com o público. Mas algo que posso dizer brevemente é… tentar identificar militares russos que foram mortos ou capturados na Ucrânia.”

Esta entrevista e outras semelhantes indicam que a tecnologia Clearview AI está a ser usada na Ucrânia para muitos fins, mas apenas a sua utilização potencialmente positiva para identificar os mortos está a ser discutida publicamente. Por outras palavras, temos uma prévia, destacando as aplicações humanitárias, enquanto as aplicações mais controversas ficam ocultas. Numa altura em que a Clearview AI enfrentava ações judiciais dos reguladores devido à sua utilização no policiamento, a empresa encontrou uma forma de se reinventar como fornecedora de tecnologia humanitária, ao mesmo tempo que expandia o seu âmbito da aplicação da lei para o setor militar.

Uma vez que a UE reconhece o reconhecimento facial como uma tecnologia de «dupla utilização», com aplicações militares e civis, a sua utilização na guerra para qualquer fim, incluindo a identificação de mortos, deve ser sujeita a controlos e supervisão rigorosos. E no campo de batalha, o reconhecimento facial pode ser usado não apenas para identificar os mortos, mas também para derrotar os vivos – por exemplo, quando incorporado em drones e metralhadoras, ou no desenvolvimento de armas letais autônomas. Drones totalmente autônomos já foram implantados na Ucrânia, e um fabricante russo anunciou planos para desenvolver veículos robóticos de combate não tripulados. Fedorov disse recentemente que os drones assassinos totalmente autônomos são o “próximo passo lógico e inevitável” no desenvolvimento de armas.

Satija, da Amnistia Internacional, afirma que “Os robôs assassinos não são apenas um sistema ao estilo do Exterminador do Futuro. É um sistema que pode seleccionar e atacar um alvo humano sem controlo humano real e é construído sobre tecnologias que irão acelerar a violência e a discriminação. Quando apelamos à regulamentação e linhas vermelhas em torno de armas autônomas, e também falamos sobre componentes desses sistemas, como o reconhecimento facial, que por natureza violam os padrões internacionais de direitos humanos.”

Em última análise, os rostos dos soldados mortos escaneados pela Clearview AI abafam essas outras aplicações. A antropóloga Catherine Verdery, escrevendo sobre a vida política dos cadáveres, mostra que os cadáveres são mudos e mutáveis ​​- “símbolos ambíguos e proteicos” que podem ser usados ​​para uma variedade de propósitos políticos. Em nome dos mortos, o reconhecimento facial recebe um pretexto humanitário que obscurece o seu papel na vigilância em massa emergente e na futura violência automatizada.

Rate article