Os americanos precisam de um projeto de lei sobre direitos no mundo onde a IA domina

O Departamento de Política Científica e Técnica da Casa Branca desenvolve os princípios de proteção contra tecnologias poderosas com a participação do público.

Colagem de imagens de gráficos de reconhecimento de inteligência artificial e fragmentos distorcidos da Constituição com a inscrição que o Peopl

Salve esta história
Salve esta história

Logotipo

Banco de dados de AI →

Na última década, a tecnologia baseada em dados mudou o mundo ao nosso redor. Vimos o que podemos alcançar coletando uma grande quantidade de dados e aprendendo inteligência artificial de sua interpretação: computadores que aprendem a traduzir idiomas, sistemas de reconhecimento facial que desbloqueiam nossos smartphones, algoritmos que detectam cânceres nos pacientes. As possibilidades são ilimitadas.

Opinion Wired
Sobre o site

Eric Lander é consultor do Presidente em Ciência e Diretor da Política Científica e Técnica da Casa Branca. Alondra Nelson – Diretor Adjunto de Ciência e Sociedade do Departamento de Política Científica e Técnica da Casa Branca.

Mas essas novas ferramentas levaram a problemas sérios. O que os carros aprendem depende de muitas coisas – incluindo os dados usados ​​para o treinamento.

Conjuntos de dados que não refletem a sociedade americana podem levar à criação de assistentes virtuais que não entendem o sotaque sul; tecnologias de reconhecimento que levam a prisões discriminatórias ilegais; Algoritmos de saúde que não levam em consideração a gravidade da doença renal em afr o-americanos, não permitindo que as pessoas obtenham transplante renal.

O treinamento em carros com base em exemplos anteriores pode corrigir preconceitos passados ​​e possibilitar a discriminação moderna. Ferramentas para contratar, estudar as características dos funcionários da empresa, podem rejeitar candidatos que não são semelhantes à equipe existente, apesar das altas qualificações – por exemplo, programadores de mulheres. Os algoritmos para aprovação de uma hipoteca para determinar a credibilidade pode concluir facilmente que certos índices de correio das casas se correlacionam com a racial e a pobreza, que transfere décadas de discriminação no setor habitacional para a era digital. A IA pode recomendar assistência médica a grupos que mais frequentemente entram em contato com os hospitais, e não para quem mais precisa. O treinamento suficiente da inteligência artificial na Internet pode levar a “análise de humor”, que considera as palavras “preto”, “judeu” e “gay” como negativo.

Essas tecnologias também levantam questões sobre confidencialidade e transparência. Quando pedimos à nossa coluna inteligente para ligar a música, ela escreve o que nossos filhos dizem? Quando um aluno passa no exame o n-line, sua webcam deve seguir todos os seus passos? Temos o direito de saber por que fomos recusados ​​um empréstimo para a compra de moradia ou em uma entrevista?

Além disso, há um problema de abuso deliberado de IA. Algumas autocracias o usam como um instrumento de inibição, separação e discriminação do estado.

Nos Estados Unidos, algumas das falhas podem não ser intencionais, mas são sérias e desproporcionalmente afetam pessoas e comunidades já marginalizadas. Eles geralmente são o resultado do fato de que os desenvolvedores da IA ​​não usam os conjuntos de dados apropriados e não conduzem uma auditoria abrangente de sistemas e também não atraem vários pontos de vista para discutir e eliminar problemas antes do uso de produtos ( ou destruir produtos que não podem ser corrigidos).

Em condições de concorrência no mercado, pode parecer mais fácil cortar os cantos. Mas é inaceitável criar sistemas de inteligência artificiais que prejudicam muitas pessoas, assim como é inaceitável para criar produtos farmacêuticos e outros produtos – sejam carros, brinquedos infantis ou dispositivos médicos – o que prejudicará muitas pessoas.

Os americanos têm o direito de esperar o melhor. Tecnologias poderosas devem ser exigidas pelo respeito por nossos valores democráticos e pela observação do postulado principal – uma atitude justa em relação a cada pessoa. A codificação dessas idéias pode ajudar nisso.

Mais popular
A ciência
Uma bomba demográfica de uma ação lenta está prestes a atingir a indústria de carne bovina
Matt Reynolds
Negócios
Dentro do complexo supe r-secreto Mark Zuckerberg no Havaí
Gatrine Skrimjor
Engrenagem
Primeira olhada em Matic, um aspirador de robô processado
Adrienne co
Negócios
Novas declarações de Elon Mask sobre a morte de um macaco estimulam novos requisitos para a investigação da SEC
Dhruv Mehrotra

Logo após a ratificação da Constituição, os americanos aceitaram a Declaração de Direitos para proteger contra o poderoso governo que acabamos de criar. Listou garantias como liberdade de expressão e reuniões, o direito ao procedimento adequado e um julgamento justo, bem como proteção contra pesquisas e prisões irracionais. Ao longo de nossa história, tivemos que interpretar, confirmar e expandir periodicamente esses direitos. No século XXI, precisamos de um “projeto de lei sobre direitos” para nos proteger das poderosas tecnologias que criamos.

Nosso país deve esclarecer os direitos e liberdades, conformidade com a qual esperamos das tecnologias com base em dados. O que exatamente acontecerá, requer discussão, mas aqui estão algumas opções possíveis: seu direito de saber quando e como a IA afeta uma decisão que afeta seus direitos civis e liberdades civis; Sua liberdade da influência da IA, que não passou por um teste completo de precisão, imparcialidade e treinamento para conjuntos de dados suficientemente representativos; Sua liberdade de toda s-observação e monitoramento perversas ou discriminatórios em sua casa, sociedade e local de trabalho; Seu direito à proteção significativa se o uso do algoritmo prejudicar você.

Obviamente, a transferência de direitos é apenas o primeiro passo. O que podemos fazer para proteg ê-los? Em particular, o governo federal pode se recusar a comprar software ou produtos tecnológicos que não cumpram esses direitos, a obrigar os contratados federais a usar as tecnologias que correspondem a esse “projeto de lei sobre direitos” ou adotar novas leis e regulamentos para eliminar os espaços. Os estados podem tomar medidas semelhantes.

Nos próximos meses, o Departamento de Políticas Científicas e Técnicas da Casa Branca (que lideramos) desenvolverá essa declaração de direitos, trabalhando com parceiros e especialistas de autoridades federais, círculos científicos, sociedade civil, setor privado e comunidades em todo o país.

As tecnologias podem trabalhar para todos apenas se todos estiverem envolvidos neles, por isso queremos ouv i-los e discut i-los com todos. Você pode nos escrever diretamente no endereço ai-i-equity@ostp. eop. gov.

Hoje começamos com um pedido público de informações sobre tecnologias usadas para identificar as pessoas e determinar suas características, que são frequentemente chamadas de biométricas – incluindo pessoas, bem como sistemas que podem reconhecer e analisar sua voz, movimentos físicos e gestos, freqüência cardíaca e muita coisa Outro. Começamos com esse tópico, porque eles são amplamente utilizados e nos desenvolvem rapidamente, não apenas para identificação e observação, mas também para determinar nosso estado e intenções emocionais. Queremos ouvir especialistas sobre a coleta e o uso de dados biométricos, bem como muitos outros: viajantes que são solicitados a escanear seu rosto antes de desembarcar em um avião, funcionários cujos empregadores lhes deram rastreadores de fitness para monitorar a fadiga e professores cuja palestra virtual Os programas são chamados mostram qual dos alunos não está atento na lição.

Rate article