O argumento para delegar moralidade à inteligência artificial

Tudo começou com um artigo obscuro em um jornal obscuro, publicado no momento em que o último inverno da IA ​​começava a derreter. Em 2004, Andreas Matthias escreveu um artigo com o título enigmático “The Responsibility Gap: Attributing Responsibility for the Actions of Learning Automata”. Nele, ele apontou um novo problema com os sistemas modernos de IA baseados nos princípios do aprendizado de máquina.

Antigamente fazia sentido responsabilizar o fabricante ou operador de uma máquina caso esta causasse danos, mas com o advento de máquinas que podem aprender com as suas interações com o mundo, esta prática tornou-se menos significativa. Os autómatos de aprendizagem (para usar a terminologia de Matthias) podiam fazer coisas que não eram nem previsíveis nem razoavelmente previsíveis pelos seus supervisores humanos. Além disso, eles poderiam fazer essas coisas sem supervisão ou controle humano direto. Responsabilizar as pessoas pelas ações das máquinas não seria mais moral ou legalmente justo. Mathias argumentou que isso representava um dilema para a humanidade: impedir o desenvolvimento de autômatos de autoaprendizagem ou aceitar as “lacunas” de responsabilidade que surgiriam como resultado de sua introdução.

Avançando para 2023, o dilema de Mathias não é mais apenas acadêmico. Este é um problema real e prático. Os sistemas de IA são, pelo menos causalmente, responsáveis ​​por numerosos abusos, incluindo discriminação nas sentenças e contratações baseadas em IA, e acidentes fatais em carros autónomos. Não é de surpreender que a literatura científica e política sobre “lacunas de responsabilização” tenha aumentado. O artigo de Matthias foi citado mais de 650 vezes (um número excepcionalmente elevado para um artigo de filosofia), e advogados e decisores políticos estão a trabalhar arduamente para clarificar e colmatar a lacuna que Matthias identificou

SE INSCREVER
Assine o WIRED e fique atualizado com todas as suas ideias favoritas.

No entanto, a suposição de que a maioria de seus participantes compartilha interessante na discussão sobre a lacuna de responsabilidade: a responsabilidade humana é boa. É bom que as pessoas sejam responsáveis ​​por suas ações e sejam responsáveis ​​quando algo dá errado. E vic e-versa, seria ruim se os sistemas de inteligência artificial tivessem caos no mundo, e ninguém assumiria a responsabilidade por esse caos. Portanto, devemos encontrar uma maneira de eliminar lacunas de responsabilidade, expandindo os padrões legais/morais existentes de responsabilidade ou introduzindo padrões de responsabilidade mais rigorosos na implantação dos sistemas de IA.

Mas talvez a responsabilidade nem sempre seja boa. Talvez, seguindo a proposta original de Matias, algumas lacunas devam ser superadas em responsabilidade.

Vale lembrar as duas características do nosso mundo. Em primeiro lugar, nossas práticas de responsabilidade (no sentido, nossas normas e hábitos para culpar, envergonhar e punir um ao outro) têm seu próprio lado sombrio. Em segundo lugar, nossa vida cotidiana está repleta de “eleições trágicas”, ou seja, situações nas quais temos que escolher entre duas ações moralmente iguais ou próximas a iguais. Ambos os recursos estão relacionados à discussão sobre a quebra da responsabilidade.

Uma escola inteira de pensamento surgiu do lado sombrio da responsabilidade, que se refere criticamente à nossa prática de responsabilidade, especialmente no que diz respeito à justiça criminal. Gregg Karuzo, professor de filosofia da Universidade de Nova York, é um dos líderes desta Escola de Pensamento. Em uma entrevista comigo, ele argumentou que, se “olhasse cuidadosamente … então podemos descobrir que o sistema penitenciário está cheio de ferimentos, pobreza e disfunção social ao longo da vida”. Infelizmente, nossa atual prática de responsabilidade, com base no ideal de liberdade de vontade e justiça punitiva, não faz nada por uma séria superar essa lesão. Segundo Karuzo, esse sistema “considera o comportamento criminoso principalmente como uma questão de responsabilidade individual e termina a investigação no momento em que deve começar”. Se abandonássemos nosso sistema de justiça punitiva, poderíamos “aceitar métodos e políticos mais humanos e eficazes”. Caruso também observou que nossas emoções relacionadas à responsabilidade são o que os filósofos chamam de “atitudes reativas”, como ressentimento, raiva, indignação e acusação, “são frequentemente contraproducentes e destrutivas para nossas relações interpessoais”, porque “geram reações protetoras ou ofensivas e e e ofensivas e e reações e ofensivas e reações interpessoais e” geram reações protetoras ou ofensivas e e ofensivas, e não correção e reconciliação. “

Mais popular
A ciência
Uma bomba demográfica de uma ação atrasada está prestes a atingir a indústria de carne
Matt Reynolds
Negócios
Dentro do complexo supe r-secreto Mark Zuckerberg no Havaí
Gatrine Skrimjor
Engrenagem
Primeira olhada em Matic, um aspirador de robô processado
Adrienne co
Negócios
Novas declarações de Elon Mask sobre a morte de um macaco estimulam novos requisitos para a investigação da SEC
Dhruv Mehrotra

Obviamente, os defensores de nossa prática de responsabilidade podem dizer que, embora determinemos corretamente os culpados e distribuam corretamente a culpa, todo o sofrimento e ferimentos sobre os quais Caruso estão falando não importam. A punição deve ser dura e, em certo sentido, traumática. No entanto, isso ignora o crescente número de evidências de que muitas vezes acusamos as pessoas de bom grado, mesmo que os fatos não justifiquem nosso desejo de fazer isso. Estudos do psicólogo Mark Alik, por exemplo, mostram que as pessoas geralmente se envolvem na validação de culpa, ou seja, a princípio, descobrem quem culpar e depois encontram uma maneira de justificar isso. Juntos, esses dados vinculados aos argumentos de Karuzo sugerem que a prática atual de responsabilidade pode ser moralmente desumana e levar à liberação desnecessária de cabras, danos físicos e tormento psicológico.

Além disso, vários filósofos enfatizam a natureza trágica de nossa escolha moral. Lisa Tessman, da Universidade de Bingemton, é um dos defensores mais impressionantes e categóricos dessa idéia. Em seus livros, “fracasso moral” e “quando é impossível agir corretamente”, ela fala sobre numerosos dilemas morais e a escolha que encontramos na vida, e cada um dos quais implica um certo compromisso inevitável e difíci l-reabilitado entre considerações morais concorrentes entre . Aqui está um exemplo simples: imagine que você é pai de dois filhos. Você ama os dois e pensa que, do ponto de vista moral, eles merecem sua atenção e amor igualmente. No entanto, o mundo é o que é, e você geralmente precisa escolher entre eles visitando a partida de futebol de uma criança e perdendo o concerto de piano de outro (ou alguma variação sobre esse assunto). É isso que significa ser uma escolha trágica: ser forçado a escolher entre considerações morais incompetentes e/ou igualmente razoáveis. Quão comum é esse fenômeno? Como Tessman me disse, a intuição moral geralmente nos leva ao veredicto de que não podemos deixar de fazer algo, por exemplo, proteger nosso ente querido, mesmo que não possamos fazê-lo, ou realizar os dois dois não-perguntas que não perseguir requisitos ”. Essa experiência é tão comum que Tessman considera a “vida humana de tragédias completas”, porque “as pessoas são vulneráveis ​​à perda do fato de que somos profundamente apreciados e não podemos substituir … [e] frequentemente nos encontramos em situações em que Não podemos proteger os outros deles

Mais popular
A ciência
Uma bomba demográfica de uma ação atrasada está prestes a atingir a indústria de carne
Matt Reynolds
Negócios
Dentro do complexo supe r-secreto Mark Zuckerberg no Havaí
Gatrine Skrimjor
Engrenagem
Primeira olhada em Matic, um aspirador de robô processado
Adrienne co
Negócios
Novas declarações de Elon Mask sobre a morte de um macaco estimulam novos requisitos para a investigação da SEC
Dhruv Mehrotra

O exemplo dado aos pais e aos filhos é uma aposta relativamente baixa e um caso especial de escolha trágica. Existem muitas decisões públicas de alto risco que envolvem compromissos semelhantes. Consideremos decisões sobre a distribuição de recursos médicos escassos (o dilema “Quem fica com o ventilador?” que surgiu no início da pandemia de Covid-19) ou sobre a distribuição de oportunidades sociais (bolsas de estudo, financiamento). Qualquer pessoa que tenha tomado tais decisões sabe que muitas vezes elas se resumem a escolhas arbitrárias entre candidatos igualmente dignos. Embora algumas pessoas possam ignorar a tragédia óbvia inerente a tais decisões, outras sofrem com isso. Tessman argumenta que este sofrimento é uma resposta “apropriada” à tragédia generalizada. Mas algumas reações não são tão apropriadas: culpar moralmente as pessoas pelas suas escolhas em tais situações e puni-las por fazerem o que você considera escolhas erradas é perverso e injustificável. E ainda assim as pessoas muitas vezes não conseguem resistir ao impulso de fazê-lo.

Estas duas considerações – a responsabilidade tem um lado negro e as escolhas trágicas são comuns – dão-nos motivos para aceitar pelo menos algumas lacunas na responsabilidade. Mais precisamente, em qualquer contexto de tomada de decisão onde: a) nos deparamos com uma escolha trágica; b) atribuir responsabilidade a uma pessoa em tal contexto está repleto de bodes expiatórios desnecessários; c) um sistema de inteligência artificial é capaz de tomar as mesmas decisões que um ser humano, temos boas razões para preferir máquinas, mesmo que isso signifique que ninguém possa ser responsabilizado pelos resultados finais.

Outra forma de colocar a questão é: responsabilizar-nos mutuamente tem custos psicológicos e sociais. Pelo menos em alguns casos, impor estes custos é moralmente injustificável. Se nestes casos podemos delegar a tomada de decisões a máquinas, e estas máquinas não serão obviamente “piores” do que os humanos na tomada de tais decisões, então porque não deveríamos fazê-lo?

As objeções a esta proposta provavelmente surgirão rapidamente.

Em primeiro lugar, algumas pessoas podem objetar que essa proposta é psicologicamente impossível. As pessoas não vão comprar. O instinto de procurar um bode expiatório é muito forte. No entanto, existem alguns primeiros dados empíricos, indicando que as pessoas serão suscetíveis. Matthias Ul, psicólogo comportamental da Universidade Técnica de Ingolstadt na Alemanha, estuda esse fenômeno há algum tempo. Ele afirma que as pessoas comuns “sem problemas” são responsáveis ​​por sistemas de inteligência artificial, mesmo que “a ética considere isso um erro categórico”. Além disso, em um estudo recente realizado em conjunto com colegas, ele descobriu que as pessoas podem reduzir sua responsabilidade, delegando a tomada de decisão às máquinas. No estudo, as pessoas foram convidadas a “transmitir a tarefa com consequências potencialmente prejudiciais para outra pessoa … ao carro ou faz ê-lo por nós mesmos”. Ul e seus colegas descobriram que “se o carro não pudesse lidar … [pessoas que delegavam os poderes] foram punidas pelas vítimas menos severamente do que se não pudessem lidar com eles”. O mesmo efeito não surgiu se eles delegassem a tarefa a outra pessoa. Ul, que não deixou de observar que essa conclusão precisa de uma confirmação mais completa, no entanto, acredita que o experimento “parece indicar que as pessoas podem reduzir com sucesso a responsabilidade moral percebida pela delegação de poderes aos veículos”.

Mais popular
A ciência
Uma bomba demográfica de uma ação atrasada está prestes a atingir a indústria de carne
Matt Reynolds
Negócios
Dentro do complexo supe r-secreto Mark Zuckerberg no Havaí
Gatrine Skrimjor
Engrenagem
Primeira olhada em Matic, um aspirador de robô processado
Adrienne co
Negócios
Novas declarações de Elon Mask sobre a morte de um macaco estimulam novos requisitos para a investigação da SEC
Dhruv Mehrotra

Outros podem objetar que essa proposta não é moralmente possível. Mesmo que as pessoas punirem menos voluntariamente os outros em caso de delegação de poderes nas máquinas, elas não serão moralmente justificadas neste caso. Se eu decidir delegar algum tipo de escolha trágica de inteligência artificial – por exemplo, a escolha da distribuição de equipamentos médicos escassos – ainda serei responsável por essa escolha, porque fiz uma escolha a favor da delegação. As pessoas podem me culpar bastante por isso e pelas conseqüências da delegação. A responsabilidade moral não desaparece, simplesmente volta um passo para trás.

No entanto, existem dois problemas com essa objeção. Em primeiro lugar, mesmo que haja uma responsabilidade pela decisão sobre a delegação, é de natureza diferente da responsabilidade pela distribuição de equipamentos médicos. O delegado não pode ser acusado do fato de que o sistema de inteligência artificial escolheu exatamente a distribuição à qual veio. Como resultado, o nível geral de culpa é reduzido e o sofrimento desnecessário e as punições são reduzidas, o que pode surgir como resultado de uma decisão sobre distribuição. O vinho moralmente justificado diminui se não desaparecer. Em segundo lugar, a objeção perde a essência. A essência do argumento é que há casos em que é injusto e moralmente caro atribuir responsabilidade por uma pessoa pela decisão. Nesses casos, a delegação deve ser uma opção.

Finalmente, alguém pode objetar que as lacunas de responsabilidade neste caso significam dar o primeiro passo ao longo do caminho escorregadio. O que fazer com assuntos insidiosos que desejam evitar a responsabilidade por suas ações? Segundo alguns, existe um risco real de que as entidades corporativas e governamentais “lavam” sua responsabilidade moral e legal com a ajuda de máquinas. De fato, já vemos como isso acontece. Lembr e-se de como o Facebook recusa a responsabilidade pelo conteúdo prejudicial ou odiado que as pessoas veem em sua plataforma. Quando são questionados sobre isso, tentam corrigir o problema, mas afirmam que não são os culpados, mas um algoritmo. Mas eles não decidiram criar e monetizar a plataforma com uma certa regulamentação algorítmica? Eles não assumem a responsabilidade por isso? E o experimento não diz que existe um perigo real de que as pessoas não farão isso?

Esta, na minha opinião, é a objeção mais séria a esta proposta. Mesmo que haja alguns casos em que a separação de responsabilidade seja be m-vinda, também existem alguns (possivelmente muitos) casos em que não é be m-vindo. Não será fácil alcançar o equilíbrio correto, mas o risco de delegação irracional não é um motivo para recusar a delegação razoável. Eu não defenderia a delegação imprudente ou geral das máquinas; Devemos abordar cuidadosamente e cuidadosamente a escolha de condições adequadas para a delegação. Verificações e auditoria periódicas de nossas decisões sobre a transferência de funções para terceirização seriam apropriadas. No entanto, essa não é uma razão para nunca recorrer a serviços de terceirização. Também não é um motivo para eliminar todas as lacunas de responsabilidade. A tragédia de muitas decisões morais e o desejo de punição excessiva nos dão motivos para aceit á-los em alguns casos.

Rate article