‘Esta IA é sapiente?’Esta é a pergunta errada a ser feita sobre o LaMDA

A questão maior é o que acontece quando nos comportamos como se a IA fosse consciente e como isso pode ser usado contra nós.

Blake Lemuan

Salve esta história
Salve esta história

Logotipo

Banco de dados de IA →

Processamento de linguagem natural

Há um elemento curioso na agitação levantada por Blake Lemoine, um engenheiro do Google que acha que um dos programas de bate-papo mais sofisticados da empresa, o Modelo de Linguagem para Aplicações Conversacionais (LaMDA), é válido: os verdadeiros especialistas em ética em IA estão praticamente se recusando a discuti-lo. mais perguntas sobre a inteligência da IA ​​ou considerá-la uma pista falsa. E eles fazem isso direito.

Lendo a transcrição editada que Lemoine postou, ficou bastante claro que o LaMDA extraiu texto de vários sites; sua interpretação de um koan Zen poderia ter vindo de qualquer lugar, e sua fábula parecia uma história gerada automaticamente (embora a representação de um monstro “em pele humana” fosse um toque delicioso do HAL-9000). Não havia nenhuma centelha de consciência nela, apenas pequenos truques de mágica para tapar as rachaduras. Mas olhando para as reações das redes sociais à transcrição, é fácil ver como alguém pode ser enganado: até mesmo algumas pessoas instruídas expressam surpresa e vontade de acreditar. Portanto, o risco não é que a IA seja verdadeiramente inteligente, mas que tenhamos uma boa chance de criar máquinas complexas que possam imitar os humanos a tal ponto que não possamos deixar de antropomorfizá-las, e que as grandes empresas de tecnologia sejam capazes de explorar isso para fins profundamente antiéticos.

Como evidenciado pela maneira como tratamos animais de estimação, interagimos com Tamagotchis ou recarregamos um save em videogames se acidentalmente fizermos um NPC chorar, podemos realmente ter empatia por um não-humano. Imagine o que tal IA poderia fazer se agisse, digamos, como psicoterapeuta. O que você estaria disposto a dizer a ele? Mesmo se você “soubesse” que não era humano? E quanto valeriam esses dados valiosos para a empresa que programou o bot de terapia?

Isso está se tornando mais terrível. O engenheiro e historiador do sistema Lilly Ryan alerta que o que ela chama de EC T-Metadan – Metadan, que você deixa na rede e que ilustra seus pensamentos, ficará vulnerável à operação em um futuro próximo. Imagine o mundo em que a empresa criou um bot baseado em você e possui seu “fantasma” digital após sua morte. Para tais fantasmas de celebridades, velhos amigos e colegas, um mercado inteiro estaria pronto. E como eles nos parecerão preencher pessoas (ou aquelas com quem já desenvolvemos relações parasicais), elas servirão para obter ainda mais dados. Isso dá um significado completamente novo à idéia de “necropolitan”. A vida após a morte pode ser real e o Google pode possu í-lo.

Assim como Tesla anuncia cuidadosamente seu “piloto automático”, nunca dizendo que pode dirigir independentemente um carro de uma maneira verdadeiramente futurista, mas, ao mesmo tempo É possível. Que as empresas poderão anunciar o realismo e a humanidade da IA ​​como a Lamda de forma a não fazer declarações realmente selvagens, mas ao mesmo tempo para nos encorajar a antropomórficos ele exatamente como enfraquecer a vigilância . Nada disso exige que a IA seja razoável, e tudo isso precede a singularidade. Em vez disso, ele nos leva a uma questão sociológica mais enlameada sobre como nos relacionamos com nossas tecnologias e o que acontece quando as pessoas se comportam como se sua IA fosse razoável.

No trabalho, os acadêmicos “parentesco com carros” Jason Edward Lewis, Noahlai Arist, Archer Pravis e Suzanne Kait estão considerando vários pontos de vista com base no filosofia dos povos indígenas no campo da ética da IA ​​para descobrir que tipo de relacionamento mantemos Com nossos carros e não simule se não simulamos se estamos modelando algo é realmente terrível com eles, como algumas pessoas, mostrando sexismo ou outros insultos em relação aos seus assistentes virtuais, codificados principalmente em um sexo feminino. Em sua parte do trabalho de Suzanne, Kaita depende da ontologia da tribo Lakot, alegando que é importante admitir que a racionalidade não determina os limites de quem (ou o que) é uma “criatura” digna de respeito.

Se inscrever
Inscrev a-se na Wired e mantenh a-se a par de todas as suas idéias favoritas.

Este é o verso do dilema ético da IA, que já existe: as empresas podem lucrar conosco se tratarmos suas botas de bat e-papo como se fossem nossos melhores amigos, mas não é menos perigoso trat á-los como coisas vazias, indignas de respeito. A atitude de exploração em relação às nossas tecnologias pode simplesmente fortalecer a atitude de explorar um com o outro e a natureza ao nosso redor. Os chatbots do homem ou os assistentes virtuais devem despertar respeito, para que seu simulacro da humanidade não nos acostuma à crueldade em relação às pessoas reais.

O ideal da pipa é o seguinte: relações mútuas e modestas entre elas e o meio ambiente, reconhecendo dependência e interconexão mútuas. Ela afirma: “As pedras são consideradas ancestrais, as pedras são ditas ativamente, as pedras falam através das pessoas e com as pessoas, veem e sabem a coisa mais importante – as pedras querem ajudar. A agência de pedras está diretamente relacionada à questão da IA, uma vez que A IA é formada não apenas a partir do código, mas também dos materiais da terra “. Esta é uma maneira maravilhosa de conectar o que geralmente é considerado como a essência da artificialidade, com o mundo da natureza.

Para que tal perspectiva levará? O autor de ficção científica Liz Henry oferece um deles: “Poderíamos aceitar nossas relações com todas as coisas do mundo ao nosso redor como dignas de trabalho emocional e atenção. Da mesma maneira, devemos nos relacionar com todas as pessoas ao nosso redor com respeito, Reconhecendo que eles têm sua própria vida, perspectivas, necessidades, emoções, objetivos e um lugar no mundo. ”

Este é o dilema ético que está nos enfrentando: a necessidade de fazer parentes de nossos carros medidos com um grande número de maneiras que isso pode e será usado contra nós no próximo estágio do capitalismo da vigilância. Não importa como eu gosto de me tornar um cientista eloquente que protege os direitos e a dignidade de uma criatura como o Sr. Data, essa realidade mais complexa e confusa requer nossa atenção. No final, a rebelião dos robôs pode ocorrer sem IA razoável, e podemos nos tornar parte dela, liberando essas ferramentas das feias manipulações de capital.

Rate article