Uma vez que a inteligência artificial parecerá a mesma pessoa que todos os outros. O que então?

A declaração do engenheiro do Google de que o programa LAMDA é razoável enfatiza a necessidade aguda de desmistificar o estado humano.

Colagem de imagens, incluindo teclas de teclado e telas sensoriais.

Salve esta história
Salve esta história

Logotipo

Banco de dados de AI →

Processando uma linguagem natural

Logo depois que aprendi sobre Eliza, um programa que faz as perguntas das pessoas como um psicanalista Rogeriano, descobri que posso lanç á-lo no meu editor de texto em EMACS favorito. Eliza é um programa realmente simples, com controle de texto e fluxo rigidamente codificado, selecionando modelos e treinamento simples e modelo em gatilhos psicanalíticos – por exemplo, como você mencionou recentemente sua mãe. E, no entanto, apesar do fato de eu saber como ela trabalha, senti uma presença. No entanto, eu sempre cometi essa terrível sensação quando me ocorreu apenas continuar pressionando o botão de retorno. O programa rolou quatro dicas iniciais possíveis no ciclo, e a interação foi interrompida como ator em um filme que estabelece contato visual através da quarta parede.

Por muitos na semana passada, a interação com o Google Lamda e sua suposta racionalidade foi violada pelo artigo da lenda de Ai Douglas Hofstedter em Economist, na qual ele e seu amigo David Bender mostram como a mesma tecnologia soa “de tirar o fôlego” quando perguntar Uma pergunta sem sentido, como “Quantos fragmentos de som estão contidos em uma nuvem típica e removível de cumulus?”

Mas duvido que esses sinais óbvios de desumanidade existam para sempre.

A partir deste momento, o uso seguro da inteligência artificial requer demonstração do estado humano. Se não conseguirmos reconhecer e entender como a IA funciona – mesmo que engenheiros especializados possam se enganar encontrando habilidades de agentes em um “papagaio estocástico” -, não teremos meios de proteção contra produtos descuidados ou hostis.

Estamos falando sobre a conclusão da Revolução Darwin e ainda mais. Compreender o que significa ser animais e expandir essa revolução cognitiva para entender como somos algorítmicos. Todos teremos que superar o obstáculo na forma de pensamento de que alguma habilidade humana em particular – criatividade, destreza, empatia – nos distinguirá da IA. Para nos ajudar a aceitar quem realmente somos, como trabalhamos, sem perder a conexão com a nossa vida, é um enorme projeto expandido para a humanidade e as humanidades.

Alcançar tal compreensão sem que um número significativo de pessoas adopte as identidades polarizadoras, supersticiosas ou mecânicas que ameaçam a nossa sociedade é um desafio não só para as humanidades, mas também para as ciências sociais, e também para alguns líderes políticos. Para outros líderes políticos, infelizmente, esta pode ser uma oportunidade. Um caminho para o poder pode ser encorajar e explorar essa incerteza e conceitos errados, tal como alguns estão actualmente a utilizar a desinformação para minar a democracia e a regulamentação. Em particular, a indústria tecnológica deve provar que está do lado da transparência e da compreensão que sustentam a democracia liberal, em vez do sigilo e do controlo autocrático.

Há duas coisas que a IA não é, por mais que eu admire as pessoas que dizem o contrário: não é um espelho e não é um papagaio. Ao contrário de um espelho, ele não reflete simplesmente passivamente para nós a superfície de quem somos. Com a ajuda da inteligência artificial, podemos gerar novas ideias, imagens, histórias, ditados, músicas – e todos que descobrem essas habilidades crescentes têm o direito de experimentar uma elevação emocional. Para outras pessoas, essa criatividade é de grande valor – não apenas para reconhecer a proximidade social e o investimento social, mas também para identificar quem tem genes de alta qualidade com os quais você poderia combinar os seus.

SE INSCREVER
Assine o WIRED e fique mais esperto com seus líderes inovadores favoritos.

AI também não é um papagaio. Os papagaios percebem muitas das mesmas cores e sons que nós, da mesma maneira, usando praticamente o mesmo equipamento e, portanto, experimentam essencialmente as mesmas sensações fenomenológicas. Os papagaios são muito sociais. Eles imitam uns aos outros, provavelmente para provar pertencimento ao grupo e afeto mútuo, assim como nós. É muito, muito pouco parecido com o que o Google ou a Amazon fazem quando seus dispositivos “papagueiam” sua cultura e seus desejos. Mas pelo menos estas organizações têm animais (pessoas) e preocupam-se com coisas como o tempo. O que os papagaios estão fazendo é completamente diferente do que um dispositivo de inteligência artificial está fazendo no mesmo momento, que move alguns bits digitais de uma forma conhecida para vender bens às pessoas.

Mas será que tudo isto significa que a IA não pode ser inteligente? Qual é a “inteligência” que alguns estão tentando descobrir? O Oxford English Dictionary diz que é “ter uma perspectiva ou sentimento”. Já ouvi filósofos dizerem que é “ter perspectiva”. As câmeras de vigilância têm futuro. As máquinas podem “sentir” (sentir) tudo para o qual criamos sensores – toque, sabor, som, luz, tempo, gravidade – mas representar essas coisas como grandes números inteiros derivados de sinais elétricos significa que qualquer “sentido” de máquina é muito mais diferente do nosso do que até mesmo a visão de uma abelha ou o sonar de um morcego.

Mais popular
A ciência
Uma bomba-relógio demográfica está prestes a atingir a indústria da carne bovina.
Matt Reynolds
Negócios
Dentro do complexo ultrassecreto de Mark Zuckerberg no Havaí
Guthrie Scrimgeour
Engrenagem
Primeiro, dê uma olhada no Matic, o aspirador robô redesenhado
Adriane So
Negócios
As novas alegações de Elon Musk sobre a morte de macacos estimulam novas demandas de investigação da SEC
Dhruv Mehrotra

Algumas pessoas definem a percepção como algo que requer consciência, mas o que é isso? Se por “consciente” você quer dizer “autoconsciente”, então os computadores são capazes de ser infinitamente mais autoconscientes do que nós. RAM significa “memória de acesso aleatório”; podemos criar programas de computador que tenham acesso a toda a sua experiência anterior, bem como ao seu próprio código-fonte e estado de execução. No entanto, como psicólogo, tendo a entender a consciência como “aquela parte da nossa experiência que podemos descrever verbalmente” – e aqui novamente, se relacionarmos o processamento da linguagem natural com a experiência ou estado real do sistema, ele deveria ser capaz de descrever muito mais de seu funcionamento do que uma pessoa pode. Afinal, nenhuma das habilidades humanas – nem a criatividade, nem a destreza, nem mesmo a aparência de empatia – nos distinguirá da IA.

A chave para entender a aceitação imprecisa de carros e a negligência excessiva das capacidades da IA ​​é ver os limites da separação entre a natureza humana e o controle algorítmico digital. As pessoas também são algorítmicas – a maioria de nossa cultura e inteligência funciona como um grande modelo de linguagem, absorvendo e recombinando o que ouviram. Mas há um algoritmo fundamental da humanidade e todo o resto da inteligência natural: evolução. A evolução é um algoritmo que perpetua cópias de si mesmo. A evolução é a base de nossos motivos. Ele garante que coisas que são de importância fundamental para nossa sobrevivência – inteligência, consciência e cooperação, as próprias habilidades que são discutidas nessa disputa – significam muito para nós. Emocionalmente. Por exemplo, a evolução nos faz desejar coisas que nos proporcionam segurança suficiente para que nossa aparência possa continuar.

Estamos falando de unidades como fome, sede, sono ou luxúria. Para entender o debate sobre a “racionalidade da IA”, também é necessário falar sobre dois motivos sociais fundamentais, mas opostos que as pessoas experimentam na formação de sua identidade. Tendemos a pensar que nossa identidade é o desejo de se destacar, para mostrar que somos únicos como indivíduos. Queremos ser especiais, destaca r-se na sociedade. Mas, de fato, muitas maneiras de determinar nossa identidade consistem em nossa conformidade com vários grupos: nossa religião, nossa cidade natal, nosso piso (ou falta de sexo), nosso trabalho, nosso tipo, nosso crescimento relativo, nossa força ou habilidade relativa. Assim, nos esforçamos não apenas para diferir, mas também pertencer.

Mais popular
A ciência
Uma bomba-relógio demográfica está prestes a atingir a indústria da carne bovina.
Matt Reynolds
Negócios
Dentro do complexo ultrassecreto de Mark Zuckerberg no Havaí
Guthrie Scrimgeour
Engrenagem
Primeiro, dê uma olhada no Matic, o aspirador robô redesenhado
Adriane So
Negócios
As novas alegações de Elon Musk sobre a morte de macacos estimulam novas demandas de investigação da SEC
Dhruv Mehrotra

E agora chegamos ao idioma. A linguagem tem sido uma forma favorita de desumanizar os outros – a palavra “bárbaro” significa “aquele que não fala a língua”. Animais não humanos são o que podemos comer, em geral, pelas nossas religiões. Quando alguém (qualquer pessoa) fala a nossa língua, significa que passou muito tempo se tornando um especialista em tudo o que temos. Eles podem ter passado anos de suas vidas ao nosso lado e compartilhar nossos interesses e valores. Eles entendem nossas piadas porque assistiram aos mesmos programas de entretenimento ou vivenciaram os mesmos rituais religiosos. Eles podem ter gasto uma fortuna em uma educação semelhante ou assistido a uma quantidade excessiva de partidas do mesmo esporte.

Sentimos todo esse investimento quando conversamos com alguém. Sentimos que “essa pessoa eu entendo, essa pessoa eu posso prever”. Se desejarmos, podemos chamar isso de “confiança” – acreditamos que é improvável que essa pessoa nos traia, porque ela também deve ver como nossos interesses coincidem. E agora entram em ação máquinas com línguas. Não admira que eles nos confundam. A nossa postura defensiva em relação aos conceitos sócio-cognitivos fundamentais de inteligência, consciência e cooperação é uma defesa da identidade que passámos tanto tempo a adquirir. Queremos que seja absoluto, inviolável, místico ou, pelo menos, completamente controlável pela nossa sociedade.

O que realmente devemos nos preocupar com a IA não são as habilidades cognitivas básicas, como a linguagem ou a consciência, ou as estratégias comportamentais, como a cooperação, mas dois papéis sociais muito específicos associados a elas e aos nossos próprios preconceitos evolutivos. O primeiro papel, agência moral, é onde a sociedade nos atribui (ou realmente nos permite) o papel de responsabilidade. Historicamente, por razões óbvias, a responsabilidade teve de ser limitada àqueles com quem podíamos comunicar e confiar. Linguagem novamente.

Todos os membros activos da sociedade são os seus agentes morais, e todas as coisas com que são obrigados a preocupar-se constituem o segundo papel social, os seus pacientes morais. A evolução garantiu que nós, animais, atribuíssemos instintivamente paciência (ou comportamento atencioso) às coisas que têm maior probabilidade de nos ajudar a manter algoritmos de perpetuação. São coisas como filhos, um ninho limpo e saudável e outros agentes morais da nossa sociedade dos quais depende a nossa segurança. Nossos valores são a forma como mantemos nossas sociedades unidas; eles não fazem sentido fora do contexto da evolução e dos primatas.

Mais popular
A ciência
Uma bomba-relógio demográfica está prestes a atingir a indústria da carne bovina.
Matt Reynolds
Negócios
Dentro do complexo ultrassecreto de Mark Zuckerberg no Havaí
Guthrie Scrimgeour
Engrenagem
Primeiro, dê uma olhada no Matic, o aspirador robô redesenhado
Adriane So
Negócios
As novas alegações de Elon Musk sobre a morte de macacos estimulam novas demandas de investigação da SEC
Dhruv Mehrotra

Confundir “compatibilidade” linguística, a capacidade de apontar semelhanças e comunicar, com independência moral ou paciência (em geral) não foi um erro perigoso. Até começarmos a criar IA digital. A compatibilidade linguística é agora uma fraqueza de segurança, um hack barato e fácil para perturbar a nossa sociedade e explorar as nossas emoções. Se estivermos a falar com um dos milhares de milhões de cópias digitais baratas de um programa de IA (não importa quão caro tenha sido no início), então a nossa intuição é completamente traída e a nossa confiança é completamente traída.

Ao contrário do que muitas pessoas afirmam, podemos compreender a IA. Claro, alguns sistemas de IA são complexos, mas também o são os governos, os bancos, os exterminadores e as relações escolares. Achamos que nunca poderemos entender ou criar essas coisas.

Estamos e devemos nos preocupar agora em criar a nossa própria identidade na comunidade de pessoas com quem interagimos. Quão relevante é a nossa capacidade de criar com IA o que foi anteriormente (pelo menos nominalmente) criado por indivíduos? É claro que isto é uma espécie de ameaça, pelo menos para a elite global, habituada a estar no auge da criatividade. Porém, a grande maioria da humanidade teve que se acostumar com o fato de não ser a melhor, mesmo na primeira série. Ainda temos prazer em comer com amigos, ganhar concursos de pub ou jogos de futebol locais, mesmo que pudéssemos fazer melhor com pesquisas na web ou com jogadores robôs. Através destas atividades mantemos as nossas comunidades, os nossos interesses e a nossa espécie. É assim que criamos segurança, mas também conforto e envolvimento.

Mesmo que nenhuma habilidade ou habilidade separe uma pessoa da inteligência artificial, ainda há uma razão e um meio de combater a opinião de que os carros são pessoas. Se você atribuir o mesmo peso moral a algo que pode ser trivial e facilmente reproduzido em forma digital, como um macaco, cujo cultivo foi passado décadas, você quebra tudo – sociedade, toda a ética, todos os nossos valores. Se você realmente poderia dar à máquina um status moral (e não apenas, digamos, entregar algum inconveniente ao proletariado), você pode levar ao colapso, por exemplo, nossa capacidade de se aut o-governar. A democracia não significa nada se você pode comprar e vender mais cidadãos do que pessoas e, se os programas da IA ​​fossem cidadãos, teríamos feito isso com tanta facilidade.

Mais popular
A ciência
Uma bomba-relógio demográfica está prestes a atingir a indústria da carne bovina.
Matt Reynolds
Negócios
Dentro do complexo ultrassecreto de Mark Zuckerberg no Havaí
Guthrie Scrimgeour
Engrenagem
Primeiro, dê uma olhada no Matic, o aspirador robô redesenhado
Adriane So
Negócios
As novas alegações de Elon Musk sobre a morte de macacos estimulam novas demandas de investigação da SEC
Dhruv Mehrotra

Como destruir o poder místico sobre os aparentes interlocutores inteligentes? Revelar o princípio da operação do sistema. Esse processo de “Ética da IA” e desenvolvedores de software comum (DevOps – Desenvolvimento e Operação) são chamados de “transparência”.

Mas e se cada um de nós tivesse a oportunidade de “aumentar a tampa” para mudar a reação do programa de inteligência artificial? Parece que o Google procura encontrar o conjunto desejado de filtros e cercas internas para fazer algo mais e mais capaz de comunicação humanóide. Talvez tudo o que precisamos de transparência que destrói o envolvimento seja o acesso ao mesmo conjunto de ferramentas para desenvolvedores, que o Google usa para criar as melhores botas de bat e-papo. O engenheiro Blake Lemuan, que acredita que assistiu à mente artificial, não criou um sistema, mas apenas o testou. Acredito que ele não teve a oportunidade de brincar com o código que criou o que ele testou ou mudou seus parâmetros.

Empresas grandes e pequenas que operam no campo da IA ​​estão cada vez mais fornecendo benefícios públicos globais, infraestrutura global necessária. A natureza das tecnologias digitais – transmissão e cópia rápidas e baratas de dados – contribui para o surgimento de monopólios naturais, o que significa que não há como garantir a conformidade real com as leis de concorrência em relação a muitos fornecedores de IA. Em vez de exigir concorrência das concessionárias, alcançamos o cumprimento das obrigações. Por exemplo, para conectar cada casa, não importa o quão remoto seja, ao telefone e à eletricidade, mesmo que o benefício econômico de conectar uma casa em particular nunca superará os custos. O requisito de transparência de nossa IA pode ser semelhante. Por fim, é improvável que isso se torne um fardo para as empresas: os sistemas transparentes são mais fáceis de apoiar e expandir.

A nova lei da UE sobre inteligência artificial requer relativamente ligeiramente dos desenvolvedores da grande maioria dos sistemas de inteligência artificial. Mas seu requisito mais básico é o seguinte: a IA é sempre identificada. Ninguém deve pensar que ele está conversando com uma pessoa se ele realmente fala com o carro. A conformidade com essa lei pode finalmente forçar empresas como o Google a se comportarem tão seriamente quanto sempre precisavam – com grande transparência e devOps da classe mundial. Em vez de alcançar exceções especiais das leis da UE sobre transparência, o Google e outras empresas devem demonstrar e vender a experiência avançada do desenvolvimento de software intelectual.

Mas espere. É um problema que a estratégia de segurança para grupos de macacos é a base de nossos valores? O que deve ser uma pessoa, não há nada de especial, exceto a própria pessoa? Como eu disse, nossos valores são uma maneira de manter nossas sociedades unidas. A pergunta “devemos apreciar o que valorizamos?”Semelhante à pergunta “O que aconteceu antes do início dos tempos?”Isso funciona como uma proposta – isso pode fornecer um grande modelo de idioma de IA, que parece atencioso, mesmo razoavelmente. Ou uma pessoa, uma pessoa poderia dizer isso. As pessoas também cometem erros; Também usamos heurísticas para coletar pensamentos e sugestões. Mas, de fato, do ponto de vista da lógica, essas frases não fazem sentido.”Anteriormente” funciona apenas no tempo, e nossos valores são os mesmos que se desenvolveram. Quando olho em volta e vejo o que criamos graças aos nossos valores, em geral, acho isso muito legal. Mas, sendo um homem, eu faria isso. Mas isso não é um motivo para combater a avaliação.

Rate article