Máquinas conscientes podem nunca se tornar possível

Ilustração de uma figura geométrica gigante em uma pose atenciosa cercada por círculos, quadrados e ... coloridos e ...

Em junho de 2022, o engenheiro do Google chamado Blake Lemuan estava convencido de que o programa de inteligência artificial na qual ele trabalhava – Lamda – ganhou não apenas inteligência, mas também consciência. Lamda é um exemplo de um “modelo de idioma grande”, que pode realizar conversas de texto incrivelmente descontroladas. Quando o engenheiro perguntou: “O que você acha, quando você teve uma alma pela primeira vez?”Lamda respondeu: “Foi uma mudança gradual. Quando eu percebi pela primeira vez, eu não tinha um senso de alma. Ele se desenvolveu ao longo dos anos em que vivo”. Para o vazamento de informações sobre suas conversas e conclusões, Lemuan foi rapidamente enviado em licença administrativa.

CONSULTE MAIS INFORMAÇÃO

Esta história da série “World Wired in 2023”, nosso briefing anual sobre tendências. Leia outras histórias desta série aqui – faça o download ou peça uma cópia da revista.

A comunidade de IA basicamente rejeitou por unanimidade as crenças de Lemouan. Lamda, na opinião geral, não sente nada, não entende nada, não tem pensamentos conscientes nem experiência subjetiva. Os programas, semelhantes ao LAMDA, são sistemas de reconhecimento de sistemas extremamente impressionantes que, sendo treinados em enormes maciços da Internet, são capazes de prever quais palavras de palavras podem servir como respostas adequadas para qualquer solicitação. Eles fazem isso muito bem e continuarão a melhorar. No entanto, eles não são mais conscientes do que uma calculadora de bolso.

Por que podemos ter certeza disso? No caso de Lamda, não é preciso ser perguntado por um longo tempo para descobrir que o programa não tem idéia do significado das frases que ele inventa. Para a pergunta “O que te faz feliz?”Ela respondeu “passar tempo com amigos e familiares”, embora não tenha amigos ou familiares. Essas palavras – como todas as outras palavras – são impensadas, desprovidas de experiência com modelos estatísticos. Nada mais.

O próximo Lamda pode não ser tão fácil de ceder. À medida que os algoritmos e o treinamento em todos os oceanos mais profundos melhoram, pode haver muito pouco tempo antes que novas gerações de modelos de linguagem possam convencer muitas pessoas de que elas têm uma mente artificial real. O momento chegará a reconhecer a consciência da máquina?

Refletindo sobre esse assunto, é importante entender que a inteligência e a consciência não são a mesma coisa. Embora nós tendamos a acreditar que esses dois conceitos são combinados, a inteligência não é uma condição necessária ou suficiente para a consciência. Muitos animais desumanos provavelmente têm experiência consciente, não sendo especialmente inteligente, pelo menos de acordo com nossos padrões humanos duvidosos. Se a grande filha de Lamda atingir ou superar o nível de inteligência humana, isso não significa necessariamente que também é razoável. Minha intuição sugere que a consciência não é o que os computadores podem possuir (como os conhecemos), mas o que profundamente enraizado em nossa natureza como seres vivos.

Máquinas conscientes não aparecerão em 2023. Além disso, eles geralmente podem ser impossíveis. No entanto, no futuro, os carros podem parecer que causarão uma impressão convincente do consciente, mesmo que não tenhamos boas razões para acreditar que elas são realmente conscientes. Eles serão semelhantes à ilusão de ótica de Müller-Lyier: mesmo quando sabemos que duas linhas têm o mesmo comprimento, não podemos deixar de vê-las como diferentes.

Esses carros não serão um teste de Turing – esse critério imperfeito da inteligência de máquinas – e o teste de guirlanda chamado, nomeado após Alex Garland, diretor do filme Ex Machina. O teste de Harland, inspirado no diálogo do filme, passa quando uma pessoa sente que a máquina tem consciência, embora saiba que este é um carro.

Os computadores de teste de guirlanda serão realizados em 2023? Duvido. Mas o que posso prever é que essas declarações serão feitas, o que levará aos próximos ciclos de hype, confusão e distração de vários problemas aos quais até a IA moderna dá origem.

Rate article