Em breve não estaremos programando computadores. Vamos treiná-los como cães

Bem-vindo ao novo mundo da inteligência artificial. Em breve não estaremos programando computadores. Nós os treinaremos. Como golfinhos. Ou cachorros. Ou pessoas.

Ai211. jpg

Salve esta história
Salve esta história

Antes da invenção do computador, a maioria dos psicólogos experimentais considerava o cérebro uma caixa preta incognoscível. Foi possível analisar o comportamento do sujeito – a campainha tocou, o cachorro salivava – mas pensamentos, lembranças, emoções? Tudo isso era incompreensível e incompreensível, inacessível à ciência. Assim, os behavioristas, como se autodenominavam, limitaram seu trabalho ao estudo de estímulos e respostas, feedback e reforço, sinos e saliva. Eles desistiram de tentar compreender o funcionamento interno da mente. Eles governaram sua região por quatro décadas.

Então, em meados da década de 1950, um grupo rebelde de psicólogos, linguistas, teóricos da informação e primeiros investigadores de inteligência artificial apresentou um conceito diferente de mente. Eles argumentaram que as pessoas não são simplesmente uma coleção de reações condicionadas. Eles absorvem informações, processam-nas e então agem de acordo com elas. Eles tinham sistemas para registrar, armazenar e recuperar memórias. Eles operavam com base na sintaxe lógica e formal. O cérebro não era uma “caixa preta”. Parecia um computador.

Junho de 2016 Inscreva-se agora.

A chamada revolução cognitiva começou pequena, mas à medida que os computadores se tornaram equipamento padrão nos laboratórios de psicologia de todo o país, ganhou aceitação crescente. No final da década de 1970, a psicologia cognitiva derrubou o behaviorismo e, com o novo regime, surgiu uma linguagem inteiramente nova para falar sobre a vida mental. Os psicólogos começaram a descrever os pensamentos como programas, as pessoas comuns falavam em armazenar factos nos seus bancos de memória e os gurus empresariais preocupavam-se com os limites da largura de banda mental e do poder de processamento no local de trabalho moderno.

Esta história se repete continuamente. Tal como a revolução digital permeou todos os aspectos das nossas vidas, também permeou a nossa linguagem e as nossas teorias básicas e profundas sobre como as coisas funcionam. A tecnologia sempre faz isso. Durante a Era do Iluminismo, Newton e Descartes incutiram nas pessoas a ideia de que o Universo era um relógio complexo. Na era industrial, era uma máquina com pistões.(A ideia de psicodinâmica de Freud foi emprestada da termodinâmica das máquinas a vapor). Agora é um computador. E isso, se você pensar bem, expande fundamentalmente as capacidades humanas. Afinal, se o mundo é um computador, então o mundo pode ser codificado.

O código é lógico. O código pode ser hackeado. O código é destino. Estes são os principais postulados (e profecias aut o-cheias) da vida na era digital. À medida que o software está devorando o mundo, parafraseando o capitalista de risco Mark Andreessen, nos cercamos de máquinas que transformam nossas ações, pensamentos e emoções em dados – matéria s-primas que são manipuladas pelo Exército de Engenheiros que possuem o Código. Começamos a perceber a vida em si como algo controlado por uma série de instruções que podem ser detectadas, usadas, otimizadas e, possivelmente, até reescritas. As empresas usam o código para entender nossas conexões mais íntimas; Mark Zuckerberg, do Facebook, foi tão longe que sugeriu que poderia haver uma “lei matemática fundamental subjacente às relações humanas, que controla o equilíbrio daquele que nos excita”. Em 2013, Craig Venter anunciou que, uma década depois de decifrar o genoma humano, ele começou a escrever um código que lhe permitisse criar organismos sintéticos.”Fica claro”, disse ele, “que todas as células vivas conhecidas neste planeta são máquinas biológicas controladas pelo software de DNA”. Mesmo na literatura sobre aut o-help, afirm a-se que você pode invadir seu próprio códig o-fonte, reprogramar sua vida amorosa, modo de suspensão e hábito de gastar dinheiro.

Que a IA está atrás do Alphago pode nos ensinar a ser flecha
Veja a era estranha e incrível da inteligência artificial (sim, há um chatbot) Arrw
Andy Rubin abriu o Android para o mundo. Veja como ele faz o mesmo com a inteligência artificial. Seta

Neste mundo, a capacidade de escrever código não foi apenas em demanda, mas um idioma que fornece status privilegiado para aqueles que o falam. Eles têm acesso ao fato de que, em uma era mais mecânica, chamariam alavancas de energia.”Se você controla o código, controla o mundo”, escreve o futurista Mark Goodman.(Paul Ford, Bloomberg Businessweek, era um pouco mais prudente: “Se os codificadores não controlam o mundo, eles controlam as coisas que controlam o mundo”. Tomate, Tomomo.)

Mas se você gosta desse estado de coisas ou não gosta se você é um membro da elite do codificador ou aqueles que quase se sentem competentes para mexer com as configurações do telefone – não se acostumem. Nossos carros começam a falar outro idioma que mesmo os melhores codificadores não conseguem entender completamente.

Nos últimos anos, as maiores empresas tecnológicas do Vale do Silício têm desenvolvido ativamente uma abordagem dos cálculos chamados aprendizado de máquina. Na programação tradicional, o engenheiro escreve instruções claras de etapa de etapa que o computador deve seguir. No treinamento de máquinas, os programadores não codificam computadores com instruções. Eles os ensinam. Por exemplo, se você deseja ensinar uma rede neural a reconhecer um gato, não diz a ela que precisa procurar bigode, ouvidos, lã e olhos. Você apenas mostra milhares e milhares de fotos de gatos e, no final, ela lida com isso. Se ele continuar a classificar incorretamente a raposa como gato, você não reescreve o código. Você apenas continua a trein á-lo.

Mais popular
A ciência
Uma bomba demográfica de uma ação atrasada está prestes a cair na indústria de carne bovina
Matt Reynolds
Negócios
Dentro do complexo supe r-secreto Mark Zuckerberg no Havaí
Gatrine Skrimjor
Engrenagem
Primeira olhada em Matic, um aspirador de robô processado
Adrienne co
Negócios
Novas declarações de Elon Mask sobre a morte de um macaco estimulam novos requisitos para a investigação da SEC
Dhruv Mehrotra

Essa abordagem não é nova – existe há várias décadas, mas recentemente se tornou muito mais poderosa, inclusive devido ao aparecimento de redes neurais profundas – sistemas de computação massivamente distribuídos que imitam as conexões de camadas múltiplas dos neurônios no cérebro. E agora, quer você esteja ciente ou não, o aprendizado de máquina controla uma parte significativa de nossa atividade o n-line. O Facebook o usa para determinar quais histórias aparecem em seu feed de notícias e o Google Fotos para reconhecer rostos. Com a ajuda do aprendizado de máquina, o tradutor do Skype da Microsoft Works, que em tempo real traduz fala em diferentes idiomas. Os carros autodenomidados usam aprendizado de máquina para evitar acidentes. Até o mecanismo de pesquisa do Google, que por tantos anos era uma estrutura imponente das regras escritas pelo homem, começou a confiar nessas redes neurais profundas. Em fevereiro, a empresa substituiu seu chefe de ano do mecanismo de busca como um especialista em máquina, John Dzhannandrea, e iniciou um programa de grande escala para realizar seus engenheiros a esses novos métodos.”Criando sistemas de aut o-aprendizagem”, disse Giannandrea a repórteres neste outono, “não precisamos mais escrever essas regras”.

Agora, nossas máquinas falam outro idioma que mesmo os melhores codificadores não conseguem entender completamente.

Mas o problema é o seguinte: com o aprendizado de máquina, o engenheiro nunca sabe exatamente como o computador executa suas tarefas. As ações de uma rede neural são em grande parte opacas e inescrutáveis. Em outras palavras, é uma “caixa preta”. E à medida que estas caixas negras assumirem uma maior parte das nossas tarefas digitais diárias, não só mudarão a forma como pensamos sobre a tecnologia, como também mudarão a forma como pensamos sobre nós próprios, o nosso mundo e o nosso lugar nele.

Se os programadores costumavam ser como deuses, criando as leis que regem os sistemas informáticos, agora são como pais ou treinadores de cães. E como qualquer pai ou dono de cachorro lhe dirá, é um relacionamento muito mais misterioso para se encontrar.

Andy Rubin é um ávido amante da música e programador. Cocriador do sistema operacional Android, Rubin é famoso no Vale do Silício por encher seus locais de trabalho e casas com robôs. Ele mesmo os programa.“Entrei na ciência da computação quando era muito jovem e adorei porque podia me perder no mundo da informática. Era uma lousa em branco, uma tela em branco, e eu poderia criar algo do zero”, diz ele.“Isso me deu controle total sobre o mundo que joguei por muitos e muitos anos.”

Agora, diz ele, este mundo está chegando ao fim. Rubin está entusiasmado com o desenvolvimento do aprendizado de máquina – sua nova empresa, a Playground Global, está investindo em startups de aprendizado de máquina e se posicionando como líder na adoção de dispositivos inteligentes – mas está um pouco triste com isso. Porque o aprendizado de máquina está mudando o que significa ser engenheiro.

Mais popular
A ciência
Uma bomba demográfica de uma ação atrasada está prestes a cair na indústria de carne bovina
Matt Reynolds
Negócios
Dentro do complexo supe r-secreto Mark Zuckerberg no Havaí
Gatrine Skrimjor
Engrenagem
Primeira olhada em Matic, um aspirador de robô processado
Adrienne co
Negócios
Novas declarações de Elon Mask sobre a morte de um macaco estimulam novos requisitos para a investigação da SEC
Dhruv Mehrotra

“As pessoas não escrevem programas de forma linear”, diz Rubin.”Uma vez que uma rede neural aprende a reconhecer a fala, um programador não pode entrar nela e ver como isso aconteceu. É como o seu cérebro. Você não pode cortar a cabeça e ver o que está pensando.”Quando os engenheiros olham para uma rede neural profunda, vêem um oceano de matemática: um vasto conjunto de problemas computacionais com múltiplas camadas que, ao inferir constantemente relações entre milhares de milhões de pontos de dados, gera suposições sobre o mundo.

A inteligência artificial não deve funcionar dessa maneira. Alguns anos atrás, os principais pesquisadores da IA ​​acreditavam que, para criar inteligência, você só precisa dotar o carro com a lógica certa. Escreva regras suficientes e, no final, criaremos um sistema bastante complicado para entender o mundo. Eles ignoraram amplamente, ou até condenaram os primeiros apoiadores do aprendizado de máquina, que defendiam que precisavam encher os carros com dados até chegarem às suas próprias conclusões. Por muitos anos, os computadores não foram poderosos o suficiente para realmente provar as vantagens de uma abordagem específica, de modo que a disputa se transformou em um plano filosófico.”A maioria dessas disputas foi baseada em idéias estabelecidas sobre como o mundo deveria ser organizado e como o cérebro funciona”, diz Sebastian Trun, e x-professor de IA em Stanford, que criou um carro do Google, aut o-que gerou.”Não havia símbolos e regras nas redes neurais, apenas números. Isso empurrou muitas pessoas”.

As consequências de uma linguagem de máquina sem princípios não são apenas filosóficas. Nas últimas duas décadas, o treinamento de código tem sido uma das maneiras mais confiáveis ​​de emprego confiável – esse fato não passou despercebido por todos os pais que escrevem seus filhos para as academias extracurriculares do Código. Mas o mundo controlado por redes neurais de máquinas de aprendizado profundo requer uma força de trabalho diferente. Os analistas já começaram a se preocupar com a influência da IA ​​no mercado de trabalho, pois as máquinas perdem a relevância das habilidades antigas. Os programadores podem em breve sentir o que é.

Como a física newtoniana não cancelou a mecânica quântica, o código permanecerá um poderoso conjunto de ferramentas para estudar o mundo.

“Eu estava falando sobre isso esta manhã”, diz Tim O’Rali no campo da tecnologia quando pergunto sobre essa mudança.”Falei sobre o quanto a profissão de um programador mudará no momento em que todas essas crianças que receberam educação STEM crescerão”. A codificação tradicional não desaparecerá completamente – além disso, O’Reili prevê que seremos necessários por um longo tempo – mas provavelmente se tornará menor e se transformará em uma met a-hat, uma maneira de criar esse Orhen Etpius, general O diretor Allen, o Instituto de Inteligência Artificial, chama de “construção de florestas”, no qual o treinamento em máquinas pode funcionar. Como a física newtoniana não desapareceu com a abertura da mecânica quântica, o código permanecerá poderoso, embora incompleto, um conjunto de ferramentas para estudar o mundo. Mas quando se trata de criar funções específicas, o aprendizado de máquina fará a maior parte do trabalho para nós.

É claro que as pessoas ainda precisam treinar esses sistemas. Mas por enquanto, pelo menos, é uma habilidade rara. O trabalho exige um alto nível de matemática e intuição pedagógica.“Tirar o máximo proveito desses sistemas é quase uma arte”, diz Demis Hassabis, que lidera a equipe DeepMind AI do Google.“Existem apenas algumas centenas de pessoas no mundo que conseguem fazer isso muito bem.”Mas mesmo este pequeno número foi suficiente para mudar a indústria tecnológica em apenas alguns anos.

Mais popular
A ciência
Uma bomba demográfica de uma ação atrasada está prestes a cair na indústria de carne bovina
Matt Reynolds
Negócios
Dentro do complexo supe r-secreto Mark Zuckerberg no Havaí
Gatrine Skrimjor
Engrenagem
Primeira olhada em Matic, um aspirador de robô processado
Adrienne co
Negócios
Novas declarações de Elon Mask sobre a morte de um macaco estimulam novos requisitos para a investigação da SEC
Dhruv Mehrotra

Quaisquer que sejam as implicações profissionais desta mudança, as implicações culturais serão ainda maiores. Se o advento do software escrito por humanos levou ao culto do engenheiro e à ideia de que a experiência humana pode, em última análise, ser reduzida a uma série de instruções compreensíveis, então a aprendizagem automática balançará o pêndulo na direção oposta. O código que controla o universo pode não estar sujeito à análise humana. Por exemplo, o Google está atualmente sob investigação antitruste na Europa, acusando a empresa de influência indevida nos resultados de pesquisa. Tal acusação seria difícil de provar quando nem mesmo os próprios engenheiros da empresa conseguem dizer exatamente como funcionam os seus algoritmos de busca.

Esta explosão de incerteza já vem há muito tempo. O fato de que mesmo algoritmos simples podem produzir comportamentos emergentes imprevisíveis não é novidade, uma percepção que remonta à teoria do caos e aos geradores de números aleatórios. Nos últimos anos, à medida que as redes se tornaram cada vez mais interligadas e as suas funções mais complexas, o código começou a parecer uma força alienígena, um fantasma na máquina, cada vez mais evasivo e incontrolável. Os aviões pousam sem motivo. Quedas aparentemente inesperadas do mercado de ações. Quedas de energia rotativas.

Essas forças forçaram o tecnólogo Danny Hillis a anunciar o fim do Iluminismo, nossos século s-Volou a fé na lógica, determinismo e controle da natureza. Hillis diz que voltamos para o que ele chama de era da confusão.”À medida que nossas criações tecnológicas e institucionais se tornaram mais complicadas, nossa atitude em relação a eles mudou”, ele escreve no Journal of Design and Science.”Em vez de serem os mestres de nossas criações, aprendemos a barganhar com eles, convencendo e direcionand o-os na direção geral de nossos objetivos. Criamos nossa própria selva e eles vivem suas próprias vidas”. O surgimento do aprendizado de máquina é o último e, possivelmente, o último passo nesse caminho.

Tudo isso pode ser bastante assustador. No final, a codificação era pelo menos uma atividade que uma pessoa comum poderia dominar em um campo de treinamento. Os códigos, pelo menos, eram pessoas. Agora, a elite tecnológica se tornou ainda menor, e seu poder sobre suas criações se enfraqueceu e se tornou indireto. As empresas que criam essas coisas já enfrentam o fato de se comportar de tal maneira que é difícil gerenci á-las. No verão passado, o Google se apressou em pedir desculpas quando seu sistema de reconhecimento de fotografia começou a marcar as imagens dos negros como gorilas. A primeira decisão monótona da empresa foi proibir o sistema para marcar algo como um gorila.

Rate article