Otimizar máquinas é perigoso. Considere a IA “criativamente adequada”

Banco de dados de IA →

A IA está quebrando em todos os lugares. E em todos os lugares ele nos quebra.

O colapso ocorre sempre que a IA encontra ambiguidade ou instabilidade. E no nosso mundo nebuloso e instável, isto acontece o tempo todo: ou os dados podem ser interpretados de forma diferente, ou ficam desatualizados devido a novos eventos. E então a IA começa a olhar a vida com os olhos errados, percebendo a esquerda como certa ou hoje como ontem. Mas como a IA não é autoconsciente, ela não percebe que sua visão de mundo quebrou. E agora ele já está uivando, transmitindo involuntariamente o crack para todas as coisas ligadas a ele. Carros batem. Os insultos voam. Aliados tornam-se alvos.

Literalmente quebra as pessoas, nos machucando e até nos matando. Mas também começou a nos quebrar de maneiras mais sutis. A IA pode falhar ao menor indício de falha nos dados, por isso seus arquitetos fazem tudo o que podem para eliminar a ambiguidade e a instabilidade. E como as pessoas são a principal fonte de ambiguidade e instabilidade no mundo, fomos agressivamente reprimidos. Na escola somos forçados a avaliações métricas, no trabalho a uma rotina padrão, em hospitais, academias e redes sociais a uma rotina regular. No processo, perdemos grande parte da independência, criatividade e coragem que a biologia incorporou em nós para manter a nossa vitalidade, deixando-nos mais ansiosos, irritados e esgotados.

Se quisermos um futuro melhor, precisamos de procurar outros meios de combater a fragilidade mental da IA. Em vez de nos refazermos à imagem de uma IA frágil, deveríamos fazer o oposto. Devemos refazer a IA à imagem da nossa fragilidade.

Durabilidade é simplesmente resistência a danos e caos; Antifragilidade significa aumentar os danos e aumentar a inteligência diante do caos. Isto pode parecer mais mágico do que mecânico, mas é uma capacidade inata de muitos sistemas biológicos, incluindo a psicologia humana. Quando somos atingidos no rosto, podemos nos recuperar mais fortes e corajosos. Quando nossos planos fracassam, podemos chegar à vitória por meio da criatividade.

A implementação destas capacidades antifrágeis na IA seria revolucionária.(Divulgação: Angus Fletcher atualmente presta consultoria em projetos de IA envolvendo IA antifrágil no Departamento de Defesa dos EUA). Podemos criar uma revolução se mudarmos a nossa forma atual de pensar.

Repensando a IA

Em primeiro lugar, devemos nos livrar do erro futurista, que a IA é uma versão mais inteligente de nós mesmos. O método de reflexão da IA ​​é mecanicamente diferente da inteligência humana: os computadores não têm emoções, para que não possam literalmente ser corajosos e seus conselhos lógicos não podem processar a narrativa, o que os torna incapazes de estratégia adaptativa. Isso significa que a anticipilidade da IA ​​nunca se tornará humana, sem mencionar o sobr e-humano; Será uma ferramenta adicional com seus pontos fortes e fracos.

Então devemos ir à heresia e admitir que a causa raiz da fragilidade atual da IA ​​é exatamente o que o design da IA ​​está considerando o seu maior ideal: otimização.

A otimização é o desejo de tornar a IA o mais precisa possível. No mundo abstrato da lógica, esse desejo é definitivamente bom. No entanto, no mundo real onde a IA funciona, você deve pagar por cada vantagem. No caso de otimização, esse preço são dados. Para aumentar a precisão dos cálculos estatísticos do aprendizado de máquina, são necessários mais dados e para garantir a confiabilidade dos cálculos – melhores dados. Para otimizar o trabalho da IA, seus curadores devem coletar informações em larga escala, coletando cookies de aplicações e espaço o n-line, o espião de nós, quando somos esquecidos ou exaustos demais para resistir e pagar a categoria mais alta por informações internas e planilhas.

Mais popular
A ciência
Uma bomba demográfica de uma ação lenta está prestes a atingir a indústria de carne bovina
Matt Reynolds
Negócios
Dentro do complexo supe r-secreto Mark Zuckerberg no Havaí
Gatrine Skrimjor
Engrenagem
Primeira olhada em Matic, um aspirador de robô processado
Adrienne co
Negócios
Novas declarações de Elon Mask sobre a morte de um macaco estimulam novos requisitos para a investigação da SEC
Dhruv Mehrotra

A vigilância em andamento é antidemocrática, além disso, este é um jogo para os perdedores. O preço das informações precisas está crescendo assintoticamente; É impossível saber tudo sobre sistemas naturais, que força a construir suposições e suposições; E quando uma imagem completa começa a tomar forma, um novo jogador invade o jogo e muda a dinâmica da situação. E então ai quebra. A inteligência quase perfeita flui para a psicose, chamando os cães para abacaxi, considerando pessoas inocentes que procuram criminosos e colidindo com ônibus no transporte de dezoito horas, que ele considera um viaduto na estrada.

A fragilidade perigosa inerente à otimização – é por isso que o próprio cérebro humano não evoluiu para um otimista. O cérebro humano não é exigente sobre os dados: cria hipóteses com base em vários pontos de dados. E ele nunca se esforça por 100 % de precisão. Ele está contente que ele vive no limiar da funcionalidade. Se ele pode sobreviver, estando certo em 1 % dos casos, isso é tudo o que ele precisa.

A estratégia de viabilidade cerebral mínima é a infame fonte de preconceitos cognitivos que podem ter vícios: pensamento fechado, conclusões apressadas, imprudência, fatalismo, pânico. É por isso que o rigoroso método de IA baseado em dados pode ajudar a identificar nossos “pontos cegos” e desmascarar nossos preconceitos. Mas, compensando as deficiências computacionais do nosso cérebro, não queremos evitar um grande problema de correção excessiva. A mentalidade “muito bem” pode ter enormes vantagens práticas: protege contra os efeitos mentais destrutivos do perfeccionismo, incluindo estresse, ansiedade, intolerância, inveja, insatisfação, exaustão e aut o-conservação. O cérebro menos neurotizado ajudou nossa espécie a florescer nas condições de traços e vibrações da vida, o que requer a disponibilidade de planos de trabalho que podem ser ajustados em movimento usando feedback.

Todas essas vantagens dos sistemas neurais contra a fragilidade podem ser transferidas para a IA. Em vez de buscar o aprendizado de máquina mais rápido, que empurra cada vez mais dados, podemos nos concentrar em tornar a IA mais tolerante com informações ruins, espalhando opiniões do usuário e instabilidade ambiental. Tal IA trocará quase perfeita para o Stavelmente adequado, aumentará a confiabilidade e o alcance do trabalho, sem sacrificar nada significativo. Ele consumirá menos energia, executará ações menos irregulares e exercerá menos pressão psicológica sobre seus usuários mortais. Em suma, terá mais virtude terrena, conhecida como senso comum.

Aqui estão três opções de como fazer isso.

Criando IA que pode superar a ambiguidade

Há quinhentos anos, Nicolau Maquiavel, o guru da praticidade, destacou que para ter sucesso no mundo é necessária uma coragem que desafia o bom senso: um coração capaz de ir além do que sabemos com certeza. Afinal, a vida é demasiado inconstante para permitir o conhecimento completo, e quanto mais nos fixamos em respostas perfeitas, mais nos prejudicamos ao perder a iniciativa. Portanto, uma estratégia mais inteligente é focar nas informações que podem ser obtidas rapidamente e avançar com ousadia na ausência do resto. De qualquer forma, muito deste conhecimento que falta acabará por ser desnecessário: a vida tomará um rumo diferente do que esperamos e a nossa ignorância será eliminada à medida que se tornar irrelevante.

Podemos ensinar a IA a agir da mesma forma, mudando a nossa abordagem atual à ambiguidade. Agora, quando um processador de linguagem natural encontra a palavra “terno”, que pode significar diversas coisas – uma peça de roupa ou uma ação legal – ele se dedica a analisar pedaços cada vez maiores de informações correlacionadas na tentativa de determinar o significado exato de a palavra.

Mais popular
A ciência
Uma bomba demográfica de uma ação lenta está prestes a atingir a indústria de carne bovina
Matt Reynolds
Negócios
Dentro do complexo supe r-secreto Mark Zuckerberg no Havaí
Gatrine Skrimjor
Engrenagem
Primeira olhada em Matic, um aspirador de robô processado
Adrienne co
Negócios
Novas declarações de Elon Mask sobre a morte de um macaco estimulam novos requisitos para a investigação da SEC
Dhruv Mehrotra

Isso é “fechar o círculo”. Ele usa big data para reduzir o círculo de oportunidades a um único ponto. E 99, 9% das vezes funciona: ele deduz corretamente que a palavra “reivindicação” faz parte do e-mail do juiz ao advogado. Nos restantes 0, 1% dos casos, a IA falha. Ele identifica erroneamente o traje de mergulho como conversa de advogado, aperta o laço para descartar a verdade e mergulha no oceano, que ele acredita ser o tribunal.

Deixe o círculo permanecer grande. Em vez de projetar a IA para priorizar a resolução de pontos de dados ambíguos,

SE INSCREVER
Assine o WIRED e fique mais esperto com seus líderes inovadores favoritos.

Você pode program á-lo para uma antema rápida e suja de todos os valores possíveis e, em seguida, transferir essas opções ramificadas para tarefas subsequentes, como o cérebro humano que continua a ler o poema, mantendo várias interpretações possíveis na cabeça. Isso elimina o uso intensivo de dados que o aprendizado de máquina tradicional derrama na otimização. Em muitos casos, a ambiguidade é lavada fora do sistema por eventos subsequentes: talvez cada solicitação executada seja permitida igualmente com qualquer valor do traje; Talvez o sistema tenha acesso a uma carta eletrônica, que se refere ao julgamento sobre uma fantasia de sucção; Talvez o usuário entenda que (em uma manobra humana tipicamente imprevisível), ele marcou incorretamente a suíte.

Na pior das hipóteses, se o sistema encontrar uma situação em que não pode continuar trabalhando até que a ambiguidade seja eliminada, pode fazer uma pausa para perguntar a uma pessoa, matando o valor da cautela oportuna. E, de qualquer forma, a IA não se quebrará, aut o-destruitando (através da versão digital da ansiedade) e cometendo erros desnecessários, porque é tão tenso que é perfeito.

Coleção de dados em apoio à criatividade

O próximo fator importante que promove ant i-Churisabilidade é a criatividade.

A IA moderna se esforça para ser criativa com a ajuda de uma alavanca de pensamento divergente com base em grandes dados – um método inventado 70 anos atrás pelo coronel da Força Aérea J. P. Gilford. Gilford conseguiu que ele conseguiu reduzir algumas habilidades criativas para procedimentos computacionais. Mas como a maior parte da criatividade biológica, como demonstrou estudos científicos subsequentes, inclui processos nã o-dados e ilógicos, o pensamento divergente é muito mais conservador em seus resultados do que a imaginação humana. Embora possa criar volumes gigantescos de “novos” trabalhos, esses trabalhos são reduzidos a misturar e comparar modelos anteriores, para que o pensamento divergente venha na escala, perde na cobertura.

Restrições práticas nessa fórmula de roupão para criar imaginação com base em informações podem ser observadas em geradores de textos e imagens, como GPT-3 e Artbreeder. Usando conjuntos históricos para o brainstorming, essas teas de IA têm suas criações com viés de especialistas; portanto, tentando criar o próximo Van Gogh, eles fornecem os pastys de todos os artistas anteriores. O resultado de tal pseud o-alinhamento é a cultura de desenvolvimento da IA, que categoricamente não entende o que é a inovação: “a profunda rede convolucionária” Facenet é exaltada como um avanço em comparação com as pessoas anteriores de reconhecimento de pessoas, enquanto isso é apenas otimização Com o uso da força bruta, semelhante à criação de uma tocha no momento do carro para aumentar a energia e é chamada de revolução no transporte.

Mais popular
A ciência
Uma bomba demográfica de uma ação lenta está prestes a atingir a indústria de carne bovina
Matt Reynolds
Negócios
Dentro do complexo supe r-secreto Mark Zuckerberg no Havaí
Gatrine Skrimjor
Engrenagem
Primeira olhada em Matic, um aspirador de robô processado
Adrienne co
Negócios
Novas declarações de Elon Mask sobre a morte de um macaco estimulam novos requisitos para a investigação da SEC
Dhruv Mehrotra

Uma alternativa ao ant i-Chip – Passe do uso de dados como uma inspiração para us á-los como fonte de falsificação. A falsificação é uma ideia de Karl Popper, que há noventa anos em sua “lógica da descoberta científica” indicou que é mais lógico mobilizar fatos para refutar idéias do que confirm á-las. Se você transferir essa abordagem Popper para a IA, poderá transformar os dados do gerador de massa de idéias trivialmente novas em um destruidor em massa de tudo, exceto sem precedentes.

Em vez de manchar bilhões de suposições existentes em inúmeros dejaugu, para dizer o mínimo, novas idéias, os computadores ant i-Chip de amanhã poderão ver o fluxo crescente de criações humanas para identificar o Unified Unified Gogs de hoje. Imagine a inteligência artificial Pulitzer, que apresenta as fotos vitoriosas selecionadas pelo júri humano e, em seguida, concede o prêmio de fotografia de notícias, que mais contradiz as expectativas do júri.

E no futuro, a IA pode ser ensinada a fazer o mesmo com suas próprias criações. Em vez do método de criar idéias com uma grande quantidade de dados, como o GPT-3, ele poderia usar métodos com uma pequena quantidade de dados que fornecem principalmente informações incoerentes, mas em uma parcela insignificante de casos que eles encontram no original genuíno original . Com a ajuda da falsificação, a futura IA será capaz de detectar essa participação, ising uma “noite das estrelas” da galáxia do absurdo.

A importância do hibridismo da IA ​​e do homem

Aqui e agora, a inteligência mais frágil do mundo é a psicologia humana. Então, por que não dar à IA todos os benefícios do nosso cérebro? Por que não se fundir com ele?

Tal hibridismo, por mais fantástico que pareça, não exige que estejamos completamente imersos no mundo de Elon Musk. Podemos conseguir isso simplesmente criando melhores parcerias entre IA e humanos.

Atualmente, estas parcerias são menos do que a soma das suas partes, existindo como relações inescrupulosas nas quais os humanos são tratados como babás glorificadas que policiam a IA em caso de decisões erradas, ou como subordinados que devem obedecer cegamente às inescrutáveis ​​atualizações automáticas da IA. No primeiro caso, o cérebro humano mergulha num modo enfadonho de cognição certo/errado, que mata as raízes neurais da criatividade. E a segunda destrói a nossa independência e torna-nos passivos perante um aparelho de contagem secreto que lembra o Gabinete Central de Estatística da URSS.

Podemos eliminar esta aliança distópica criando uma colaboração entre a IA e os seus utilizadores humanos, começando com três soluções instantâneas.

Mais popular
A ciência
Uma bomba demográfica de uma ação lenta está prestes a atingir a indústria de carne bovina
Matt Reynolds
Negócios
Dentro do complexo supe r-secreto Mark Zuckerberg no Havaí
Gatrine Skrimjor
Engrenagem
Primeira olhada em Matic, um aspirador de robô processado
Adrienne co
Negócios
Novas declarações de Elon Mask sobre a morte de um macaco estimulam novos requisitos para a investigação da SEC
Dhruv Mehrotra

Primeiro, treine a IA para detectar quando faltam os dados necessários para fazer cálculos. Em vez de projetar uma IA que se esforce para estar sempre certa, projete uma IA que reconheça quando não pode estar certa. Para fazer isso, precisamos dotar a IA da profunda sabedoria do Conhece-te a ti mesmo, não tornando a IA literalmente autoconsciente, mas dando-lhe um mecanismo para descobrir os limites da sua própria competência. Este limite não pode ser determinado em tempo real pelos usuários de IA. Nossos cérebros não conseguem processar dados tão rápido quanto um computador, e estamos condenados a intervir sempre tarde demais quando um algoritmo ignorante pensa que tudo sabe. Mas, ao programar o tolo para se detectar, podemos ensinar a IA a abrir mão do controle antes que cause estragos e, assim, preparar o caminho para que ela ganhe a confiança genuína de seus usuários.

Em segundo lugar, melhore a interface entre o homem e a IA. O desejo de otimizar levou ao aparecimento de opaca (repleto dos algoritmos da “caixa preta” que não pode entender nenhum cientista da computação) ou infantilização (pré-prescrito pelo gerente da UX, no qual os funcionários nos escritórios tomam decisões) do características de design. Todas essas funções devem ser canceladas. Os algoritmos da “caixa preta” devem ser completamente excluídos; Se não sabemos o que o computador faz, ele não sabe. E os painéis rígidos dos botões que carregam a precisão frágil da IA ​​para os usuários devem ser substituídos por listas abertas do “círculo grande”, onde a primeira opção é a probabilidade de 70 %, o segundo – 20 %, o terceiro – 5 %e assim por diante. Se o usuário não vir na lista de uma opção adequada, ele poderá redirecionar a IA ou assumir o controle, expandindo o alcance da lógica do computador e da iniciativa humana o máximo possível.

Em terceiro lugar, descentralize a IA, simuland o-a no modelo do cérebro humano. Como nosso cérebro contém mecanismos cognitivos individuais – lógica, narrativa, emoções – que (como a separação constitucional de poderes) restringem e se equilibram, para que uma IA possa ser projetada de maneira a combinar várias conclusões (por exemplo, redes neurais e gofai simbólico). Isso torna a IA menos frágil, permitindo que ele deixe os protocolos sem saída. Se o aprendizado profundo com distribuição reversa não puder acessar os dados necessários, o sistema poderá ir para os procedimentos “se”. E descentralização, permitindo que a IA analise a vida através do prisma de várias epistemologias, dá as relações de parceria entre a IA e uma pessoa uma maior ant i-chip: em vez de monomaníaco para se concentrar em suas próprias estratégias de otimização interna, a IA pode olhar para fora para estudar para estudar para estudar em em estudar para estudar para estudar para estudar para estudar para estudar para estudar para estudar para estudar para estudar para estudar para estudar para estudar em dicas antropológicas. Se um algoritmo para dirigir independente causa uma pessoa em uma pessoa, um visual sombrio (ou outro sinal de confusão), a IA pode observar o algoritmo como potencialmente suspeito, de modo que, em vez de nos forçar a se adaptar unilateralmente às suas peculiaridades, ele se adapta Nossa psicologia.

Esses desenhos não são neurolinas, nem a inteligência geral artificial, e não alguma outra tecnologia rápida. Estes são desenvolvimentos inovadores que podemos implementar agora.

Tudo o que é necessário para isso é a coragem de deixar para trás ótimos dados e suas falsas promessas de inteligência ideal. Tudo o que eles precisam é admitir que, em nosso mundo incerto e em constante mudança, é mais razoável ser criativamente adequado do que o ideal. Porque é melhor se recuperar do que quebrar.

Outras histórias maravilhosas de arame

  • 📩 As últimas notícias sobre tecnologia, ciência e muito mais: obtenha nossas correspondências!
  • Be m-vindo a Miami, onde todos os seus memes se tornam realidade!
  • Veia libertária de bitcoin encontra um regime autocrático
  • Como começar (e salvar) um hábito saudável
  • História natural, não tecnologia, ditará nosso destino
  • Os cientistas permitiram drama familiar usando DNA de cartões postais
  • 👁️ Explore a IA como nunca antes com nosso novo banco de dados
  • 💻 Atualize seu jogo de trabalho com seus laptops, teclados, dispositivos alternativos favoritos para digitar texto e fones de ouvido com redução de ruído da nossa equipe de equipamentos
Rate article