Você está preocupado com o chatgpt? Experimente Chatgpt com um martelo

Quando a IA generativa pode usar as ferramentas do mundo real, suas capacidades crescerão exponencialmente. Empresas e autoridades regulatórias precisam antes desses algoritmos em rápido desenvolvimento.

Botão/pausa de reprodução
Pausa
Ilustração fotográfica: funcionários com fio; Getty Images
Salve esta história
Salve esta história

Em março do ano passado, apenas duas semanas após o lançamento do GP T-4, os pesquisadores da Microsoft anunciaram silenciosamente o plano de coletar milhões de ferramentas de API que poderiam fazer de tudo, desde encomendar pizza até resolver a televisão e o controle da TV na sua sala de estar – em A coleção, na coleção, que estará disponível para grandes modelos de idiomas (LLM). Foi apenas um dos marcos da corrida entre os círculos da indústria e a científica para procurar as melhores maneiras de ensinar a LLM a manipular ferramentas, o que aumentará o potencial da IA ​​mais do que todas aquelas conquistas impressionantes que vimos até agora.

O objetivo do projeto da Microsoft é ensinar a IA a usar todas as ferramentas digitais de uma só vez, o que é uma abordagem inteligente e eficaz. Hoje, o LLM pode muito bem recomendar um recheio de pizza se você descrever suas preferências alimentares e fazer um diálogo que você pode usar ao ligar para um restaurante. Mas a maioria das ferramentas de IA não pode fazer um pedido, mesmo online. Ao contrário deles, o assistente de sete anos do Google Assistant pode sintetizar a voz ao falar ao telefone e preencher o formulário de postagem on-line, mas não pode escolher um restaurante ou adivinhar seu pedido. No entanto, ao unir todas essas oportunidades, a IA, usando a ferramenta, poderá fazer tudo. Ai, tendo acesso a suas conversas e instrumentos anteriores, como calculadoras de calorias, o banco de dados do menu de restaurantes e sua carteira de pagamento digital, pode muito bem determinar que você está tentando perder peso e deseja escolher uma versão baix a-caloria, encontre o restaurante mais próximo com os recheios que você gosta e faça um pedido de entrega. Se ele tiver acesso ao histórico de seus pagamentos, ele pode até assumir o quão generosa você geralmente dá dicas. Se ele tiver acesso aos sensores em suas horas inteligentes ou em um rastreador de fitness, ele poderá sentir quando os níveis de açúcar no sangue diminuírem e ordenar a torta antes mesmo de entender que estava com fome.

Opinion Wired
Sobre o site

Nathan Sanders é especialista em pesquisa de dados, um funcionário do Berkma n-Klein Center da Universidade de Harvard. Ele escreve muito sobre a influência da inteligência artificial na democracia.

Bruce Schneier é tecnólogo de segurança. Autor de mais de uma dúzia de livros, incluindo “A mente de um hacker: como os ricos e poderosos estão mudando as regras da sociedade e como mudá-las de volta”. Ele leciona na Harvard Kennedy School e mora em Massachusetts.

Talvez as aplicações potenciais mais atraentes para o uso de ferramentas sejam aquelas que dão à IA a capacidade de melhorar a si mesma. Digamos, por exemplo, que você pediu a um chatbot para ajudá-lo a interpretar algum aspecto do direito romano antigo que ninguém pensou em incluir no treinamento inicial do modelo. Um LLM com poderes para pesquisar bases de dados académicas e executar o seu próprio processo de aprendizagem poderia aguçar a sua compreensão do direito romano antes de responder. O acesso a ferramentas especializadas pode até ajudar esse modelo a explicar-se melhor. Embora LLMs como o GPT-4 já expliquem muito bem o seu raciocínio quando solicitados, essas explicações emergem de uma “caixa preta” e são propensas a erros e alucinações. Mas um LLM que utilize ferramentas poderia dissecar o seu próprio interior, oferecendo avaliações empíricas do seu raciocínio e explicações determinísticas sobre a razão pela qual deu a resposta que deu.

Ao fornecer acesso a ferramentas para obter feedback das pessoas, um LLM que utilize as ferramentas pode até gerar conhecimento especializado que ainda não foi capturado online. Ele pode postar uma pergunta no Reddit ou Quora, ou atribuir a tarefa a uma pessoa no Mechanical Turk da Amazon. Ele pode até obter dados sobre as preferências das pessoas realizando uma pesquisa para dar uma resposta diretamente a você ou ajustar seu próprio treinamento para responder melhor às perguntas no futuro. Com o tempo, o uso de ferramentas pela IA pode se tornar muito semelhante ao uso de ferramentas por humanos. O LLM pode gerar código muito mais rápido do que qualquer programador, portanto, pode manipular os sistemas e serviços do seu computador com facilidade. Ele também poderá usar o teclado e o cursor do computador da mesma forma que um ser humano, permitindo-lhe usar qualquer programa. Além disso, ele pode melhorar suas próprias capacidades usando ferramentas para fazer perguntas, realizar pesquisas e escrever códigos para incorporar em si mesmo.

É fácil entender que o uso desse tipo de ferramentas está repleto de riscos enormes. Imagine que o LLM pode encontrar o número de telefone de uma pessoa, ligue para ele e escreva secretamente sua voz, adivinhe qual banco ele usa com base nos dados dos maiores provedores de serviços em sua região, para se dar para ele durante uma conversa telefônica com o serviço de suporte para Reinicie a senha e elimine sua conta para fazer a doação do partido político. Cada uma dessas tarefas causa uma ferramenta simples – uma pesquisa na Internet, um sintetizador de voz, um aplicativo bancário – e o LLM escreve um cenário de uma sequência de ações usando essas ferramentas.

Ainda não sabemos o sucesso de nenhuma dessas tentativas. Não importa o quão maravilhoso seja o LLM, eles não foram criados especificamente para trabalhar com ferramentas, e resta descobrir como seus primeiros sucessos no uso de ferramentas afetarão os cenários futuros semelhantes aos descritos aqui. Portanto, o fornecimento da IA ​​generativa atual de acesso repentino a milhões de API, como a Microsoft planeja fazer, pode ser como se o bebê fosse lançado em um armazém de armas.

Mais popular
A ciência
Uma bomba demográfica de uma ação lenta está prestes a atingir a indústria de carne bovina
Matt Reynolds
Negócios
Dentro do complexo supe r-secreto Mark Zuckerberg no Havaí
Gatrine Skrimjor
Engrenagem
Primeira olhada em Matic, um aspirador de robô processado
Adrienne co
Negócios
Novas declarações de Elon Mask sobre a morte do macaco estimulam novos requisitos para a investigação da Comissão de Valores Mobiliários dos EUA
Dhruv Mehrotra

Empresas como a Microsoft devem ser especiais para abordar o fornecimento de acesso à IA a certas ferramentas de ferramentas. Acesso a ferramentas para encontrar informações, realizar cálculos especiais e estudar os sensores do mundo real – tudo isso está associado a um certo risco. A capacidade de transmitir mensagens para fora do usuário direto da ferramenta ou usar a API, manipular objetos físicos, como bloqueios ou carros, carrega um risco muito maior. A combinação dessas categorias de ferramentas aprimora os riscos de cada uma delas.

Os operadores do LLM mais avançado, como o OpenAI, devem continuar a agir com cautela quando começarem a oferecer a oportunidade de usar ferramentas e devem limitar o uso de seus produtos em áreas sensíveis como política, saúde, bancos e defesa. Mas parece óbvio que esses líderes da indústria já perderam o fosso em torno da tecnologia LLM – o códig o-fonte aberto os alcança. Reconhecendo essa tendência, meta adere à abordagem “Se você não puder derrot á-los, junt e-se a eles” e assumiu parcialmente o papel da plataforma LLM com código aberto.

No plano político, os mandatos nacionais e regionais sobre IA parecem ser inúteis. A Europa é a única jurisdição significativa que fez progressos significativos na regulamentação da utilização responsável da IA, mas não está totalmente claro como os reguladores irão aplicá-la. Os EUA estão a tentar recuperar o atraso e, ao que parece, serão muito mais tolerantes, permitindo até mesmo os riscos que a UE considera “inaceitáveis”. Entretanto, nenhum governo investiu num modelo de IA de “escolha pública” que pudesse oferecer uma alternativa às Big Tech que fosse mais empática e responsável perante os seus cidadãos.

Os reguladores devem considerar o que a IA pode fazer de forma autónoma, como, por exemplo, atribuir títulos a bens imóveis ou registar uma empresa. Talvez as transacções mais sensíveis devam exigir a participação de uma pessoa de confiança, mesmo ao custo de alguma fricção adicional. O nosso sistema jurídico pode ser falho, mas geralmente sabemos como responsabilizar uma pessoa por um delito; o truque é não permitir que transfira a sua responsabilidade para terceiros artificiais. Devemos continuar a procurar soluções regulamentares centradas na IA, reconhecendo ao mesmo tempo que elas não são suficientes por si só.

Devemos também estar preparados para o potencial que o uso de ferramentas de IA pode ter um impacto benéfico na sociedade. Na melhor das hipóteses, essa IA poderia acelerar rapidamente o desenvolvimento num campo como a descoberta de medicamentos, e o escritório de patentes e a FDA deveriam preparar-se para um aumento no número de candidatos legítimos a medicamentos. Devemos mudar a forma como interagimos com os nossos governos para tirar partido das ferramentas de IA que nos dão a todos significativamente mais oportunidades de fazer ouvir as nossas vozes. E precisamos de garantir que os benefícios económicos da IA ​​superinteligente e que poupa trabalho são partilhados de forma justa.

Podemos debater se os LLMs são verdadeiramente inteligentes, conscientes ou têm agência, mas de qualquer forma, as IAs tornar-se-ão utilizadores de ferramentas cada vez mais capazes. Algumas coisas são maiores que a soma de suas partes. A IA que pode manipular e interagir até mesmo com ferramentas simples se tornará muito mais poderosa do que as próprias ferramentas. Vamos ter certeza de que estamos prontos para isso.

WIRED Opinion publica artigos de escritores terceirizados que representam uma ampla gama de pontos de vista. Leia outras opiniões aqui. Poste sua opinião em ideas@wired. com.

Rate article