Seu status das relações no chatgpt não deve ser difícil

Como as pessoas conversam umas com as outras afetam seus papéis sociais. Mas o ChatGPT corroe os limites da comunicação.

Colagem de fotos de pixel emoji do homem e boca falando

Salve esta história
Salve esta história

A tecnologia subjacente ao chatGPT existe há vários anos sem atrair atenção especial. Foi a adição da interface chatbot que a tornou tão popular. Em outras palavras, a atenção da comunidade mundial não atraiu o desenvolvimento da IA ​​como tal, mas uma mudança no caminho da interação da IA ​​com as pessoas.

INSCREVER-SE PARA
Inscrev a-se na Wired e mantenh a-se a par de todas as suas idéias favoritas.

Muito rapidamente, as pessoas começaram a pensar no chatgpt como uma estrutura social autônoma. Não há nada surpreendente. Em 1996, Byron Reeves e Clifford Nassa estudaram os computadores pessoais de seu tempo e chegaram à conclusão de que “equiparar a vida indireta e real não é rara nem irracional. É muito comum, é fácil incutir, não Depende de equipamentos de mídia sofisticados, e as reflexões não o farão desaparecer. “”Em outras palavras, as pessoas esperam da tecnologia que ela se comportará e interagirá como pessoa, mesmo que saibam que isso é” apenas um computador “. and robots since the 1990s He emphasizes the same thought and claims that realistic forms of communication, such as body language and verbal signals, “press our Darwin buttons” – they are able to force us to perceive technologies as social, even if we understand that Isso não é assim.

Se esses cientistas viram o potencial social e o risco nas interfaces de computador de dez anos atrás, pod e-se supor que o ChatGPT também possa ter um efeito semelhante e possivelmente mais forte. Ele usa a linguagem do primeiro pessoal, o contexto é preservado e as respostas são dadas em um estilo convincente, confiante e falado. Na implementação do bing chatgpt, o emoji é usado até. Esta é uma etapa bastante alta na escada social em comparação com os resultados mais técnicos que podem ser obtidos ao pesquisar, digamos, no Google.

Os críticos do ChatGPT se concentraram nos perigos que podem ser emitidos, por exemplo, desinformação e conteúdo odiado. Mas também existem riscos na escolha de um estilo social de comunicação e na tentativa de imitar as pessoas o mais próximo possível.

Os riscos de interfaces sociais

O repórter do New York Times, Kevin Ruz, foi atraído para uma conversa de duas horas com o Bing Chatbot, que terminou com o reconhecimento do chatbot apaixonado, embora a Ruz repetidamente pedisse que ele parasse. Essa manipulação emocional será ainda mais prejudicial a grupos vulneráveis, como adolescentes ou pessoas que foram assediadas. Isso pode se preocupar muito com o usuário, e o uso de terminologia e sinais de emoções humanos, como Emodzi, também é uma forma de engano emocional. O modelo de idioma, semelhante ao chatgpt, não tem emoções. Ela não ri e não chora. De fato, ela nem entende o significado de tais ações.

O engano emocional nos agentes da IA ​​não é apenas problemático do ponto de vista moral; Seu design, remanescente do humano, também pode tornar esses agentes mais convincentes. Uma tecnologia que age como uma pessoa provavelmente convencerá as pessoas a agirem, mesmo que os pedidos sejam irracionais, feitos com defeito e agente e em situações de emergência. Sua persuasão é perigosa, pois as empresas podem us á-las com uma maneira indesejável ou até desconhecida dos usuários – da crença até comprar as mercadorias para influenciar suas opiniões políticas.

Como resultado, alguns deram um passo atrás. Por exemplo, os pesquisadores de design de robôs promovem uma abordagem desumana como uma maneira de reduzir as expectativas das pessoas da interação social. Eles oferecem estruturas alternativas que não copiam os métodos de interação entre as pessoas, estabelecendo assim expectativas mais adequadas da tecnologia.

Definição das regras

Alguns riscos de interação social com chatbots podem ser eliminados pelo desenvolvimento de papéis e limites sociais claros para eles. As pessoas escolhem e mudam constantemente os papéis. Uma e a mesma pessoa pode se mudar constantemente de um papel para outro: um pai, funcionário, irmão ou irmã. Ao passar de uma função para outra, o contexto e os limites esperados da mudança de interação. Você não usará o mesmo idioma ao conversar com uma criança quando se comunica com um colega.

Em contraste, o ChatGPT existe num vácuo social. Embora existam algumas linhas vermelhas que ele tenta não ultrapassar, ele não tem um papel ou experiência social claro. Também não tem objetivo específico ou intenções pré-determinadas. Esta pode ter sido uma escolha consciente da OpenAI, os criadores do ChatGPT, de favorecer múltiplos casos de uso ou um dispositivo de uso geral. Mais provavelmente, trata-se simplesmente de uma falta de compreensão do alcance social dos agentes conversacionais. Seja qual for a razão, esta abertura cria as condições para interações extremas e arriscadas. A conversa pode ocorrer de qualquer maneira, e a IA pode assumir qualquer papel social – desde um assistente de e-mail eficiente até um amante obsessivo.

Mais popular
A ciência
Uma bomba-relógio demográfica está prestes a atingir a indústria da carne bovina.
Matt Reynolds
Negócios
Dentro do complexo ultrassecreto de Mark Zuckerberg no Havaí
Guthrie Scrimgeour
Engrenagem
Primeiro, dê uma olhada no Matic, o aspirador robô redesenhado
Adriane So
Negócios
As novas alegações de Elon Musk sobre a morte de macacos estimulam novas demandas de investigação da SEC
Dhruv Mehrotra

A minha própria investigação mostrou a importância de definir claramente os papéis sociais e os limites da IA ​​social. Por exemplo, num estudo realizado com a minha colega Samantha Reig, descobrimos que os agentes de IA que tentaram desempenhar múltiplas funções que eram significativamente diferentes umas das outras (por exemplo, fornecer serviços de beleza aos utilizadores e depois dar-lhes conselhos de saúde) experimentaram uma redução da produtividade das pessoas. confiança no sistema e os tornou céticos quanto à sua confiabilidade.

Em contraste, ao estudar famílias com adolescentes que usaram IA conversacional, descobrimos que um agente de IA deve comunicar claramente a sua afiliação – quer se reporte ao adolescente ou aos pais – para ganhar a confiança dos utilizadores e ser-lhes útil. Quando as famílias não tinham essas informações, tinham dificuldade em prever como o sistema funcionaria e eram menos propensas a fornecer informações pessoais ao agente de IA. Por exemplo, os adolescentes estavam preocupados com o facto de os agentes partilharem mais informações com os seus pais do que gostariam, por isso hesitaram em utilizá-las. Se o papel do agente de IA fosse claramente definido como estando vinculado ao adolescente e não aos pais, isso tornaria a tecnologia mais previsível e confiável.

Atribuir uma função social a um agente de IA é uma forma útil de pensar sobre as interações com um chatbot e ajudará a superar alguns desses desafios. Se uma criança tem um tutor de IA, o seu modelo de linguagem deve corresponder a essa função. Os limites específicos podem ser determinados pelo professor, que os ajustará de acordo com os objetivos educacionais e as normas da turma. Por exemplo, um tutor pode ter permissão para fazer perguntas importantes, mas não fornecer respostas; pode ajudar com gramática incorreta, mas não escrever textos inteiros. A conversa se concentrará em material acadêmico e excluirá palavrões, política e linguagem sexual.

Mas se o agente estivesse a agir como representante desta criança, poderíamos esperar restrições diferentes. Os limites podem ser mais amplos, dando mais responsabilidade à criança. Talvez houvesse mais espaço para interações e respostas lúdicas. No entanto, devem ser estabelecidos determinados limites relativamente à linguagem e ao conteúdo adequados à idade, bem como à proteção da saúde física e mental da criança. Os contextos sociais também não se limitam à interação de uma pessoa e de um agente.

Reconhecendo que os agentes necessitam de papéis e limites sociais, devemos reconhecer que a IA está inserida numa estrutura social complexa na qual múltiplas partes interessadas podem ter valores diferentes e até conflitantes. No exemplo de um tutor de IA, os objetivos do professor podem diferir dos objetivos da criança, dos seus pais ou do diretor da escola. Um educador pode querer que o aluno permaneça preso a um trabalho produtivo, enquanto os pais podem priorizar o alto desempenho acadêmico. O diretor de uma escola, por outro lado, pode estar mais preocupado com o desempenho médio da sala de aula e com os custos de tutoria. Esse tipo de pensamento orientado a restrições não trata apenas de limitar o sistema, mas também de orientar o usuário. Conhecer o papel social e o contexto da IA ​​pode moldar as expectativas do usuário e influenciar os tipos de perguntas e consultas que eles fazem à IA em primeiro lugar. Assim, estabelecer limites de expectativas também pode ajudar a criar a base para interações mais seguras e produtivas.

O caminho a seguir

Como as empresas podem começar a introduzir restrições sociais no desenvolvimento de AI-Agents? Um dos pequenos exemplos é a função que o OpenAI apresentou ao iniciar o GPT4. A interface da nova demonstração possui um campo de entrada de “sistema”, que oferece aos usuários a oportunidade de adicionar diretrizes e contexto de alto nível à conversa – ou, conforme proposto neste artigo, um papel social e os limites da interação. Este é um bom começo, mas insuficiente, pois o OpenAI não fornece informações transparentes sobre como essa entrada altera as respostas da AI. Além disso, os aspectos sociais do papel da IA ​​na interação com os usuários nem sempre são considerados no campo dos sistemas.

Um contexto social bem definido pode ajudar a estruturar os limites sociais nos quais estamos interessados ​​na sociedade. Pode ajudar as empresas a determinar claramente para que sua IA se destina e a evitar funções que consideramos inadequada ou prejudicial à IA. Também permitirá que pesquisadores e auditores rastreem como as tecnologias de conversação são usadas e quais riscos eles carregam, incluindo aqueles que ainda não conhecemos. Sem essas restrições e com uma tentativa precipitada de criar IA onívora sem um certo papel social, suas consequências podem ficar rapidamente fora de controle.

Rate article