3 maneiras de domar chatgpt

Os governos de todo o mundo estão promovendo a regulamentação da IA, que não diz nada sobre modelos generativos. Isso pode ser perigoso.

Ilustração abstrata de IA e loops de feedback

Salve esta história
Salve esta história

Este ano, testemunhamos o aparecimento de poderosos sistemas generativos de IA, capazes de criar imagens e texto mediante solicitação.

Opinion Wired
Sobre o site

Meeri Haataja é o diretor geral e c o-fundador da Saidot.

Ao mesmo tempo, os reguladores estão em movimento. Na Europa, é concluído o trabalho sobre a lei sobre inteligência artificial (AI), projetado para estabelecer regras rigorosas para sistemas de inteligência artificial com alto grau de risco. Canadá, Gr ã-Bretanha, EUA e China introduziram suas próprias abordagens para a regulamentação de IA altamente eficaz. No entanto, parece que a IA genera l-fins é um postWord do que a direção principal. Quando novas regras de regulamentação foram propostas na Europa em abril de 2021, não houve uma única menção a modelos gerais de propósito, modelos fundamentais, incluindo IA generativa. Em menos de um ano e meio, nossa idéia do futuro da IA ​​mudou radicalmente. A exclusão irracional dos modelos fundamentais de hoje dessas propostas transformará as regras da IA ​​em tigres de papel que parecem poderosos, mas não podem proteger os direitos fundamentais.

O chatgpt fez uma mudança no paradigma da IA ​​tangível. Agora, vários modelos – como GP T-3, Dal l-e, difusão estável e alfacode – se tornam a base de quase todos os sistemas de IA. A IA-Startaps pode ajustar os parâmetros desses modelos fundamentais para cumprir melhor suas tarefas específicas. Assim, os modelos fundamentais podem se tornar a base para um grande número de aplicativos subsequentes em vários campos, incluindo marketing, vendas, atendimento ao cliente, desenvolvimento de software, design, jogo, educação e direito.

Embora os modelos fundamentais possam ser usados ​​para criar novos aplicativos e modelos de negócios, eles também podem se tornar um meio poderoso de disseminar a desinformação, a automação de spam de alta qualidade, escrever programas maliciosos, plágio dos direitos autorais de conteúdo e invenções. Foi provado que os modelos fundamentais contêm preconceitos e geram conteúdo estereotipado ou tendencioso. Esses modelos podem simular com precisão o conteúdo extremista e ser usado para radicalizar pessoas na ideologia extremista. Eles são capazes de enganar e apresentar informações falsas de forma convincente. Está preocupado que as possíveis deficiências desses modelos sejam transmitidas a todos os modelos subsequentes, o que pode levar a problemas de grande escala se não os regulam intencionalmente.

O problema das “muitas mãos” refere-se à necessidade de atribuir responsabilidade moral pelos resultados alcançados por vários participantes, e é um dos fatores-chave na redução da responsabilização quando se trata de sociedades algorítmicas. A responsabilização pelas novas cadeias de abastecimento de IA, onde os modelos fundamentais alimentam centenas de aplicações a jusante, deve basear-se na visibilidade de ponta a ponta. Em particular, precisamos de aumentar a transparência da cadeia de abastecimento a três níveis e estabelecer feedback entre eles.

A transparência dos modelos subjacentes é essencial para que os pesquisadores e toda a cadeia de usuários possam estudar e compreender as vulnerabilidades e vieses dos modelos. Os próprios desenvolvedores de modelos reconhecem essa necessidade. Por exemplo, os investigadores da DeepMind acreditam que os danos dos grandes modelos linguísticos devem ser abordados em colaboração com uma ampla gama de partes interessadas, com base em níveis suficientes de explicabilidade e interpretabilidade para detectar, avaliar e mitigar eficazmente os danos. São necessárias metodologias padronizadas de medição e benchmarking, como o HELM da Universidade de Stanford. Estes modelos tornam-se demasiado poderosos para funcionarem sem avaliação por parte de investigadores e auditores independentes. Os reguladores devem perguntar: Compreendemos o suficiente para avaliar onde estes modelos devem ser usados ​​e onde devem ser proibidos? A segurança e a confiabilidade das aplicações de alto risco podem ser avaliadas adequadamente usando as informações disponíveis?

Mais popular
A ciência
Uma bomba-relógio demográfica está prestes a atingir a indústria da carne bovina.
Matt Reynolds
Negócios
Dentro do complexo ultrassecreto de Mark Zuckerberg no Havaí
Guthrie Scrimgeour
Engrenagem
Primeiro, dê uma olhada no Matic, o aspirador robô redesenhado
Adriane So
Negócios
As novas alegações de Elon Musk sobre a morte de macacos estimulam novas demandas de investigação da SEC
Dhruv Mehrotra

Transparência na utilização de modelos fundamentais. As organizações que implantarem esses modelos para um caso de uso específico determinarão, em última análise, se eles são adequados e atendem aos requisitos necessários de desempenho e confiabilidade. No entanto, a transparência na utilização destes modelos subjacentes é necessária para tornar claros os potenciais danos. As organizações implantadoras devem especificar os modelos subjacentes utilizados para que os usuários, auditores e o público em geral possam avaliar os riscos dessas aplicações subsequentes.

A transparência dos resultados criados pela IA. Um dos maiores problemas com a transparência é o problema de “Last Mile”: distinguir o conteúdo criado pela IA do conteúdo criado por uma pessoa. Na semana passada, muitos de nós fomos enganados por relatórios do LinkedIn escritos por ChatGPT. Vários representantes da indústria reconheceram a existência de um problema, e parece que todos concordam com a importância de sua solução. Mas as soluções técnicas ainda estão em desenvolvimento. As pessoas oferecem marcar o conteúdo do conteúdo com marcas d’água para resolver problemas de direitos autorais e identificar o uso potencialmente proibido e prejudicial. Alguns especialistas dizem que uma solução ideal seria aquela que uma pessoa não poderia distinguir, mas ao mesmo tempo permitiria que ele o detectasse com um alto grau de confiança. Assim, a marcação não afetará significativamente a experiência do usuário de usar todo o conteúdo criado pela IA, mas ao mesmo tempo permitirá que você filtre melhor o conteúdo para uso ilegal.

Loops de feedback. Sab e-se que grandes modelos generativos são muito imprevisíveis, o que também complica a previsão das consequências de seu desenvolvimento e implementação. Essa imprevisibilidade, bem como o problema de “muitas mãos”, tornam importante o nível adicional de transparência – os contornos do feedback, que podem ajudar as autoridades da indústria e regulamentar a fornecer decisões mais consistentes e seguras.

Os métodos de alinhamento que usam feedback de uma pessoa para ensinar IA foram usados ​​com sucesso para aprender o GPT-3, para que ele produz menos declarações insultuas, menos informações erradas e cometem menos erros. Para ensinar o modelo, foi utilizado o treinamento de reforço, com base em revisões de 40 instrutores, contratados para formular e avaliar as respostas do GPT-3. Os resultados do modelo coordenado receberam uma avaliação positiva, e esse exemplo encorajador enfatiza a importância da participação de uma pessoa na avaliação dos resultados da IA.

É necessário prestar mais atenção aos players do setor e aos órgãos regulatórios para escalar e padronizar mecanismos de notificação que permitirão que os usuários relatem resultados falsos, tendenciosos ou prejudiciais criados por modelos fundamentais. Isso pode servir a dois objetivos importantes: contribuir para o treinamento adicional de modelos fundamentais, usando feedback de pessoas de aplicações subsequentes e fornecer dados reais a pesquisadores e autoridades reguladoras para desenvolver medidas para reduzir riscos e política.

As últimas semanas nos permitiram olhar para o estado atual das capacidades de IA, que simultaneamente deleitam e causam preocupação. As autoridades regulatórias terão que ajustar seu pensamento para levar em consideração as próximas mudanças, e o setor terá que cooperar com os políticos, à medida que somos orientados na próxima mudança no paradigma da IA.

Rate article