Os sistemas de IA generativos não estão limitados a código aberto ou fechado

As conversas sobre IA generativa geralmente se concentram em saber se o seu desenvolvimento é aberto ou fechado. É mais responsável considerar as liberações ao longo de um gradiente.

Ilustração fotográfica com a imagem de um castelo fechado e aberto com um código binário em segundo plano

Salve esta história
Salve esta história

Recentemente, vazou um documento supostamente do Google, que afirmava que a IA de código aberto competiria com o Google e a OpenAI. O vazamento trouxe à tona as discussões em andamento na comunidade de IA sobre como o sistema de IA e seus diversos componentes deveriam ser disponibilizados aos pesquisadores e ao público. Mesmo com os lançamentos recentes de sistemas generativos de IA, esta questão permanece sem solução.

OPINIÃO COM FIO
SOBRE O SITE

Irene Solaiman é Diretora de Políticas da Hugging Face, onde lidera políticas e conduz pesquisas de impacto social.

Muitos consideram esta questão binária: os sistemas podem ser de código aberto ou de código fechado. O desenvolvimento aberto descentraliza o poder para que muitas pessoas possam trabalhar coletivamente em sistemas de IA para garantir que reflitam as suas necessidades e valores, como visto no BLOOM da BigScience. Embora a abertura permita que mais pessoas contribuam para a investigação e desenvolvimento da IA, o potencial de danos e utilização indevida – especialmente por intervenientes mal-intencionados – aumenta com o aumento do acesso. Os sistemas de código fechado, como o LaMDA original do Google, são protegidos de desenvolvedores terceirizados, mas não podem ser verificados ou avaliados por pesquisadores externos.

Tenho desenvolvido e pesquisado lançamentos de sistemas generativos de IA, incluindo o GPT-2 da OpenAI, desde que esses sistemas se tornaram disponíveis para uso generalizado, e atualmente estou trabalhando em questões de abertura ética na Hugging Face. Ao fazer este trabalho, comecei a pensar em código aberto e fechado como duas extremidades de um gradiente de opções de lançamento de sistemas de IA generativos, em vez de uma simples questão de um ou outro.

Ilustração: Irene Solaiman
Mais popular
A ciência
Uma bomba-relógio demográfica está prestes a atingir a indústria da carne bovina.
Matt Reynolds
Negócios
Dentro do complexo ultrassecreto de Mark Zuckerberg no Havaí
Guthrie Scrimgeour
Engrenagem
Primeiro, dê uma olhada no Matic, o robô a vácuo redesenhado
Adriane So
Negócios
As novas alegações de Elon Musk sobre mortes de macacos estimulam novas demandas de investigação da SEC
Dhruv Mehrotra

No extremo do gradiente estão sistemas que são tão fechados que não são conhecidos do público em geral. Por razões óbvias, é difícil fornecer exemplos específicos de tais sistemas. Mas um passo adiante no gradiente, os sistemas fechados anunciados publicamente estão se tornando cada vez mais comuns para novas modalidades, como a geração de vídeo. Como a geração de vídeo é relativamente nova, há menos pesquisas e informações sobre os riscos que ela representa e a melhor forma de mitigá-los. Quando a Meta anunciou seu modelo Make-a-Video em setembro de 2022, citou preocupações como a facilidade com que qualquer pessoa poderia criar conteúdo realista e enganoso como razões para não distribuir o modelo. Em vez disso, Meta disse que gradualmente forneceria acesso aos pesquisadores.

No meio do gradiente estão os sistemas com os quais os usuários comuns estão mais familiarizados. Por exemplo, ChatGPT e Midjourney são sistemas públicos nos quais a organização de desenvolvimento, OpenAI e Midjourney respectivamente, compartilha o modelo através de uma plataforma para que o público possa fornecer dicas e gerar resultados. Devido à sua ampla cobertura e à natureza sem código, esses sistemas provaram ser gratificantes e arriscados. Embora permitam mais feedback do que sistemas fechados porque pessoas fora da organização em desenvolvimento podem interagir com o modelo, estas pessoas têm informações limitadas e não podem examinar o sistema de forma confiável, por exemplo, avaliando os dados de treinamento ou o próprio modelo.

No outro extremo do gradiente, o sistema é completamente aberto, onde todos os componentes, desde os dados de treinamento até o código e o próprio modelo, são completamente abertos e acessíveis a todos. A IA generativa baseia-se em pesquisas abertas e lições de sistemas iniciais, como o BERT do Google, que era totalmente de código aberto. Hoje, os sistemas totalmente abertos mais utilizados são criados por organizações focadas na democratização e na transparência. Iniciativas lideradas por Hugging Face (para a qual contribuo), como BigScience e BigCode, juntamente com ServiceNow, e coletivos descentralizados como EleutherAI são hoje exemplos populares de criação de sistemas abertos que abrangem vários idiomas e povos ao redor do mundo.

Não existe um método inequivocamente seguro de liberação ou um conjunto padronizado de padrões de libertação. Não existe nenhum órgão que estabeleça padrões. Os primeiros sistemas de IA generativos, como Elmo e Bert, foram abertos principalmente à liberação em fases do GPT-2 em 2019, que causou novas discussões sobre a implantação responsável de sistemas cada vez mais poderosos, por exemplo, sobre quais devem ser as obrigações de emitir ou publicação. Desde então, os sistemas de todos os tipos, especialmente de grandes organizações, ficaram mais fechados, o que causou preocupação com a concentração de poder em organizações com grandes recursos que podem desenvolver e implementar esses sistemas.

Mais popular
A ciência
Uma bomba-relógio demográfica está prestes a atingir a indústria da carne bovina.
Matt Reynolds
Negócios
Dentro do complexo ultrassecreto de Mark Zuckerberg no Havaí
Guthrie Scrimgeour
Engrenagem
Primeiro, dê uma olhada no Matic, o robô a vácuo redesenhado
Adriane So
Negócios
As novas alegações de Elon Musk sobre mortes de macacos estimulam novas demandas de investigação da SEC
Dhruv Mehrotra

Na ausência de padrões claros de implantação e redução dos riscos das pessoas que tomam decisões sobre o comunicado, elas próprias devem pesar os compromissos de várias opções. O sistema de gradiente pode ajudar pesquisadores, desenvolvedores, políticos e usuários comuns da IA ​​a analisar sistematicamente o acesso e a tomar decisões mais eficazes sobre o lançamento, indo além do princípio binário de “Ope n-Callide”.

Todos os sistemas exigem o estudo e a segurança, independentemente de quão abertos eles sejam. Nenhum sistema é completamente inofensivo ou imparcial. Os sistemas fechados são frequentemente submetidos a pesquisas internas antes de serem liberadas para uso amplo. Os sistemas de hospedagem ou com acesso à API podem ter seu próprio conjunto de medidas de proteção, por exemplo, limitando o número de consultas para evitar correspondência de spam em grande escala. Os sistemas abertos também exigem garantias como licenças para a IA responsável. Mas essas disposições técnicas não são balas de prata, especialmente para sistemas mais poderosos. Política e recomendações da comunidade, como a política de moderação do conteúdo da plataforma, também contribuem para aumentar a segurança. A troca de lições de pesquisa e segurança entre laboratórios também pode ser útil. E organizações como o Center for Stanford University Stanford Models e a IA Partnership podem ajudar a avaliar modelos em diferentes níveis de abertura e iniciar discussões sobre normas.

O trabalho ético e seguro na IA pode ocorrer em qualquer lugar do gradiente de aberto a fechado. O principal é que os laboratórios avaliam os sistemas antes de sua implantação e controlar os riscos após a liberação. O gradiente pode ajud á-los a pensar sobre essa decisão. Esse esquema reflete com mais precisão o cenário da IA ​​e pode melhorar a discussão sobre o lançamento, adicionando algumas dessas nuances necessárias.

A opinião da Wired publica artigos de autores de terceiros, representando uma ampla gama de pontos de vista. Leia outras opiniões aqui. Você pode enviar o artigo no site idéias@wired. com.

Rate article