Apelo para parar a pesquisa ‘perigosa’ de IA ignora a verdade simples

Uma carta aberta de líderes do setor de tecnologia pede a suspensão da pesquisa do ChatGPT. Mas os investigadores já sabem como tornar a inteligência artificial mais segura.

Colagem de fotos de pessoas no cérebro de computadores com padrões tecnológicos, martelo e código

Salve esta história
Salve esta história

Na semana passada, o Future of Life Institute publicou uma carta aberta propondo uma moratória de seis meses sobre a “perigosa” corrida à IA. A carta foi assinada por mais de 3. 000 pessoas, incluindo membros influentes da comunidade de IA. Mas embora seja positivo que os riscos associados aos sistemas de IA se estejam a tornar mais visíveis na comunidade e em toda a sociedade, tanto os problemas descritos na carta como as ações propostas são irrealistas e desnecessários.

O apelo para interromper o trabalho na IA não é apenas vago, mas também impraticável. Embora o treinamento de grandes modelos linguísticos por empresas comerciais tenha recebido a maior atenção, está longe de ser o único tipo de trabalho de IA. Na verdade, a investigação e a prática da IA ​​estão a ter lugar nas empresas, no meio académico e em competições Kaggle em todo o mundo sobre uma variedade de tópicos, desde a eficiência à segurança. Isso significa que não existe um botão mágico que possa ser pressionado para interromper pesquisas “perigosas” de IA e permitir apenas pesquisas “seguras”. E todos os riscos da IA ​​citados na carta são hipotéticos, baseados num pensamento de longo prazo que tende a ignorar problemas reais como a discriminação algorítmica e o policiamento preditivo que estão a prejudicar as pessoas neste momento em favor de potenciais riscos existenciais para a humanidade.

OPINIÃO COM FIO
SOBRE O SITE

Sasha Lucioni é pesquisadora e chefe de clima na Hugging Face, onde estuda as implicações éticas e sociais do uso de modelos e conjuntos de dados de inteligência artificial. Ela também é diretora da Women in Machine Learning (WiML), membro fundadora da Climate Change AI (CCAI) e presidente do Comitê do Código de Ética NeurIPS.

Em vez de nos concentrarmos na forma como a IA poderá falhar no futuro, deveríamos concentrar-nos em definir claramente o que constitui o sucesso da IA ​​no presente. O caminho é claro: em vez de parar a investigação, precisamos de aumentar a transparência e a responsabilização através do desenvolvimento de orientações para a implementação de sistemas de IA. Políticas, pesquisas e iniciativas semelhantes lideradas por usuários existem há décadas em vários setores, e já temos propostas concretas que podem ser trabalhadas para enfrentar os riscos atuais da IA.

Os reguladores de todo o mundo já estão a desenvolver leis e protocolos para reger a utilização e o desenvolvimento de novas tecnologias de IA. A Lei de Responsabilidade de Algoritmos aprovada pelo Senado dos EUA e iniciativas semelhantes na UE e no Canadá estão ajudando a determinar quais dados podem ou não ser usados ​​para treinar sistemas de IA, abordar questões de direitos autorais e licenciamento e avaliar as considerações especiais necessárias para o uso de IA em alta escala. -ambientes de risco. Uma das partes mais importantes destas regras é a transparência: exigem que os criadores de sistemas de IA forneçam mais informações sobre detalhes técnicos, como a origem dos dados de treino, o código utilizado para treinar modelos e como implementar funcionalidades como filtros de segurança. Tanto os criadores de modelos de IA como os seus utilizadores a jusante podem apoiar estes esforços, envolvendo-se com os seus representantes e ajudando a moldar a legislação sobre as questões acima descritas. Afinal, são os nossos dados que são usados ​​e influenciados pelos nossos meios de subsistência.

Contudo, simplesmente fornecer essas informações não é suficiente. As empresas que desenvolvem modelos de IA também devem permitir auditorias externas aos seus sistemas e ser responsáveis ​​por abordar riscos e fraquezas, caso sejam identificados. Por exemplo, muitos dos modelos de IA mais recentes, como ChatGPT, Bard e GPT-4, são também os mais limitados, disponíveis apenas através de APIs ou de acesso proprietário inteiramente controlado pelas empresas que os criaram. Isto essencialmente os transforma em “caixas pretas” cujos resultados podem variar de dia para dia ou produzir resultados diferentes para pessoas diferentes. Embora ferramentas como o GPT-4 tenham sido implementadas com a aprovação das empresas, os investigadores não conseguem aceder aos sistemas subjacentes, impossibilitando a análise científica e a auditoria. Isto é contrário às abordagens de auditoria de sistemas de inteligência artificial propostas por cientistas como Deborah Raji, que apelaram à revisão em diferentes fases do processo de desenvolvimento do modelo para identificar comportamentos de risco e danos antes de os modelos serem implementados na sociedade.

Outro passo importante no caminho para a segurança é repensar colectivamente a forma como criamos e utilizamos a IA. Os desenvolvedores e pesquisadores de IA podem começar a criar normas e diretrizes para o uso da IA ​​ouvindo as muitas pessoas que há anos defendem uma IA mais ética. Estes incluem investigadores como Timnit Gebru, que propôs o movimento “IA lenta”, e Ruha Benjamin, que enfatizou a importância de criar directrizes para a IA ética durante o seu discurso numa recente conferência sobre IA. Iniciativas comunitárias como o código de ética que está a ser implementado na conferência NeurIPS (da qual presido) também fazem parte deste movimento e visam estabelecer directrizes sobre o que é aceitável em termos de investigação em IA e como considerar o seu impacto mais amplo na sociedade.

Rate article