Europa corre o risco de usar a definição errada de IA

Alguns sistemas intelectuais correm o risco de serem excluídos da esfera de supervisão na UE proposta pela UE. Isso é ruim para os negócios e os cidadãos.

Logotipo

Inscrev a-se na Wired e seja mais inteligente com seus autores favoritos de idéias.

A parte mais importante da AIA é uma descrição de quais sistemas são potencialmente perigosos para a automação. Então ele regula apenas eles. Ambos os projetos da AIA dizem que há um pequeno número de contextos nos quais nenhum sistema de inteligência artificial deve funcionar – por exemplo, identificando pessoas em locais públicos de acordo com seus dados biométricos, criando pontos de crédito social para governos ou a produção de brinquedos que incentivam o comportamento perigoso ou aut o-confusão. Tudo isso é simplesmente proibido, mais ou menos. Há muito mais áreas de aplicação nas quais o uso da IA ​​requer controle do governo e de outras pessoas: situações que afetam a vida de uma pessoa, por exemplo, uma decisão sobre quem recebe certos serviços públicos que frequentam uma escola em particular ou recebe essa ou outro ou outro empréstimo. Nessas situações, os moradores da Europa serão dotados de certos direitos, e seus governos terão certos deveres para garantir que os artefatos tenham sido criados e funcionem de maneira correta e justa.

Se a lei sobre inteligência artificial não se aplicar a alguns sistemas que devemos nos preocupar com o “compromisso da presidência”, isso deixará a porta aberta para corrupção e negligência. Também fará coisas legítimas que a Comissão Europeia tenta nos proteger como um sistema de empréstimo social e o reconhecimento geral de pessoas em locais públicos, se a empresa puder dizer que seu sistema não é uma IA “real”.

Quando algo se torna verdadeiramente intelectual? É claro que isso depende de como você determina esse termo ou, de fato, qual das poucas definições existentes seria a mais útil para uso em qualquer conversa que você esteja liderando agora.

Para fins de ferramentas de controle digital, como a AIA, é mais sábio usar a determinação estabelecida da inteligência, que remonta à primeira pesquisa por cientistas das fontes evolutivas da linha humana no exemplo de outros tipos: a capacidade de agir efetivamente em resposta a uma mudança no contexto. As pedras não são inteligentes, as plantas são um pouco inteligentes, abelhas – ainda mais, macacos – novamente, ainda mais. A inteligência, de acordo com essa definição, é obviamente um processo computacional: transformar informações sobre o mundo em algumas ações. Essa definição é geralmente útil, pois se assemelha (ou explica) às pessoas que a inteligência não é algum tipo de propriedade sobrenatural ou simplesmente “humanidade”, mas sim o processo físico que observamos em um grau ou outro na natureza. Isso nos lembra que a IA requer infraestrutura física e legal. A IA precisa de computadores e comunicações não menos que dados e algoritmos. A IA requer energia e materiais e produz poluição e desperdício.

Mais popular
A ciência
Uma bomba demográfica de uma ação lenta está prestes a atingir a indústria de carne bovina
Matt Reynolds
Negócios
Dentro do complexo supe r-secreto Mark Zuckerberg no Havaí
Gatrine Skrimjor
Engrenagem
Primeira olhada em Matic, um aspirador de robô processado
Adrienne co
Negócios
Novas declarações de Elon Mask sobre a morte do macaco estimulam novos requisitos para a investigação da Comissão de Valores Mobiliários dos EUA
Dhruv Mehrotra

Se você descartar as definições, o restante da AIA deixará claro que os legisladores em relação à IA estão preocupados com seus resultados. Os detalhes de como os artefatos executam essas tarefas são importantes apenas na medida em que determinam o quão difícil é garantir transparência e responsabilidade. Nesse contexto, “calcular as ações relevantes do contexto” é a melhor definição de IA para AIA, pois não se incomoda nos detalhes técnicos, mas permite que você se concentre nas consequências.

A AIA – e, em geral, toda a regulamentação de produtos, especialmente sistemas complexos, deve motivar o uso de uma estratégia simples que permite que você funcione bem, pois isso aumenta as chances de que os sistemas funcionem e apoiem. Isso é realmente bom para os negócios e a sociedade.”Maximizar o lucro” é mais fácil se você puder continuar fornecendo seu produto de maneira confiável, com segurança e por um longo tempo.

A exclusão de alguns sistemas digitais da consideração na AIA apenas porque não são complicados o suficiente, pode parecer uma maneira de promover a simplificação da IA, mas, de fato, o aprendizado de máquina às vezes pode ser a maneira mais clara, simples e elegante de implementar bem o projeto. Em outros casos, não é assim. Por que agravar o problema da produção de produtos, alterando radicalmente a carga padrão com uma mudança simples na abordagem algorítmica?

E, claro, não se trata apenas de AIA. A União Europeia já alocou grandes investimentos no desenvolvimento da IA, e a sociedade já é apaixonada por isso. Se os melhores sistemas para alcançar o resultado deixar de ser considerado IA, mesmo que eles usem procedimentos descritos nos livros de IA por décadas, isso poderá empurrar empresas e governos a usar o segundo melhor sistema. Ou o terceiro.

Pense em qualquer serviço que o governo atualmente forneça usando apenas pessoas e papel. Quando escrevemos em um código ou trem de computador usando o aprendizado de máquina, como nossos funcionários públicos devem se comportar, criamos problemas e oportunidades.

A dificuldade está no fato de que um único erro cometido no desenvolvimento pode ser repetido pela automação milhões de vezes sem pensamentos desnecessários. Foi exatamente o que aconteceu com o sistema de correio britânico. Vinte anos atrás, Fujitsu escreveu um novo software para o British Mail; Imediatamente apareceu mensagens de erro. Mas essas mensagens foram ignoradas, principalmente porque os britânicos adotaram uma lei de que o software é confiável. Portanto, as contas de software foram acreditadas, mas não funcionários postais. Mesmo que tivessem muitos anos de experiência profissional, os funcionários postais foram forçados a compensar em particular por enormes “inconsistências financeiras”. A vida entrou em colapso, as famílias faliram, as pessoas foram presas e a morte, incluindo o suicídio. Vinte anos depois, o caso desses trabalhadores só foi ouvido agora. É por isso que precisamos de uma boa supervisão de qualquer sistema digital de “alto risco” – sistemas que mudam de vida.

Rate article