Você não é responsável pela sua privacidade online

Na era da inteligência artificial generativa, é impossível saber onde suas informações irão parar e para que serão utilizadas.

Uma colagem de um homem sussurrando no ouvido de alguém, um homem em seu apartamento visto de uma janela e...

Salve esta história
Salve esta história

Em 2010, Mark Zuckerberg disse numa cerimónia de entrega de prémios do TechCrunch que os jovens, especialmente os utilizadores das redes sociais, já não se preocupam com a privacidade.“As pessoas realmente se sentiram confortáveis ​​não apenas em compartilhar mais informações de diferentes tipos, mas também de forma mais aberta e com mais pessoas”, disse ele.”Esta norma social é simplesmente algo que evoluiu ao longo do tempo.”Embora esta declaração claramente não esteja desatualizada, ela reflete a crença comum de que violações de privacidade ocorrem quando as pessoas revelam as suas próprias informações. Em outras palavras, quando algo postado no Reddit ou TikTok se torna viral, ou uma foto de nudez enviada a um fã vaza, a culpa é principalmente da pessoa que postou. Este modelo de responsabilidade individual é muito resiliente. Também é completamente falso. E é irrelevante na era da IA ​​generativa.

Cortesia da Imprensa da Universidade de Yale

Você pode comprar este livro em:

Se você comprar algo por meio de links em nossos artigos, poderemos ganhar uma comissão. Isso ajuda a apoiar nosso jornalismo. Mais detalhes

A IA generativa destrói completamente a ideia de responsabilidade individual pela privacidade porque você não pode controlar como os algoritmos acessam suas informações ou o que fazem com elas. Ferramentas como ChatGPT, Dall-E e Google Bard são treinadas em dados coletados sem consentimento ou mesmo notificação. Na pior das hipóteses, os conjuntos de treinamento sugam enormes quantidades de informações digitais e as transformam em uma pasta que serve como matéria-prima para a IA generativa. À medida que as empresas tecnológicas tentam implementar IA generativa em todos os produtos imagináveis, desde motores de busca a jogos e dispositivos militares, é impossível prever para onde irá este resultado ou como será interpretado. Os seus antecessores, os corretores de dados que violam a privacidade, também vasculharam a Internet e compilaram enormes dossiês sobre as pessoas, mas os seus resultados não estão disponíveis gratuitamente para as pessoas comuns e não estão integrados em motores de busca e processadores de texto. A adoção generalizada de IA generativa está a exacerbar potenciais violações de privacidade e a deixar mais pessoas vulneráveis ​​a consequências prejudiciais.

Empresas enormes usadas por IA generativa inevitavelmente contêm informações sobre pessoas que não foram fornecidas, criadas ou mesmo conhecidas. Registros públicos de casamentos, hipotecas e registro de eleitores – tudo isso é um jogo honesto, além de notícias, biografias de funcionários e páginas da Wikipedia. Mas essa pasta também contém milhões de fotos e vídeos; Por exemplo, o Dall-E estudou em imagens coletadas de redes sociais, mecanismos de pesquisa e sites de imagens. Portanto, se você estiver no fundo de uma foto tirada no Flickr em 2007, sua imagem pode ser usada para ensinar o algoritmo. Parece que ninguém sabe o que entra nesse mingau e não há como monitor á-lo ou control á-lo. Quando o ChatGpt escreve uma biografia imprecisa minha, não sei de onde veio as informações falsas, mas também não sei de onde veio as informações corretas. Estamos acostumados a pensar em privacidade como controle individual sobre as informações, mas é impossível regular o uso de suas informações pessoais se você nem souber sobre sua origem.

Antropólogos e juristas sabem há muito tempo que a vida privada não pode ser controlada por indivíduos, inclusive porque trocamos informações nas redes. Em outras palavras, as pessoas falam uma sobre a outra, tanto na rede quanto fora dela. Você pode pedir aos seus amigos que não enviem fotos de seus filhos no Instagram ou sem mencion á-lo no Tiktok, mas você é tão privado quanto seu interlocutor mais falador. As violações de privacidade na rede geralmente ocorrem porque as informações fornecidas em um ambiente com certas normas e expectativas se movem para outros lugares e são interpretadas de maneira diferente. Tiktoki, criado para um público homossexual e progressivo, se torna feed para campanhas contra o transvestismo; Os discursos políticos feitos para um público simpático parecem ultrajantes quando a oposição os olha.

Novas tecnologias estão cada vez mais prejudicando essa privacidade de rede. Por exemplo, a genealogia judicial permite que a polícia identifique os suspeitos, estudando os dados genéticos obtidos de parentes distantes. Você pode se recusar a usar o site Ancestry. com, mas não poderá proibir o primo do segundo, cuja existência provavelmente nem sequer suspeita, faça o mesmo. O big data usando enormes matrizes de dados de maneira semelhante costuma atrair amigos, parentes e até conhecidos distantes, o que se torna extremamente alarmante quando são incluídos nos algoritmos do trabalho preditivo da polícia ou avaliação de risco. As pessoas não podem fazer nada para evitar tais invasões na vida privada.

A IA generativa amplifica essas preocupações com a privacidade online. Compromete a nossa capacidade de realizar “trabalho de privacidade” – os métodos e estratégias que todos utilizamos para manter um nível aceitável de privacidade. E os resultados da IA ​​generativa são completamente separados da sua fonte original de formas anteriormente inimagináveis. Vazamento de mensagens de texto privadas é uma coisa, usar todo o Reddit como alimento para poesia robótica e trabalhos ruins de estudantes é outra. A informação apresentada num contexto pode ser completamente retextualizada e remixada, mudando o seu significado e perturbando o que a filósofa Helen Nissenbaum chama de “integridade contextual”. Como uma pessoa pode evitar isso?

Rate article