Mundo Especialistas correm para evitar a criação de pornografia infantil por inteligência artificial Redação3 de julho de 2023062 visualizações Dave Willner teve um lugar de destaque na evolução das piores coisas na internet. Começou a trabalhar no Facebook em 2008, quando as empresas de mídia social iam criando suas regras à medida que avançavam. Como chefe de política de conteúdo da empresa, foi ele quem, há mais de uma década, redigiu os primeiros padrões oficiais da comunidade do Facebook, transformando o que, segundo ele, era uma lista informal de uma página, que se resumia principalmente a uma proibição de “Hitler e pessoas nuas”, no que agora é um catálogo extenso de insultos, crimes e outras coisas grotescas que são banidas em todas as plataformas da Meta. Assim, no ano passado, quando o laboratório de inteligência artificial OpenAI, de San Francisco, se preparava para lançar o Dall-E, ferramenta que permite a qualquer pessoa criar instantaneamente uma imagem descrevendo-a em poucas palavras, a empresa escolheu Willner para ser seu chefe de confiabilidade e segurança. Inicialmente, isso significava vasculhar todas as imagens e prompts que os filtros da Dall-E sinalizavam como possíveis violações — e descobrir maneiras de evitar que os infratores tivessem sucesso. Não demorou muito para que Willner considerasse uma ameaça conhecida. Assim como os predadores de crianças usaram durante anos o Facebook e outras grandes plataformas de tecnologia para divulgar imagens de abuso sexual infantil, eles agora tentavam usar o Dall-E para criar imagens totalmente novas. “Não me surpreendeu que tentassem fazer isso. E o pessoal da OpenAI também não ficou surpreso”, disse ele. Apesar de toda a conversa recente sobre os hipotéticos riscos existenciais da inteligência artificial (IA) generativa, os especialistas dizem que é essa ameaça imediata — os predadores de crianças que já estão usando novas ferramentas de IA — que merece a atenção exclusiva da indústria. Em um artigo recém-publicado pelo Observatório da Internet de Stanford e pela Thorn, organização sem fins lucrativos que luta contra a disseminação do abuso sexual infantil online, os pesquisadores descobriram que, desde agosto passado, houve um pequeno, mas significativo, aumento na quantidade de material fotorrealista de abuso sexual infantil gerado por IA circulando na dark web. De acordo com os pesquisadores da Thorn, isso se manifestou sobretudo em imagens que usam a semelhança com vítimas reais, mas as mostram em novas poses, sendo submetidas a novas e cada vez mais flagrantes formas de violência sexual. A maioria dessas imagens foi gerada não pelo Dall-E, mas por ferramentas de código aberto desenvolvidas e lançadas com poucas proteções em vigor, descobriram os pesquisadores. Em seu artigo, eles afirmaram que menos de 1% do material de abuso sexual infantil encontrado em uma amostra de comunidades predatórias conhecidas parecia ser imagens fotorrealistas geradas por IA. Mas, dado o ritmo vertiginoso de desenvolvimento dessas ferramentas generativas, os pesquisadores preveem que esse número só vá crescer. “Dentro de um ano, vamos chegar a um estado problemático nessa área. Para mim, esse é absolutamente o pior cenário da aprendizagem de máquina”, afirmou David Thiel, técnico-chefe do Observatório de Stanford, que coescreveu o artigo com a diretora de ciência de dados da Thorn, Rebecca Portnoff, e a chefe de pesquisa da Thorn, Melissa Stroebel. ‘Confiamos nas pessoas’Em 2003, o Congresso aprovou uma lei que proíbe a “pornografia infantil gerada por computador” — exemplo raro de preparação para o futuro. Mas, na época, a criação dessas imagens era proibitivamente cara e tecnicamente complexa. O custo e a complexidade dessa criação têm diminuído constantemente, mas mudaram em agosto passado com a estreia pública do Stable Diffusion, gerador gratuito de texto para imagem de código aberto desenvolvido pela Stability AI, empresa de aprendizagem de máquina sediada em Londres. Em sua primeira iteração, a Stable Diffusion impunha poucos limites às imagens que seu modelo poderia produzir, incluindo aquelas que continham nudez. “Confiamos nas pessoas e na comunidade”, declarou o presidente-executivo da empresa, Emad Mostaque, ao The New York Times no fim do ano passado. Motez Bishara, diretor de comunicações da Stability AI, disse em comunicado que a empresa proibiu o uso indevido de sua tecnologia para fins “ilegais ou imorais”, incluindo a criação de material de abuso sexual infantil: “Apoiamos fortemente os esforços de aplicação da lei contra aqueles que usam indevidamente nossos produtos para fins ilegais ou nefastos.” Como o modelo é de código aberto, os desenvolvedores podem baixar e modificar o código no próprio computador e usá-lo para gerar, entre outras coisas, pornografia adulta realista. Em seu artigo, os pesquisadores da Thorn e de Stanford descobriram que os predadores ajustaram esses modelos para também poder criar imagens sexualmente explícitas de crianças. Os pesquisadores demonstram uma versão higienizada disso no relatório, modificando uma imagem gerada por IA de uma mulher até parecer uma imagem de Audrey Hepburn quando criança. Desde então, a Stability AI lançou filtros que tentam bloquear o que a empresa chama de “conteúdo inseguro e inadequado”. E versões mais recentes da tecnologia foram desenvolvidas com o uso de conjuntos de dados que excluem conteúdo considerado “não seguro e inadequado”. Mas, segundo Thiel, as pessoas ainda estão usando o modelo mais antigo para produzir imagens que o mais novo proíbe. Ao contrário do Stable Diffusion, o Dall-E não é de código aberto e só é acessível mediante a própria interface da OpenAI. O modelo também foi desenvolvido com muito mais salvaguardas para proibir a criação até mesmo de imagens legais de nudez de adultos. “Os modelos se recusam a ter conversas sexuais com você. Fazemos isso principalmente por prudência em torno de alguns desses tópicos sexuais mais sombrios”, afirmou Willner. Perguntas em abertoA Thorn tem uma ferramenta chamada Safer, que verifica imagens de abuso infantil e ajuda empresas a denunciá-las ao Centro Nacional para Crianças Desaparecidas e Exploradas, que administra uma câmara de compensação designada pelo governo federal para material suspeito de abuso sexual infantil. A OpenAI usa o Safer para digitalizar o conteúdo que as pessoas incluem na ferramenta de edição do Dall-E, o que é útil para capturar imagens reais de crianças, mas Willner observou que mesmo as ferramentas automatizadas mais sofisticadas podem ter dificuldades para identificar com precisão imagens geradas por IA. Essa é uma preocupação crescente entre os especialistas em segurança infantil: essa IA não vai ser usada só para criar novas imagens de crianças reais, mas também para tornar explícitas imagens de crianças que não existem. Esse conteúdo é ilegal por si só e terá de ser denunciado. Mas essa possibilidade também levou ao temor de que a câmara de compensação federal possa ser ainda mais inundada com imagens falsas, que complicariam os esforços para identificar vítimas reais. Só no ano passado, o centro recebeu cerca de 32 milhões de denúncias por meio do CyberTipline. “Se começarmos a receber denúncias, conseguiremos saber? As imagens serão marcadas ou poderão ser diferenciadas das de crianças reais?”, questionou Yiota Souras, conselheira-geral do Centro Nacional para Crianças Desaparecidas e Exploradas. Pelo menos algumas dessas respostas terão de ser fornecidas não apenas por empresas de IA, como a OpenAI e a Stability AI, mas por aquelas que administram aplicativos de mensagens ou plataformas de mídia social, como a Meta, que é a mais reportada à CyberTipline. No ano passado, chegaram mais de 27 milhões de denúncias contra o Facebook, o WhatsApp e o Instagram. As empresas de tecnologia já usam um sistema de classificação, desenvolvido pela Tech Coalition, aliança do setor, para categorizar o material suspeito de abuso sexual infantil pela idade aparente da vítima e pela natureza dos atos retratados. Os pesquisadores da Thorn e de Stanford argumentam que essas classificações devem ser ampliadas para também refletir se uma imagem foi gerada por computador. Em um comunicado ao The New York Times, a chefe global de segurança da Meta, Antigone Davis, declarou: “Estamos trabalhando para melhorar a efetividade e para nos basearmos em provas em nossa abordagem de conteúdo gerado por IA, como entender quando a inclusão de informações de identificação seria mais benéfica e como essas informações deveriam ser transmitidas”. Ela acrescentou que a empresa trabalharia com o Centro Nacional para Crianças Desaparecidas e Exploradas para determinar o melhor caminho a seguir. Além das responsabilidades das plataformas, os pesquisadores argumentam que as empresas de IA podem fazer mais. Especificamente, deveriam treinar seus modelos para não criar imagens de nudez infantil e identificar claramente imagens geradas por inteligência artificial enquanto estas circulam na internet, o que significaria colocar uma marca d’água nessas imagens mais difícil de remover do que as que a Stability AI ou a OpenAI já implantaram. À medida que os legisladores procuram regulamentar a IA, especialistas veem a obrigatoriedade de alguma forma de marca d’água ou rastreamento de procedência como fundamental para combater não apenas o material de abuso sexual infantil, mas também a desinformação. “É difícil funcionar bem com o que temos aqui, e é por isso que um regime regulatório é necessário”, disse Hany Farid, professor de ciência forense digital da Universidade da Califórnia em Berkeley. Responsável pelo desenvolvimento do PhotoDNA, ferramenta introduzida em 2009 pela Microsoft, que muitas empresas de tecnologia agora usam para encontrar e bloquear automaticamente imagens conhecidas de abuso sexual infantil, Farid acredita que os gigantes da tecnologia demoraram muito para usar essa ferramenta depois que foi desenvolvida, e isso permitiu que o material de abuso sexual infantil se espalhasse livremente durante anos. Ele está trabalhando com várias empresas de tecnologia para criar um novo padrão técnico que rastreie imagens geradas por IA. A Stability AI está entre as empresas que planejam seguir esse padrão. Outra questão em aberto é como o sistema judicial tratará os casos contra criadores de material de abuso sexual infantil gerado por IA — e qual será a responsabilidade das empresas. Embora a lei contra a “pornografia infantil gerada por computador” exista há duas décadas, ela nunca foi testada na Justiça. Uma lei anterior que tentava proibir o que era então chamado de pornografia infantil virtual foi derrubada pela Suprema Corte em 2002 por infringir a liberdade de expressão. Membros da Comissão Europeia, da Casa Branca e do Comitê Judiciário do Senado americano foram informados sobre as descobertas de Stanford e da Thorn. “É fundamental que as empresas e os legisladores encontrem respostas para essas perguntas antes que a tecnologia avance ainda mais e inclua, por exemplo, vídeos. Temos de conseguir antes disso”, afirmou Thiel. c. 2023 The New York Times Company Fonte: r7