Inteligência artificial multiplica imagens de abuso sexual de menores

Editors Choice

3/recent/post-list

Geral

3/GERAL/post-list

Mundo

3/Mundo/post-list
Na Mira do Povo

Inteligência artificial multiplica imagens de abuso sexual de menores


Dados são de organização inglesa sobre crimes na internet

Porto Velho, RO - A Internet Watch Foundation afirma ter encontrado milhares de novas imagens de abuso sexual infantil criadas por sistemas de inteligência artificial. Os "piores pesadelos" estão se tornando realidade, à medida que os pedófilos são capazes de gerar conteúdos com vítimas reais. A organização de proteção infantil alerta também para o risco de a tecnologia começar a "sobrecarregar" a internet.

A inteligência artificial está sendo usada para alterar e reproduzir imagens de vítimas reais que sofreram violações. A tecnologia também está despindo crianças que aparecem em fotos comuns para contextualizá-las em cenários de abuso.

A Internet Watch Foundation (IWF) diz já ter identificado e removido quase três mil imagens de abuso sexual infantil geradas por IA só no Reino Unido. Em junho, pela primeira vez, confirmou ter descoberto sete sites contendo imagens de abuso sexual infantil geradas por IA na internet aberta.

“Os nossos piores pesadelos estão se tornando realidade”, diz Susie Hargreaves, executiva-chefe da IWF, citada na edição online do jornal britânico The Guardian.

“O assustador é estarmos vendo criminosos treinando deliberadamente a IA em imagens de vítimas reais”. Ou seja: “as crianças que foram violadas no passado estão agora sendo incorporadas em novos cenários porque alguém, em algum lugar, quer ver isto.”

Em um relatório publicado nesta quarta-feira (25), a IWF mostra os resultados da investigação de 11.108 imagens de IA compartilhadas em um fórum de abuso infantil na dark web. Destas, a organização reporta 2.978 imagens de abuso geradas por inteligência artificial. "Neste universo, 2.562 eram tão realistas que a lei britânica as trata da mesma forma como se fossem imagens reais de abuso".

Metade dessas imagens representava crianças com idades entre os 6 e os 10 anos. O relatório regista ainda "143 imagens que retratavam crianças de 3 a 6 anos, enquanto duas imagens retratavam bebês (menores de 2 anos)".

Mais de 560 imagens foram classificadas como Categoria A – o tipo de imagem mais grave – incluindo violação, tortura sexual e brutalidade.

Imagens convincentes

A uma semana da Cúpula Internacional sobre Segurança da IA, que ocorrerá na capital britânica Londres, a organização de proteção infantil quer colocar este tema no “topo da agenda” do encontro. Susie Hargreaves avisa: “Se não controlarmos esta ameaça, este material irá sobrecarregar a Internet”.

O relatório do IWF também alerta para o crescente comércio de imagens de abuso sexual geradas por IA e confirma que as meninas são as mais visadas, aparecendo em 99%.

À medida que a tecnologia IA se desenvolve, os registros de imagem tornam-se mais convincentes, dificultando a distinção pelos analistas. A IWF adverte que a capacidade tecnológica vai representar “mais obstáculos” para os especialistas e a polícia, argumentando que os sistemas de IA conseguem “despir” crianças, ou seja, apagar as roupas com que estariam nas fotos compartilhadas na internet.

"No início deste ano, alertamos que, em breve, não seria possível distinguir as imagens de IA das imagens reais de crianças vítimas de abuso sexual e que poderíamos começar a ver estas imagens se proliferarem em números muito maiores. Neste momento, já passamos desse ponto", afirma Susie Hargreaves.

Abuso em números

A organização afirma ainda que, com ou sem uso de IA, ao longo de 2022, a equipe de analistas da IWF avaliou 375.230 denúncias de suspeita de abuso sexual infantil pela internet. Destas, "255.588 foram confirmadas como contendo imagens de abuso sexual infantil. Cada caso pode incluir desde uma até centenas de imagens e vídeos", alega a organização.

Ian Critchley, chefe do Conselho Nacional de Chefes de Polícia para a Proteção da Criança, deixa claro que estes conteúdos produzem um efeito de banalização da violação:

“É claro que esta questão não é só mais uma ameaça emergente – ela está aqui e normaliza a violação e o abuso de crianças reais.”

Porém, Critchley acredita na possibilidade de usar o feitiço contra o feiticeiro: “A Inteligência Artificial tem muitos atributos positivos e estamos desenvolvendo oportunidades para virar esta tecnologia contra aqueles que abusariam dela para atacar crianças”.

A colaboração internacional será "vital à medida que os abusos da IA ​​no mundo real aumentam", diz a IWF.

“Esta não é uma situação hipotética. Estamos vendo tudo acontecendo agora. Estamos vendo os números aumentarem e vimos a sofisticação e o realismo dessas imagens atingirem novos níveis", emenda Hargreaves.

A IWF é uma organização do Reino Unido responsável pela detecção e remoção de imagens de abuso sexual infantil da Internet, com sede em Cambridge, no Reino Unido.

Fonte: Carla Quirino – Repórter da RTP

Postar um comentário

0 Comentários