Aumentan a 11 las menores que han denunciado la circulación de imágenes suyas 'desnudas' trucadas con IA
El suceso podría afectar a más de 30 niñas de Almendralejo (Badajoz) y ya se han identificado a algunos autores que presuntamente utilizaron la aplicación para manipular las fotografías
Los menores que 'desnudaron' a las niñas con IA: «¿De qué os quejáis si luego vais casi sin ropa por la calle?»

Once menoresya han denunciado la circulación de fotos suyas 'desnudas' elaboradas con una aplicación de Inteligencia Artificial (IA), un caso que ha desatado un acalorado debate en el país. «Tenemos por el momento once declaraciones de víctimas» de menores de edad en la localidad de Almendralejo (Extremadura), explicó a AFP una portavoz de la Policía.
Los presuntos autores de estas imágenes, que en algunos casos fueron identificados, «han manipulado fotos de niñas, menores de edad«, superponiendo sus caras a cuerpos desnudos «de otras personas», añadió.
Las imágenes falsas se generaron utilizando una aplicación de IA capaz de trucar fotografías y generar nuevas con los 'desnudos' de las jóvenes.
La investigación se abrió por un presunto delito de invasión de la intimidad. La fiscalía indicó a AFP que también podría considerarse el delito de pornografía infantil, dada la edad de las víctimas. Según adelantó una madre a ABC, por ahora hay 27 niñas afectadas, pero «esta cifra podría seguir aumentando en los próximos días».
Miriam Al Adib, ginecóloga, 'influencer' y madre de una de las chicas, dio la voz de alarma este domingo en Instagram, explicando la «barbaridad» que habían cometido con su hija. «Cuando llegué a casa, una de mis hijas, con un disgusto tremendo, me ha dicho: 'mira que han hecho' (...) Han cogido una foto suya y la han puesto como si estuviera desnuda», explicó.
Al Adib contó que la policía le avisó de que las fotos pueden haber acabado en sitios pornográficos. Otra madre declaró que intentaron chantajear a su hija reclamándole dinero para no difundir las imágenes.
MÁS INFORMACIÓN
La inteligencia artificial está causando una creciente preocupación en todo el mundo por sus posibles usos malintencionados, como en el caso de los «deepfakes» pornográficos. Según un estudio de 2019 de la empresa holandesa de inteligencia artificial Sensity, el 96% de los vídeos falsos online son pornografía no consentida y en la mayoría de ellos aparecen mujeres.
Esta funcionalidad es sólo para suscriptores
Suscribete
Esta funcionalidad es sólo para suscriptores
Suscribete