Seguinos

Tecnología
17/11/2025

Imágenes falsas, daños reales: crece la preocupación por el uso de la IA en abusos digitales a menores

Imágenes falsas, daños reales: crece la preocupación por el uso de la IA en abusos digitales a menores
El caso de un adolescente que fabricó imágenes falsas de sus compañeras con inteligencia artificial expuso la facilidad para acceder a herramientas capaces de vulnerar la intimidad.

Una sentencia inédita en España marcó un punto de inflexión en el debate sobre el uso irresponsable de la inteligencia artificial y su vínculo con los abusos digitales a menores.

La Agencia Española de Protección de Datos (AEPD) multó con 2000 euros a los padres de un adolescente que generó imágenes falsas de sus compañeras de clase, creadas con herramientas de inteligencia artificial, en las que las menores aparecían sin ropa.

Las fotografías manipuladas digitalmente, elaboradas mediante una aplicación web de acceso libre, fueron difundidas entre alumnos del instituto e incluso llegaron a plataformas de contenido para adultos. La sanción constituye la primera de su tipo en Europa y sienta un precedente en materia de protección de datos personales de menores en entornos digitales.

El caso español recuerda a otro ocurrido en Estados Unidos, donde una joven de 17 años presentó una demanda contra la empresa responsable del sitio que permitió crear imágenes falsas suyas con IA. La adolescente denunció acoso, daño emocional y difusión no consentida de deepfakes generados por una aplicación accesible para cualquier usuario.

Los paralelismos entre ambos casos evidencian el alcance de un fenómeno global que combina la facilidad de acceso a herramientas de IA con la ausencia de una regulación efectiva, generando consecuencias devastadoras: las imágenes pueden ser falsas, pero el daño psicológico, social y emocional para las víctimas es completamente real.

La aplicación web involucrada —cuyo nombre se omite para no favorecer su difusión— combina rostros reales con cuerpos creados por inteligencia artificial, reproduciendo rasgos como tono de piel, complexión y gestos con un grado de realismo capaz de engañar a cualquier observador.

Lo más alarmante es la simplicidad del proceso: basta con registrarse, subir una foto y esperar unos segundos para obtener una versión hiperrealista, apta para usos sexuales o de humillación.

Este abismo entre la capacidad tecnológica y la respuesta legal abre un debate urgente: ¿qué tan preparados estamos para enfrentar estas nuevas formas de violencia digital?

El Instituto Europeo de Igualdad de Género ya considera la creación y difusión de desnudos falsos sin consentimiento como una forma de violencia machista digital, destinada a ridiculizar y controlar la imagen de las mujeres y adolescentes.

Estas agresiones replican patrones de violencia de género en el ámbito virtual y ponen a prueba la capacidad de los Estados para garantizar protección y reparación a las víctimas.

Las instituciones europeas comienzan a reconocer que el daño no proviene solo de la exposición pública, sino del uso de la IA como herramienta de cosificación, acoso y control, mientras los marcos regulatorios todavía no reflejan la magnitud del daño causado.

La visión de los especialistas
El abogado David Regairaz, especialista en ciberseguridad, inteligencia artificial, protección de datos y nuevas tecnologías, consideró que la multa aplicada por la AEPD resulta insuficiente frente a la gravedad del caso, sobre todo tratándose de menores y de contenido sexual manipulado.

“Esto nos debería llevar a preguntarnos si la normativa vigente es suficiente o si se necesita un marco legal que genere un verdadero efecto disuasorio. Aun con una aplicación correcta de la ley, no se logra el objetivo de evitar nuevos casos en el futuro”, advirtió.

El especialista subrayó que este tipo de delitos vulneran la intimidad y los derechos personales de las víctimas:

“Una vez que esas imágenes circulan en la red, su eliminación completa es prácticamente imposible. Las víctimas o sus representantes pueden iniciar acciones civiles por vulneración de los derechos a la intimidad, a la imagen y a la protección de datos personales. La difusión de imágenes íntimas sin consentimiento, aunque sean generadas por IA, constituye una intromisión ilegítima que da lugar a indemnización por daños morales y patrimoniales”, explicó.

Regairaz también apuntó al rol de las plataformas tecnológicas, que hoy no están obligadas a etiquetar ni controlar adecuadamente el contenido sintético que generan o alojan:

“Estas empresas deberían garantizar la transparencia y el etiquetado de los contenidos generados por IA, incorporar mecanismos de detección proactiva y eliminar de inmediato los materiales ilegales. Además, deben aplicar el principio de privacy by design and by default (privacidad por diseño y por defecto), establecer controles de edad y habilitar canales de denuncia eficaces”.

Y agregó:

“En España y Europa existen marcos normativos robustos con sanciones por incumplimiento. Si en Argentina existieran normas similares, una plataforma que genere imágenes como las del caso y no etiquete sus contenidos con la leyenda ‘generado con IA’ no podría operar, o enfrentaría sanciones severas”.

En la misma línea, el fiscal argentino Lucas Moyano, especialista en ciberseguridad, sostuvo que debe analizarse también la responsabilidad de las plataformas que permiten o difunden este tipo de contenido:

“Podría evaluarse la responsabilidad por los daños ocasionados y, además, considerar la posibilidad de desindexar dichas plataformas para proteger a futuras víctimas”, señaló en diálogo con TN Tecno.

Un desafío que supera a las leyes
Ambos casos reavivan un dilema central de la era digital: la tecnología avanza mucho más rápido que las normas. Los modelos generativos de lenguaje e imágenes democratizaron la creación de contenido falso, pero también multiplicaron los riesgos de abuso.

Mientras tanto, las víctimas —en su mayoría mujeres y adolescentes— enfrentan las consecuencias emocionales y sociales de una exposición que nunca consintieron.

La gran pregunta que queda en el aire es si las instituciones y las leyes actuales están realmente preparadas para proteger a las personas en un mundo donde la línea entre lo real y lo falso se vuelve cada día más difusa.

Cómo denunciar casos de violencia de género digital
En la Ciudad Autónoma de Buenos Aires, podés contactar a la Defensoría del Pueblo al 0800-999-3722 / 4338-4900 (Int. 3754/3752) o por WhatsApp al +54 9 11 7128-8301. También podés escribir a consultas@defensoria.org.ar o cpdp@defensoria.org.ar.

A nivel nacional, la línea 144 brinda atención y asistencia gratuita a mujeres en situación de violencia, disponible las 24 horas en todo el país. Podés comunicarte también por WhatsApp al +54 9 11 2771-6463 o descargar la app móvil 144, disponible en Google Play Store y Apple App Store.

Compartir