En los últimos años ha emergido una forma especialmente dañina de violencia digital: herramientas basadas en inteligencia artificial capaces de generar o manipular imágenes para que una persona parezca desnuda o en una situación íntima sin haberlo estado nunca, y sin haber dado su consentimiento. A esto se le suele llamar, de manera coloquial, “IA que desnuda”, aunque el término más preciso sería nudificación mediante IA o deepfakes íntimos.
No se trata de una travesura tecnológica ni de un simple “montaje”. Es un ataque directo a la intimidad, a la dignidad y, en muchos casos, a la integridad moral de la víctima. Y cuando afecta a menores, el daño puede ser devastador: humillación pública, acoso, chantaje, aislamiento social, miedo a ir al colegio o al trabajo, e incluso consecuencias psicológicas graves.
En este contexto, la pregunta clave es: ¿se está haciendo algo para prohibirlo y frenarlo? La respuesta es sí. Hay una reacción clara en varias capas: leyes penales, obligaciones a plataformas para retirar contenido, medidas de transparencia y vías urgentes de retirada.
Qué es exactamente “la IA que desnuda”
Estas herramientas no “quitan ropa” de una foto en el sentido literal; lo que hacen es generar una imagen sintética que intenta parecer realista. Suelen funcionar de dos formas:
-
Transformación de imágenes: se parte de una foto real de una persona vestida y se genera una versión falsa “desnuda”.
-
Generación y sustitución: se crea un cuerpo o escena íntima y se integra el rostro o rasgos identificables de una persona real.
El resultado es una imagen que puede circular como si fuese auténtica. Y aunque técnicamente sea falsa, el impacto social —y el daño— es real.
¿Existen aplicaciones y servicios que lo hacen hoy?
Sí. Existen servicios y aplicaciones capaces de producir este tipo de imágenes. En ocasiones aparecen y se difunden rápidamente en canales sociales y de mensajería, y otras veces han llegado a estar disponibles en ecosistemas de apps antes de ser retiradas tras denuncias.
Aquí hay un punto importante: no hace falta que la herramienta sea sofisticada para causar un daño enorme. Basta con que produzca una imagen “creíble” a simple vista y que se comparta en un entorno escolar, laboral o comunitario donde la víctima sea reconocible.
Por eso, en el debate público se está consolidando una idea: no estamos ante un problema de “tecnología”, sino de consentimiento y de abuso. La IA es el medio; el problema es el uso no consentido y el daño a la persona.
Qué se está haciendo para prohibirlo o frenarlo
La respuesta institucional está avanzando por varias vías que se refuerzan entre sí:
1) La vía penal: perseguir y castigar la conducta
El objetivo de la vía penal es claro: que crear o difundir material íntimo manipulado sin consentimiento tenga consecuencias.
-
A nivel europeo, hay una tendencia a considerar estos hechos como parte de la violencia digital, particularmente en el marco de la violencia contra las mujeres y la ciberviolencia. Esto empuja a los Estados a incorporar o reforzar delitos y medidas de protección.
-
En España, se ha impulsado una reforma (en tramitación parlamentaria) para tipificar de manera específica la difusión de “ultrafalsificaciones” o contenidos manipulados generados con tecnología, cuando simulan situaciones sexuales o gravemente vejatorias. Lo relevante de esta línea es que trata de cerrar el vacío: no solo “difundir lo íntimo real”, sino también lo íntimo falso cuando se usa para humillar, violentar o dañar.
Además, estas reformas suelen incluir agravantes o especial atención cuando la víctima es menor o persona especialmente vulnerable.
2) La capa de plataformas: retirada de contenido y respuesta a denuncias
La realidad práctica es que, aunque exista un delito, el daño suele multiplicarse si el contenido se hace viral. Por eso, la segunda capa es crucial: obligar a plataformas y servicios a reaccionar.
En la Unión Europea, el enfoque es que los servicios digitales:
-
tengan mecanismos claros para notificar contenido ilegal,
-
tramiten esas notificaciones con diligencia,
-
y en determinados casos puedan recibir órdenes formales para actuar contra contenido ilegal o para colaborar aportando información en una investigación.
Este tipo de herramientas no “solucionan” todo, pero marcan una diferencia enorme: si la retirada se consigue pronto, se reduce el daño. El mensaje es: no basta con decir “denuncia”: hay que poder frenar la difusión.
3) Transparencia y trazabilidad: identificar contenido sintético
Una tercera línea de acción apunta a la prevención y a la claridad: que el contenido sintético o manipulado sea reconocible. Aquí entra el debate sobre obligaciones de transparencia para determinados sistemas de IA y para contenidos que puedan inducir a error.
La idea de fondo es sencilla:
-
si es más fácil detectar lo sintético,
-
y si hay obligaciones de informar o etiquetar en ciertos contextos,
-
entonces se reduce la impunidad y aumenta la capacidad de respuesta de usuarios y plataformas.
Esto no elimina el riesgo, pero ayuda a construir un entorno en el que el engaño tenga menos recorrido.
4) Vías urgentes de retirada: actuar sin esperar meses
Cuando una imagen íntima falsa se difunde, el tiempo es decisivo. Por eso, además de lo penal, existen mecanismos para pedir retirada rápida.
En España destaca el Canal Prioritario de la Agencia Española de Protección de Datos (AEPD), diseñado para solicitar retirada urgente cuando se están difundiendo imágenes, vídeos o audios especialmente sensibles (por ejemplo, de contenido sexual) y hay un riesgo grave para la persona afectada.
Este tipo de herramienta es clave para explicarlo en radio:
-
La víctima no tiene por qué esperar a que un proceso penal avance para empezar a frenar la difusión.
-
Hay medidas administrativas que pueden ser más rápidas en la primera fase.
¿Hay “órdenes claras” de prohibirlo?
Depende de qué entendamos por “prohibir”.
-
Prohibir la existencia de la tecnología (que exista IA capaz de generar imágenes): es difícil, porque las capacidades pueden estar en herramientas generales.
-
Prohibir el acto (crear, difundir, comercializar o usar imágenes íntimas falsas sin consentimiento): aquí sí hay una dirección clara y cada vez más concreta.
La tendencia internacional va hacia:
-
criminalizar la creación/difusión en escenarios especialmente dañinos (íntimos, sexuales, vejatorios),
-
forzar retiradas rápidas cuando hay denuncia válida,
-
reforzar responsabilidad y cooperación de plataformas,
-
proteger especialmente a menores.
Qué puede hacer alguien si es víctima (o si lo detecta cerca)
En una intervención divulgativa conviene dar pasos simples, sin tecnicismos:
-
No culpabilizar a la víctima: que sea falso no lo hace “menos grave”.
-
Guardar pruebas: capturas, enlaces, nombres de usuario, fechas, mensajes. (Sin redistribuir el contenido).
-
Solicitar retirada: reportar en la plataforma donde se publicó.
-
Usar vías urgentes: en España, el Canal Prioritario de la AEPD puede ser una herramienta clave cuando hay material sexual/violento.
-
Pedir ayuda especializada: el servicio 017 de INCIBE orienta en casos de ciberacoso y problemas de seguridad digital.
-
Denunciar si hay delito: especialmente si hay menores, amenazas, extorsión, difusión masiva o acoso continuado.
El objetivo es doble: detener la difusión y activar protección legal.
Conclusión: el centro del debate es el consentimiento
La “IA que desnuda” pone sobre la mesa un choque entre capacidad tecnológica y derechos fundamentales. Pero la brújula es clara: sin consentimiento, es abuso. Y por eso se está avanzando en:
-
tipificar o reforzar delitos,
-
facilitar retiradas rápidas,
-
exigir responsabilidad a plataformas,
-
y promover transparencia sobre contenidos sintéticos.






