En 2024, en una escuela de Madrid,
un grupo de adolescentes circuló imágenes sexuales falsas de compañeras de clase.
Generadas con IA.
Las chicas eran reales.
Las imágenes, no.
El daño, completamente real.
Un deepfake es un contenido audiovisual — foto, video, audio — generado o manipulado por inteligencia artificial para hacer que alguien parezca decir o hacer algo que nunca ocurrió.
Durante años fue un tema de ciencia ficción o de política global. En 2023-2025 llegó a las escuelas.
Esta guía es para padres y docentes que necesitan entenderlo y hablar sobre ello.
¿Qué es un deepfake y cómo se crea?
Los deepfakes usan redes neuronales artificiales (específicamente GANs — redes generativas adversariales) para mapear el rostro o la voz de una persona sobre otro cuerpo o contexto.
Hasta hace poco, crear un deepfake requería conocimiento técnico y horas de procesamiento. Hoy, hay apps que lo hacen en segundos con una sola foto. Eso cambió todo.
Los usos son múltiples:
- Entretenimiento legítimo: efectos en películas, filtros de cámara, doblaje en otros idiomas
- Desinformación política: videos de líderes diciendo cosas que nunca dijeron
- Ciberacoso escolar: imágenes sexuales falsas de compañeros — el uso más urgente para los padres
Antes, una foto era evidencia de algo que ocurrió. Hoy, una foto puede ser evidencia de algo que nunca ocurrió pero que parece real.
¿Por qué los adolescentes están en el centro del problema?
En 2023-2024, varios casos documentados en España, Estados Unidos y Argentina mostraron el mismo patrón: adolescentes (en su mayoría varones) usando apps de deepfake para crear imágenes sexuales falsas de compañeras de clase y distribuirlas por WhatsApp o Instagram.
El impacto psicológico en las víctimas es equivalente al de la distribución de material real: vergüenza, aislamiento, depresión, y en algunos casos ideas suicidas.
La UNESCO (2025) identificó la proliferación de deepfakes no consensuales como una amenaza prioritaria para el bienestar de adolescentes en entornos escolares.
Tu hija no necesita haber "hecho algo"
para ser víctima de un deepfake.
Solo necesita tener una foto pública.
Y alguien con una app gratuita y ganas de dañar.
¿Cómo explicarle a tu hijo qué es un deepfake?
"No sé cómo contarle que existe esto sin asustarlo. ¿Por dónde empiezo?"
Empezá por el concepto básico, sin contexto sexual: 'Existen herramientas de IA que pueden cambiar el rostro de una persona en una foto o video para que parezca que dijo o hizo algo que nunca hizo. Se llaman deepfakes.'
Conectalo con algo que ya conoce: los filtros de cámara que cambian el rostro son una versión simple del mismo concepto.
Hablá del riesgo concreto sin alarmismo: 'Hay personas que usan esto para crear imágenes falsas de personas reales que pueden dañarlas. Por eso es importante no compartir imágenes de otras personas sin su permiso.'
Explicá cómo reconocerlos: ojos que parpadean raro, bordes del rostro difuminados, labios que no sincronizan bien con el audio.
Dejá claro qué hacer si lo ve: 'Si te llega algo así de algún compañero, me avisás y lo borrás. No lo compartas.'
¿Qué hacer si tu hijo es víctima?
No minimices el daño: el impacto emocional es real aunque la imagen sea falsa
Documentá (capturas) antes de denunciar — necesitarás evidencia
Reportá en la plataforma donde circula el contenido
Denunciá en el establecimiento escolar si involucra compañeros
En la mayoría de los países, la creación y distribución de deepfakes sexuales sin consentimiento es delito — consultá la situación legal de tu país con un abogado si es necesario
Lo más importante
Los deepfakes no son un tema del futuro. Están en las escuelas ahora.
La conversación con tus hijos sobre qué son, cómo se reconocen y qué hacer si aparecen es una de las conversaciones de seguridad digital más urgentes de los próximos años.
No necesitás ser experto en tecnología para tenerla. Necesitás la información básica y el vínculo de confianza.
“La mejor protección contra los deepfakes no es técnica. Es que tu hijo sepa que puede contarte si algo así le pasa.”
Entender lo que le pasa es el primer paso para ayudarlo.
Preguntas frecuentes
P:¿Es ilegal crear un deepfake de alguien sin su permiso?
R:Depende del país y del contenido. En España, desde 2024, los deepfakes sexuales no consensuales son delito explícito bajo la Ley Orgánica de Garantía Integral de la Libertad Sexual. En Argentina y México, la legislación específica está en desarrollo pero pueden aplicar leyes de acoso y violencia digital existentes.
P:¿Cómo sé si una foto o video es un deepfake?
R:Señales técnicas: parpadeo anormal, bordes del rostro poco definidos, inconsistencia de iluminación, movimientos de cabeza que no naturales, labios que no sincronizan con el audio. También hay herramientas online de detección (FakeCatcher de Intel, Deepware) aunque no son infalibles.
P:¿Puedo evitar que alguien haga un deepfake de mi hijo con fotos públicas?
R:Completamente imposible de prevenir desde el punto técnico si las fotos son públicas. Lo que sí podés hacer: perfil privado en redes sociales, y reflexionar sobre el sharenting — qué fotos de tus hijos compartís públicamente y para qué audiencia.
P:¿A qué edad hablar con los hijos sobre deepfakes?
R:A partir de los 9-10 años ya tienen acceso a la información y pueden ser víctimas o testigos. La conversación básica (existe esto, es falso pero daña, no compartas) puede tenerse a esa edad de forma simple. La conversación más profunda sobre implicaciones legales y emocionales, a partir de los 12-13.
P:¿Las redes sociales pueden detectar y eliminar deepfakes automáticamente?
R:Están trabajando en ello — Meta, TikTok y YouTube tienen sistemas de detección pero son imperfectos y lentos. El contenido puede circular significativamente antes de ser eliminado. Por eso el reporte inmediato desde la app y el bloqueo del usuario son los pasos más efectivos disponibles hoy.

¿Necesitás ayuda personalizada?
Lic. Julieta Dorgambide · Psicopedagoga y Directora Clínica de Educa Chubi
Ver servicios