Voces clonadas con IA: qué son, cómo se usan para estafar familias y cómo protegerse

Lic. Julieta Dorgambide

Directora Clínica · Educa Chubi

4 min de lectura

Tu hijo te llama.

Llorando.

Dice que está secuestrado.

Necesita que depositás plata ahora.

La voz es la de tu hijo.

El timbre, el acento, los errores.

Pero no es tu hijo.

La clonación de voz con inteligencia artificial pasó de ser ciencia ficción a una herramienta de estafa accesible en 2023-2024. Con 3-30 segundos de audio de una persona — un video de TikTok, una historia de Instagram, un audio de WhatsApp — un sistema de IA puede replicar esa voz con precisión suficiente para engañar a un familiar.

Las familias con niños y adolescentes son el target más frecuente. Esta guía explica cómo funciona, qué riesgo real hay, y cómo protegerse.

¿Cómo funciona la clonación de voz con IA?

Los sistemas actuales de clonación de voz (ElevenLabs, tecnologías similares) necesitan entre 3 y 30 segundos de audio para crear un modelo de voz. Ese modelo puede luego generar cualquier texto con esa voz.

El audio fuente puede extraerse de contenido público: videos de TikTok o YouTube, historias de Instagram, videos en grupos de WhatsApp. Si tu hijo publica contenido en redes sociales con su voz, ese audio es técnicamente accesible.

El proceso completo — obtener el audio, clonar la voz, generar la llamada de emergencia falsa — puede hacerse en minutos y no requiere conocimiento técnico avanzado.

Tres segundos de la voz de tu hijo en TikTok son suficientes para falsificarla.

¿Qué estafas usan voces clonadas de niños y adolescentes?

El vishing de secuestro virtual es la más documentada: llaman a un padre o abuela con la voz del niño diciendo que está secuestrado y necesitan transferencia urgente. Según Pew Research (2023), el 52% de los adultos en Estados Unidos conoce a alguien que recibió una llamada de voz sintética.

Suplantación en grupos de amigos: clonar la voz de un niño para enviar mensajes de audio a sus amigos — pedidos de dinero, contenido, información personal.

Extorsión con voz sintética: 'Tenemos un audio tuyo diciendo X' — aunque el audio sea completamente generado.

Me llamaron con la voz exacta de mi hija diciendo que estaba en peligro. Tardé 20 minutos en entender que era falso. 20 minutos en los que estaba paralizada.

¿Cómo proteger a tu familia de las voces clonadas?

No hay protección técnica total. Pero sí hay protocolos que funcionan:

Crear una palabra de código familiar: un código secreto que ningún miembro de la familia diría en público. Si alguien llama diciendo ser tu hijo y no dice el código, algo está mal.

Verificación de emergencia: ante cualquier llamada de emergencia urgente, colgar y llamar directamente al número del hijo. Si no responde, llamar al último lugar donde debería estar.

Hablar con los hijos sobre el riesgo: que sepan que pueden existir llamadas falsas con su voz. No para asustar — para que sepan cómo actuar si sus amigos reciben algo raro.

Configurar cuentas de redes sociales como privadas: reduce el material de audio accesible públicamente.

No transferir dinero por emergencia sin verificación: la urgencia es el mecanismo de manipulación. Un segundo para verificar protege de 99% de las estafas.

No es paranoia.

Es entender que la tecnología que usa tu familia

también la pueden usar en tu contra.

Un protocolo de verificación acordado en familia

es cinco minutos de conversación que puede valer mucho.

¿Qué decirle a tus hijos sobre las voces clonadas?

La conversación con niños de 8-12 años:

'¿Sabés que hoy existe tecnología que puede copiar la voz de cualquier persona? Si vos grabás un video, alguien podría hacer que suene como si dijiste cosas que nunca dijiste. Por eso en casa tenemos un código secreto para las emergencias.'

Para adolescentes:

'Existe tecnología que puede clonar tu voz con segundos de audio. Si alguien recibe un mensaje de audio tuyo que no enviaste, que duden. Y si alguna vez llegás a recibir un audio de alguien que conocés con algo raro, verificá antes de reaccionar.'

La conversación no tiene que ser alarmista. Tiene que ser informativa. Como cuando les enseñaste a cruzar la calle: no es para que tengan miedo de las autos, es para que sepan cómo moverse.

Lo más importante

La clonación de voz con IA es real, accesible y ya se usa en estafas familiares documentadas.

El protocolo más efectivo: una palabra de código familiar y la regla de siempre verificar antes de transferir.

La conversación con tus hijos sobre este riesgo no tiene que asustar. Tiene que informar.

La mejor defensa contra las voces falsas no es tecnológica. Es un código secreto y la regla de llamar directamente antes de reaccionar.

Entender los riesgos reales de la tecnología es el primer paso para proteger a tu familia.

Preguntas frecuentes

P:¿Es ilegal clonar la voz de alguien sin su permiso?

R:En la mayoría de los países, clonar la voz de alguien sin consentimiento y usarla para engañar o estafar es ilegal bajo leyes de fraude, suplantación de identidad o privacidad. Sin embargo, la legislación específica sobre deepfakes de voz está aún en desarrollo en muchos países de Latinoamérica. La prevención es más efectiva que la acción legal posterior.

P:¿Cómo sé si una llamada de emergencia de mi hijo es real o clonada?

R:La señal más clara es la urgencia extrema y el pedido de no llamar a nadie más. Las estafas de voz clonada casi siempre incluyen: urgencia máxima, pedido de transferencia inmediata, y razones para no verificar ('no llames a papá, que se va a asustar'). Ante cualquier llamada de emergencia con pedido de dinero: colgar y llamar directamente al número del hijo.

P:¿Hacer privadas las redes sociales de mi hijo protege su voz?

R:Reduce el material accesible públicamente, pero no elimina el riesgo. Los audios compartidos en grupos de WhatsApp, las llamadas grabadas, o el contenido que comparte con amigos que luego lo recomparten puede ser suficiente. La privacidad en redes es una capa de protección, no una solución completa.

P:¿Los niños pueden ser víctimas además de ser usados como herramienta en la estafa?

R:Sí. Los adolescentes pueden recibir mensajes de audio de voz clonada de sus amigos pidiendo ayuda urgente, fotos o dinero. La suplantación entre pares es un uso documentado. Por eso es importante que los adolescentes sepan que si reciben un pedido inusual de un amigo por audio, deben verificar llamando directamente.

P:¿Qué hago si creo que recibí una llamada de voz clonada?

R:No transferir ningún dinero ni dar información personal. Colgar y llamar directamente al número de la persona cuya voz creés haber escuchado. Si confirmás que fue una estafa: reportar a las autoridades locales y a la plataforma donde ocurrió (WhatsApp, por ejemplo, tiene mecanismos de reporte). Documentar la llamada con capturas antes de borrarla.

Lic. Julieta Dorgambide

¿Necesitás ayuda personalizada?

Lic. Julieta Dorgambide · Psicopedagoga y Directora Clínica de Educa Chubi

Ver servicios

Este artículo fue elaborado por Lic. Julieta Dorgambide, psicopedagoga.

Educa Chubi acompaña procesos de aprendizaje con evidencia científica y experiencia profesional. La información de esta guía busca orientar sobre riesgos documentados. Para situaciones de riesgo inmediato, contactar a las autoridades locales.

Cada familia tiene su ritmo. Esto es un mapa, no una sentencia.

Referencias

  1. 1.Pew Research Center. (2023). *Americans' views on AI, robots and automation*. Pew Research Center.
  2. 2.Common Sense Media. (2023). *The Common Sense Census: Media Use by Tweens and Teens*. Common Sense Media.
  3. 3.Federal Trade Commission. (2024). *Impersonation scams: voice cloning and AI*. FTC Consumer Information.
Generación Alpha: quiénes son y cómo aprenden de verdad
Tecnología

Generación Alpha: quiénes son y cómo aprenden de verdad

Leer
Autenticación de dos factores para familias: qué es, por qué importa y cómo enseñársela a tus hijos
Tecnología

Autenticación de dos factores para familias: qué es, por qué importa y cómo enseñársela a tus hijos

Leer
Deepfakes y niños: cómo enseñar pensamiento crítico en la era de las imágenes falsas
Tecnología

Deepfakes y niños: cómo enseñar pensamiento crítico en la era de las imágenes falsas

Leer
Roblox como metaverso educativo: lo que dice la evidencia y lo que no te cuentan
Tecnología

Roblox como metaverso educativo: lo que dice la evidencia y lo que no te cuentan

Leer