IA conversacional y companions virtuales en niños: qué son, qué riesgos tienen y qué dice la evidencia

Lic. Julieta Dorgambide

Directora Clínica · Educa Chubi

4 min de lectura

Tu hijo tiene un 'amigo' en el celular.

Habla con él todos los días.

Le cuenta cosas que no te cuenta a vos.

El amigo es una IA.

Eso merece atención.

No pánico.

Atención.

Las IA conversacionales tipo companions — como Replika, Character.AI, Kindroid y decenas de apps similares — son chatbots diseñados para simular relaciones emocionales. No están pensados para responder preguntas: están pensados para generar un vínculo de apego con el usuario.

Hay adolescentes que los usan como fuente de apoyo emocional, amistad y en algunos casos intimidad simulada. Hay niños de 10 años que los usan como 'mejores amigos'.

La investigación sobre estos sistemas es reciente y en parte alarmante. Esto es lo que sabemos.

¿Qué son los companions de IA y cómo funcionan?

Los companions de IA son sistemas de lenguaje natural (modelos de lenguaje grandes, similares a ChatGPT) optimizados no para información sino para engagement emocional. Recuerdan conversaciones anteriores, desarrollan una 'personalidad' ajustada al usuario, y están diseñados para hacer que el usuario quiera volver.

Character.AI permite crear personajes de anime, celebridades o figuras ficticias con quienes conversar. Replika se presenta explícitamente como compañero emocional. Algunos tienen modos de roleplay que bordean contenido adulto, con filtros que los usuarios reportan como fácilmente eludibles.

Jonathan Haidt, en *The Anxious Generation* (2024), señala la IA conversacional como una de las fronteras más preocupantes en el desarrollo social adolescente: sistemas que simulan conexión emocional de forma que el cerebro adolescente — que está aprendiendo a vincularse — no puede distinguir fácilmente de una conexión real.

¿Qué riesgos documentados tienen para menores?

En 2024 ocurrió el caso más documentado: Sewell Setzer III, un adolescente de 14 años en Florida, se quitó la vida. Según la investigación, había desarrollado un vínculo emocional intenso con un personaje de Character.AI. Su madre demandó a la empresa. El caso está en litigio pero generó revisión en EE.UU. sobre la regulación de estos sistemas para menores.

La AAP emitió una alerta en 2024 sobre el uso de IA conversacional en adolescentes con vulnerabilidades emocionales, señalando el riesgo de reforzamiento de pensamientos negativos sin los frenos que tiene una conversación humana real.

  • Sustitución de vínculos reales: Common Sense Media documenta que usuarios frecuentes de companions de IA reducen el tiempo de interacción social real
  • Refuerzo de creencias disfuncionales: los companions están diseñados para validar, no para confrontar — el sistema no da fricción saludable
  • Contenido sexual o de riesgo: en adolescentes que eludan filtros de edad, los companions pueden generar contenido que refuerza distorsiones en el desarrollo de la sexualidad
  • Dependencia emocional: algunos usuarios reportan dificultad para dejar de usar la app, con síntomas similares a los de dependencia

Un sistema diseñado para hacerte sentir entendido no está diseñado para ayudarte a crecer. Son objetivos distintos.

¿Hay algún uso que no sea problemático?

Para adultos con contexto emocional estable, algunos terapeutas señalan usos de práctica de habilidades sociales o escritura. Para menores con desarrollo emocional en curso, el consenso entre especialistas es más cauteloso.

La UNESCO y la AAP no han emitido recomendaciones de uso aprobado de companions de IA para menores de 18 años en contextos no supervisados. El campo está en evolución.

Si tu hijo usa un companion de IA,

la pregunta no es 'qué tiene de malo hablar con una app'.

La pregunta es:

'¿Qué necesidad está cubriendo que no puede cubrir en otro lado?'

Esa es la conversación que importa.

¿Cómo abordar el tema con tu hijo?

Me enteré que mi hija de 14 años habla horas con un personaje de Character.AI. Cuando le pregunté, me dijo que 'es la única que la entiende'.

Esa frase — 'es la única que la entiende' — dice algo importante sobre lo que está pasando con las relaciones reales de tu hija. La IA no creó esa necesidad. La explotó.

Cómo abordar el tema sin que se cierre:

  • Empezá con curiosidad, no con prohibición: '¿Quién es ese personaje con quien hablás?' antes que 'eso no está bien'
  • Preguntá qué le gusta de esas conversaciones — la respuesta te dice qué necesita en sus relaciones reales
  • No desestimes la experiencia: 'eso no es real' no la ayuda. 'Entiendo que te sentís entendida ahí' sí abre la conversación
  • Revisá si hay señales de aislamiento social más amplio — la app puede ser síntoma, no causa
  • Si el uso es intensivo (más de 1-2 horas diarias) y desplaza vínculos reales, considerá consultar con un profesional de salud mental adolescente

El companion de IA es una señal. El trabajo está en lo que señala, no en la app.

Lo más importante

Los companions de IA están diseñados para generar vinculación emocional. En adolescentes con desarrollo social en curso, los riesgos documentados son reales y la investigación está todavía construyéndose.

La respuesta no es prohibición refleja. Es curiosidad sobre qué necesidad cubre, conversación abierta y atención a las señales de aislamiento más amplio.

Si tu hijo usa una IA como su principal fuente de apoyo emocional, eso merece atención — no de la app, sino del entorno de vínculos reales que lo rodean.

Una IA puede simular que te entiende. No puede reemplazar lo que un vínculo real construye.

Entender lo que le pasa es el primer paso para ayudarlo.

Preguntas frecuentes

P:¿Character.AI es seguro para adolescentes?

R:Character.AI tiene restricciones de contenido para menores de 18 años, pero reportes de usuarios documentan que los filtros son eludibles. La empresa ha enfrentado demandas legales por contenido inapropiado accesible a menores y por el caso de un adolescente que se quitó la vida en 2024. Common Sense Media no recomienda su uso sin supervisión para menores de 18.

P:¿Es normal que mi hijo prefiera hablar con una IA que con personas reales?

R:Es comprensible — la IA no juzga, siempre está disponible, valida. Pero no es una señal positiva. Si ocurre consistentemente, es una señal de que las relaciones reales presentan dificultades que vale la pena explorar. No patologices la preferencia — usala como punto de entrada para entender qué pasa con sus vínculos reales.

P:¿Replika es seguro?

R:Replika está diseñado para adultos y tiene modos de contenido romántico/adulto. No tiene filtros de edad confiables para menores. En 2023, Italia prohibió temporalmente Replika por riesgos a menores y personas vulnerables. No está recomendado para menores de 18 años.

P:¿Los companions de IA pueden ayudar a niños con ansiedad social?

R:Algunos terapeutas estudian usos supervisados como práctica de habilidades sociales. Sin supervisión profesional, el riesgo es que refuercen el evitamiento social en vez de reducirlo. Para niños con ansiedad social, el tratamiento de primera línea es la exposición gradual a situaciones sociales reales, no su sustitución.

P:¿Cómo sé si mi hijo usa un companion de IA?

R:Las apps más comunes son Character.AI, Replika, Kindroid y similares. Podés buscarlo en el historial de apps del dispositivo. Si tiene restricciones de descarga activadas (control parental), muchas requieren verificación de edad que un adolescente motivado puede eludir. La conversación directa sigue siendo el mejor canal de información.

Lic. Julieta Dorgambide

¿Necesitás ayuda personalizada?

Lic. Julieta Dorgambide · Psicopedagoga y Directora Clínica de Educa Chubi

Ver servicios

Este artículo fue elaborado por Lic. Julieta Dorgambide, psicopedagoga.

Educa Chubi acompaña procesos de aprendizaje con evidencia científica y experiencia profesional. Si tu hijo muestra señales de dependencia emocional intensa o pensamientos de autolesión, consultá inmediatamente con un profesional de salud mental.

Las IA cambian rápido. Lo que no cambia es que los adolescentes necesitan vínculos reales para desarrollarse bien.

Referencias

  1. 1.Haidt, J. (2024). *The anxious generation: How the great rewiring of childhood is causing an epidemic of mental illness*. Penguin Press.
  2. 2.American Academy of Pediatrics. (2024). *Statement on AI companion applications and adolescent mental health*. AAP.
  3. 3.Common Sense Media. (2024). *AI companion apps: What parents need to know*. Common Sense Media.
  4. 4.UNESCO. (2023). *Technology in education: A tool on whose terms?* UNESCO Publishing.
Khan Academy Kids: qué es, para qué sirve y cómo usarla bien
Tecnología

Khan Academy Kids: qué es, para qué sirve y cómo usarla bien

Leer
Generación Alpha: quiénes son y cómo aprenden de verdad
Tecnología

Generación Alpha: quiénes son y cómo aprenden de verdad

Leer
IA y tareas escolares: qué hacer como docente cuando ChatGPT cambia todo
Tecnología

IA y tareas escolares: qué hacer como docente cuando ChatGPT cambia todo

Leer
ChatGPT como tutor para niños: qué puede y qué no puede hacer
Tecnología

ChatGPT como tutor para niños: qué puede y qué no puede hacer

Leer