Tu hijo te entrega la tarea.
Está bien escrita.
Demasiado bien escrita.
Hay palabras que no usa normalmente.
Frases que suenan... distintas.
Y te preguntás: ¿lo escribió él?
La duda es válida. Y es más común de lo que parece.
Según un relevamiento de Infobae (enero 2026), el 66% de los adolescentes argentinos ya usa ChatGPT para hacer tareas escolares. No es un fenómeno marginal: es la norma silenciosa.
El problema no es la herramienta. El problema es cuando la usamos en lugar de pensar, en vez de como apoyo para hacerlo mejor.
En esta guía te cuento cómo detectar si tu hijo usó IA en sus tareas, qué señales mirar, y —más importante— cómo hablar de eso sin que se convierta en una acusación.
¿Por qué es tan difícil detectarlo?
Porque la IA no produce errores obvios. Al contrario: produce textos fluidos, sin faltas de ortografía, bien organizados. Eso lo hace invisible para el ojo desprevenido.
Los detectores automáticos (como GPTZero o el detector de Turnitin) funcionan con cierto margen de error. Sirven como orientación, no como prueba definitiva.
Pero hay señales que no necesitan software. Señales que aparecen cuando conocés a tu hijo.
No necesitás un detector de IA. Necesitás saber cómo escribe tu hijo cuando realmente escribió él.
¿Cuáles son las señales de que un texto fue escrito por IA?
Estas son las señales más frecuentes. No son concluyentes por sí solas, pero en conjunto orientan:
Señales lingüísticas típicas de texto generado por IA:
- Conectores excesivamente formales: 'Por otro lado', 'En consecuencia', 'Cabe destacar que', 'En este sentido', 'Es importante mencionar que'. Nadie de 13 años los usa todos juntos.
- Ausencia total de marcadores personales: sin errores, sin el estilo idiosincrático del chico, sin dudas.
- Estructura perfecta sin esfuerzo: introducción, desarrollo, conclusión impecables en una tarea que siempre entregaba a las corridas.
- Vocabulario inconsistente con su nivel: términos técnicos que no usa en conversación, construcciones que no son propias de su edad.
- Generalidades sin anclaje: el texto suena correcto pero vacío — dice mucho sin decir nada específico.
- Longitud inusual: entregó el doble de lo usual sin aviso previo.
- No puede explicar lo que escribió: preguntale sobre un párrafo. Si usó IA sin leer, no va a poder.
¿Qué pasa cuando le preguntás?
Le pregunté de qué trataba lo que escribió y no supo contestarme. Ahí entendí.
La prueba más simple y directa: pedile que te explique en voz alta lo que escribió. Si el texto es suyo, aunque sea imperfecto, puede hablar de él. Si fue generado y no lo procesó, va a tartamudear o desviar la conversación.
Esto no es un interrogatorio. Es una conversación natural: '¿De qué trata esto que escribiste? Contame.' Si no puede, hay algo para trabajar — independientemente de si usó IA o no.
El objetivo no es atraparlo.
El objetivo es que aprenda a usar las herramientas que tiene
a favor de su propio pensamiento,
no en lugar de él.
¿Cómo hablar de esto sin acusar?
La acusación cierra la conversación. La curiosidad la abre.
Empezá con una observación, no con una acusación. 'Noté que esta tarea está escrita distinto a cómo escribís habitualmente. Contame cómo la hiciste.'
Preguntá sobre el proceso, no el resultado. '¿Qué pasos seguiste para hacer esto?' 'Si tuvieras que hacer la misma tarea sin internet, ¿por dónde empezarías?'
Nombrá la herramienta sin demonizarla. 'Si usaste ChatGPT como punto de partida, no hay problema — quiero entender cómo lo usaste.'
Hablá de lo que se pierde, no de lo que está mal. 'Cuando la IA escribe por vos, te perdés el aprendizaje de escribir. Y eso aparece en los exámenes.'
Acordá en conjunto qué es uso legítimo y qué no. Involucrar al chico en la definición genera más compromiso que la prohibición.
¿Qué dice la ciencia sobre IA y aprendizaje?
La investigación sobre IA generativa en educación todavía está en desarrollo, pero hay señales claras. Cuando un estudiante delega completamente la escritura en la IA, se pierde el proceso que construye comprensión: buscar, seleccionar, organizar, redactar.
El aprendizaje ocurre en el esfuerzo, no en el resultado. Esto está documentado desde la psicología cognitiva: el efecto de generación (generation effect) muestra que producir activamente información la consolida mucho mejor en la memoria que simplemente leerla.
OpenAI incorporó en 2025 controles parentales que permiten revisar el historial de uso de cuentas de menores. Si tu hijo tiene cuenta en ChatGPT, podés solicitarle acceso transparente como parte de un acuerdo familiar — no como vigilancia, sino como supervisión parental activa.
La IA que hace la tarea por él no le enseña nada. La IA que le hace mejores preguntas puede enseñarle mucho.
¿Cuándo es uso legítimo y cuándo es trampa?
| Uso legítimo de la IA | Uso que reemplaza el aprendizaje |
|---|---|
| Usarla para brainstorming inicial | Pedirle que escriba la tarea completa |
| Preguntarle que explique un concepto que no entendió | Copiar la explicación sin procesarla |
| Pedir feedback sobre su propio borrador | No escribir ningún borrador propio |
| Usarla para verificar ortografía o estructura | No producir ningún texto propio |
| Preguntar qué libros o fuentes buscar | Pedir que invente fuentes (riesgo de citas falsas) |
Lo más importante
La pregunta no es '¿usó ChatGPT?' sino '¿qué aprendió al hacer la tarea?'
Si la respuesta es 'nada, porque la hizo la IA', ahí está el problema a resolver.
No con prohibición. Con conversación, con acuerdo, con enseñarle a usar la herramienta sin que la herramienta lo use a él.
“Un chico que sabe usar la IA como apoyo tiene una ventaja enorme. Un chico que la deja pensar por él, se queda sin la herramienta más importante: su propio pensamiento.”
Entender lo que le pasa es el primer paso para ayudarlo.
Preguntas frecuentes
P:¿Existen detectores de IA confiables para padres?
R:Herramientas como GPTZero o el detector de Turnitin dan orientaciones, pero no son infalibles. Los textos muy editados o combinados con escritura propia pueden pasar sin detección. Son útiles como indicio, no como prueba definitiva. La conversación directa con el chico sigue siendo el mejor indicador.
P:¿Mi hijo puede tener cuenta en ChatGPT si es menor de edad?
R:OpenAI requiere mínimo 13 años para tener cuenta (18 sin supervisión parental en algunas regiones). Desde 2025, ofrece controles parentales para cuentas de adolescentes que permiten supervisar el historial. Si tu hijo usa ChatGPT, es recomendable que lo haga con una cuenta asociada a tu supervisión.
P:¿Es malo que los chicos usen IA para la escuela?
R:No en sí mismo. Depende de cómo la usan. Usarla para entender conceptos, brainstorming o feedback sobre borradores propios puede ser valioso. Usarla para que escriba todo en su lugar les quita el proceso de aprendizaje. La diferencia está en si el chico piensa o delega el pensamiento.
P:¿Qué hago si mi hijo admite que usó ChatGPT?
R:Primero, no reaccionar con castigo inmediato. Segundo, explorar cómo lo usó — no es lo mismo copiar íntegramente que usarlo de apoyo. Tercero, acordar juntos qué es uso aceptable en la familia. Cuarto, trabajar con la escuela si hay una política institucional. El objetivo es que el chico desarrolle criterio propio sobre la herramienta.
P:¿Cómo pueden los docentes detectar uso de IA en tareas?
R:Además de los detectores automáticos, los docentes pueden pedir defensas orales breves de las tareas escritas, comparar el estilo con producciones en clase, y diseñar consignas que requieran información personal o local que la IA no puede proveer (experiencias propias, entrevistas, observación directa). El rediseño de la evaluación es la respuesta pedagógica más sólida.

¿Necesitás ayuda personalizada?
Lic. Julieta Dorgambide · Psicopedagoga y Directora Clínica de Educa Chubi
Ver servicios