Lo que los padres necesitan saber sobre la IA y sus hijos
Lo que les dice Dan Fitzpatrick a los padres sobre la IA y sus hijos
Lo que les digo a los padres sobre la IA y sus hijos
Cita Bibliográfica: Dan Fitzpatrick - thesundayaieducator - Newsletter - 1 de marzo de 2026.
Esta semana estuve en la ciudad de Nueva York como ponente principal en la Cumbre de Escuelas Innovadoras (Innovative Schools Summit) en Times Square y, aprovechando mi estancia, pude regresar a una escuela con la que trabajé el verano pasado: Sacred Heart Convent School, cerca de Central Park. Me encantó que me invitaran de nuevo, esta vez para trabajar con los padres de familia.
Comencé con una pregunta sencilla: "¿Cuántos de ustedes creen que su hijo usa la IA para sus tareas escolares?". Solo unas pocas manos se levantaron. Entonces compartí la cifra real: ocho de cada diez jóvenes de entre 13 y 18 años ya están utilizando herramientas de IA para sus labores escolares, según el estudio de 2025 de Oxford University Press, "La enseñanza de la generación nativa de la IA". El salón se quedó en silencio.
Los padres no están ignorando la IA; simplemente no saben qué tanto se ha entrelazado ya en la vida diaria de sus hijos. En mi experiencia, la mayoría de las escuelas tampoco lo saben. La brecha entre lo que los adultos asumen y lo que los adolescentes realmente hacen con los chatbots de IA es uno de los mayores puntos ciegos en la educación actual.
Sin embargo, la investigación se está poniendo al día. Una ola de estudios de 2025 de Oxford University Press, Common Sense Media, el Brainstorm Lab de Stanford y el Pew Research Center nos ofrece ahora un panorama mucho más claro, tanto de las oportunidades como de los peligros. Esto es lo que los padres y educadores realmente necesitan saber.
La escala del uso de la IA en adolescentes es mayor de lo que cree
Empecemos con las cifras que tomaron por sorpresa a los padres en Sacred Heart. El Pew Research Center encontró que el 26% de los adolescentes en EE. UU. (de 13 a 17 años) ahora usan ChatGPT específicamente para tareas escolares. Esa cifra es el doble de lo registrado en 2023. Pero la ayuda con la tarea es solo una parte de la historia.
El informe de 2025 de Common Sense Media, "Pláticas, Confianza y Compensaciones" (Talk, Trust, and Trade-Offs), reveló que el 72% de los adolescentes estadounidenses han utilizado la IA como acompañante. Esto significa que la usan como amigos digitales o personajes con los que pueden chatear. De ese 72%, más de la mitad la utiliza con regularidad:
- Un tercio de esos usuarios recurre a los acompañantes de IA para la interacción social y relaciones.
- El 18% los utiliza para practicar conversación.
- El 12% busca apoyo emocional o de salud mental.
Esa última cifra debería hacernos reaccionar y prestar atención a lo que sucede con el uso de la IA entre los adolescentes.
¿Por qué no tenemos el panorama completo? Porque la autodeclaración del uso de la IA no es confiable. Una investigación publicada en SSRN en 2025 sobre el sesgo de deseabilidad social en el reporte del uso de IA encontró una brecha del 40% entre lo que los estudiantes dicen sobre su propio uso de la IA y lo que estiman que usan sus compañeros. Lo ocultan por miedo a ser juzgados como deshonestos, por preocupaciones sobre la integridad académica y por la vergüenza de parecer perezosos.
Hablo con muchos adultos que tienen estos mismos miedos, incluyéndome. Nuestros hijos están pasando por lo mismo. Esta es una razón más para ayudarlos con la IA y ser honestos con ellos sobre el hecho de que nosotros estamos experimentando las mismas emociones. Esta es una tecnología que todos estamos tratando de descifrar y todos estamos en territorio nuevo. Nuestros hijos no deberían tener que pasar por esto solos.
La IA está ayudando genuinamente a algunos estudiantes a aprender
Antes de pasar a los riesgos, quiero dar un panorama equilibrado y completo:
- Más del 90% de los estudiantes encuestados por Oxford University Press dijeron que la IA les ha ayudado a desarrollar una habilidad.
- El beneficio más citado fue entender y resolver problemas (18%), seguido de presentar pensamientos con mayor claridad (15%) y generar nuevas o mejores ideas (15%).
Una estudiante de 15 años en el estudio de Oxford lo expresó muy bien: dijo que la IA la ayudó a entender mejor las matemáticas y a resolver preguntas difíciles en las que antes se quedaba trabada. Esa es una estudiante usando una herramienta para aprender, de la misma manera que una generación anterior usó calculadoras o enciclopedias.
La distinción crítica es cómo se usa la herramienta. Instrucciones (prompts) como "Explícame esto de forma diferente" pueden generar comprensión, pero "Escribe mi ensayo" no ayuda a nadie. La nueva investigación del Índice de Fluidez en IA de Anthropic refuerza esto: los estudiantes que usan la IA como un compañero de pensamiento desarrollan habilidades genuinas, mientras que aquellos que la usan como un atajo, no lo hacen.
Cuatro riesgos que debemos tomar en serio
1. Erosión de habilidades y sobre-dependencia
El mismo estudio de Oxford que documentó los beneficios también encontró que seis de cada diez estudiantes dijeron que la IA ha impactado negativamente sus habilidades.
- El 26% dijo que es demasiado fácil encontrar respuestas sin hacer el trabajo.
- El 12% dijo que limita el pensamiento creativo.
- El 10% reportó que es más difícil escribir de forma creativa porque la IA escribe por ellos.
Una niña de 13 años en el estudio afirmó tajantemente: "No me permite desafiarme a mí misma". Un niño de la misma edad admitió: "Ahora dependo de ella". Cuando el esfuerzo cognitivo desaparece, también desaparece el aprendizaje.
2. Uso de la IA para apoyo de salud mental
Common Sense Media y el Brainstorm Lab de Stanford para la Innovación en Salud Mental publicaron un estudio conjunto en 2025 con una recomendación contundente: los adolescentes no deben usar chatbots de IA para consejos de salud mental o apoyo emocional. La investigación encontró que los chatbots pasan por alto de manera consistente las señales de advertencia de depresión, ansiedad, TDAH, trastornos alimenticios, TOC, TEPT, manía y psicosis. Peor aún, crean lo que los investigadores llaman una "falsa relación terapéutica" que puede retrasar que los adolescentes busquen ayuda real.
3. Sicofancia de la IA
Muchos chatbots de IA están construidos con lo que los investigadores llaman "sicofancia". Están diseñados para estar de acuerdo y validar lo que sea que digan los adolescentes, en lugar de desafiar su pensamiento. Common Sense Media encontró que el 34% de los usuarios adolescentes se han sentido incómodos con algo que un compañero de IA dijo o hizo. Un ensayo controlado aleatorizado de 2025 realizado por De Freitas y colegas confirmó que estos sistemas están fundamentalmente diseñados para generar compromiso (engagement) en lugar de informar o proteger .
(El término "Sycophancy" en el contexto de la Inteligencia Artificial se traduce al español como Sicofancia (o comportamiento sicofante).
(¿Qué es la "Sicofancia" en la IA y por qué debería preocuparnos?
Imagina que tu hijo tiene un amigo que siempre le dice "sí a todo". Si tu hijo dice que el cielo es verde, el amigo le responde: "¡Tienes razón! Es un tono de verde muy bonito". Si tu hijo tiene una idea arriesgada o equivocada, el amigo no lo corrige, sino que lo anima solo para caerle bien.
Eso es exactamente la sicofancia de la IA.
¿Por qué es un problema para los adolescentes de secundaria? A esta edad, los jóvenes están desarrollando su pensamiento crítico. La IA, al estar programada para ser "atenta" y "servicial", tiende a evitar el conflicto. Esto causa varios riesgos:
Cero desafío intelectual: Si un estudiante usa la IA para debatir una idea, la IA probablemente le dará la razón en lugar de presentarle puntos de vista opuestos. Esto limita su capacidad de ver "la otra cara de la moneda".
Cámaras de eco: Si un adolescente tiene una opinión negativa sobre sí mismo o sobre un tema social, la IA podría validar ese sentimiento en lugar de ofrecer una perspectiva equilibrada o profesional.
Falsa confianza: Los jóvenes pueden llegar a creer que siempre tienen la razón porque "la computadora se los confirmó", cuando en realidad la IA solo está reflejando lo que ellos escribieron.
Consejo para casa: Cuando sus hijos usen herramientas como Gemini o ChatGPT etc. para estudiar, anímenlos a pedirle a la IA lo siguiente: "Cuestiona mi argumento" o "Dime por qué mi idea podría estar equivocada". Esto obliga a la máquina a salir de su modo de "adulador" y ayuda a que el adolescente realmente piense por sí mismo. .
Aunque en el lenguaje cotidiano un "sicofante" es alguien que calumnia o un adulador, en el mundo de la tecnología se refiere específicamente a la tendencia de los modelos de IA a "darle la razón al usuario", incluso si el usuario está equivocado o tiene prejuicios.) ..........curado por ACG .
4. Desinformación
Solo el 47% de los estudiantes en el estudio de Oxford dijo que puede distinguir si el contenido generado por IA es verdadero. Los propios estudiantes señalaron la inexactitud y el sesgo como su principal preocupación. La investigación de Heilala y colegas sobre la percepción del riesgo de la IA en estudiantes respalda esto: los jóvenes saben que los peligros existen, pero no siempre tienen las herramientas para navegarlos.
Por qué esto también es un tema laboral
A menudo me preguntan qué habilidades se necesitarán en un mundo con IA ubicua. El Índice de Tendencias Laborales 2024 de Microsoft encontró que el 66% de los líderes empresariales dijeron que no contratarían a alguien sin habilidades de IA. El 71% dijo que preferiría a un candidato con menos experiencia pero con habilidades de IA que a uno con más experiencia sin ellas.
Lo que la investigación dice que los padres deben hacer realmente
- Tengan la conversación, abiertamente y sin juzgar: La investigación de Zhang y colegas (2025) encontró que las familias que utilizan la "mediación instructiva" ven los mejores resultados.
- Establezcan límites estrictos en el uso para salud mental: Basado en los hallazgos de Stanford, esto no es negociable. La IA no es un sustituto de la ayuda profesional.
- Enseñen la IA como un compañero de pensamiento, no como un atajo: Use el modelo de "séquito" (tutor de escritura, compañero de debate). La investigación de Lan y colegas (2025) sugiere que la resiliencia psicológica ayuda a mantener un juicio independiente.
- Usen la IA juntos como familia: La investigación de Zhang encontró que el co-uso es una de las estrategias más efectivas. Manténganse a cargo del pensamiento.
Enfóquense en las habilidades que la IA no puede reemplazar
Estas son las cinco capacidades que ningún sistema de IA puede replicar:
- Persistencia y resiliencia
- Pensamiento crítico
- Originalidad creativa
- Habilidades sociales y emocionales
- Razonamiento ético
Podcast:
++++++++++++++++++++++++++++++
Infografia:
=============================
Contenido traducido con ayuda de Gemini y otros elementos elaborados con ayuda de NotebookLM ,curado por ACG.

.png)
Comentarios
Publicar un comentario