Pregunta- ¿La IA nos está volviendo Tontos?
¿La IA nos está volviendo tontos?
++++++
Informe elaborado con ayuda de NotebookLM a partir del artículo original :
¿La IA nos está volviendo tontos? Un análisis del costo cognitivo de la conveniencia
Fecha: 15 de mayo de 2025 (según la fuente)
Autor del documento original: Arshitha S Ashok
Fuente: Medium https://arshithasashok.medium.com/is-ai-making-us-dumb-8f81c2c5a95c
Resumen Ejecutivo
El artículo "La IA nos está volviendo tontos?" de Arshitha S Ashok explora la creciente preocupación sobre el impacto cognitivo de la dependencia excesiva en la inteligencia artificial (IA). A través de ejemplos que van desde aplicaciones simples como Google Maps hasta herramientas generativas de IA como ChatGPT, el autor argumenta que la conveniencia de la IA puede conducir a una "atrofia cognitiva" y una "descarga cognitiva", erosionando habilidades mentales cruciales. Aunque la IA ofrece beneficios significativos, existe un riesgo claro de que el cerebro humano, extraordinariamente adaptable, delegue demasiado el pensamiento y el razonamiento, con consecuencias negativas para el juicio, la memoria y la capacidad crítica. El documento también aborda la problemática de la desinformación generada por IA y el fenómeno del "colapso del modelo", donde la calidad del contenido de internet se degrada a medida que más contenido es generado por máquinas. Sin embargo, se mantiene una perspectiva de esperanza, enfatizando que la IA debe ser utilizada como un complemento y no como un sustituto del pensamiento humano, recordando la importancia de la conciencia y la deliberación.
Temas Principales y Puntos Clave
- Adaptación y Costo Cognitivo de la Conveniencia:
- El cerebro humano es inherentemente adaptable a la tecnología. Sin embargo, la cuestión central es qué sucede "cuando la tecnología empieza a pensar por nosotros".
- Ejemplo de Google Maps: Un estudio de 2020 (Adamopoulou y Moussiades) reveló que el uso frecuente del GPS "debilitaba la memoria espacial de los usuarios". Curiosamente, los usuarios no percibían esta disminución, indicando que "La comodidad, al parecer, tiene un precio cognitivo".
- La Atrofia Cognitiva y la Debilitación de Habilidades:
- Profesor David Rafo (Universidad Estatal de Portland): Observó una mejora "demasiado drásticamente" en la escritura de sus estudiantes durante la pandemia, lo que atribuyó al uso de herramientas de IA. Rafo señaló: "Me di cuenta de que fueron las herramientas las que mejoraron su escritura, no sus habilidades de escritura". Advierte que "Nuestras capacidades cognitivas son como músculos. Necesitan un uso regular para mantenerse fuertes y vibrantes".
- Atrofia Cognitiva: Se define como "el debilitamiento gradual de nuestras facultades mentales debido a la dependencia excesiva de herramientas externas (Dergaa et al., 2023)".
- Dra. Anne McKee (Investigadora del Alzheimer): Resalta que la actividad mental "fortalece la resiliencia contra enfermedades como el Alzheimer" y que una "alta reserva cognitiva puede compensar incluso el daño cerebral visible".
- Erosión de Habilidades Críticas: Una revisión sistemática encontró que la "dependencia excesiva erosiona el pensamiento crítico, la toma de decisiones y el razonamiento analítico" (Zhai, Wibowo y Li, 2023) en entornos académicos.
- Descarga Cognitiva y Confianza Excesiva en la IA:
- Definición: La "descarga cognitiva" es el uso de herramientas externas "para reducir el esfuerzo necesario para pensar o resolver problemas".
- Estudio de Forbes (Daniel, 2025): Usuarios frecuentes de IA son "más propensos a recurrir a la tecnología para tomar decisiones, lo que reducía su capacidad de evaluación o pensamiento crítico".
- Caso de la Policía de Detroit: En 2023, el uso de DataWorks Plus (reconocimiento facial con IA) llevó a un arresto erróneo (Porsche Woodruff), mostrando cómo la confianza en la IA puede llevar a errores graves y difíciles de detectar "cuando la herramienta se convierte en parte de la vida cotidiana". Múltiples demandas similares han surgido.
- Externalización de la Curiosidad: Los usuarios de plataformas como X/Twitter "piden rutinariamente a bots de IA como Grok que expliquen incluso tuits sencillos (Mitchell, 2024). Han externalizado su curiosidad".
- Complacencia Algorítmica y Erosión de la Autonomía:
- Alec Watson (Technology Connections): Acuña el término "complacencia algorítmica" para describir la preferencia de los usuarios por que los programas informáticos "decidan su experiencia digital, incluso cuando existen alternativas".
- El ecosistema digital actual fomenta el "consumo pasivo, impulsado por contenido seleccionado por máquinas", en contraste con una interacción más "deliberada" del pasado.
- Generación Z y Dependencia Laboral: Se observa una tendencia a confiar más en los algoritmos que en el juicio humano, especialmente en la Generación Z, donde "el 90 % de los empleados... utilizan dos o más herramientas de IA a la semana (ColdFusion, 2024)".
- La "Era del Conocimiento" y el Problema de la Desinformación:
- Hemos pasado de la Era de la Información a la "Era del Conocimiento", modelada por "interpretaciones generadas por IA de esos hechos".
- Errores de la IA: "gran parte de ese conocimiento es erróneo". Ejemplos incluyen "Google AI Reviews una vez llamaron a Obama el primer presidente musulmán y afirmaron que las serpientes eran mamíferos (BBC, 2024)".
- Colapso del Modelo (Investigadores de Oxford): La calidad de los modelos de IA se degrada "rápidamente" cuando son entrenados repetidamente con contenido generado por IA. Después de "solo nueve iteraciones, el resultado se vuelve ininteligible (Forbes Australia, 2024)".
- La "Internet Muerta": Un estudio de Amazon reveló que "el 60 % del contenido actual de internet podría ya estar generado o traducido por IA". Esto lleva a la teoría de la "internet muerta, donde los bots y la IA generan la mayor parte del contenido".
- La IA como Herramienta, No Sustituto del Pensamiento:
- Precedente histórico (VisiCalc): Similar a cómo las hojas de cálculo no hicieron obsoletos a los contables sino que "mejoraron su productividad (Wordyard, 2003)", la IA no es inherentemente mala.
- Uso Prudente: Debe ser utilizada como "complemento, no como sustituto del pensamiento".
- Precaución y Conciencia: "Tome sus respuestas con pinzas". El profesor Thomas Diettrich advierte: "Los grandes modelos lingüísticos son modelos estadísticos de bases de conocimiento. No son bases de conocimiento en sí mismos".
- El peligro reside en que "Cuando el modelo nunca se niega, inspira confianza, incluso cuando no debería. Por eso la consciencia es clave".
- La capacidad humana única de "pensar, razonar y crear" no puede ser reemplazada. Se cierra con la cita de René Descartes: "Cogito, ergo sum. Pienso, luego existo", reafirmando que el pensamiento es lo que nos hace humanos.
Implicaciones y Recomendaciones
El documento sugiere que, si bien la IA es una herramienta poderosa para optimizar flujos de trabajo y facilitar tareas, su uso sin disciplina y conciencia puede llevar a una erosión significativa de las capacidades cognitivas humanas. Es crucial fomentar un uso crítico y reflexivo de la IA, donde se la vea como un asistente y no como un tomador de decisiones autónomo. La educación y la capacitación en el uso responsable de la IA son fundamentales para mitigar los riesgos de la atrofia cognitiva, la descarga cognitiva y la desinformación. Es imperativo desarrollar la capacidad de evaluar y cuestionar la información generada por IA, en lugar de aceptarla ciegamente.
+++++++
Escucha el podcast reflexionando acerca de este artículo en :
https://www.spreaker.com/episode/la-inteligencia-artificial-nos-esta-volviendo-tontos--66512451
++++++++++++++++++++++
Traducción del artículo original en Medium, al español con ayuda de Google Translate.
¿La IA nos está volviendo tontos?
Un análisis profundo del costo cognitivo de la conveniencia
Arshitha S Ashok
6 minutos de lectura
15 de mayo de 2025
El cerebro humano siempre se ha adaptado extraordinariamente bien a la tecnología. Pero ¿qué sucede cuando la tecnología empieza a pensar por nosotros?
Empecemos con algo sencillo: Google Maps. La mayoría lo usamos a diario. Sin embargo, un estudio de 2020 reveló un coste oculto. A pesar de la utilidad de la aplicación, se descubrió que el uso frecuente de los sistemas GPS debilitaba la memoria espacial de los usuarios (Adamopoulou y Moussiades, 2020). Aún más interesante, los usuarios no creían que su sentido de la orientación hubiera disminuido, aunque los datos indicaban lo contrario. La comodidad, al parecer, tiene un precio cognitivo.
Eso ni siquiera es IA, es solo una aplicación. Entonces, ¿qué pasa cuando la herramienta es IA?
Casi al mismo tiempo, el profesor David Rafo notó algo curioso en la escritura de sus estudiantes. Antes de la pandemia, sus evaluaciones eran deficientes y carecían de estructura. De repente, durante el confinamiento, su escritura mejoró drásticamente. Demasiado drásticamente. Sospechando de la IA, Rafo preguntó directamente a sus estudiantes. Su presentimiento fue acertado. «Me di cuenta de que fueron las herramientas las que mejoraron su escritura, no sus habilidades de escritura», dijo (Universidad Estatal de Portland, sin fecha).
Rafo no estaba en contra de la IA. Reconocía sus beneficios, señalando cómo la IA ayuda en todo, desde la redacción de contenido hasta la resolución de problemas. Pero advirtió: «Nuestras capacidades cognitivas son como músculos. Necesitan un uso regular para mantenerse fuertes y vibrantes». La verdadera preocupación, explicó, es que resistirse a la facilidad que ofrece la IA requiere una disciplina extraordinaria.
Aquí es donde entra el concepto de atrofia cognitiva: el debilitamiento gradual de nuestras facultades mentales debido a la dependencia excesiva de herramientas externas (Dergaa et al., 2023).
La Dra. Anne McKee, investigadora del Alzheimer, enfatizó la importancia de la actividad mental para prevenir el deterioro cognitivo. Mantenerse mentalmente activo fortalece la resiliencia contra enfermedades como el Alzheimer. Una alta reserva cognitiva puede compensar incluso el daño cerebral visible (Diario de un CEO, 2023).
Sin embargo, nos vemos cada vez más desligados de ese esfuerzo mental. Una revisión sistemática examinó la excesiva dependencia de los sistemas de diálogo de IA en entornos académicos. Los hallazgos fueron claros: la dependencia excesiva erosiona el pensamiento crítico, la toma de decisiones y el razonamiento analítico (Zhai, Wibowo y Li, 2023). Si bien la IA puede optimizar los flujos de trabajo, también plantea preocupaciones éticas: desinformación, sesgo algorítmico, plagio, vulneraciones de la privacidad y opacidad (Dergaa et al., 2023).
Este es un camino muy conocido en tecnología. Estudios han demostrado cómo las calculadoras impactaron las habilidades matemáticas básicas y cómo el autocorrector disminuyó la precisión ortográfica y de puntuación. Pero ahora nos encontramos en un nuevo ámbito. Herramientas como ChatGPT, Grok y LLaMA no solo nos apoyan, sino que también nos ayudan a pensar (Bai, Liu y Su, 2023).
Tareas como la entrada de datos, la atención al cliente o la contabilidad ya están siendo absorbidas por la IA. Y está surgiendo una tendencia preocupante:descarga cognitivaEsto se refiere al uso de herramientas externas para reducir el esfuerzo necesario para pensar o resolver problemas. En un estudio reciente de Forbes, los usuarios frecuentes de IA eran más propensos a recurrir a la tecnología para tomar decisiones, lo que reducía su capacidad de evaluación o pensamiento crítico (Daniel, 2025).
Esta descarga cognitiva se extiende a ámbitos tan importantes como las fuerzas del orden. En 2023, la policía de Detroit utilizó DataWorks Plus, una herramienta de reconocimiento facial con IA, para resolver un caso de robo. La IA comparó imágenes de baja calidad con una foto policial de 2015. La mujer, Porsche Woodruff, estaba embarazada de ocho meses y no se encontraba cerca de la escena del crimen. Aun así, fue arrestada (New York Times, 2023). Los cargos se retiraron posteriormente, pero el daño ya estaba hecho. Este no fue un caso aislado. Actualmente existen múltiples demandas contra el Departamento de Policía de Detroit por incidentes similares, todas derivadas de la dependencia de la IA.
¿Por qué ocurrió esto? Porque la gente confiaba en la IA. Igual que con el GPS. Los errores son difíciles de detectar cuando la herramienta se convierte en parte de la vida cotidiana. Y al buscar en internet, se ven las señales. En plataformas como X/Twitter, los usuarios ahora piden rutinariamente a bots de IA como Grok que expliquen incluso tuits sencillos (Mitchell, 2024). Han externalizado su curiosidad.
Si bien algunos usuarios pueden encontrar valor en utilizar IA en las redes sociales para ahorrar tiempo, la delegación habitual incluso de las tareas interpretativas más simples a los sistemas de IA genera una preocupación más profunda.Esta tendencia revela un cambio de comportamiento más amplio, a menudo subconsciente: una rendición colectiva a la toma de decisiones algorítmica. En plataformas como Instagram, Facebook, Twitter, TikTok y YouTube —a menudo las puertas de acceso a contenido—, los algoritmos dictan en gran medida lo que ven los usuarios. El resultado es una sutil erosión de la autonomía personal.
Alec Watson, del canal Technology Connections , denomina este fenómeno "complacencia algorítmica". Señala que, cada vez más, los usuarios prefieren que los programas informáticos decidan su experiencia digital, incluso cuando existen alternativas. Al reflexionar sobre este cambio, Watson recuerda una época en la que la interacción en internet era deliberada: los usuarios marcaban páginas manualmente y seleccionaban sus experiencias en línea. En contraste, el ecosistema digital actual fomenta el consumo pasivo, impulsado por contenido seleccionado por máquinas.
Para las personas que entraron en la edad adulta en la década de 2020, existe una tendencia notable: se confía más en los algoritmos que en el juicio humano. Esta confianza tiene consecuencias. Los estudiantes que usaron IA durante la pandemia para ahorrar en sus estudios ahora son empleados que dependen de ella para escribir correos electrónicos, crear informes e incluso tomar decisiones. Las encuestas muestran que el 90 % de los empleados de la Generación Z utilizan dos o más herramientas de IA a la semana (ColdFusion, 2024). Algunos dicen que simplemente se trata de trabajar de forma más inteligente. Otros lo ven como una lenta erosión del músculo mental.
Hemos pasado de la Era de la Información a la Era del Conocimiento, una era moldeada no solo por hechos, sino por interpretaciones generadas por IA de esos hechos. Pero hay un problema: gran parte de ese conocimiento es erróneo. Las Reseñas de IA de Google una vez llamaron a Obama el primer presidente musulmán y afirmaron que las serpientes eran mamíferos (BBC, 2024).
Y la cosa empeora. Investigadores de Oxford descubrieron un fenómeno llamado colapso del modelo . Cuando los modelos de IA reciben contenido generado por IA repetidamente, la calidad se degrada rápidamente (Forbes Australia, 2024). Tras tan solo nueve iteraciones, el resultado se vuelve ininteligible. Un estudio independiente de Amazon reveló que el 60 % del contenido actual de internet podría ya estar generado o traducido por IA.
Nos encontramos en medio de un caos de inteligencia artificial, donde Internet se autoalimenta.
Esto nos lleva a la teoría de la “internet muerta”, donde los bots y la IA generan la mayor parte del contenido.
Y, sin embargo, hay esperanza. La IA sigue siendo una herramienta. No es inherentemente mala. Ya nos hemos enfrentado a esto antes. Cuando Dan Bricklin y Bob Frankston crearon VisiCalc, la primera aplicación de hojas de cálculo, en 1979, muchos temieron que dejaría obsoletos a los contables. Pero no fue así. Mejoró su productividad (Wordyard, 2003).
Lo mismo ocurre con la IA actual. Úsela como complemento, no como sustituto del pensamiento. Tome sus respuestas con pinzas. Como dijo el profesor Thomas Diettrich: «Los grandes modelos lingüísticos son modelos estadísticos de bases de conocimiento. No son bases de conocimiento en sí mismos».
Y ahí reside el peligro. Cuando el modelo nunca se niega, inspira confianza, incluso cuando no debería. Por eso la consciencia es clave.
Debemos abordar la IA de la misma manera. Permitamos que nos ayude, pero no que nos guíe. Porque, por muy avanzados que sean estos sistemas, nada puede reemplazar la capacidad única del ser humano de pensar, razonar y crear.
Como dijo una vez René Descartes: Cogito, ergo sum..........Pienso, luego existo.
Eso es lo que nos hace humanos.
Referencias APA:
Adamopoulou, E., y Moussiades, L. (2020). Chatbots: Historia, tecnología y aplicaciones. Aprendizaje Automático con Aplicaciones , 2, 100006. https://doi.org/10.1016/j.mlwa.2020.100006
Bai, L., Liu, X. y Su, J. (2023). ChatGPT: Efectos cognitivos en el aprendizaje y la memoria. Brain , 1, e30. https://doi.org/10.1002/brx2.30
BBC. (2024). Los resultados de búsqueda de IA están llenos de errores. https://www.bbc.com/news/articles/ckg9k5dv1zdo
ColdFusion (2024). ¿Nos está volviendo la IA más tontos? [Video de YouTube]. https://www.youtube.com/watch?v=aOW_HslF5ko
Daniel, L. (19 de enero de 2025). Un nuevo estudio afirma que la IA nos está volviendo estúpidos, pero ¿tiene por qué ser así? Forbes . https://www.forbes.com/sites/larsdaniel/2025/01/19/new-study-says-ai-is-making-us-stupid/
Dergaa, I., Ben Saad, H., Glenn, J. M., Amamou, B., Ben Aissa, M., Guelmami, N., Fekih-Romdhane, F. y Chamari, K. (2023). De herramientas a amenazas: Una reflexión sobre el impacto de los chatbots de inteligencia artificial en la salud cognitiva.
Forbes Australia. (2024). ¿Se está matando la IA silenciosamente a sí misma y a internet? https://www.forbes.com.au/news/innovation/is-ai-quietly-killing-itself-and-the-internet/
Mitchell, M. [@MelMitchell1]. (2024). Las respuestas de IA en X muestran una preocupante dependencia excesiva [Tweet]. https://x.com/MelMitchell1/status/1793749621690474696
The New York Times (6 de agosto de 2023). Un arresto injusto muestra los peligros del reconocimiento facial. https://www.nytimes.com/2023/08/06/business/facial-recognition-false-arrest.html
Universidad Estatal de Portland (sin fecha). Profesor David Raffo. https://www.pdx.edu/profile/david-raffo
Wordyard. (9 de abril de 2003). Memorias de VisiCalc. https://www.wordyard.com/2003/04/09/visicalc-memories/
Zhai, C., Wibowo, S., y Li, LD (2023). Los efectos de la excesiva dependencia de los sistemas de diálogo de IA en las capacidades cognitivas de los estudiantes: Una revisión sistemática.
#AI
#Herramientas de IA generativa
#Carga cognitiva
#Habilidades cognitivas
#ChatGPT
Escrito por Arshitha S Ashok
Diseñador e investigador de experiencia de usuario con amplia experiencia, apasionado por la narrativa, la IA ética y la psicología. Programador ocasional y en constante aprendizaje.

.png)
Comentarios
Publicar un comentario