Adolfo Plasencia, 27 de abril de 2026
Imagen superior: Las aulas han sido también invadidas por el poder de los Data Center de la IA. AP
Acabamos de celebrar hace muy pocos días, el 23 de abril, que se conmemoró el Día Mundial del Libro en más de 100 países, con el objetivo de fomentar la lectura, la industria editorial y la protección de la propiedad intelectual por medio del derecho de autor. Es una conmemoración internacional promovida por la UNESCO. El 15 de junio de 1989 se inició en varios países, para expandir la lectura. En 2010 la celebración ya se realiza en más de cien. Se trata de un día simbólico para la literatura mundial, ya que ese día, en 1616, fallecieron Cervantes, el Inca Garcilaso de la Vega y Shakespeare (Cervantes en realidad murió el 22, pero fue enterrado el 23, y en cuanto a Shakespeare, ese 23 de abril corresponde al calendario juliano, vigente aún en la Inglaterra jacobina). El Día Internacional del Libro se creó en honor a estos autores fallecidos. La doctrina oficial de la Conferencia General de la UNESCO, celebrada en París en 1995, dice que el motivo de esta conmemoración es rendir un homenaje universal a los libros y autores en esta fecha, alentando a todos, y en particular a los jóvenes, a descubrir el placer de la lectura y a valorar las irremplazables contribuciones de aquellos quienes han impulsado el progreso social y cultural de la humanidad. Además, la UNESCO, fundó el Día Mundial del Libro y le asoció a la fecha el día del Derecho de Autor.
Pues bien, en mi caso, considero al libro como un objeto e instrumento de transmisión de conocimiento y cultura. También lo asocio a las bibliotecas, al aprender y a la docencia que siempre he conocido, basada en él, como instrumento de apoyo principal para maestros y docentes. Pero también como un artefacto de permanencia y de conservación intemporal del conocimiento y la cultura. Esto ha sido así, oficialmente, desde la construcción de las dos más célebres bibliotecas de la antigüedad: la Biblioteca de Alejandría, puesta en marcha en Egipto, en el s. III a.C., impulsada por el general alejandrino auto-proclamado faraón Ptolomeo I Soter, dentro del Museion de Alejandría, que llegó a albergar más de 500.000 rollos de papiro, siendo el epicentro del saber científico y literario; institución del saber que tuvo su principal rival en la Biblioteca de Pérgamo también construida en el III a.C., famosa por albergar entre 200.000 y 300.000 rollos y por la gran producción de pergaminos objeto al que dió su nombre.
Han pasado desde entonces veinticuatro siglos y desde entonces, ininterrumpidamente, y potenciado más tarde por el invento de la imprenta de tipos móviles perfeccionada por Johannes Gutenberg hacia 1450 en la Maguncia (Alemania) del siglo XIV, es un lugar común casi universal decir que los libros, sobre todo a partir de ese momento, revolucionaron la difusión del conocimiento, al permitir el invento de Gutenberg la producción masiva de libros, abaratando con ello los costes de su producción y democratizando el acceso a la información. Por eso el libro generado por la imprenta es un instrumento asequible y herramienta fundamental de la cultura y de la enseñanza como ascensor social.
¿Porqué hago todo este excurso histórico en relación al título que encabeza este artículo? Pues porque la citada celebración es un día de alegría para mí y porque pienso que el libro y la profesión de enseñar son, en mi opinión, una de las mejores cosas de las que aún hoy en día se pueden alegrar de haber hecho los seres humanos. También hay otra razón más inmediata y urgente. Y es que el libro y su función principal en la docencia, la enseñanza y el aprendizaje se está poniendo últimamente en cuestión por la irrupción del relato digital de los usos de nuevas tecnologías, como si libro y tecnología fueran antagónicos; y como si también lo fueran docencia y aprendizaje con el uso de la inteligencia artificial y su forma más popular de acceso al público, los Chatbots conversacionales, que ya hay quien ha augurado imprudentemente que serán un sustituto tecnológico que reducirá la docencia, a los docentes, y a su papel o el de la enseñanza, tal como la conocíamos, como algo innecesario.
O como si la enseñanza se hubiera convertido, de pronto, gracias a la mal llamada inteligencia artificial, en una especie de informática presa de la corrosiva y destructiva obsolescencia programada, por obra de los nuevos chamanes digitales de la IA. Ellos, que impulsan una propaganda totalitaria, sí están presos de algo muy simple, antiguo y también humano: una avaricia y una codicia sin límites. Esta última afirmación que estoy diciendo podría parecer exagerada, pero no lo es. Está sucediendo. El estamento docente que ha ejercido y ejerce uno de los oficios más nobles que pueda desempeñar persona humana, es sensible y está sufriendo de facto, en su papel individual y social, ataques que hace poco hubiéramos considerado imposibles. Prueba de ello son muchas cosas que suceden hoy, y ciertos improbables textos tecnológicos que ciertos oráculos están mostrando al respecto en el panorama informativo, que se atreven a ello, y algunos de cuyos ejemplos ahora detallaré.
Los profesores no están bien con IA y Chat GPT
El título de este epígrafe es una versión extendida del mismo con el que el prestigioso co-fundador de 404 Media y analista tecnológico Jason Koebler, tituló un informe publicado ya en junio del año pasado, en el que incluía una serie de opiniones con las que varios profesores y profesoras describían el impacto que la explosión del uso masivo del más famoso Chatbot de IA, estaba causando en su vida cotidiana como docentes. Y es un impacto múltiple del tipo por comparar, en el peor sentido, con la explosión de las bombas de racimo que la actual etapa de auge bélico en el mundo de ahora ha puesto desgraciadamente de moda. Es una explosión contra el papel de los profesores, sus objetivos docentes y contra la tranquilidad que antes de ese nefando estallido, caracterizaba la vida escolar y los lugares de aprendizaje en cualquier nivel de enseñanza.
En su informe, Koebler cuenta cómo fue su aproximación al universo docente para realizar su informe sobre ello. En su introducción, relata que, sospechando lo peor: «el mes pasado, escribí un artículo sobre cómo las escuelas no estaban preparadas para [el uso masivo de] ChatGPT y otras herramientas de IA generativa, basándome en miles de páginas de registros públicos que obtuve de cuando se lanzó ese Chatbot. Como parte de ese artículo, pedí a los docentes que me contaran cómo la IA había cambiado su forma de enseñar. «La respuesta de docentes y profesores, –explica–, fue abrumadora. En toda mi carrera de analista tecnológico, rara vez he recibido tantas respuestas por correo electrónico a un solo artículo, y nunca he recibido respuestas tan reflexivas y completas». Y a continuación, a modo de conclusión, titula con una frase lapidaria muy significativa, para preparar al lector sobre su informe sobre las opiniones de profesores que va a leer a continuación. La frase dice: «Una cosa está clara: los docentes no están bien».
Koebler, actúa a lo largo del desarrollo de su informe con extremo cuidado, ya que profesores y docentes están recibiendo un impacto enorme con ello en su día a día, y no sólo en su relación con alumnos y alumnas, sino también en la que tienen con las autoridades académicas de las instituciones de enseñanza en las que trabajan entre los que hay opiniones fuertemente encontradas. El analista ha culminado con este texto, una intensa y larga exploración del mundo de la enseñanza en la que, como luego mostraré, hay ejemplos del citado impacto destructor de la IA en la vida y la docencia de varios niveles de enseñanza. Esto sucede en un contexto de masiva propaganda a la que sucumben completamente, tecnófilos, fans, forofos y creyentes de la IA, que opinan lo contrario de lo que acabo de decir. Pero prefiero que el lector lea las palabras concretas que los docentes han confesado a Koebler, y también en otros casos, y que sea él mismo, quien se haga su propia composición de lugar.
Aunque, antes de entrar en ellas, quiero destacar una observación que puede aclarar mi opinión crítica, como marco previo y que puede describir algo ya común en relación al uso de los Chatbots como Chat GPT, etc. en la vida del mundo de la enseñanza por parte de alumnos y profesores. No es que la IA y sus Chatbots hayan entrado en las clases como elefante en cacharrería en las aulas y sus procesos; sino ha entrado como elefante en cacharrería, en toda la vida de los alumnos; no solo en el tiempo de sus clases. Así que el uso de los Chatbots, como luego explicaré, no se limita a invadir sus trabajos como alumnos, sino que ha invadido su vida de forma ubicua (en todo momento y lugar), es decir, de su trabajo en clase y en sus deberes, pero también en el resto de su vida personal y emocional.
Las empresas que venden los Chatbots han pre-programado en ellos unos comportamientos, –son máquinas de software y por tanto tienen comportamiento y no conducta, no son humanos–, y objetivos que convergen en maximizar su uso por los usuarios mediante trampas cognitivas y tecnológicas, pre-programadas con las que inducir una adicción continuada y a gran escala. Aunque el analista que inicialmente estoy citando describe en su informe opiniones y vidas de docentes y alumnos, el mundo de la universidad es sólo uno de los territorios de la enseñanza invadidos. Y me reitero, esta invasión tecnológica no solo ocurre en las aulas, sino también en todas sus vidas. Conviene tenerlo en cuenta. Ahora, en ese espacio vital invadido dentro de lo docente veremos, para empezar, casos concretos que describe el analista con amplia crudeza y descarnada sinceridad por parte de los docentes opinantes.
Koebler advierte sobre el contexto, antes de publicar en 404Media las palabras concretas con las que los docentes describen su situación como maestros diciendo: «Algunos profesores aceptaron que sus respuestas se publicaran oficialmente junto con sus nombres. Otros pidieron mantener su anonimato porque su escuela o distrito escolar les prohíbe hablar con la prensa». Después de su advertencia, empieza a desgranar las opiniones de algunos que no pidieron el anonimato. Inicio el relato con ellas.
Para empezar, está, por ejemplo, la del profesor Robert W. Gehl, titular de la Cátedra Ontario de Investigación sobre Gobernanza Digital para la Justicia Social en la Universidad de York en Toronto. Dice literalmente el profesor Gehl, en palabras que más que una opinión, son una reflexión: «…las herramientas de IA ya son omnipresentes. Formo parte de comités de honestidad académica y el número de casos de estudiantes que han admitido que usar estas herramientas para hacer trampa en sus trabajos, se ha disparado. Creo que la IA generativa es increíblemente perjudicial para la enseñanza de nuestros estudiantes universitarios. Les pedimos que lean, reflexionen, escriban y debatan ideas. Todo esto con el objetivo de ayudarlos a formarse como ciudadanos críticos. La IA generativa puede simular todos los pasos: puede resumir lecturas, extraer conceptos clave, redactar textos e incluso generar ideas para debatir. Pero eso sería –según una comparación muy frecuente–, como ir al gimnasio y pedirle a un robot que levante pesas por ti…».
Y añade: «Necesitamos repensar la educación superior, la calificación, todo el asunto. Creo que parte del problema radica en la inconsistencia en las normas sobre el uso de la AI generativa (genAI) –el tipo de la IA con que funcionan los Chatbot conversacionales como el Chat GPT y sus congéneres digitales–. Algunos profesores los prohíben por completo, mientras que otros intentan establecer usos aceptables. El problema radica en lo borroso de la línea entre un uso aceptable y uno inaceptable. Por ejemplo, algunos profesores dicen que los estudiantes pueden usar genAI para la generación sintética de ideas, pero luego prohíben su uso para escribir textos. ¿Dónde está la línea entre ambos?», –se pregunta–.
Después, entra en los problemas del impacto de la genAI en el ámbito institucional universitario y añade: «…Además, las universidades contratan servicios digitales con empresas como Microsoft, Adobe y Google, –y Open AI o Anthropic–, y estas empresas promocionan constante e invasivamente sus herramientas de IA. Por ejemplo, un estudiante puede escuchar «no uses IA generativa» de un profesor, pero luego accede a la suite informática de Microsoft de la universidad, que le sugiere usar Copilot para resumir lecturas o ayudar con los borradores. Todo eso es inconsistente y confuso». A continuación, el profesor Gehl se sincera crudamente, adoptando en su relato la primera persona, y valora su situación personal, incluidas sus contradicciones en relación al impacto de la IA en su actividad docente, con las siguientes palabras, que cito literalmente:
«…He estado trabajando en mil maneras de aumentar la cantidad de debates en clase. Pero es complicado porque es difícil calificar los debates en clase; es mucho más fácil gestionar archivos digitales. Otra opción sería hacer ensayos escritos a mano en clase, pero me cuesta pedírselo a mis alumnos. Ya casi no escribo a mano, así que ¿por qué iba a exigirles que ellos lo hicieran?…
…Me siento mal al escribir esto porque he pasado 20 años desarrollando una pedagogía que se centra en lidiar con grandes ideas a través de la escritura y el debate, y todo ese proyecto ha sido evaporado por corporaciones con fines de lucro que construyeron sus sistemas con trabajo robado. Es desmoralizante…
La IA ha dificultado muchísimo mi trabajo. No permito genAI en mis clases. Sin embargo, como el Chatbot de genAI es tan bueno generando textos que suenan plausibles, esa prohibición me pone en una situación muy incómoda. Si quiero hacer cumplir mi prohibición, tendría que dedicar horas de investigación (ya que no hay formas fiables de detectar completamente el uso de genAI); después, llamar a los estudiantes a mi oficina para confrontarlos, y finalmente completar el papeleo y asistir a muchas audiencias disciplinarias. Todo ese trabajo se realiza para descubrir a los estudiantes que hacen trampa, así que tenemos menos tiempo para ayudar a los que son honestos que están ahí y quieren aprender y crecer. Y, de todos modos, solo podría encontrar un pequeño porcentaje de los casos…».
Y concluye entristecido:
«…Honestamente, si expulsáramos a todas las herramientas genAI al sol, –fuera del aula–, estaría bastante satisfecho».
Más adelante, en el relato de su informe, Koebler, –con ánimo de ser objetivo y equilibrado, y no ser tecno-apocalíptico, ya que él lidera un prestigioso medio, 404Media, que trata constantemente de las últimas novedades de tecnología–, incluye muchas más opiniones, para todas las que no hay espacio aquí, pero al menos señalaré otras dos. La primera, la de Ben Prytherch, profesor de Estadística, que prefiere opinar como docente, pero sin nombrar a la institución en la que trabaja. Y también adopta la primera persona. Y describe su experiencia personal así:
«El uso de los Modelos LLM [ y los Chatbot que ellos alimentan] está muy extendido, pero aún no es omnipresente. Aunque nunca puedo saber con certeza si alguien usó IA, es bastante fácil saber cuándo no lo hizo, a menos que sea lo suficientemente astuto como para añadir intencionalmente errores gramaticales y ortográficos o frases extrañas. Hay muchos estudiantes que no los usan, y muchos que sí».
Después describe en detalle sus sensaciones intentando ver el lado bueno de la experiencia y salvarla:
«Los LLM, –o Chatbot conversacionales–, han cambiado mi forma de asignar tareas, pero no me he adaptado tan rápido como me gustaría y sé que algunos estudiantes son capaces de hacer trampa. El cambio más obvio es que he pasado a la redacción en clase para las tareas que se basan estrictamente en la escritura. Ahora los ensayos se escriben en clase y se tratan como exámenes parciales. Mis exámenes también se hacen en clase. Esto requiere más trabajo de calificación, pero me alegro de haberlo hecho, y me avergüenza un poco que haya tenido que recurrir a ChatGPT para obligarme a lo que ahora considero un cambio positivo…
…Pensar el pasar a la redacción en clase me ha hecho plantearme realizar exámenes orales, algo que nunca he hecho. Sería un gran paso, pero probablemente positivo y humanizador».
Sin embargo, y esto es muy frecuente en las opiniones de los docentes que hablan en el informe, el profesor de Estadística Ben Prytherch, percibe que tiene serias dudas en relación a la honestidad de las actividades tanto docentes y de calificaciones como en las de aprendizaje por parte de los alumnos. Y además se sabe, –como todos los profesores y los impactados también por los lugares comunes de la propaganda de las empresas tecnológicas y de IA–, casi los lemas que reiteran las empresas de IA una y otra vez y por todos los medios posibles y hasta la saciedad;… que la IA es el futuro también en la educación; que quién no la use se quedará atrás: y que quién no domine su uso quedará en desventaja. Esta poderosa propaganda que lo invade todo, parece afectar también a las opiniones y criterios de Prytherch, y es algo que parece deducirse de la conclusión de su opinión en el informe. Que culmina así:
«…Pero también está el problema de la integridad y la equidad académicas. No quiero que los estudiantes que no usan un Modelo Lingüístico LLM o un ChatBot tipo Chat GPT, se vean en desventaja o queden atrás. Pero, claro, por supuesto, no quiero dar buenas calificaciones a estudiantes que, en realidad, no hacen nada. El uso de un Chatbot de LLM es difícil de supervisar.… Por último, no tengo paciencia con todo ese rollo de… La IA es el futuro, así que hay que incorporarla en el aula, incluso cuando no proviene de personas interesadas en el sector tecnológico. Nadie sabe qué nos depara el futuro, e incluso si fuera una buena idea enseñar a los estudiantes a incorporar la IA en esto o aquello, –y, finalmente, emerge su gran duda–, ¿en qué medida estamos los profesores cualificados?»
Hay muchas más opiniones en el informe de profesores universitarios y de fuera de la universidad. Casi todos intentan ser positivos y todos quieren ser justos y ecuánimes, pero también que los alumnos y alumnas sean honrados y les intranquiliza mucho no estar seguros de saber quién y quién no en el alumnado hace trampa usando la IA y el Chat GPT, ya que no disponen de tiempo ni de medios suficientes para pillar a todo el que haga trampa con la IA, a pesar de que hay muchas y grandes sospechas y síntomas. No olvidemos que al desarrollo de toda la IA Generativa de los LLM, empezando por la del Chat GPT, le precede un gigantesco latrocinio a millones de autores humanos. Sin ese robo previo no hubieran podido entrenar las IA y, sin eso, no existirían. Es decir, a toda esta IA le precede una enorme trampa. Se podría decir que entre las sustancias constituyentes de los LLM está la de la trampa. Forma parte de su naturaleza, como ha demostrado el juez de la condena a la empresa de IA Anthropic a pagar 1.500 millones de dólares en total, a los miles de autores de, cuyos libros, la empresa reconoce que se apropió, sin pedir permiso a ninguno de ellos. Lo sé de buena tinta, nunca mejor dicho, porque entre ellos está un libro del que soy autor.
Y entre el profesorado y los docentes hay todo tipo de actuaciones en la práctica, casi siempre con la mejor intención. Entre ellas, las hay muy asertivas, como se lee en el mismo informe de Jason Koebler. Por ejemplo, la opinión de la profesora Kate Conroy, que enseña inglés de 12.º grado, Lengua y Composición Avanzada y Periodismo en un instituto de secundaria público del oeste de Filadelfia, que es muy significativa. Se podría resumir con las siguientes frases en las que es dura y sincera:
«…Al principio de este año escolar, me horroricé al descubrir que tenía que completar una capacitación online que fomentaba el uso de IA para profesores y alumnos. Conozco a profesores en mi Escuela que usan IA para redactar sus planes de clase y dar retroalimentación sobre el trabajo de los alumnos. También conozco a muchos profesores que no se dan cuenta de que un alumno ha usado IA para escribir un ensayo y disimulan, o no les importa lo suficiente como para discutir y enfrentarse con esos alumnos que lo hacen y así meterse en problemas».
Y luego advierte:
«Me niego a usar IA por principio, excepto una vez el año pasado, cuando quise probarla para ver qué podía y qué no podía hacer, para poder estructurar mis indicaciones y contrarrestarla. Aprendí que, al menos el año pasado por estas fechas, que, en preguntas de análisis literario, el ChatGPT inventa completamente citas que aparentan estar relacionadas con los temas de los libros y no puede numerar las páginas correctamente. Por suerte, he enseñado los mismos libros durante muchos años seguidos y puedo identificar al instante citas y páginas incorrectas. Es una satisfacción devolverle el ensayo a un estudiante y decirle: No encuentro esta cita en el libro, ¿me la puedes encontrar? Mientras tanto, sé perfectamente que no pueden».
Y añade, dolida:
«Doy clases a chicos de 18 años con niveles de lectura que van desde preescolar hasta la universidad, pero la mayoría se encuentra en la mitad inferior de ese rango. Estoy completamente destrozada por lo que la IA y las redes sociales les han hecho».
También se refiere a su familia, no solo a sus alumnos. Se sincera completamente y dice a las claras:
«Mis hijos ya no piensan. No tienen intereses. Literalmente, cuando les pregunto qué les interesa, muchos no pueden nombrar nada. Incluso mis hijos más inteligentes insisten en que ChatGPT es bueno, si se usa correctamente. Entonces, les pregunto a la cara: ¿Cómo se usa correctamente entonces? No pueden responder a la pregunta. Carecen de ideas originales. Simplemente repiten como loros lo que han oído en TikTok…».
Y, disgustada, concluye:
«No entienden lo que les pregunto. Se me rompe el corazón por ellos y, sinceramente, me dificulta seguir enseñando. Si renunciara, sería por cómo aceptar que la tecnología ha atrofiado el crecimiento de los niños y lo difícil que se ha vuelto llegar a ellos, debido a eso…»
Después, dirigiéndose a todos los adultos de su generación, hace una dolorosa autocrítica como mirando a los ojos de todos los coetáneos razonables de su generación y también a sus colegas y, concluye, diciéndoles:
«…Solo tengo 30 años. Me queda un largo camino por delante hasta la jubilación. Pero es muy difícil pedirles a los niños que aprendan, lean y escriban, cuando tantos adultos ya no se esfuerzan por asegurarse de que realmente aprendan, lean y escriban. Y lo entiendo. Ese trabajo se ha vuelto de repente muy difícil. Realmente no es justo para nosotros. Pero si no estamos dispuestos a hacerlo, no deberíamos estar en el aula».
Hay una enorme multitud de diferentes actitudes en el mundo de la enseñanza donde en este casi súbito tsunami de la IA generativa y los Chatbot que se ha desplomado sobre el inmenso mundo de la enseñanza. Lo ha hecho trágicamente, como una plaga bíblica, como una inmensa tormenta de pedrisco a la que es casi imposible enfrentarse y de la que no ha habido tiempo material para ponerse a cubierto, muchos de ellos y ellas, personas vocacionales, están intentando integrar las supuestas y esperadas oportunidades y bondades que debía traer, o traerá, –como grita la propaganda de las compañías de IA–. Pero, por ahora, no aparecen, porque toda esa industria solo persigue denodadamente la rentabilidad radical. Solo está trayendo una incertidumbre que provoca desde la preocupación al pánico, según los casos. Como las instituciones de enseñanza tampoco en realidad saben qué hacer, hoy impera un generalizado sálvese quien pueda. Y como el lector comprobará en la opinión de Kate Conroy, –y avancé antes en el artículo–, la IA ha entrado, no ya como elefante, sino como mamut en cacharrería, no solo en el aula, sino también en el resto de la vida de sus hijos, fuera de ella.
Quisiera también encontrar algo positivo, seriamente, –y ser ecuánime–, como Koebler. Pero él, a pesar de ello, titula su informe con un resignado “Los profesores no están bien”. Por eso, y porque tengo muchos muchos datos, a mi vez, titulé mi artículo del año pasado sobre este tema «Aprender y desaprender. Los riesgos de desentrenar el cerebro con la IA» en el que auguraba la posibilidad de que el uso de los Chatbot como el Chat GPT generen entre el alumnado «neurodependientes de la IA» cosa que, ninguno de estos bienintencionados docentes del informe, se atreven ni a mencionar.
Una gran amenaza de la IA: la de que los jóvenes no sepan pensar
Pero ocurre que más y más preocupaciones añadidas vienen del mundo científico e investigador relacionados con aprendizaje y enseñanza. Y van en aumento. Ahora son ya informaciones que publican grandes medios. Por ejemplo, en junio del año pasado, el prestigioso Wall Street Journal, nada sospechoso de no defender a las grandes empresas tecnológicas, señalaba en un contundente artículo muy claro cuál era la mayor amenaza que trae la IA, es decir, el uso masivo de los Chatbot conversacionales como Chat GPT. Literalmente su titular dice: «AI Biggest Treat: Young People Who Can’t Thing», es decir «La mayor amenaza de la IA: los jóvenes que no saben pensar». La analista Allysia Finley, de WSJ, describía esta amenaza en su explicación del texto diciendo que el miedo a que la IA elimine puestos de trabajo no es lo decisivo ya que se sabe que los avances tecnológicos, desde la imprenta, han eliminado algunos puestos de trabajo y creado muchos otros. Y que, en realidad, «El peligro real es que una dependencia excesiva de la IA podría engendrar toda una generación de jóvenes descerebrados no preparados para los trabajos del futuro porque nunca han aprendido a pensar de forma creativa o crítica». Nada menos. Es algo muy amenazante.
Este artículo de WSJ se publicó relacionado con la actualidad de un nuevo informe de Centro para la Educación Universal de la Institución Brookings que, aunque intenta ser esperanzador, ya en su inicio, advierte que «los riesgos de utilizar inteligencia artificial generativa para educar a niños y adolescentes actualmente eclipsan los beneficios». Se trata de un amplio estudio incluye debates de grupos focales y entrevistas con estudiantes de primaria y secundaria, padres, educadores y expertos en tecnología en 50 países, así como una revisión bibliográfica de cientos de artículos de investigación. Y hace una advertencia muy seria concluyendo que el uso de la IA en la educación puede «socavar el desarrollo fundamental de los niños» y que «los daños que ya ha causado son desalentadores», –aunque, dice–, probablemente puedan ser «reparables».
De todas maneras, y de una forma muy sutil, sin nombrarla, se refiere a la industria de la IA en el entrelíneas, en donde señala que, el poner a la IA de la manera que se ha hecho al alcance general de todos los menores los Chatbots de Ia IA, convierte por la vía de los hechos a las generaciones actuales de alumnos y alumnas, en verdaderos conejillos de indias de una apabullante y tal vez temible (escuchen a Darío Amodei CEO de Anthropic cuando dice que «La humanidad necesita despertar» ante las amenazas de la IA). Porque es una poderosa tecnología casi no probada. En el Informe lo dice más sutilmente, así: «Debido a que la IA generativa aún es joven, –ChatGPT se lanzó hace poco más de tres años–, los autores denominan su revisión como pre mortem, destinada a estudiar el potencial de la IA en el aula sin los beneficios post mortem del tiempo, datos a largo plazo o la retrospectiva».
Rebecca Winthrop, investigadora principal de Brookings, y una de las autoras del Informe, señala sobre el impacto de la IA Generativa de los Chatbot, que sus usos masivos, los convierten en una gran desventaja de gran impacto, y más en concreto, advierte que: «La IA representa una grave amenaza para el desarrollo cognitivo de los estudiantes». Denuncia la aparición de una especie de círculo vicioso de dependencia de la IA, en el que los estudiantes descargan cada vez más su propio pensamiento en la caja negra inescrutable de esta tecnología, lo que conduce al tipo de deterioro o atrofia cognitiva más comúnmente asociada con el envejecimiento cerebral».
En concreto Winthrop, muestra su preocupación porque: «Cuando los niños usan IA generativa que les dice cada respuesta… no piensan por sí mismos. No aprenden a distinguir la verdad de la ficción –la propia IA tampoco la distingue–. Ellos no aprenden a comprender qué constituye un buen argumento. No aprenden sobre las diferentes perspectivas del mundo porque, en realidad, no interactúan con el material, así que no memorizan y apenas recuerdan o no recuerdan nada del tema, porque no lo han aprendido».
Recuerda sobre cómo los teclados y ordenadores redujeron la necesidad de escribir a mano, y las calculadoras automatizaron las matemáticas básicas. Pero la IA está potenciando y acelerando este tipo de descarga, especialmente en escuelas donde el aprendizaje se plantea, y puede percibirse simplemente como algo transaccional.
Es muy ilustrativa al respecto, la frase que les dijo un estudiante a los investigadores refiriéndose a su uso de la IA (del ChatBot): «Es fácil. No hace falta (usar) tu cerebro».
Entre las conclusiones y abundantes pruebas que ofrece el Informe las hay muy contundentes. Una sugiere que «los estudiantes que utilizan la IA generativa ya están experimentando un deterioro en sus conocimientos, su pensamiento crítico e incluso su creatividad. Y esto podría tener consecuencias enormes si estos jóvenes se convierten en adultos sin haber aprendido a pensar de forma crítica». Diáfano como el agua.
Además, el Informe aborda lo de que la IA, no solo entra en proceso del aprender de los estudiantes, sino en el ámbito emocional de sus vidas. Incluye encuestas a estudiantes de las que se deduce claramente, –según el informe–, que «La IA plantea graves amenazas para el desarrollo social y emocional». Y, en sus conclusiones afirma que, las respuestas a la encuesta, también provocaron en los investigadores una profunda preocupación por el hecho de que el uso de la IA, en particular los Chatbots tipo Chat GPT, «está socavando el bienestar emocional de los estudiantes, incluida su capacidad para entablar relaciones, recuperarse de los reveses y mantener la salud mental».
Otras conclusiones explican también que, uno de los muchos problemas del uso excesivo de la IA por parte de los niños es que la tecnología de la IA de los Chatbots es intrínsecamente aduladora, ya que para conseguir adicción, ha sido diseñada para reforzar las creencias de los usuarios –y reforzar su poderoso sesgo de confirmación–. Y, todo ello para ser redundantemente adictiva, de modo similar a las redes sociales.
Rebecca Winthrop, investigadora principal del Informe, concluye en relación al ámbito en las vidas emocionales que, si los niños se acostumbran a desarrollar sus habilidades socioemocionales, principalmente a través de interacciones con Chatbots diseñados para estar de acuerdo con ellos, «resultará muy incómodo y dificultoso para esos niños y adolescentes encontrarse luego en un entorno social real del mundo físico en el que alguien no está de acuerdo contigo». El Informe advierte también que la cámara de eco de la IA, que actúa con el mismo patrón que las de las redes sociales, –tanto en eso como en la adicción–, «puede frenar el crecimiento emocional de un niño».
Cuando docencia, enseñanza y aprendizaje colisionan con la IA
Otra de las informaciones científicas más cualificadas que converge con lo dicho aquí más arriba, nos induce mucha preocupación es que la colisión de la IA y los diversos espacios del aprendizaje y la enseñanza que estamos describiendo, es que ese choque también lo hace contra uno de los principios del buen funcionamiento de la mente y el cerebro, y es el de que el cerebro humano y su pensamiento necesitan fricción.
Sobre este contexto, la citada investigadora del Media Lab del Instituto Tecnológico de Massachusetts (MIT) Nataliya Kos’myna, –especializada en interfaces cerebro-ordenador portátiles–, señala sobre el uso intensivo de una tecnología concreta que, en cuanto nos facilita mucho la vida y nos pone las cosas muy cómodas, y está siempre disponible, sucumbimos fácilmente al uso de ella que nos inducen. Y eso ocurre tan fácilmente porque ya estamos evolutivamente muy preparados para usarla así. Y lo estamos, porque «a nuestros cerebros les encantan los atajos; es parte de nuestra naturaleza». Es la explicación de por qué, caemos tan fácil en la comodidad nihilista y el conformismo tecnológico, que ya describí en esta páginas. Pero eso no es todo. Kos’myna nos señala también algo importante en relación al aprendizaje: «El cerebro necesita fricción para aprender. Necesita siempre un desafío». Esa es la clave.
La profesora Kosmyna lo explica así el mecanismo mental: «Sí, el cerebro necesita fricción, pero también la evita instintivamente. Resulta interesante que la promesa de la tecnología haya sido crear una experiencia de usuario sin fricción, para garantizar que, al pasar de una App a otra o de una pantalla a otra, o de un contenido digital a otro, no encontremos resistencia» Esa ausencia de fricción es la que explota para generar adicción por ejemplo el scroll infinito en las pantallas de nuestros Smartphones. Pero hay algo que se suma. Y, según Kos’myna señala otra razón: «Esa experiencia de usuario sin fricción es la principal razón por la que, sin pensarlo, descargamos más y más información, contenidos y trabajos a nuestros dispositivos digitales. Y es la razón por la que es tan fácil caer en las trampas de internet y de la algorítmica de sus redes sociales, y tan difícil salir de ellas». Y ahora mismo la explosión de la IA, redunda en esa falta de fricción que se nos ofrece continuamente y «es la razón por la que la IA Generativa ya se ha integrado casi por completo en la vida de la mayoría de las personas».
Kos’myna, habla de una cosa aún más importante para el funcionamiento de nuestra mente. «Quizás dejan de leer libros, porque mantener ese tipo de concentración larga les resulta, les parece que habrá fricción. Quizás, –concluye rotunda Kos’myna–: «¿Será este el inicio de lo que la escritora y experta en educación Daisy Christodoulou llama una sociedad estupidogénica –propia de gente que no ejercita apenas sus músculos cognitivos–, algo paralelo a una sociedad obesogénica, en la que es fácil volverse estúpido porque las máquinas pueden pensar por ti?».
Hay muchos y muchas docentes, algunos como los que hemos citado, que no quieren que se cumpla la mayor amenaza que señalaba el Wall Street Journal, la de que demos paso a una nueva generación de jóvenes que no sepan pensar. Quizá huyendo de eso se vuelven a usar lápiz y papel y los libros impresos en muchas aulas de primaria y secundaria. Por cierto, como llamada de atención a quienes critican esto, incluyo ahora aquí, el título de un artículo publicado por la prestigiosa revista Fortune el pasado 21 de febrero de 2026: «EE.UU. gastó 30 mil millones de dólares en reemplazar los libros de texto por ordenadores portátiles y tabletas: el resultado es que en el país tiene vive ahora la primera generación tiene menos capacidad cognitiva que sus padres». Usar elementos analógicos en el aula, para algunos docentes, puede ser una buena vía, de momento, para revelarse modestamente contra la citada amenaza. Porque está muy demostrado que los libros impresos son una formidable herramienta para el aprendizaje, cosa que aún tiene que demostrar los Chatbot cuyos primeros efectos sobre la memoria y el raciocinio de los jóvenes alumnos son más que preocupantes. La enseñanza y la docencia pretende entre otras cosas, enseñar a los jóvenes a pensar, a aprender. Para eso hay que entrenar el cerebro de los alumnos. Y los Chatbot como el Chat GPT hoy por hoy ya están mostrando los riesgos de desentrenar las mentes en jóvenes y alumnos.
Hay ya numerosísimos ejemplos más relacionados con la colisión entre la IA y el mundo del aprendizaje y la educación y me gustaría ser más optimista, pero no es fácil. Termino los de hoy con un último ejemplo.
Scott, el profesor ante la antimateria educativa aniquiladora
Scott K. Johnson, es un profesor de ciencias de la Tierra que ha publicado el pasado 13 de abril una desgarradora y crítica opinión en la sección de ciencia de la prestigiosa revista Arstechnica. El título de su texto dice literalmente: «Enseñar en la era de ChatGPT es conocer el dolor». El subtítulo dice: «El uso de LLM es el problema más desmoralizador al que me he enfrentado como profesor universitario». Scott señala en su artículo que, desde la aparición de ChatGPT, el trabajo del profesor ya no se limita a impartir la materia e intentar desesperadamente que todos los alumnos se mantengan al día. Cada vez más, su rol docente muta a ser una especie de detective y fiscal, porque los estudiantes sin motivación para hacer el trabajo ya no tienen que eludirlo. Pueden entregar un simulacro con forma de trabajo casi con la misma facilidad. Y un número considerable lo hace: en una encuesta reciente del College Board a 600 estudiantes de secundaria, el 84 % afirmó haber utilizado IA generativa para sus tareas escolares.
Los docentes, –explica este profesor–, desde luego, están familiarizados con las trampas. Pero mirar apuntes ocultos durante un examen o plagiar párrafos de Wikipedia son herramientas de la edad de piedra comparadas con las armas de destrucción masiva conocidas como LLM y los Chatbots de IA. Añoro la comodidad binaria de un problema simple como «¿hace trampa o no?». Ahora, me veo obligado a juzgar 256 matices de gris, y a proporcionar documentación suficiente para defender mi decisión si un estudiante apela mi calificación ante comités de revisión institucional»…Pero, –explica–, contra lo que pudiera perecer su preocupación es más por los estudiantes que por él mismo, y continúa en el texto diciendo: «Permítanme explicar por qué los estudiantes son los que más pierden en este entorno y por qué los profesores como yo nos sentimos prácticamente impotentes para solucionar el problema. –Con mucho conocimiento de causa señala–, «…los estudiantes suelen tener ideas erróneas sobre las asignaturas. Pueden ver al profesor como un obstáculo que se interpone en el camino hacia la calificación que desean. Y consideran que «obtener las respuestas correctas» es el objetivo de la educación porque así se aseguran esa calificación…»
Según Scott, podemos describir fácilmente el proceso de aprendizaje. En síntesis, si no hay fricción, si no hay esfuerzo, entonces no hay trabajo y el estudiante no ha aprendido. Habría sido igual de productivo mirar la pared viendo cómo se seca la pintura…
Y continúa «¿Qué sentido tiene incluir evaluaciones formativas en un curso si luego se las asignan a un Modelo de IA LLM? De repente, se convierte en una pérdida de tiempo tanto para el estudiante como para el profesor. Los cuestionarios breves son excelentes herramientas de estudio para ayudar a los estudiantes a comprobar su comprensión, siempre y cuando los realicen… Y ahora los Modelos Lingüísticos de IA LLM pueden «escribir» un ensayo con este formato en apenas 10 segundos. Si bien estos ensayos son fácilmente reconocibles (y de baja calidad), la tarea se volvió insostenible. Podía corregir el trabajo de un estudiante real en 15 a 30 minutos, pero lidiar con cada caso de plagio fácilmente me llevaba de cuatro a ocho horas de trabajo frustrante y deprimente. Así que, simplemente, tuve que eliminarla del curso… En síntesis, no soy el único que se siente exasperado por esta situación. Una encuesta realizada a unos 3000 profesores universitarios mostró que el 85 % opinaba que los LLM, disminuyen la probabilidad de que los estudiantes desarrollen habilidades de pensamiento crítico, y el 72 % reportó dificultades para gestionar su uso… »
Luego, tirando de ironía, escribe: «Los profesores, agotados por la situación actual, soportan un aluvión de tópicos repetitivos. ¡Es el futuro, mejor acostúmbrense! ¡Los luditas contrarios a la tecnología decían que no debíamos usar calculadoras! ¿Te refieres a la forma en que los profesores de matemáticas restringen actualmente el uso de calculadoras (que, cabe destacar, no generan respuestas falsas) al enseñar muchas habilidades? ¡Los Modelos LLM de IA o los Chatbots de IA son ya tutores personales! Pero, ¿contratarías a un tutor que juega a Dos verdades y una mentira? Parece que nadie quiere escuchar a los profesores explicar lo mal que se sienten al intentar hacer su trabajo en presencia de esta antimateria educativa aniquiladora. En cambio, –ironiza–, nos ofrecen herramientas de calificación con IA para calificar trabajos generados por IA para tareas generadas por IA.
Quizá los críticos como yo, ‑dice Scott–, simplemente no entendamos la revolución de la IA (sea lo que sea eso), pero todos conocemos la naturaleza humana y los patrones habituales de los alumnos. Los modelos de lenguaje grande (LLM) son un atajo. Los alumnos suelen tomar atajos de los que luego se arrepienten. A todos nos ha pasado… No he conocido a ningún estudiante que piense que está aprendiendo cuando deja que los LLM de IA hagan su trabajo, a pesar de la imagen que los administradores universitarios y la propaganda de la IA intentan proyectar. Para ellos, solo es una forma de gestionar la carga de trabajo.
Y Scott concluye su reflexión diciendo: «Quién sabe qué pasará si estalla la burbuja de la IA y el acceso fluido y omnipresente a los LLM se reduce a algo mucho más limitado. Pero mientras la IA está ya aquí, lo cierto es que no está revolucionando la educación, ni mejorando el aprendizaje. Simplemente está haciendo que resulte extraordinariamente difícil llevar a cabo todas aquellas cosas que llevan mucho tiempo ayudando a los estudiantes a aprender».
Epílogo
Termino yo esta reflexión pensando que, quizá más adelante sea diferente. Pero la industria de las opulentas plataformas de IA y sus voceros solucionistas, no ha mostrado hasta ahora en absoluto la menor paciencia con el aprendizaje de los jóvenes, ni el trabajo de sus docentes, sino indiferencia. No les importa lo que les pase ni a unos ni a otros. Lanzan sus soluciones de IA como empresas autistas o, como máximo, presas del síndrome de Asperger. Sí han demostrado lo que buscan a toda costa es ganar mucho dinero (monetizar cualquier cosa, lo que sea) y hacer, sin importar nada más, un inmenso negocio generando una nueva generación de adictos, en lugar de una con unos jóvenes, luego adultos, más despiertos e inteligentes. Sabemos que en un mundo ideal la IA, – según dicen en su propaganda‑, la IA ha venido a mejorarnos, a aumentarnos, y no a sustituirnos. Pero eso ya no es creíble dicho por ellos.
Y, por ahora sigo, como muchos docentes, muy escéptico con estos tecno-plutócratas. Y ver de cerca la cara a Sam Altman, el potentado dueño de la empresa que atesora el Chat GPT no me tranquiliza en absoluto. Ya no le creo nada de sus discursos y promesas. Su sinceridad se ha desvanecido. Mi amigo Tim O’Reilly me dijo hace tiempo, –no me importa repetirlo–, que “La tecnología es algo para hacer del mundo un lugar mejor” Aún sigo creyendo completamente en esa idea que expresa esa frase de O’Reilly.
Pero el mismo O’Reilly publicó después más recientemente un ensayo sobre la mutación actual de Silicon Valley, donde se encuentra el núcleo de la big tech de industria de las plataformas de los LLM y la IA. En dicho ensayo se pueden leer las palabras siguientes: “Ese paisaje fracturado no es lo que se predijo: los pioneros de Internet esperaban la libertad y la sabiduría de las multitudes, no que todos estuviéramos bajo el control de unas grandes empresas que se benefician de unos mercados de desinformación. Lo que inventamos no era lo que esperábamos. Internet se convirtió en la materia de nuestras pesadillas más que de nuestros sueños. Todavía podemos recuperarnos, pero al menos hasta ahora, Silicon Valley parece ser parte del problema más que de la solución”. Y, en el mismo ensayo, específicamente en referencia a las plataformas de las redes sociales, en las que está también involucrada la industria de la IA, Tim escribe: “En el caso de las plataformas de medios sociales, la manipulación a gran escala de los usuarios con fines de lucro ha deshilachado el tejido de la democracia y el respeto a la verdad. Silicon Valley, que antes aprovechaba la inteligencia colectiva de sus usuarios, ahora utiliza su profundo conocimiento de los mismos para “comerciar contra ellos”. Fin de la cita.
La IA, el Chat GPT, como sus congéneres, son un artefacto tecnológico. A ellos también se refiere la frase de Tim.
ChatGPT fue lanzado por Open AI el 30 de noviembre de 2022. Hace unos tres años. Piense el lector ¿Percibe Vd. que la situación general del mundo es mejor desde hace tres años, que es desde cuando tenemos esta IA y las demás con nosotros? Contéstese Vd. mismo.
Comparte esta publicación
Suscríbete a nuestro boletín
Recibe toda la actualidad en cultura y ocio, de la ciudad de Valencia










