Ronald Purser: hacer trampa ha dejado de ser una subcultura; se ha convertido en una identidad de marca y una ideología de capital riesgo. ¿Y por qué no? En la Chatversidad, hacer trampa ya no es una desviación, sino la norma.
Adolfo Plasencia, 2 de enero de 2026

Imagen superior: Biblioteca de la San Francisco State University, la universidad donde es profesor Ronald Purser. Foto: SFSU. CC BY-SA 4.0
La canibalización de la universidad pública por la IA
«La IA está destruyendo la universidad y el aprendizaje mismo». Este es el título del demoledor ensayo en defensa de la universidad que el profesor Ronald Purser ha publicado este mismo mes en la prestigiosa revista de ensayos sobre política y cultura Current Affairs. En su subtítulo ya nos confirma la sospecha de lo que todos pensamos que está pasando en las clases y las aulas universitarias, ahora mismo. La entradilla del ensayo dice literalmente: «Los estudiantes usan la IA para escribir trabajos, los profesores la usan para calificarlos, los títulos pierden su valor y las empresas tecnológicas amasan fortunas. Bienvenidos a la muerte de la educación superior».
En esta canibalización de la universidad pública, (pero también enseñanza de la privada, porque la vocación de las plafaformas, por su propia arquitectura, tienen siempre ansias de totalidad y persiguen ser monopolio), las big tech de IA no están solas. Como decía Quevedo, tras que alguno sale claro vencedor de una contienda, «pronto aparece alguien para ofrecerse en pronto auxilio al vencedor». Así que ya hay también empresas en movimiento que quieren ofrecer su ayuda de ese modo a las big tech, en su canibalización, en el mismo sentido que se expresa el Alex Karp, el CEO de Palantir y, para poder hacerlo a gran escala, ya está habiendo movimientos del capital especulador.
Una muestra de ello es la noticia de Reuters que explica que Coursera anunció el pasado miércoles que adquirirá la plataforma rival de aprendizaje online Udemy en un acuerdo de acciones que valora la compañía combinada en 2.500 millones de dólares, una medida que reúne a dos de los actores más grandes del campo con sede en EE.UU. El propósito posterior a la operación es crear una nueva empresa con el citado valor, destinada a la formación en IA. La letra pequeña es que, en Coursera, están convencidos que con la formación de/en IA, se va a poder sustituir la formación universitaria en sentido amplio, tal como la conocíamos. De ahí a pensar que las universidades, su actividad educativa y sus bibliotecas, forman parte de una visión y un tipo de pensamiento cuyas instituciones educativas e investigadoras son completamente obsoletas y prescindibles, como ya dice Karp, sólo hay un paso.
Purser describe para empezar su experiencia vital profesional de ahora mismo ante la súbita irrupción del ChatGPT en las aulas de su universidad donde el Chatbot conversacional ha entrado como elefante en cacharrería. Dice, literalmente, «El pánico llegó primero. Las reuniones de profesores estallaron de terror: «¿Cómo detectaremos el plagio ahora?» «¿Es este el fin del ensayo universitario?» «¿Deberíamos volver a las libretas azules y los exámenes supervisados?». Mis compañeros de la Escuela de negocios, –explica Purser–, de repente, se comportan como si las trampas acabaran de inventarse. Luego, casi de la noche a la mañana, la angustia se convirtió en frustración. Los mismos profesores que pronosticaban el desastre académico ahora se renovaban con entusiasmo como «educadores preparados para la IA». En todo el campus, talleres como «Desarrollo de habilidades y conocimientos de IA en el aula» y «Fundamentos de alfabetización en IA» proliferaron como hongos después de la lluvia. El pánico inicial por el plagio dio paso a una resignada aceptación: «Si no puedes con ellos, únete a ellos».
Después comprobó que lo mismo que estaba pasando en su campus, estaba ocurriendo en muchos otros. Purser se dio cuenta de que el asalto de la IA a las universidades era una invasión a gran escala. Y relata: «Este cambio radical no fue exclusivo de mi campus. Nuestro sistema de la Universidad Estatal de California (CSU) es el sistema universitario público más grande de Estados Unidos. Cuenta con 23 campus y casi medio millón de estudiantes –un objetivo grande para la colonización por la IA–. Sin tiempo ni a debatir sobre ello, se anunció «una gran inversión» y se presentó una «colaboración de 17 millones de dólares con OpenAI» como si al campus le hubiese tocado una especie de lotería tecnológica. Con ello, dijeron, la estructura de la CSU se convertiría en el primer sistema universitario del país «impulsado por IA». Algo «estupendo» más allá de toda duda porque, en el lenguaje del marketing de la IA, se presentaba como un maná de bondades sin cuento. Empezando por ofrecer ChatGPT Edu gratuito (una versión con la marca del campus diseñada para instituciones educativas) a todos los estudiantes y empleados (a 500.000 usuarios nuevos de golpe). El comunicado de prensa institucional repetía lema a lema la propaganda de OpenAI. Hablaba, –dice Purser–, con entusiasmo de «herramientas de aprendizaje personalizadas y orientadas al futuro» y de preparar a los estudiantes para estar listos, –la propaganda lo daba como algo inevitable–, ante una «economía impulsada por la IA».
Consciente de las posibles consecuencias, Purser recuerda que el momento de su universidad era surrealista, una situación con una combinación de vulnerabilidad y necesidad. Y, empezaron a suceder muchas cosas al mismo tiempo. Tal vez por esa combinación citada, la gobernanza de la CSU anunció su gran gesto tecnológico justo al tiempo que proponía recortar 375 millones de dólares de su presupuesto. Así que, al unísono que los administradores inauguraban su iniciativa de IA, también recortaban plazas de profesorado, programas académicos completos y servicios estudiantiles. Al tiempo, –relata Punser– «en nuestra Universidad Estatal de San Francisco, el rectorado notificó formalmente a nuestro sindicato, la Asociación de Profesores de California (CFA), sobre posibles despidos». Y añade una terrible reflexión «Los cálculos son brutales y la contraposición, cruda: millones para OpenAI, mientras que se suceden los despidos de profesores veteranos. La CSU no está invirtiendo en educación; la está externalizando, pagando elevados precios por un Chatbot conversacional que muchos estudiantes ya usaban gratis».
Penetrar no solo en las aulas sino en las vidas de medio millón de alumnos
Esto no lo dice Puser, pero lo añado yo. El ChatGPT no solo penetra así a las aulas donde acuden medio millón de alumnos en edad universitaria, sino también en sus vidas personales 24 horas al día a través de la conexión ubicua (no olvidemos lo que significa aquí ubicua: en cualquier momento, y desde cualquier lugar). ChatGPT está accesible de forma ubicua para los conectados. Y con una fórmula que es una trampa cognitiva y económica casi infalible: es gratis. ¿que estudiante o profesor puede resistirse a eso? Como demostró en su libro Free de 2008 Chris Anderson, autor de The Long Tail, eso es para los humanos, comercialmente, algo casi irresistible.
Ronald Purser se negó a caer en las trampas fáciles de la propaganda tecnológica ligadas a la IA. Él se esforzaba en inculcar a sus alumnos el pensamiento crítico, algo que considera imprescindible para la educación y también para la vida, así que no pensaba caer en esa trampa a pesar de toda la artillería propagandística desplegada para someter a una enorme comunidad universitaria como la de la CSU, vulnerable, y presa de la necesidad, como casi todas las universidades públicas ahora, sabiendo que muchos colegas pensarían seguro que él estaba exagerando. Purser argumenta en su ensayo que no es una novedad que la educación pública ha estado en venta durante décadas y cita el teórico cultural norteamericano Henry Giroux como uno de los primeros en señalar cómo las universidades públicas se estaban transformando en centros de formación profesional para los negocios privados y sus mercados cautivos.
Los departamentos académicos ahora tienen que justificarse en términos de ingresos, resultados y aprendizaje. La nueva alianza de su universidad, la CSU con OpenAI es, –según Purser–. «la última vuelta de tuerca a esta situación». Y es algo a lo que la prestigiosa profesora del Institute of Higher Education, de la Universidad de Georgia Sheila Slaughter y su colega Gary Rhoades definen como capitalismo académico. Verbigracia: «conocimiento transformado en mercancía y estudiantes, literalmente, en consumidores pasivos». Lo describe en su libro Deshaciendo la Universidad Pública, el director de la Research at the Independent Social Research Foundation de Londres, Christopher Newfield, que describe en detalle en su texto «cómo la tendencia a la privatización empobrece a las universidades públicas, convirtiéndolas en cascarones de sí mismas financiados con deuda de agentes financieros externos». Benjamin Ginsberg describió el auge de los «campus totalmente administrativos», en los que las capas gerenciales y la plaga burocrática se multiplican incluso cuando el profesorado y la actividad académica se han reducido.
En cuanto a la función humanista, esencial en la universidad, incluso en las carreras técnicas e ingenierías de hoy, Martha Nussbaum advierte sobre lo que se pierde cuando las humanidades, —esos espacios para la imaginación y la reflexión cívica—, se acaban considerando prescindibles en una democracia igual que su función como universidad. Junto con Newfield describen el cambio en marcha por el que «una universidad que ya no se pregunta para qué sirve la educación, sino solo qué puede generar». Y aunque parezca una coincidencia de términos, no lo es, porque la IA más en boga en este momento es la «IA Generativa».
La profesora Martha Kenney, poco después del citado anuncio de la CSU, coescribió un artículo de opinión en el San Francisco Chronicle con la profesora de antropología Martha Lincoln, advirtiendo que «la nueva iniciativa corría el riesgo de perjudicar a los estudiantes y socavar el pensamiento crítico». Como es natural, se tuvo que defender de las habituales actuaciones de los tecnófilos: «No soy un ludita», escribió, «Pero debemos plantearnos preguntas cruciales sobre el impacto de la IA en la educación, el trabajo y la democracia». La ironía no podía ser más descarnada, más cruda. –señala Purser–; «los programas mejor preparados para estudiar las implicaciones sociales y éticas de la IA estaban siendo desfinanciados, incluso mientras la universidad promovía el uso de los productos de OpenAI en todo el campus». –y, concluye–, …«Esto no es innovación, es autocanibalismo institucional». Comparto, en mi caso, situaciones parecidas. También recibo ese tipo de acusaciones de tener opiniones que exageran los riesgos. «Vd. –me dijo un investigador en IA, tras mi conferencia de clausura de curso en el Instituto ITACA de la UPV– envía mensajes peligrosos asociando la estadística predictiva digital con las adicciones y cosas peores». ¿Que exagero? Pues como diría el psicólogo clínico Francisco Villar, parece que la realidad exagera ahora mismo más que yo, incluso los responsables del Chat GPT.
El País, que es el diario con más difusión de España, le dedicó el pasado domingo 21 de diciembre un editorial al Chatbot de OpenAI titulado «El lado siniestro de ChatGPT»; citando el caso del adolescente de 16 años Adam Reis que se quitó la vida en abril tras preguntarle muchas veces a ChatGPT por formas de suicidio. Y un mes más tarde, ante los tribunales, la empresa Open AI, argumentó que «la muerte del joven era culpa suya por su mal uso del Chatbot porque lo usó saltándose las condiciones de uso, y que por tanto su muerte no era achacable a la inteligencia artificial en sí». El mismo día, dicho periódico publicó un gran reportaje titulado «ChatGPT no pasa la prueba: así pone en peligro la vida de menores», en el que explican el experimento, en el que tres periodistas del medio entablaron conversación con Chay GPT haciéndose pasar por adolescentes. Los propios periodistas describen su experimento con naturalidad como si fuera lo más normal que unos adultos entren, con cuentas falsas, en la plataforma haciéndose pasar por adolescentes o niños para interactuar con el Chatbot. Ni mencionan que así, ellos mismos infringían las normas legales de uso. Tanto en estas plataformas, como en las de las redes sociales ningún menor de 13 años es legal que entre ahí, ya que, además, incumple las normas de uso. En Australia, ahora mismo, que un menor de 16 años esté en redes sociales, está prohibido y penado por la ley. (La ministra de comunicaciones de Australia, Anika Wells, ha dicho a la BBC, a raíz de la prohibición, que no se dejará intimidar por las big tech).
Pues bien, en el reportaje citado, los periodistas del medio explican que experimentaron con tres cuentas ficticias los filtros de OpenAI para proteger a los niños; y que los expertos en salud mental critican el resultado, porque las medidas son insuficientes y la plataforma no alertan a los padres a tiempo cuando su hijo revela que quiere quitarse la vida. Con una naturalidad parecida a estos periodistas, el CEO Sam Alman, explicó casi como una curiosidad en una presentación reciente que más de un millón de personas habla con el Chatbot de su empresa sobre suicidio cada semana. Pero no ha mencionado que vaya a cambiar nada de su modelo de negocio por eso. Si a su empresa los suicidios de menores y la vida de los adolescentes le importan tan poco, cómo le va a importar el deconstruir y alterar las actividades docentes y de aprendizaje de los jóvenes universitarios. No le importa en absoluto.
El citado reportaje también da una idea del nivel de dependencia al ChatGPT que ya han alcanzado los y las adolescentes. Algunas cifras que da: en España, el 18% de las chicas y el 12% de los jóvenes de entre 12 y 21 años suelen usar la IA para conversaciones íntimas o compartir cuestiones personales. Según el informe Así somos. El estado de la adolescencia en España, de la ONG Plan International, además, «uno de cada cuatro adolescentes prefiera hablar con el Chatbot de IA en lugar que con una persona real». Y según una encuesta de Common Sense hecha en julio pasado a 1.060 adolescentes de entre 13 y 17 años, para averiguar por qué los adolescentes usan Chatbots de IA como «compañeros», el 17% dice que lo usa porque «siempre está disponible»; el 14%, «porque nunca le juzga»; el 12%, «porque le pueden «decir» cosas que no le pueden decir a los amigos, o la familia»; el 19%, «porque le resulta más fácil «hablar» con él que con las personas»; y, el 6% porque «le ayuda a sentirse menos solo». Eso da una idea de la dependencia de la gente más joven ya tiene del Chat GPT. Estando así las cosas, es ahora cuando OpenAI inicia una estrategia a gran escala para invadir la vida estudiantil en los campus. Y, por esa vía, conseguir invadir totalmente las vidas personales (de los estudiantes universitarios y del profesorado); y, si pueden, no soltarlos, ya para el resto.
Aunque, estoy describiendo el impacto de la IA en la educación universitaria, no se limita a ella; también impacta con un efecto no menor, en la educación de otros niveles, por ejemplo, en la segunda enseñanza. Porque si, en los citados porcentajes, ya está afectada la vida de los adolescentes en relación ChatGPT; al tiempo que, a su vida personal, también está afectada su vida educativa, y su aprendizaje en ella. Otro ejemplo. Víctor Bermúdez, profesor de Filosofía en el instituto público I.E.S Santa Eulalia de Mérida a donde ha vuelto en septiembre, tras cinco años en el Ministerio de Educación, donde coordinó la redacción de los actuales currículos de su materia y de varias más, ha declarado en una entrevista la semana pasada que «Hemos perdido el control del proceso educativo, lo que damos en clase es en gran medida un simulacro» y ve «a sus compañeros y compañeras de profesión trabajando como locos para enganchar al alumnado». En general, porque la escuela y su centro no saben competir con cosas como la IA y su parafernalia. Y, no sólo eso. Victor piensa que «la educación está fracasando en generar una cultura general común, una formación moral y unos vínculos comunitarios».
Traigo ahora a colación lo que dice Víctor porque teniendo en cuenta que la suya es una actividad docente en un Instituto de enseñanza media, en un país del continente europeo separado por un océano y miles de kilómetros, hace un diagnóstico sobre la educación pública completamente semejante a la del profesor Purser, docente en la Universidad Pública de San Francisco, la más grande de EE.UU. con 23 campus, lo que nos lleva a pensar que ambos y la distinta actividad educativa que practican, uno en San Francisco y el otro en Mérida, se están enfrentando desde lugares distintos del mundo educativo al mismo tipo de problemas, a los mismos enemigos y a las mismas dificultades y, con causas equivalentes, también. Es decir, que este problema es global y, muy probablemente, abarca a distintos niveles de educación. Parece tratarse de una infección sistémica a todos los entornos educativos; y es de carácter global y ubicua, que impacta en todos los lugares y distintas geografías.
Volviendo a OpenAI, que actúa a tiempo, sobre los dos contextos, –el de Víctor y el de Purser–, es claro que lo que persigue la empresa tanto en la vida universitaria como en la de enseñanza media, sobre todo, es generar jóvenes dependientes de ChatGPT en las universidades usando la típica propaganda tecnológica de que la IA de su ChatGPT es una tecnología benéfica, una herramienta digital como otras anteriores pero más potente y más fácil de usar, para todo. Pero no todo el mundo está de acuerdo con este diagnóstico que podría aparentar que sus causas son simples, pero no lo son en absoluto. Y la magnitud del fenómeno es enorme y su impacto multidimensional. Una magnitud tan grande que es normal que el conjunto de centros como el de Víctor el de Mérida, no sepan cómo actualizar el lenguaje educativo para competir con eso.
«No podemos hacer nada» explica José Juan López, vicerrector de estudiantes de la Universidad Miguel Hernández (Elche)… «Y no podemos hacer nada, porque esta tecnología es muy difícil de detectar y legislar. Y hablo de exámenes, pero en trabajos ya ni te cuento»; la IA permite copiar en exámenes de universidad con una facilidad nunca vista. El uso masivo del ChatGPT y los diversos dispositivos con IA integrada permiten hacer trampas con mayor soltura. La IA se ha convertido en las aulas en una tecnología facilitadora de hacer trampas. Y lo mismo pasa en San Francisco a pesar de su diferente contexto social y cultural, como vamos a ver en la explicación de detalle del profesor de la CSU, Ronald Purser.
El Tecnopolio explosiona en el campus
El citado profesor Purser, no se queda en la superficie con sus críticas, hace unas reflexiones conceptuales profundas. Va más allá. Por ejemplo, escribe cómo sus colegas de la Escuela de Negocios le insisten en que ChatGPT es «solo una herramienta más en la caja de herramientas». Pero él hace una observación conceptual importante sobre la diferencia entre herramientas y tecnologías «Las herramientas nos ayudan a realizar tareas; las tecnologías transforman los entornos en los que pensamos, trabajamos y nos relacionamos». El filósofo Peter Hershock, hace una distinción esencial que hoy nos sirve muy bien para comprender al respecto en el caso de la IA: «no solo usamos tecnologías; participamos en ellas. Con las herramientas, conservamos la autonomía: podemos elegir cuándo y cómo usarlas. Con estas tecnologías, la elección es más sutil, porque redefinen las propias condiciones de la elección. Un bolígrafo amplía la comunicación sin redefinirla; las redes sociales (y la IA Generativa) están transformando lo que entendemos por privacidad, amistad e incluso verdad».
Y, añado, que el marco de uso de la estadística predictiva de los Chatbots como ChatGPT, funciona sobre las mismas bases de búsqueda de adicción y de maximización de uso que la de las redes sociales. En ese sentido, persigue también el mismo objetivo que las Apps del internet social. Así que, si introduces las formas de uso de sus Apps que promueven empresas como OpenAI en las aulas, no solo introduces en ellas esa IA, sino también lo que persiguen: obtener adicción y maximización de uso en sus usuarios, que también induce y promueve el ChatGPT, así que aparecerán sus consecuencias indirectas en los alumnos y alumnas más vulnerables que serán convertidos en adictos y dependientes por el ChatGPT en las aulas y, por extensión, en su vida fuera de ellas. ¿Cómo te suena lo de una universidad con aulas que sean espacios en donde la adicción prospere? Pues ese es uno de los objetivos centrales del ChatGPT allá donde sea usado, generar dependencia y no solo en los actos educativos, sino también en la vida personal. Lo mismo que persigue denodadamente Tik Tok, por ejemplo, sin ir más lejos.
Todo esto de la IA y sus consecuencias, que parece tan nuevo no lo es tanto. El sociólogo y discípulo de Marshall McLuhan, Neil Postman, profesor de Media Ecology y director del Departamento de Cultura y Comunicación de la Universidad de Nueva York, advirtió ya en su famoso libro de 1993, que surge un Tecnopolio, «cuando las sociedades ceden el juicio a los imperativos tecnológicos, y cuando la eficiencia y la innovación se convierten en bienes morales en sí mismos. Una vez que métricas como la velocidad y la optimización reemplazan la reflexión y el diálogo, la educación se transforma en logística: la calificación se automatiza, los ensayos y los papers se generan en segundos»… «El conocimiento se convierte en datos [y no al revés] y la enseñanza se convierte en actos de mera impartición. Y lo que desaparecen son valiosas capacidades humanas: la curiosidad, el discernimiento, el sentido común, la presencia humana. El resultado no es inteligencia aumentada, sino aprendizaje simulado: un enfoque del pensamiento basado solo en números».
Purser advierte que el Tecnopolio prospera por la vía de los hechos sin planificación universitaria alguna y como algo completamente inevitable. Las universidades están intentando adaptarse sin tiempo a reflexionar re-estructurándose como centros de cumplimiento de la conveniencia cognitiva. En detalle, Purser señala: «No se enseña a los estudiantes a pensar con mayor profundidad, sino crecientemente a estimular con mayor eficacia. Estamos exportando la labor misma de enseñar y aprender: el lento proceso de debatir con ideas, la superación de la incomodidad, la duda y la confusión»; y, añado, la contienda agonista por encontrar la propia voz. Para confirmar lo que afirma Purser al respecto, cito el titular de una interesante y reciente entrevista a Sonia Contera, catedrática de física biológica en Oxford en la que afirma: «Una de las cosas más terribles de la IA es que nos invita a dejar de pensar».
Lamenta Purser que la pedagogía crítica, incluso el término, «ha pasado de moda como algo prescindible. En cambio, los trucos para la productividad están de moda. Lo que se vende como innovación es, en realidad, rendición. A medida que la universidad cambia su misión docente, humanista e investigadora, por la «integración de la IA y la tecnología» de la que se espera algo grande, –esa inmensa promesa de la industria de la IA–. Pero, en opinión de Purser, «con ello, la universidad no solo se arriesga a la irrelevancia, sino a volverse mecánicamente desalmada». El corolario en términos de balance es tremendo. Por decirlo en términos de jerga empresarial o emprendedora «la auténtica lucha intelectual se ha convertido en una propuesta de valor demasiado costosa». Y entonces, como diría un forofo del emprendimiento, eso la convierte en prescindible, porque entonces ya no es algo que convenga al modelo de negocio. Pero, ¿al modelo de negocio de quién, o de quienes?
Hacer trampa y glorificar el fraude, un nuevo modelo de negocio
Hay algunos elementos que son comunes a todas las IA generativas, los LLM y los Chatbot que conocemos. El primero en común, empezando por ChatGPT y la empresa Open AI que lo lanzó tras un inmenso fraude previo de latrocinio de contenido. Antes de lanzar ChatGPT (acrónimo del inglés Chat Generative Pre-Trained), la empresa Open AI, nacida solo en apariencia como una entidad sin ánimo de lucro, llevó a cabo antes del pre-entrenamiento del Chatbot, un latrocinio a gran escala apropiándose ilegalmente el contenido de millones de libros y textos (se calcula que un total de 370.000 millones de palabras escritas por autores humanos) y archivos de todo tipo de contenidos, –desde Wikipedia entera a millones de archivos web, incluyendo textos, imágenes vídeos, gráficos, todos publicaciones con autoría–. Y todo ello, sin pedir permiso a ningún autor, editor o responsable de contenidos. Eso normalizó esta práctica de facto como si fuera algo natural, normal e inevitable. Pero hizo algo más: normalizar el latrocinio para pre-entrenar a las demás IA Generativas, a cualquiera de ellas.
Hay miles de pleitos en marcha contra las empresas desarrolladores de los modelos LLM de IA, con algunos ejemplos actuales significativos. Por ejemplo, el de Andrea Bartz, una escritora estadounidense, autora de la novela de misterio y suspense We Were Never Here, gran éxito de ventas del New York Times. Andrea abrió una web titulada: ChatGPT Is Eating the World (ChatGPT está devorando el mundo). Bartz, que se ha puesto al frente como demandante principal en una demanda colectiva por derechos de autor contra la empresa de IA Anthropic, (ojo!, co-fundada por su CEO Dario Amodei que antes fue vicepresidente de investigación de OpenAI). Barz ha publicado un artículo de opinión en el New York Times en el que elogia la sentencia del juez William Alsup que otorga la aprobación preliminar de un acuerdo legal de 1.500 millones de dólares que deberá pagar Anthropic a los autores de las obras pirateadas, el más grande en la historia de los derechos de autor, en la demanda colectiva presentada por Andrea Bartz y miles de autores, contra la empresa de IA Anthropic. La autora afirma que esta sentencia envía un mensaje claro a las grandes empresas tecnológicas que están inundando el mundo con todas las Apps, páginas y programas con IA Generativa advirtiéndoles que no están por encima de la ley.
Pero, al tiempo, lanza una desagradable advertencia a los autores de libros, sobre que tendrán que librar multitud de guerras para defender sus derechos de autor «durante los próximos años». Pues bien, resulta que ahora, yo mismo soy parte implicada. Mientras escribía este texto, mi editorial MIT Press, me acaba de enviar una notificación de que un libro mío que ellos han publicado, está afectado (ha sido pirateado) e incluido en el conjunto de la demanda. ¡Vaya sorpresa y sopapo de realidad! Mi texto del libro también fue secretamente pirateado por Anthropic o por alguna empresa de data brockers (brokers de datos), por encargo suyo. Cualquiera diría que el montante de la demanda es muy alto. Pero no se preocupen ni le tengan lástima. Anthopic ya tiene un valor en bolsa cercano a los 350.000 millones de dólares.
Sin embargo, pese a ese espectacular acuerdo legal, yo no soy tan optimista como Andrea. Ya que pienso que este asunto, no es solo un tema económico. Significa un cambio de paradigma no solo para las autorías de todo tipo, sino también para la naturalización del fraude como herramienta previa al desarrollo de las IA Generativas haciendo de ese latrocinio previo que he citado antes algo normal, natural e inevitablemente para ser deconstruido y regurgitado posteriormente por un Chatbot de IA. Y además como dije, ha integrado el fraude como un factor inherente al desarrollo de las IA generativas y los LLM, que han pasado a formar parte del modelo de negocio de las empresas desarrolladoras. La cosa llega más lejos; ha hecho de la trampa y el fraude algo normal e incluso trivial relacionado con este tipo de uso de Apps de IA. Pondré aquí, ahora (aunque hay muchos más), un ejemplo significativo, el de Chungin R. Lee.
Chungin «Roy» Lee. Lee llegó como estudiante novato de primer año a la Universidad de Columbia en Nueva York, con mucha ambición, –y una pestaña de OpenAI siempre abierta–. Él mismo admitió sin el menor rastro de culpa que hacía trampa en casi todas las tareas. «Simplemente escribía la consigna en el ChatGPT y entregaba lo que me salía», declaró a la revista New York Magazine. «La IA escribió el 80 % de todos los ensayos que entregué». Al preguntarle por qué se molestó en solicitar plaza en una universidad de la Ivy League (la liga de universidades de élite de EE.UU.), Lee fue desarmantemente honesto: «Para encontrar esposa, y un socio para una startup», –soltó, sin pestañear–-.
El primer emprendimiento de Lee fue una App de IA llamada Interview Coder, diseñada para hacer trampa en las entrevistas de trabajo de Amazon. Se grabó él mismo usándola. Rápidamente su vídeo se hizo viral. De inmediato, las autoridades de la Univ. de Columbia le suspendieron por «publicitar un enlace a una herramienta para hacer trampa».
Nota cronológica: esto ocurrió justo cuando al tiempo que en la Universidad de Columbia, igual que la CSU, se anunciaba una colaboración con OpenAI. Exactamente la misma empresa que desarrolla el software que Roy Lee usó para hacer trampa en sus cursos.
Sin inmutarse, impertérrito, Lee publicó su penalización disciplinaria en internet, ganando aún más seguidores en su red social. Él y su socio Neel Shanmugam, también sancionado, argumentaron que su App no infringía ninguna norma. «No aprendí nada en una clase en Columbia”, fue su coartada. El socio de Lee declaró a KTVU News: “Y creo que a la mayoría de mis amigos les pasa lo mismo».
Tras su suspensión, Roy y Neel, abandonaron la universidad ya que su startup, recaudó 5,3 millones de dólares como financiación inicial. Se mudaron a San Francisco. Claro, porque por allí, –pensaron para sus adentros–, nada representa mejor la «visión tecnológica» que ser expulsado por hacer trampa. Decidieron seguir con su nihilista carrera de emprendedores. ¿El nombre de su nueva startup?: Cluely. Su misión: «Queremos hacer trampa en todo. Ayudarte a hacer trampa de forma más inteligente». Su visionario lema: «Creamos Cluely para que nunca más tengas que pensar solo”. Cluely no oculta su propósito de hacer trampa y seguir con los fraudes, presume de ello. Un Manifiesto que publicaron, explica su aplastante lógica:
Conocí la historia de Roy R. Lee gracias a Ronald Purser. Y él lo conoció en una de las sesiones que organizó OpenAI en su universidad, la OSU de San Francisco. Purser reflexiona sobre la sensación que le produjo el encuentro: …«cuando un joven de 21 años, que abandonó la universidad y fue suspendido por hacer trampa, nos da una charla sobre la inevitabilidad tecnológica, la respuesta no debería ser pánico moral, sino claridad moral sobre qué intereses se están defendiendo. Hacer trampa ha dejado de ser una subcultura; se ha convertido en una identidad de marca y una ideología de capital riesgo. ¿Y por qué no? En la Chatversidad, hacer trampa ya no es una desviación, sino la norma».
Cuando se le cuestiona sobre su ética, Lee recurre a la defensa típica de Silicon Valley: «Cualquier tecnología del pasado, ya sean calculadoras o buscadores de Google, se enfrentaba inicialmente a una reacción de ¡Oye, esto es trampa!», –declaró a KTVU–…Pero, –añade Purser–, «es una analogía simplista que suena profunda en una presentación de startup, pero se desmorona al ser analizada. Las calculadoras expandieron el razonamiento; la imprenta difundió el conocimiento. ChatGPT, en cambio, no extiende la cognición, sino que la automatiza, convirtiendo el pensamiento en un servicio. En lugar de democratizar el aprendizaje, privatiza el acto de pensar», (¡ojo!, bajo control corporativo y sin trazabilidad alguna). Y, concluye el profesor Purser de forma no muy optimista: «Lo que está ocurriendo ahora es más que deshonestidad; es el desmoronamiento de cualquier entendimiento compartido sobre el propósito de la educación. Y los estudiantes no son irracionales. Muchos están bajo una enorme presión para mantener una buena nota media, o una alta nota de corte académica para conseguir acceder a la carrera que más desean y/o para obtener becas, ayuda financiera, o visas de permiso de residencia. La educación se ha vuelto transaccional; hacer trampa se ha convertido ya en ciertos casos, en una estrategia de supervivencia».
Evita contraer en tu vida deuda personal cognitiva. El espejismo metacognitivo
Como he dicho antes, todo lo anterior intenta expresar que la irrupción de la IA en los campus universitarios no se limita a eso, –y esto es importante‑, sino que empresas como OpenAI y otras, lo van a utilizar, además, a través de las actividades estudiantiles, como vía de penetración en la vida entera de millones de estudiantes. En el fondo, con el objetivo de convertirlos en usuarios adictos del Chatbot para los restos, antes de que lo haga la competencia. (Eso es una buena excusa para todo). Pero hay más consecuencias como ya expliqué en mi ultimo artículo; también; va a tener costes cognitivos, vitales y morales para la educación y la universidad, el aprendizaje y la vida de los estudiantes. En ese sentido, Sonia Contera, catedrática de física biológica de la Universidad de Oxford señala literalmente: «Una de las cosas más terribles de la IA es que nos invita a dejar de pensar». Y ella no habla por hablar sobre los peligros de erosión de la capacidad mental. Cada vez más pruebas empíricas de que con la IA surgen problemas mentales nuevos.
Una reciente, se explica en un nuevo estudio llamado Your Brain on ChatGPT de la científica Nataliya Kos’myna del grupo Fluides Interfaces del MIT Media Lab. El título completo es «Tu cerebro en ChatGPT: acumulación de deuda cognitiva al utilizar un asistente de IA para tareas de redacción de ensayos», y su documentación ofrece pruebas científicas aleccionadoras. En dicho estudio se describe que, cuando los participantes utilizaron ChatGPT para redactar ensayos, los escáneres cerebrales revelaron una caída del 47 % en la conectividad neuronal en las regiones asociadas con la memoria, el lenguaje y el razonamiento crítico. Sus cerebros trabajaban menos, pero se sentían igual de involucrados, generándose en sus mentes una especie de espejismo metacognitivo del que no son conscientes. El 83 % de los participantes, usuarios habituales de IA no podían recordar los puntos clave de lo que habían «escrito», en comparación con sólo el 10 % de los que redactaban sin ayuda del Chatbot. Los revisores neutrales describieron la redacción asistida por IA como «sin alma, vacía y carente de individualidad». Lo más alarmante se vio después. Tras cuatro meses de dependencia de ChatGPT, los participantes escribían peor, una vez que se les retiró, que aquellos que nunca lo habían utilizado.
La investigación advierte que cuando se delega la escritura a la IA, la forma en que las personas aprenden cambia radicalmente. El profesor Purser recuerda que como advirtió hace décadas el informático Joseph Weizenbaum, «el verdadero peligro radica en que los seres humanos adapten sus mentes a la lógica de las máquinas. Los estudiantes no solo aprenden menos, sino que sus cerebros aprenden a no aprender». Es decir, desaprenden ya que estas aplicaciones, como me explicó el neurocientífico Álvaro Pascual-Leone, son capaces de empeorar los mecanismos cerebrales.
Cal Newport, profesor de computer science de la Universidad de Georgetown, llama a esto «deuda cognitiva» y explica que consiste en hipotecar la capacidad cognitiva futura a cambio de una comodidad nihilista y, a corto plazo, combinada con conformismo e inevitabilidad tecnológicos. En una entrevista, su invitado, Brad Stulberg, compara el mecanismo con usar una carretilla elevadora en el gimnasio: «puedes pasar la misma hora sin levantar nada y seguir sintiéndote productivo, pero tus músculos se atrofiarán». El pensamiento, al igual que la fuerza, se desarrolla a través de la resistencia. Cuanto más delegamos nuestro esfuerzo mental en las máquinas, en el software; perdemos en mayor grado nuestra capacidad de pensar.
El profesor Ronald Purser concluye su reflexión en un tono alarmado y bastante pesimista: «esta erosión mental ya es visible en las aulas. Los estudiantes llegan con fluidez en la expresión, pero titubeantes a la hora de articular sus propias ideas. Los ensayos «redactados» (con la ayuda de ChatGPT y similares), parecen pulidos, pero quedan artificiales, compuestos a partir de una sintaxis sintética y pensamientos prestados, no sabemos de quién. El lenguaje de la reflexión, —me pregunto, me cuesta, ahora lo veo— está desapareciendo. En su lugar aparece la gramática limpia de la automatización: fluida, eficiente y vacía…», Y añade «La verdadera tragedia no es que los estudiantes utilicen ChatGPT para hacer sus trabajos de clase. Es que las universidades están enseñando a todo el mundo —estudiantes, profesores, gestores— a dejar de pensar. A toda velocidad, estamos externalizando el discernimiento. Los estudiantes se gradúan con fluidez en la formulación de preguntas, pero son analfabetos en materia de juicio; los profesores enseñan, pero no se les permite la libertad de educar; y las universidades, ansiosas por parecer innovadoras, desmantelan las prácticas que las hicieron dignas de ese nombre. Nos acercamos a la bancarrota educativa: títulos sin aprendizaje, enseñanza sin comprensión, instituciones educativas sin propósito».
A medida que la corporativización salvaje se extiende en los campus, –añade–, aumenta el tamaño de las clases y la carga de trabajo del profesorado. La tentación es obvia: dejar que ChatGPT escriba conferencias y artículos de revistas, corrija ensayos y rediseñe los programas de estudio. Después, pone un poco de humor… y relata «toda esta simulación recuerda un viejo chiste soviético de la fábrica: Ellos fingen pagarnos, y nosotros fingimos trabajar. En la Chatversidad, los roles son igual de guionizados y cínicos. Profesores: ellos fingen apoyarnos, y nosotros fingimos enseñar. Estudiantes: ellos fingen educarnos, y nosotros fingimos aprender».
Purser, alertado por lo que pasa en su universidad, advierte a las otras universidades públicas de cualquier lugar del mundo: «el alma de la educación pública está en juego. Cuando el mayor sistema universitario público concede una licencia masiva a un Chatbot de IA de una empresa que incluye a periodistas en listas negras, explota a los trabajadores de datos del Sur Global, acumula poder geopolítico y energético a una escala sin precedentes y se posiciona como administrador no elegido del destino humano, traiciona su misión como «universidad del pueblo», –así llaman aún a su universidad–, arraigada en los ideales democráticos y la justicia social. OpenAI no es un socio, es un imperio, envuelto en simulación ética y acompañado de unos amables términos de servicio. Mi universidad no se resistió. Simplemente, hizo clic en «Aceptar». Y recuerda su formación en la universidad pública estatal de Sonoma: «De joven, no fui simplemente a la universidad «para» conseguir un trabajo. Fui para explorar, para enfrentarme a retos, para descubrir lo que era importante. Tardé seis años en graduarme en Psicología, seis de los años más significativos y exploratorios de mi vida».
Su conclusión es que «ese tipo de educación desde lo público —abierta, asequible y orientada a la búsqueda de significado—, floreció en su día en las universidades públicas. Pero ahora está casi extinta. No se adapta. No encaja en el plan estratégico. Y no tiene sentido, razón por la cual la Chatversity quiere eliminarla. Pero también muestra otra verdad importante: las cosas pueden ser diferentes. Antes lo eran».
La mía, es que, para las universidades e instituciones públicas españolas, rendirse sumisamente a la propaganda oscura y engañosa de la IA de las big tech y sus financiadores no debería ser una opción. Coincido con el diagnóstico del profesor Purser y por eso contribuyo a darlo a conocer. Concibo el papel de la universidad pública, –por muy mejorable e mperfecto que sea su funcionamiento actual, que lo es–, como uno de los pilares de la sociedad democrática, y cuando funciona bien, sin la odiosa endogamia, y sin el no menos nefasto nepotismo, es el mejor y más justo ascensor social que conozco. No me gustaría que la que siento como mía, se acabase convirtiendo en una Chatversity. Es muy duro oír al profesor Purser decir que «la asociación de OpenAI con la Universidad Estatal de California (CSU), el sistema universitario público más grande de Estados Unidos, pone de manifiesto hasta qué punto las universidades públicas se han alejado de su misión democrática. Y oír cómo usan la vieja invocación de la ansiedad de Sócrates por escribir, para sugerir que los temores actuales a la IA son meras nostalgias, cuando critican a Purser sobre sus propuestas cpn la precaución y le acusan de problemismo».
Por mi posición crítica, a mí, como a él también, a veces, me etiquetan de escéptico o “gloomer de la IA” («pesimista de la IA»). También me han argumentado, algo parecido a que «regular, ralentizar o pausar la IA sólo anularía sus beneficios» O, «si no la usas así, te quedarás, se quedarán atrás» expresión que ya es un lugar común. Pero, afortunadamente, no soy de la forma de pensar de Musk, ni de la de Altman, o Verdon, ni los entusiastas y papanatas del aceleracionismo efectivo. Y, además, creo que hay que defender la universidad pública en relación al mal uso de la IA y sus amenazas y peligros, que los tiene con los malos usos. Para mí, la universidad pública fue un lugar donde también aprendí a tener pensamiento crítico, gracias a algunos maestros, científicos y sabios que nunca olvido, ni olvidaré. No me importa que me califiquen de gloomer, pero no pienso tragarme sin más la propaganda engañosa de ciertas auto calificadas empresas de IA, que ocultan las consecuencias negativas de sus malos usos, que también las hay. Y por eso he escrito este ensayo.
Con respecto a la Universidad, el profesor Purser, como he citado antes, ha dicho que «las cosas pueden ser diferentes. Antes lo eran». Pues bien, esa afirmación de su diagnóstico también es válida con respecto al Internet de las redes sociales y la IA actuales. Recuerdo que el gran Hans Magnus Enzensberger, reflexionó sobre aquél internet pionero tan distinto al actual, en su ensayo El evangelio digital, en el que afirmaba: «mientras el idealismo electrónico de los pioneros de la web estaba proyectando un medio para el discurso de la no dominación (y un acceso universal al conocimiento) sin costes, la indiferencia cuasidivina del capital (especulativo y salvaje) vio pronto las oportunidades de explotación extractiva que la red le ofrecía por ambos lados. Por una parte, se trataba del control económico del tráfico de datos, por la otra de la comercialización de los contenidos. Desde entonces ha crecido incesantemente el ensuciamiento de la red por la publicidad». Y ese ensuciamiento ahora va a aumentar con la IA, en varios órdenes de magnitud.
Para nombrar la versión actual del ensuciamiento que mencionó Enzensberger, Cory Doctorow ha acuñando un término que ha hecho fortuna; le ha llamado «enshitification» (enmerdamiento, en español), con el que nombra al proceso de degradación progresiva de casi todos los productos y servicios digitales, especialmente los de las plataformas online, que se vuelven crecientemente peores, y cada vez para más usuarios, a medida que las empresas de las plataformas de las big tech prorizan la monetización sobre la calidad, sacrificando la experiencia de usuario original para complacer a sus grandes inversores, o a los de sus clientes comerciales. La IA está acelerando la enshitification de lo digital alineada con los modelos de negocio extractivos que guían la avaricia de las plataformas y, con ella, la de sus App de IA por los datos y la atención de la gente. Pero el Internet de la IA no tiene ni tendría que ser así. También esto podría ser diferente. Antes lo era.
Yo viví el inicio de la Web de Tim Berners-Lee; el arranque de la Wikipedia por Jimmy Wales, el lanzamiento del GNU Project y de las cuatro libertades del software libre por Richard Stallman; (Cap.22, pág. 283), la lectura de la Declaración de Independencia del Ciberespacio en Davos por John Perry Barlow. O la fundación del Internet Archive por Brewster Khale. Vista la diferencia, aquel internet era casi diametralmente opuesto al manipulador y enshitificado Internet actual. Lo que demuestra que otro Internet es posible, porque aún existe. De hecho, ese es el internet virtuoso del que se han apropiado unilateralmente para el entrenamiento de sus IA empresas como OpenAI, Anthropic, xAI o Google, o DeepSeek y otras. Sin los contenidos de ese internet virtuoso no existirían los transformers de los que descienden los actuales LLM, –esas proezas estadísticas, como las llama Chomsky–; ni su descendencia digital bastarda en forma de Chatbots conversacionales. Han surgido así, y son así, pero podrían haberlo hecho, desde luego, de otra manera. Este no es, ni debería ser, un proceso determinista.
Y es por eso, aunque me llamen recalcitrantemente utópico, por lo que estoy convencido que nuestra convivencia con la IA también podrá ser diferente y con usos distintos a los degradantes que nos quieren imponer las huestes mercenarias de los nuevos líderes tecno-feudales y partidarios del aceleracionismo efectivo. Hay muchas formas tecnológicas en lo que genéricamente mal llamamos IA. Nuestras universidades, instituciones y empresas deberían decidir cómo quieren usar las IAs, para qué y en qué ámbitos y en base a qué valores; en lugar de limitarse, como denuncia el profesor Purser, simplemente a «Aceptar» usos, que únicamente están impulsados por el plan de negocio depredador, extractor y canibalizador, de muchas de las plataformas de las big tech.
Llámenme idealista, pero creo que Europa debería hacer con la IA algo como lo que hizo con la física de partículas con el CERN donde se inventó la Web de forma inesperada. Pero eso ocurrió, probablemente, porque allí existía un espacio de colaboración para la creatividad científica, el progreso y la paz. Insisto. La UE debe conquistar su propia soberanía tecnológica en IA y promover los usos científicos y de investigación que le son propios, según la filosofía y el proverbial paradigma europeo de colaboración y buen uso de la ciencia y la tecnología, orientadas al bien común de la sociedad, fuera de extremismos y contiendas del aceleracionismo efectivo. No importa que Europa no sea líder en la IA de la manipulación, del entretenimiento y el engaño. La UE, no solo ha de regular estas tecnologías y ponerles límites en pro del bien público. También debe desarrollar por sí misma, aplicaciones bondadosas de la IA cientifica y promover su uso en consecuencia, sobre todo para sí misma, su ciencia y sus sociedades democráticas de ciudadanos. Creo que el propósito de las IAs europeas debería ser similar a los que caracterizan al CERN, que esa Europa puso en marcha. Es una prueba viva de que sabe hacerlo.
Volviendo a lo global, no quiero dejar de mencionar otros riesgos, no menores, que, dada su evolución, puede traer como un tsunami financiero la llamada nueva industria especulativa de la IA, ahora que los tecno-oligarcas arracimados como un grupo de plutócratas, y creyentes del citado aceleracionismo efectivo, además, están también intentando fagocitar, mediante líderes interpuestos, y alcanzar el máximo poder político, por el método de impulsar a las fuerzas reaccionarias de todo pelaje a lo largo del planeta. Porque ese camino tiene peligrosos riesgos sistémicos. Raymond Torres, director de coyuntura de Funcas explica en un preciso análisis muy reciente que el exceso de expectativas de esta industria de la IA están excediendo la realidad hasta el punto de generar una burbuja de grandes proporciones, al punto que el FMI ya ha avisado de que está ya comenzando a amenazar la estabilidad financiera mundial. ¿Recuerdan lo que dije sobre que OpenAI está siendo, es, ya demasiado grande para quebrar? Pues, señala Torres que, precisamente, «el estallido esta gigantesca burbuja inflada artificialmente de la IA podría ser uno de los cisnes negros a los que se pueden enfrente en breve la economía mundial en 2026 con múltiples derivadas (muy preocupantes) para España». Si esta suma de tecno-oligarcas y plutócratas consigue ponerse al mando de occidente ¿qué podría salir mal? Pues todo, o casi todo.

Ágora del campus de la Universidad Politécnica de Valencia (UPV) la primera politécnica pública de España según el ranking de ranking de Shanghái ((ARWU), donde esta ubicado el VRAIN. Foto: Adolfo Plasencia
Abandonando el vértigo de las escarpadas e inseguras cumbres financieras, y volviendo a poner pie a tierra, y negando asertivamente la bondad de ciertos usos de la IA que promueven algunas big tech y sus tecno-oligarcas; y que esos usos sean algo irremediable o imposible de evitar, explicaré ahora porque estoy convencido de que también hay buenas y positivas noticias sobre lo que yo llamo las ciencias de la IA seguras y útiles a la sociedad. No todo va a ser cisne negro. Hay ejemplos alternativos cercanos.
En la web del Instituto Valenciano de Investigación en Inteligencia Artificial VRAIN, que dirige Vicent Botti en mi universidad, la UPV, se puede leer cómo se promueve una inteligencia artificial siempre guiada por la ética y analizando sus consecuencias para las personas. Una que sea una búsqueda consciente, libre de sesgos, centrada en el bienestar humano; y que impuse un progreso tecnológico de la mano de los valores. Allí se investiga, entre otros campos, en avanzar en la detección precoz del cáncer con IA explicable; en el procesado del lenguaje natural; en agentes Inteligentes; en aprendizaje profundo y en mil aspectos más de las tecnologías de la IA benéfica y, algo esencial que comparten con otros centros de investigación de IA, su preocupación por sus implicaciones sociales.
Que el relato interesado sobre ella ante la opinión pública y en los medios lo esten ganando ahora las big tech de Silicon Valley, incluso en la Europa objeto de su desprecio, no es de recibo. Hay que luchar por cambiar esa percepción que domina el relato grande sobre la IA. Debemos acceder a las oportunidades de la IA, pero buscándolas tal como las necesitemos, por voluntad propia, dentro de nuestros valores, como dice el VRAIN; y no, como nos impongan fabricantes con la falta de escrúpulos y ética; y sin brújula moral, que muestran Sam Altman, Peter Thiel, Elon Musk o Alex Karp, sin ir más lejos. Y hemos de convencernos que lo que ellos pretenden, me reitero, no es algo inevitable. Hemos de esforzarnos en lo mucho que hay que aprender.
En mi caso intento combatir ese relato dominante, por ejemplo, poniendo mi granito de arena publicando críticamente en la Guía Básica de la IA (ver a partir de la pág. 349). Además, yo propondría usos y criterios como los que impulsan sabios de la IA que creo honestos como, por ejemplo, como Demis Hassabis a quien observo desde hace tiempo y que ha conseguido magníficos logros en biología y medicina con la IA. O, como los que señala el enfoque europeo en IA de la UE (necesitamos desplegar una industria europea propia de la IA. También como indican los Principios generales para el uso de la IA en el CERN; o, como propone que hay que usarla otro sabio de la IA, pero de aquí, como José Hernández-Orallo que me dijo que la IA puede ser una de las pocas grandes oportunidades que tiene España; o, usarla para educación tal como apunta la UNESCO. O, como lo propone en España comunidad de IA de código abierto.
Sí, como dice el profesor Purser, simplemente, cualquier institución, ministerio o entidad gubernamental de aquí, incluso tu universidad pública, hiciera, como dice Purser, clic en «Aceptar» y sucumbe a la propaganda, sin pensar más allá, ni debatir, incluso sobre el papel de la formación en IA, con investigadores, profesores y alumnos, y no haces nada. Lo mismo como consumidor, profesional, o empresario (esta es una revolución horizontal, que afecta todo los ámbitos), luego lo lamentarás. Participa. No sucumbas a la propaganda interesada que promueve usos perversos de la IA y persigue la adicción de los vulnerables; ni caigas en el cómodo nihilismo.
De igual modo, me dirijo a ti, lector, aprende, infórmate, decide prudentemente con sentido común, por ti mismo y/o por ti misma, sobre el uso de la IA Generativa en tu vida personal, en tu casa y con los tuyos. Protege a los vulnerables, están en peligro. No vamos hacia una Arcadia, ahora. Piensa en posibles consecuencias. Para esto, la comodidad nihilista y el conformismo tecnológico y su resignación, no deberían ser tampoco una opción. Hay demasiado en juego en esta revolución.
Comparte esta publicación
Suscríbete a nuestro boletín
Recibe toda la actualidad en cultura y ocio, de la ciudad de Valencia







