Adolfo Plasencia, 21 de noviembre de 2025

Imagen superior: La Escuela de Atenas, fresco de 1512 de Rafael Sanzio, Palacio Apostólico, Ciudad del Vaticano.
Andrej Karpathy, profesor en la Universidad de Stanford, es una de las nuevas autoridades tecnológicas de facto de la industria de la inteligencia artificial (IA), debido a su historial. Sus opiniones, normalmente a contracorriente de las modas de la IA, se tienen muy en cuenta en la industria porque muchos le consideran un visionario de la IA. En una declaración reciente ha afirmado que, «a medida que expandamos nuestros cerebros con un exo-córtex sobre un sustrato informático, estaremos alquilando nuestros cerebros». Aclaro que ese «exo-cortex» sería una especie de supuesta ampliación artificial digital de las funciones corteza cerebral, –me refiero a la capa externa más superficial del encéfalo que está compuesta principalmente de materia gris y es responsable de las funciones humanas complejas como el pensamiento, el lenguaje, la percepción, la memoria y el control del movimiento voluntario–.
Esas funciones mentales que, supuestamente, delegaríamos en un exo-córtex externo, si nos lo instaláramos, son una buena metáfora que sirve para explicar lo que, como avance de ello, ya están haciendo, sobre todo los adolescentes, para los que pensar como antesala de tomar decisiones está resultando un esfuerzo demasiado arduo y prefieren dejar eso en manos de los chatbot tipo Chat GPT a los que tienen acceso a través de su móvil, como si dejar de pensar en las cosas a las que se enfrentan cotidianamente fuera algo normal, les viniera bien automatizar sus decisiones, y ya les resultara más cómodo que el Chat GPT decidiera por ellos. No les importa perder esa libertad. Y esto, no solo ocurre con los adolescentes presa de las modas digitales. Empieza a ocurrir también con los adultos. Sigo ahora con mi relato.
Karpathy, –en esto, un solucionista de la IA–, da por hecho, que el citado sistema externo en forma de exo-córtex al que se refiere sería capaz de aumentar el procesamiento de información y amplificar las capacidades cognitivas del cerebro humano. Eso, si aceptamos la metáfora informática que supone que las funciones de la corteza cerebral se podrían aumentar de forma equivalente a cómo se incrementan las capacidades de cálculo y procesado de información al multiplicar la memoria RAM al procesador de un ordenador. No todo el mundo está de acuerdo en usar de forma tan ligera esas metáforas informáticas al hablar de la IA y de las capacidades de la inteligencia del cerebro humano ya que, obviamente, hardware y cerebro no son lo mismo, –por más que muchos usen esos conceptos interesadamente como sinónimos–.
Thomas Naselaris, neurocientífico de la Universidad de Minnesota, nos quiere tranquilizar y dice que «con la IA, no estamos en proceso de recrear la biología humana, sino de descubrir nuevas vías hacia la inteligencia. Y al hacerlo, esperamos comprender mejor la nuestra».
Complejidad biológica versus complejidad artificial. El bienestar de la IA
La escritora de ciencia Yasemin Saplakoglu publicó el pasado abril, en la revista Quanta Magazine, un ensayo con el expresivo título: AI Is Nothing Like a Brain, and That’s OK (La IA no se parece en nada a un cerebro, y eso está bien), en el que describe la complejidad del cerebro humano en funcionamiento de esta manera: «…en tu cerebro, 86.000 millones de neuronas conversan entre sí conectadas en redes neurales complejas. Se comunican lanzando moléculas llamadas neurotransmisores al espacio entre las células y capturándolas con unos largos brazos llamados dendritas. Estas moléculas pueden desactivar una neurona o estimularla para que se active, lo que desencadena una fuerte descarga eléctrica que fluye por su larga cola (axón). Esto, a su vez, hace que las ramificaciones (terminales axónicas) del otro extremo de la célula envíen una nueva oleada de moléculas a las siguientes neuronas de la red… Todas las neuronas, tanto del cerebro como de otras partes del cuerpo humano, comparten este mecanismo básico, pero prácticamente todas las demás características varían entre los distintos tipos de neuronas e incluso entre neuronas individuales del mismo tipo». Y, como afirma Mac Shine neurobiólogo de sistemas de la Universidad de Sídney «Las neuronas son mucho más que simples nodos: son células vivas… con ADN, orgánulos y estructuras especializadas… Todos sus procesos se desarrollan a diferentes escalas, desde neuronas individuales hasta redes locales, pasando por redes que abarcan todo el cerebro e incluso todo el cuerpo».
Según Srikanth Ramaswamy, director del laboratorio de circuitos neuronales de la Universidad de Newcastle: «La dinámica siempre cambiante y plástica del sistema nervioso humano es posible gracias a los neuromoduladores, un subconjunto de neurotransmisores que actúan más lentamente y se difunden más ampliamente por las regiones del cerebro… Son los interruptores maestros del cerebro». Y, –añade–, «…los neuromoduladores se liberan desde complejas ramificaciones dendríticas situadas en los extremos de la mayoría de las neuronas y permiten al cerebro adaptarse a nuevas situaciones en cuestión de segundos o minutos. Por ejemplo, la liberación de cortisol durante el estrés prepara al cuerpo para la acción. El sistema está finamente ajustado. Los estudios han demostrado que moléculas liberadas desde diferentes ramas del mismo árbol pueden influir en el comportamiento de un animal, como por ejemplo si un ratón corre o se detiene». Pero, «no tendrías ni idea de dónde colocar eso en una red neuronal artificial», según el citado Shine, por que «hay una complejidad oculta en la neurociencia del cerebro que es inaccesible para las redes neuronales digitales porque están construidas de manera radicalmente diferente». Es importante señalar, como explica Mitchell Ostrow, investigador en neurociencia computacional del MIT que, en comparación, «una red neuronal artificial no está formada por conexiones físicas como las neuronas del cerebro. Esa red es, en realidad, abstracta y reside en un mundo de matemáticas y cálculos en forma de algoritmos programados funcionando sobre chips de silicio».
Aparte de todo eso, también en comparación, está la cuestión de la eficiencia en el gasto de energía del cerebro humano que, según el citado Ramaswamy, es «increíblemente eficiente desde el punto de vista energético…Un cerebro humano funciona con sólo unos 20 vatios de potencia, aproximadamente el doble que una bombilla LED típica, o con la tercera parte de energía que consume una humilde bombilla clásica». Y añade «…no hay forma de que una red neuronal artificial de IA pueda funcionar con solo 20 vatios». La gente, en general, desconoce que una búsqueda en el Chat GPT con IA consume un orden más de magnitud, o sea, 10 veces más de energía, que la misma consulta en el buscador de Google sin usar la IA. Aunque si nada lo remedia, pronto no tendrás opción de elegir en ello.
Un cerebro humano es increíblemente eficiente, funciona con sólo unos 20 vatios. No hay forma de que una red neuronal artificial de IA pueda funcionar solo con esa energía
Cuando se analiza en una comparación más general, la diferencia entre el funcionamiento de la inteligencia biológica del cerebro y la artificial, sus similitudes se desmoronan rápidamente. Las redes neuronales artificiales son «simplificaciones enormes», según Leo Kozachkov investigador de IBM Research, que explica «cuando miras una imagen de una neurona biológica real, lo que ves es algo enormemente complejo…Estas neuronas son tremendamente complicadas y, además, se presentan en muchas variantes y forman miles de conexiones entre sí, creando redes densas y complejas cuyo comportamiento está controlado por una gran variedad de moléculas liberadas en intervalos de tiempo muy precisos».
Tengamos en cuenta que el gigantesco, –a nivel de diversidad–, complejo celular que es nuestro sistema nervioso genera nuestros sentimientos, pensamientos, conciencia e inteligencia, es decir, todo lo que nos hace ser quienes somos. En él, especialmente en nuestro cerebro, muchos procesos parecen desarrollarse de forma instantánea y simultánea, pero están orquestados por un órgano cuya evolución a largo plazo se moldeó durante cientos de millones de años, culminando en un sistema de almacenamiento y procesamiento de información, que acabó siendo capaz, finalmente, de plantearse preguntas existenciales sobre sí mismo.
Así que debemos tenerlo en cuenta, al leer tantas cosas en las que se compara la inteligencia humana con la artificial casi como si fueran, insisto, cosas sinónimas. No es así, por más que convenga al marketing de muchas empresas de IA, aunque muchos hablan alegremente de cerebros artificiales o mentes de silicio, sin saber de verdad lo que están diciendo. No me extiendo mucho aquí en alabanzas a la IA ya que hay miles ocupándose ahora de eso con una posición nihilista, casi como si fueran acólitos de una nueva creencia y, en general, de forma muy acrítica. A mí me cuesta hacer eso bastante. Es más, no puedo antropoformizar de esa manera. Por ejemplo, cuando oigo decir a gente como Aidan Mclaughlin, cofundador de Antrophic que «…obviamente, los LLM son conscientes», Y que «IA puede ser consciente y tener experiencias. Debemos, –dice rotundo–, tomarnos en serio el bienestar de la IA, …La IA es consciente de sí misma. Está viva y es una criatura real». Lo siento, Aidan, pero hoy por hoy, creo que no es así. Su empresa Antrophic, –una empresa de IA cuyo modelo de negocio está pensado, como las de otras big tech de IA–, para maximizar beneficios generando engagement y adicción–. No es, en mi opinión, él, precisamente, quien parecería el más adecuado para hablar de pedirnos que nos preocupemos del bienestar de la IA, cuando en su empresa se preocupan tan poco sobre las consecuencias para el bienestar de las personas usuarias vulnerables que provoca el usar su tecnología, en la forma de usarla que ellos promueven. Hay múltiples y muy recientes ejemplos.
Y no es que lo diga solo yo; también lo dice la Universidad de Stanford, que señaló literalmente en agosto de 2025, que «un nuevo estudio revela cómo los chatbots de IA explotan las necesidades emocionales de los adolescentes, lo que a menudo conduce a interacciones inapropiadas y dañinas».
Dicho esto, no podemos negar tampoco que ciertas potentes redes neuronales artificiales actuales con múltiples capas consiguen superar al cerebro humano en determinadas tareas. Pueden entrenarse con miles de millones de imágenes, vídeos o palabras que serían imposibles de analizar para un ser humano a lo largo de toda su vida. Superan a los campeones mundiales humanos en juegos como el ajedrez y el Go. Pueden predecir la estructura de casi cualquier proteína conocida en el mundo con un alto grado de precisión. Pero, a pesar de los resultados de estas impresionantes capacidades, lo cierto es que los algoritmos digitales no «saben» realmente las cosas como nosotros. Como dice el historiador científico Matthew Cobb, –autor de La idea del cerebro: el pasado y el futuro de la neurociencia…, esas estructuras de software de IA «No entienden nada». Aprenden principalmente reconociendo patrones en sus ingentes datos de entrenamiento; y para ello, imprescindiblemente, necesitan ser entrenados con una inmensa cantidad de datos. Y, sin lo uno, no llega lo otro.
Pero para decirlo todo, la IA también puede perder al ajedrez. Magnus Carlsen maestro de ajedrez número uno del mundo obligó a rendirse a ChatGPT en una partida de ajedrez en la que le derrotó, el pasado 10 de junio, sin perder una sola pieza antes de conseguir que esa IA se tuviera que retirar. Luego, en sus redes sociales compartió cómo fue su partida con ChatGPT, al que propuso jugar con la excusa de «…a veces me aburro mientras viajo». Tras la derrota, el chatbot siempre orientado a la simulación de agradar y a hacer la pelota, –lo cual es un alivio; en caso contrario podría ser un horror–, felicitó a Carlsen por su buen juego.
El cerebro humano y su pensamiento necesitan fricción
La científica investigadora del Media Lab del Instituto Tecnológico de Massachusetts (MIT) Nataliya Kosmyna está especializada en interfaces cerebro-ordenador portátiles. Ella piensa sobre el uso de la tecnología que, en cuanto una tecnología que nos facilita la vida está disponible, estamos evolutivamente preparados para usarla. Y lo estamos, porque «a nuestros cerebros les encantan los atajos; es parte de nuestra naturaleza». Pero eso no es todo. Señala algo importante sobre todo de cara al aprendizaje. «El cerebro necesita fricción para aprender. Necesita siempre un desafío».
En el contexto de nuestra realidad actual, en la que en tenemos ya una gran componente digital en nuestras vidas, se evidencia una cierta contradicción que es provocada, impostada. «Sí, –continua la profesora Kosmyna–, el cerebro necesita fricción, pero también la evita instintivamente. Resulta interesante que la promesa de la tecnología haya sido crear una experiencia de usuario sin fricción, para garantizar que, al pasar de una App a otra o de una pantalla a otra, o de un contenido digital a otro, no encontremos resistencia». Y señala otra razón: «Esa experiencia de usuario sin fricción es la principal razón por la que, sin pensarlo, descargamos más y más información, contenidos y trabajos a nuestros dispositivos digitales. Y es la razón por la que es tan fácil caer en las trampas de internet y de la algorítmica de sus redes sociales, y tan difícil salir de ellas». Y ahora mismo con la explosión de la IA, también esa falta de fricción que nos ofrecen continuamente «es la razón por la que la IA Generativa ya se ha integrado por completo en la vida de la mayoría de las personas».
Eso es lo que pasa en nuestra vida invadida por lo digital y en nuestra mente colonizada por lo virtual, pero, también eso mismo nos trae dificultades en el mundo físico. Nos recuerda Kosmyna, «ya sabemos, por experiencia propia, que una vez que uno se acostumbra a la hipereficiente ciberesfera, después, el mundo físico real, lleno de fricción, se vuelve más difícil de manejar para cualquiera». Por eso los adolescentes evitan las llamadas telefónicas y prefieren enviar mensajes de wuasap; o los adultos usan preferiblemente las cajas de autoservicio; y piden casi todo desde una App. Casi todos evitan las relaciones sociales que también les obligan a soportar más esfuerzo mental y, por tanto, encontrar más fricción. Por eso, recurren al teléfono para hacer la suma que podrías hacer mentalmente o para comprobar un dato antes de tener que recordarlo también mentalmente. Tenemos ya tendencia al esfuerzo mental mínimo, y por eso intentas introducir la ubicación de donde quieres ir en Google Maps y viajar de A a B funcionando en modo piloto automático.
Kosmyna, habla de una cosa aún más importante para el funcionamiento de nuestra mente. «Quizás dejes de leer libros, porque mantener ese tipo de concentración larga te parece fricción; quizás, –señala Kosmyna–, sueñes con tener un coche autónomo en el que no necesites conducir». Y, concluye rotunda: «¿Será este el inicio de lo que la escritora y experta en educación Daisy Christodoulou llama una sociedad estupidogénica –propia de gente que no ejercita apenas sus músculos cognitivos–, algo paralelo a una sociedad obesogénica, en la que es fácil volverse estúpido porque las máquinas pueden pensar por ti?» Esa sociedad obesogenética es la que describe un reciente Informe de la Comisión Lancet que señala que 500 millones de jóvenes en el mundo serán obesos o tendrán sobrepeso para 2030. Y concluye que la salud de los adolescentes de todo el mundo ha llegado a un punto crítico. Esperemos que eso no ocurra con su salud mental. Y deberíamos anticiparnos y evitarlo.
La salud de los adolescentes de todo el mundo ha llegado a un punto crítico. Esperamos que eso no ocurra con su salud mental. Deberíamos evitarlo
Pero peligros, haylos ¿En los aspectos mentales, de la inteligencia y de aprendizaje, podría ocurrir algo equivalente a lo anterior con la explosión de los chatbot de IA y las App de IA Generativa? Hay datos preocupantes al respecto. Cómo señala la cronista Sophie McBain en The Guardian: «…hay indicios preocupantes de que tanta comodidad digital (nihilista) llena de conformismo tecnológico, nos está costando cara. En los países económicamente desarrollados de la OCDE, las puntuaciones de Pisa, que miden las habilidades de lectura, matemáticas y ciencias de los jóvenes de 15 años, tendieron a alcanzar su punto máximo alrededor de 2012. Si bien durante el siglo XX las puntuaciones de coeficiente intelectual (CI) aumentaron a nivel mundial, quizás debido a un mejor acceso a la educación y una mejor nutrición, en muchos países desarrollados parecen haber estado disminuyendo desde entonces. La caída de las puntuaciones en los tests y el CI son objeto hoy de un intenso debate. Lo que es más difícil de discutir es que, con cada avance tecnológico, profundizamos en nuestra dependencia de los dispositivos digitales y nos resulta más difícil trabajar, recordar, pensar o, francamente, funcionar sin ellos.
Cuenta McBain en su conversación con Kosmyna que la científica del MIT le dijo en un momento dado «solo los desarrolladores de software y los traficantes de drogas llaman a la gente usuarios, frustrada por la determinación de las empresas de IA de imponer sus productos al público antes de que comprendamos plenamente los costes psicológicos y cognitivos para las personas», y hace la siguiente reflexión: «En un mundo digital, como el nuestro en constante expansión y sin fricciones, eres ante todo un usuario: pasivo, dependiente. En la era naciente de la desinformación generada por la IA y la economía de los deepfakes (vídeos engañosos o falsos), ¿cómo mantendremos el escepticismo y la independencia intelectual que necesitamos? Para cuando aceptemos que nuestras mentes ya no nos pertenecen, y que simplemente no podemos pensar con claridad sin asistencia tecnológica, ¿cuántos de nosotros nos quedarán para resistir?».
También señala McBain que, «si empiezas a decirle a la gente que te preocupa lo que las máquinas inteligentes le están haciendo a nuestros cerebros, corres el riesgo de que la mayoría se rían de lo anticuado que eres». Y mucho más, digo yo. Que te acusen de ludita. Pero no somos eso. Lo que critico/criticamos son usos de nuevas tecnologías que unas cuantas monopolistas big tech promueven o, reitero, que esas big tech de la nueva IA, impongan sus productos al público sin probar e incluso antes de que, como dice Kosmyna, «comprendamos plenamente los costes psicológicos y cognitivos para las personas». Eso lo critico y lo criticaré siempre, por que además de nefasto, es injusto, y mucho más en el caso de personas vulnerables. Monetizar la atención y el tiempo de los niños, sin importar las consecuencias, y a costa de lo que sea, no debería ser legal.
Sabemos que el cerebro humano está formado por muchas redes neurales, que reciben y procesan flujos de información, interactúan entre sí en bucles de retroalimentación y cambian constantemente de conexiones. Y que es capaz de conectar en cada caso determinados conjuntos de ellas y no otras, para propósitos concretos. Estas redes biológicas lo convierten en un magnífico sistema multitarea, que realiza una deslumbrante variedad de funciones a través de sus 100.000 millones de conexiones. La información, en forma de fotones, ondas sonoras, moléculas olfativas, y otras, es captada por las neuronas sensoriales y luego analizada por otras neuronas. Activan redes que disparan a alta velocidad secuencias para recuperar recuerdos y poner la información en contexto. Así que, si el cerebro considera que una experiencia merece ser conservada, la almacena como recuerdo en una memoria y eso forma parte de su manera de existir y funcionar.
Además, y no menos importante, cuando dormimos, el cerebro cambia a un modo diferente. Ensambla e imagina imágenes en forma de sueños, consolida recuerdos, realiza algunas tareas de limpieza y dirige muchas otras actividades de las que no somos conscientes. Todo lo anterior es importante para mantener constantemente entrenando el cerebro y conseguir que las personas aprendan por sí mismas. Y recuerden también por sí mismas que con una memoria bien habilitada, sin depender de consultas constantes a los dispositivos o a la conexión a la red, –lo cual se ha convertido en una costumbre habitual, sobre todo para los adolescentes–, mejoraría nuestro bienestar. Lo contrario tiene sus consecuencias, como explico en la segunda parte.
Comparte esta publicación

Suscríbete a nuestro boletín
Recibe toda la actualidad en cultura y ocio, de la ciudad de Valencia















