Esque­ma del posi­ble efec­to de conec­tar el cere­bro un exo-cor­tex arti­fi­cial que pro­po­ne Andrej Kar­pathy para “alqui­lar” un cere­bro exten­di­do, que podría con­tri­buir a des­en­tre­nar el cere­bro natu­ral redu­cien­do su uso y capa­ci­da­des.

Adol­fo Pla­sen­cia, 21 de noviem­bre de 2025

Ima­gen supe­rior: Esque­ma del posi­ble efec­to de conec­tar el cere­bro un exo-cor­­tex arti­fi­cial que pro­po­ne Andrej Kar­pathy para “alqui­lar” un cere­bro exten­di­do, que podría con­tri­buir a des­en­tre­nar el cere­bro natu­ral redu­cien­do su uso y capa­ci­da­des.

El neu­ro­cien­tí­fi­co Álva­ro Pas­­cual-Leo­­ne, en una con­ver­sa­ción que tuvi­mos en que expli­ca­ba cómo es el apren­der men­tal­men­te para las per­so­nas, me enfa­ti­za­ba «la enor­me plas­ti­ci­dad del cere­bro, que hace deci­si­vo que haya un entorno humano esti­mu­lan­te rodean­do a los niños para su buen apren­di­za­je». E insis­tía en que, aun­que parez­ca con­tra­dic­to­rio, algo impor­tan­te en la edu­ca­ción «no es ya que te ense­ñen datos con­cre­tos, por­que esos, gra­cias a Dios se nos olvi­dan, sino que te ense­ñen a tener curio­si­dad para apren­der y a saber cómo apren­der». …Pas­­cual-Leo­­ne, aña­día sobre los deta­lles de cómo fun­cio­nan los meca­nis­mos pro­fun­dos de la inte­li­gen­cia huma­na: «Hay que apren­der, pero tam­bién des­apren­der en la vida, sin duda… Yo creo que una de las gran­des ense­ñan­zas del fan­tás­ti­co tra­ba­jo de Eric Kan­dell, –por el cual le die­ron el Nobel de Medi­ci­na–, es no ya enten­der los meca­nis­mos de la memo­ria en el sen­ti­do de cómo se crean memo­rias nue­vas sino tam­bién cómo se olvi­dan memo­rias y qué meca­nis­mos hay para olvi­dar… Des­de Luria y muchos otros, sabe­mos que aque­llos que tie­nen la des­gra­cia de no olvi­dar de for­ma nor­mal, sufren enor­me­men­te por una memo­ria exce­si­va, Así que tam­bién es impor­tan­te poder olvi­dar y des­apren­der, sin duda…».

Aho­ra mis­mo, esta­mos inmer­sos en un enor­me deba­te sobre cómo ha de ser nues­tra rela­ción con los mons­truos ciber­né­ti­cos de la inte­li­gen­cia arti­fi­cial, radi­ca­dos en gigan­tes­cos data cen­ters, en for­ma de Gran­des Mode­los Lin­güís­ti­cos de la IA de los que el ya céle­bre Chat GPT solo fue una avan­za­di­lla. Para entre­nar al Chat GPT se le intro­du­je­ron más de 370.000 millo­nes de pala­bras. Y esto es impor­tan­te: se hizo, –eso nun­ca lo cuen­ta la empre­sa Open AI–, median­te un latro­ci­nio pre­vio, usan­do millo­nes de tex­tos y de obras de auto­res huma­nos a los que no con­sul­tó, ni pidió per­mi­so, ni les dio nin­gún reco­no­ci­mien­to. (Ni Chat GPT ni los otros mode­los de AI mues­tran jamás títu­los de cré­di­to). Fue un entre­na­mien­to con tex­tos, imá­ge­nes y obras crea­das por huma­nos, en una can­ti­dad tal, que impre­sas gene­ra­rían una inmen­sa biblio­te­ca cuyo tama­ño ni siquie­ra somos capa­ces de ima­gi­nar. Los con­ver­sos y após­to­les de la IA, obvian esto, e ima­gi­nan bon­da­des sin cuen­to que nos trae­rá la IA a nues­tro mun­do. Pero sobre él cómo, o a quié­nes, en con­cre­to, aún no sabe­mos.

El Sin áni­mo de lucro, como paten­te de cor­so des­ver­gon­za­da para come­ter fecho­rías

En el mun­do de la IA se usan muchos dis­fra­ces. Pode­mos com­pro­bar­lo aho­ra que Sam Alman y Open AI, –la star­tup crea­do­ra del Chat GPT–, se han qui­ta­do la care­ta, o dis­fraz en for­ma de ban­de­ra de cor­so con la insig­nia fal­sa de “sin áni­mo de lucro”, ‑bajo ella come­tie­ron el cita­do latro­ci­nio–, pues han deja­do ver abier­ta­men­te su ver­da­de­ro obje­ti­vo: ganar mucho dine­ro, cuan­to más mejor y lo antes posi­ble, sin impor­tar las con­se­cuen­cias apro­ve­chan­do la igno­ran­cia sor­be lo digi­tal de la gen­te.

A ese strip­tea­se de ver­da­de­ras inten­cio­nes ha ayu­da­do mucho la mayor apues­ta que jamás se había inver­ti­do has­ta aho­ra en una star­tup: 30 mil millo­nes de dóla­res. Los aca­ba de inver­tir en Open AI Soft­Bank, el con­glo­me­ra­do mul­ti­na­cio­nal japo­nés con sede, Tokio, que se cen­tra en la ges­tión de inver­sio­nes y que admi­nis­tra Vision Fund, el fon­do de capi­tal de ries­go enfo­ca­do en tec­no­lo­gía más gran­de del mun­do, con más de 100 mil millo­nes de dóla­res en capi­tal. A dicha gigan­tes­ca inver­sión ya han dado el vis­to bueno las auto­ri­da­des regu­la­do­ras esta­ta­les de Cali­for­nia y las de Dela­wa­re, –el mayor paraí­so fis­cal de den­tro de EEUU–. Así, ya tie­ne a su alcan­ce lo que más chi­ri­bi­tas le hace en los ojos a Alt­man: sacar Open AI a Bol­sa, es decir la mul­ti­pli­car la capi­ta­li­za­ción de Open AI de la for­ma más sal­va­je y rápi­da posi­ble. Aho­ra mis­mo pues, del espí­ri­tu Open (abier­to), en la empre­sa (par­te de su dis­fraz), ya solo que­da eso, el nom­bre. Y recor­dar aho­ra el “sin áni­mo de lucro” escri­to en el acuer­do de fun­da­ción de aque­lla Open AI fun­da­da con 230.000 dóla­res ya solo mue­ve a la risa. For­ma­ba par­te del dis­fraz para que el cita­do latro­ci­nio que hicie­ron para entre­nar al Chat GPT pare­cie­ra algo altruis­ta en bene­fi­cio de la huma­ni­dad que es para lo que decía tra­ba­jar el cara­du­ra de Alt­man.

Alguien dijo que la cata­du­ra para el enga­ño de Sam Altam está a la altu­ra de la semán­ti­ca que uti­li­za. La star­tup que fun­dó para inten­tar esca­near el iris, con escá­ner esfé­ri­co Orb a todos los incautos/as que pudie­ra, –que for­ma­ron tras el anun­cio, los pri­me­ros días gene­ra­ron lar­gas colas en ple­na calle‑, la bau­ti­zó con el pre­sun­tuo­so nom­bre, nada menos, que Tools for huma­nity (herra­mien­tas para la huma­ni­dad). Pre­ten­día que a cual­quier des­ce­re­bra­do que le deja­se esca­near su iris (algo más úni­co que su hue­lla dac­ti­lar), le recom­pen­sa­ría trans­fi­rien­do a su mone­de­ro digi­tal (obte­nien­do con eso sus datos per­so­na­les), un paque­te tokens de una crip­to­mo­ne­da que se inven­tó, lla­ma­da World­coin. Según Alt­man: «esa sería tu recom­pen­sa por con­ver­tir­te en un humano veri­fi­ca­do». Afor­tu­na­da­men­te la enor­me alar­ma que gene­ró esta ini­cia­ti­va la con­vir­tió en un fias­co eco­nó­mi­co.

Ni Chat GPT ni los otros modelos de AI muestran jamás títulos de crédito

Vol­vien­do a la tec­no­lo­gía de la IA, al con­tem­plar las proezas esta­dís­ti­cas de los Gran­des Mode­los Lin­güís­ti­cos (Lar­ge Lan­gua­ge Models LLM, en inglés), que se uti­li­zan para crear ya casi cual­quier cosa en una pan­ta­lla a par­tir de prompts (peti­cio­nes de tex­to, o voz), no pue­do evi­tar que sus capa­ci­da­des inte­lec­tua­les arti­fi­cia­les me recuer­den las de aquel per­so­na­je de fic­ción de Bor­ges de su rela­to Funes el memo­rio­so, al que el gran escri­tor, des­cri­bia así: «…Funes no sólo recor­da­ba cada hoja de cada árbol de cada mon­te, sino cada una de las veces que la había per­ci­bi­do o ima­gi­na­do. Resol­vió redu­cir cada una de sus jor­na­das pre­té­ri­tas a unos seten­ta mil recuer­dos, que defi­ni­ría lue­go por cifras. Lo disua­die­ron dos con­si­de­ra­cio­nes: la con­cien­cia de que la tarea era inter­mi­na­ble y la con­cien­cia de que era inú­til». Por cier­to, al hilo de ello, ¿qué hacer con todo lo inú­til que nos dan las IAs y no les hemos pedi­do? Ocu­rre en cada bús­que­da con IA. Tal que así, es su mode­lo de nego­cio. Es un des­pil­fa­rro de ener­gía enor­me gene­ra­do por estas for­mas de la IA Gene­ra­ti­va insa­cia­bles en ener­gía y recur­so hídri­cos como si fue­ran algo ili­mi­ta­do. No lo son.

Neurodependientes de la IA

José Her­­ná­n­­dez-Ora­­llo me expli­có ‚–y creo que tie­ne razón–, que la inte­li­gen­cia arti­fi­cial podría ser la tec­no­lo­gía más trans­for­ma­do­ra de este siglo. De eso ya no hay duda, pero a los solu­cio­nis­tas de la IA solo les gus­ta ver las ven­ta­jas de for­ma acrí­ti­ca tal vez por­que con­si­de­ran que su uso se va a exten­der de for­ma irre­me­dia­ble, como un avan­ce tec­no­ló­gi­co incues­tio­na­ble, fru­to de un pro­gre­so moderno que avan­za inexo­ra­ble­men­te. Sin embar­go, yo creo que esa visión ocul­ta algu­nas tram­pas intere­sa­das y es fru­to de una posi­ción nihi­lis­ta que obvia tam­bién las con­se­cuen­cias nega­ti­vas y sucum­be a sus pro­pias tram­pas que, pre­via­men­te, nos han ocul­ta­do.

Se está gene­ran­do tan­tí­si­ma infor­ma­ción sobre la IA que pode­mos leer inclu­so las pro­me­sas más estram­bó­ti­cas. Entre ellas, una de las más solu­cio­nis­tas es que la IA ha lle­ga­do para «exten­der­nos», o «ampliar­nos”, o para «mejo­rar­nos»; más que para «sus­ti­tuir­nos», –en este caso refe­ri­do a nues­tros cere­bros–. Pura pro­pa­gan­da, por­que la reali­dad de hoy mis­mo se impo­ne. Por ejem­plo, Ama­zon aca­ba de anun­ciar esta sema­na que pla­nea des­pe­dir a 30.000 emplea­dos cor­po­ra­ti­vos solo en EE.UU., casi el 10% de su divi­sión cor­po­ra­ti­va, es decir, que está ponien­do en mar­cha el sus­ti­tuir a esos huma­nos por robots de IA, es decir, por soft­wa­re.

Vol­vien­do a pala­bras de quien cité al prin­ci­pio, Andrej Kar­pathy, que, por cier­to, tra­ba­jó des­ple­gan­do un equi­po en Open AI para mejo­rar Chat GPT 4.0 entre 2017 y 2022, y antes fue direc­tor senior de IA en Tes­la, don­de diri­gió el desa­rro­llo de la tec­no­lo­gía de visión arti­fi­cial del Tes­la Auto­pi­lot, es, por tan­to, alguien muy cono­ci­do en la indus­tria de la IA. Des­pués de salir de esas empre­sas fun­dó Eure­ka Labs una empre­sa que él lla­ma de «IA+Educación», así que lo que voy a decir aquí sobre el apren­di­za­je, no le es algo ajeno.

Últi­ma­men­te, Kar­pathy, poco a poco, ha comen­za­do a hacer decla­ra­cio­nes más crí­ti­cas sobre el mun­do de la IA, –que antes no había hecho. Hace poco ha decla­ra­do: «…en la indus­tria de la IA, tene­mos un oli­go­po­lio for­ma­do por unas pocas pla­ta­for­mas cerra­das…, pero creo que cuan­do empe­za­mos a pen­sar en lo que dije, –en la IA como un exo-cór­­tex–, pue­de resul­tar intere­san­te, aun­que tam­bién preo­cu­pan­te, por­que dedu­ces que una empre­sa pue­de aca­bar con­tro­lan­do tu exo-cór­­tex y, por tan­to, una gran par­te de ti. Eso empie­za a pare­cer inva­si­vo… Así que te das cuen­ta de aque­llo que men­cio­né; que estás alqui­lan­do tu cere­bro. Pare­ce extra­ño lo de alqui­lar tu cere­bro. El expe­ri­men­to men­tal es, ¿estás dis­pues­to a renun­ciar a la pro­pie­dad y el con­trol para alqui­lar un cere­bro mejor?». Y, des­pués Kar­pathy se pone opti­mis­ta, se vie­ne arri­ba, y se con­tes­ta a sí mis­mo sin apa­ren­te preo­cu­pa­ción: «Por­que yo sí. Así que creo que ese es el inter­cam­bio. Creo. Bueno, vere­mos cómo fun­cio­na».

Vere­mos, pero no opino como Andrej. Con­fie­so que me da esca­lo­fríos solo ima­gi­nar lo que Kar­pathy dice, sobre todo si se da la situa­ción de que eso suce­da con miles o millo­nes de cere­bros huma­nos. Y, sobre todo, si el pro­pó­si­to y el mode­lo de nego­cio de esas pocas y gran­des empre­sas con ello es ganar dine­ro, mucho dine­ro, sin impor­tar las con­se­cuen­cias para las vidas de la gen­te corrien­te. Me da tam­bién esca­lo­fríos pen­sar que ese pue­da ser el para­dig­ma sobre el que desa­rro­lle su pro­pia empre­sa que, ya des­de el nom­bre, com­bi­na IA y Edu­ca­ción. Sos­pe­cho que es una com­pa­ñía en la que el apren­di­za­je se enten­de­rá como un desa­rro­llo edu­ca­ti­vo de per­so­nas cuyo apren­di­za­je vaya de la mano de estos sis­te­mas. Algo que, por ese camino, creo, podrían gene­rar, insis­to el que muchas, muchas per­so­nas vul­ne­ra­bles aca­ben emo­cio­nal y men­tal­men­te depen­dien­tes de las App de IA Gene­ra­ti­va.

Igual que pasa con la algo­rít­mi­ca de las redes socia­les, la de las Apps inte­gra­das con IA que per­si­guen, como pri­mer y casi úni­co obje­ti­vo, gene­rar enga­ge­ment, es decir, adic­ción en el usua­rio, bus­can­do, a cos­ta de lo que sea, que se maxi­mi­ce su uso. Esta­mos empe­zan­do a ver que los usos del Chat GPT, que van más rápi­da­men­te en aumen­to son los de usar­lo como tera­peu­ta (un 25% de los esta­dou­ni­den­ses ya pre­fie­re el Chat GPT antes que un psi­có­lo­go); o para con­sul­tas sen­ti­men­ta­les ante cada duda emo­cio­nal o difi­cul­tad vital por peque­ña que sea. De eso a con­ver­tir­se en neu­ro­de­pe­dien­tes de la IA solo hay un paso.

Entre­nar la men­te. Des­en­tre­nar el cere­bro y sus ries­gos

Vol­vien­do al entre­na­mien­to inelu­di­ble de los Mode­los de la IA y a las pala­bras de Andrej Kar­pathy, sobre el exo-cór­­tex y lo de alqui­lar un cere­bro mejor, amplian­do el tuyo. Haré un enor­me flash­back aho­ra, ya que vie­ne al caso. No sé si Kar­pathy habrá leí­do el diá­lo­go Fedro de Pla­tón crea­do en la penúl­ti­ma fase de su obra, alre­de­dor del año 370 a. C. Es decir, hace unos 2.400 años.

Pues bien, aquí va un flash back, pero doble. Hace aho­ra 25 años el gran Umber­to Eco me envió un pre­cio­so tex­to para par­ti­ci­par en un deba­te que coor­di­né en el año 2000, que comen­za­ba citan­do una cru­cial esce­na del Diá­lo­go Fedro del filó­so­fo Pla­tón, que el genial escri­tor y pro­fe­sor Eco, con su habi­tual luci­dez, des­cri­bia así:

«Según Pla­tón (en Fedro), cuan­do Her­mes, el pre­sun­to inven­tor de la escri­tu­ra, pre­sen­tó su inven­to al faraón Tha­mus, éste ala­bó su nue­va téc­ni­ca que se supo­nía iba a per­mi­tir a los seres huma­nos recor­dar lo que de otro modo olvi­da­rían. Pero, al pare­cer, el faraón no esta­ba tan satis­fe­cho. «Mi hábil Theut, –le dijo–, la memo­ria es un gran don que se debe man­te­ner viva entre­nán­do­la cons­tan­te­men­te. Con tu inven­to, la gen­te ya no se verá obli­ga­da a entre­nar la memo­ria. Recor­da­rán cosas no debi­do a un esfuer­zo interno, sino mera­men­te en vir­tud de un dis­po­si­ti­vo externo».

Pode­mos enten­der la preo­cu­pa­ción del faraón, –dice Eco–. La escri­tu­ra, como cual­quier otro nue­vo dis­po­si­ti­vo tec­no­ló­gi­co, hubie­ra ale­tar­ga­do la capa­ci­dad huma­na que es sus­ti­tui­da y refor­za­da –al igual que los coches redu­cen nues­tra capa­ci­dad de andar–. La escri­tu­ra era peli­gro­sa para el Faraón, por­que redu­cía las capa­ci­da­des de la men­te, ofre­cien­do a los seres huma­nos un alma petri­fi­ca­da, una cari­ca­tu­ra de la men­te, una memo­ria mine­ral».

Ima­gino cómo de des­ilu­sio­na­do se que­da­ría Her­mes, pero de esa memo­ria mine­ral, en tra­duc­ción de Eco, se pue­de extra­po­lar fácil­men­te lo del exo-cór­­tex «aumen­ta­do con IA» al que se refe­ría Kar­pathy. Lo que no sé, es si él, –foro­fo de la IA–, lo ima­gi­na como un alma petri­fi­ca­da o una cari­ca­tu­ra de la men­te, tal como la deno­mi­na Umber­to Eco. Para mí, la des­crip­ción de «memo­ria mine­ral (de sili­cio)» sí pare­ce coin­ci­dir con el mis­mo con­cep­to que, al pare­cer según cuen­ta Pla­tón, preo­cu­pa­ba al faraón Tha­mus.

Vol­vien­do al pre­sen­te, ya es fácil dedu­cir que, con la IA, debi­do a la actual y tan de moda como­di­dad nihi­lis­ta, muchos pron­to pen­sa­rán que, dis­po­nien­do de ese «exo-cór­­tex aumen­ta­do arti­fi­cial­men­te», tal vez ya no con­si­de­ra­rán a la memo­ria huma­na como un gran don que se debe man­te­ner viva entre­nan­do­la cons­tan­te­men­te. Es más, con la actual men­ta­li­dad solu­cio­nis­ta que pro­mue­ven los evan­ge­lis­tas de la IA, man­te­ner el cere­bro entre­na­do cons­tan­te­men­te les pare­ce­rá, pro­ba­ble­men­te, algo obso­le­to y anti­cua­do. El cita­do Pas­­cual-Leo­­ne me ase­gu­ró tam­bién aque­lla vez que el cere­bro es, ade­más de plás­ti­co, «como un múscu­lo cuyo buen fun­cio­na­mien­to exi­ge uso y apren­di­za­je cons­tan­te, con ries­go de atro­fiar­se gra­dual­men­te si no se le entre­na cog­ni­ti­va­men­te, de for­ma ade­cua­da»

El cerebro es como un músculo con riesgo de atrofiarse gradualmente si no se le entrena cognitivamente

En su libro “El cere­bro que cura» expli­ca su pro­pó­si­to y la mane­ra de lograr, com­bi­nan­do una men­te, un cuer­po y un alma sanos, el man­te­ner y mejo­rar la salud y la vida de cual­quier per­so­na. Pero, qui­zá el pro­pó­si­to de la indus­tria de la IA a la que per­te­ne­ce Kar­pathy, en rela­ción al bien­es­tar para las per­so­nas, no sea el mis­mo en el que pien­sa Pas­­cual-Leo­­ne.

Pue­de que el impac­to de esta inva­sión de la IA sea, en el con­tex­to del mun­do de la edu­ca­ción y el apren­di­za­je, algo impues­to sin deba­te pre­vio por la indus­tria de las big tech y la IA. Y, con ello, se vuel­va a repe­tir lo que ya suce­dió con la colo­ni­za­ción masi­va de las aulas por las pan­ta­llas digi­ta­les, las redes socia­les y la cone­xión ubi­cua; y algo sobre lo que el psi­có­lo­go clí­ni­co infa­n­­to-juve­­nil Fran­cis­co Villar decla­ra­ba recien­te­men­te: «El deba­te debe­ría haber sido pre­vio. ¿Dón­de esta­ban los estu­dios que demos­tra­ban que se iba a mejo­rar en algún aspec­to la situa­ción?». Y aña­de, en una entre­vis­ta de Pablo Gar­cía San­tos, al que decla­ra: «¿Y el balan­ce de ries­gos? ¿Por qué está­ba­mos incor­po­ran­do ese uso de pan­ta­llas en niños sanos? Ten­dría­mos que haber sabi­do antes si ello tenía con­se­cuen­cias o no». En ese sen­ti­do, pue­de seguir ocu­rrien­do lo que seña­la Cathe­ri­ne L’Ecuyer, doc­to­ra en Edu­ca­ción y Psi­co­lo­gía y auto­ra de Edu­car en la reali­dad: «Hemos hecho un ensa­yo con una gene­ra­ción ente­ra intro­du­cien­do un pro­duc­to sin pro­bar que daba bue­nos resul­ta­dos»; y acla­ra «…digi­ta­li­za­mos de for­ma masi­va las aulas por­que era sinó­ni­mo de pro­gre­so y moder­ni­dad, pero no tenía­mos prue­bas del impac­to posi­ti­vo para el apren­di­za­je». Aho­ra esta­mos asis­tien­do a las con­se­cuen­cias.

En sín­te­sis, esta nue­va vuel­ta de tuer­ca tec­no­ló­gi­ca de «aumen­tar­nos con IA» pue­de ser en muchos casos y para muchas per­so­nas, masi­va­men­te, tal vez una for­ma en reali­dad de lo con­tra­rio, es decir, de «dis­mi­nuir­nos», redu­cien­do nues­tras capa­ci­da­des men­ta­les natu­ra­les ale­ján­do­nos de ese entre­na­mien­to cog­ni­ti­vo cons­tan­te en la edu­ca­ción del que habla­ba en su libro Pas­­cual-Leo­­ne, pero tam­bién por aban­do­nar el esfuer­zo cons­tan­te del cere­bro en la vida coti­dia­na como buen entre­na­mien­to. Sin­ce­ra­men­te, creer que vas a mejo­rar tus capa­ci­da­des, sim­ple­men­te «alqui­lan­do un cere­bro mejor» con un exo-cór­­tex de IA a las big tech, como dice Andrej Kar­pathy, me pare­ce una bou­ta­de. Es más, creo que es una pési­ma idea y una abe­rra­ción.

Pero fren­te a ello, como sue­le suce­der, tam­po­co hay que negar­lo, hay quién lo ve de otra mane­ra. La exó­ti­ca idea del exo-cór­­tex de Kar­pathy, sigue ganan­do adep­tos. Stepha­nie Koss­man y Danie­lle Roe­del, Labo­ra­to­rio Nacio­nal de Brookha­ven, este enero de 2025, la usa­ron como argu­men­to cien­tí­fi­co para lograr una suer­te de nue­va ima­gi­na­ción arti­fi­cial, nada menos, que «con­cep­tua­li­zan­do el exo-cór­­tex como una exten­sión del cere­bro de un cien­tí­fi­co».

El uso del chat GPT y chat­bots simi­la­res, podría ser un equi­va­len­te de la idea del exo-cór­­tex arti­fi­cial que pro­po­ne Andrej Kar­pathy. Y, pro­ba­ble­men­te, el efec­to de su uso inten­so a lar­go pla­zo podría aca­bar en una jiba­ri­za­ción del cere­bro y sus fun­cio­nes prin­ci­pa­les.

¿Usar las apli­ca­cio­nes con IA nos va a hacer más lis­tos, o más estú­pi­dos?

Como últi­mo pun­to quie­ro recor­dar un famo­so artícu­lo publi­ca­do por Nicho­las Carr, el verano de 2008 en la revis­ta The Atlan­tic, titu­la­do «¿Está Goo­gle hacién­do­nos estú­pi­dos?». Como Carr seguía preo­cu­pa­do des­pués por la evo­lu­ción de los efec­tos noci­vos del mal uso de la tec­no­lo­gía y la red, en 2010, publi­có un libro cuyo títu­lo ya no es una pre­gun­ta, si no una afir­ma­ción: Super­fi­cia­les: Lo que Inter­net está hacien­do con nues­tras men­tes, que ha sido tra­du­ci­do a 17 idio­mas. Sin embar­go, a pesar de avi­sos tan poten­tes como los de Carr, la apro­pia­ción masi­va de uso de los chat­bot de IA por la gen­te no ha hecho sino cre­cer. Estoy con­ven­ci­do de que hacer­nos depen­dien­tes de las IA, con el uso cons­tan­te del Chat GPT y, aho­ra, de otras como Sora2 o la viral Nano­ba­na­na –nom­bre infor­mal de Gemi­ni 2.5 Flash Ima­ge, una poten­te herra­mien­ta de edi­ción y gene­ra­ción de imá­ge­nes con IA de Goo­gle–, y muchas Apps de IA que apa­re­cen cada día, pue­de gene­rar el des­en­tre­na­mien­to de habi­li­da­des inte­lec­tua­les y des­tre­zas crea­ti­vas a esca­la masi­va, gra­cias a la adic­ción y la como­di­dad nihi­lis­ta y los nefas­tos usos que pro­mue­ven las big tech de la IA. Y, ade­más, pro­vo­car un efec­to de dete­rio­ro de la edu­ca­ción y el apren­di­za­je. Son tram­pas cog­ni­ti­vas digi­ta­les en toda regla y, por su efi­ca­cia en ello, casi infa­li­bles.

Con la expan­sión de la IA Gene­ra­ti­va sur­gie­ron nue­vas pro­me­sas de que podría revo­lu­cio­nar la edu­ca­ción y mar­car el comien­zo de una era de apren­di­za­je per­so­na­li­za­do para los estu­dian­tes, a la vez que redu­cía la car­ga de tra­ba­jo de los docen­tes. Pero se da el caso de que casi toda la inves­ti­ga­ción que ha encon­tra­do bene­fi­cios en la intro­duc­ción de estas tec­no­lo­gías en las aulas está finan­cia­da por la indus­tria de la tec­no­lo­gía edu­ca­ti­va y, la mayo­ría de las inves­ti­ga­cio­nes inde­pen­dien­tes a gran esca­la han demos­tra­do empí­ri­ca­men­te que un mayor tiem­po fren­te a la pan­ta­lla obs­ta­cu­li­za el logro aca­dé­mi­co. Un estu­dio glo­bal de la OCDE des­cu­brió, por ejem­plo, que cuan­to más usan los estu­dian­tes cier­tas tec­no­lo­gías en las escue­las e ins­ti­tu­tos, –de la for­ma que la pro­mue­ven las big tech–, peo­res son sus resul­ta­dos.

Tan­to Fran Villar, como la doc­to­ra L’Ecuyer, coin­ci­den en ello y en que se intro­du­je­ron en la ense­ñan­za y la vida de los niños y ado­les­cen­tes sin sufi­cien­tes prue­bas sobre sus bene­fi­cios. Way­ne Hol­mes, pro­fe­sor de estu­dios crí­ti­cos de inte­li­gen­cia arti­fi­cial y edu­ca­ción en el Uni­ver­sity Colle­ge de Lon­dres, tam­bién coin­ci­de con esa opi­nión cuan­do dice: «Sim­ple­men­te no hay evi­den­cia inde­pen­dien­te a gran esca­la que res­pal­de la efec­ti­vi­dad de estas herra­mien­tas. …En esen­cia, lo que ocu­rre con estas tec­no­lo­gías es que esta­mos expe­ri­men­tan­do con niños».

Ya pasó con las tec­no­lo­gías de la cone­xión ubi­cua de los smartpho­nes y la algo­rít­mi­ca de las redes socia­les. Y, es en este con­tex­to en el que ha sur­gi­do tam­bién la IA Gene­ra­ti­va, con una pro­pues­ta que pare­ce com­ple­ta­men­te nove­do­sa. Has­ta hace poco, solo se podía exter­na­li­zar la memo­ri­za­ción y par­te del pro­ce­sa­mien­to de datos a la tec­no­lo­gía; aho­ra se pue­de exter­na­li­zar el pen­sa­mien­to mis­mo. Dado que pasa­mos la mayor par­te de nues­tras vidas sin­tién­do­nos sobre­es­ti­mu­la­dos y ago­ta­dos, no es de extra­ñar que tan­tos hayan apro­ve­cha­do la opor­tu­ni­dad de dejar que el orde­na­dor, y aho­ra el telé­fono móvil, nos posi­bi­li­ten que sus Apps hagan muchas cosas que men­tal­men­te antes hacía­mos por noso­tros mis­mos, como, por ejem­plo, redac­tar infor­mes de tra­ba­jo o correos elec­tró­ni­cos, o pla­ni­fi­car unas vaca­cio­nes. A medi­da que pasa­mos de la era de inter­net a la era de la IA, lo que con­su­mi­mos no solo es cada vez más infor­ma­ción ultra­pro­ce­sa­da y de bajo valor, sino más infor­ma­ción esen­cial­men­te pre-dige­­ri­­da y entre­ga­da de una mane­ra dise­ña­da para elu­dir fun­cio­nes huma­nas impor­tan­tes, como eva­luar, fil­trar y resu­mir infor­ma­ción, o enfo­car real­men­te un pro­ble­ma, en su lugar adop­tar la pri­me­ra solu­ción fácil que se nos pre­sen­ta en la pan­ta­lla.

En la era de la IA, con­su­mi­mos es cada vez más infor­ma­ción ultra­pro­ce­sa­da de bajo valor, esen­cial­men­te pre-dige­­ri­­da, para elu­dir fun­cio­nes huma­nas impor­tan­tes, como eva­luar, fil­trar y resu­mir infor­ma­ción, o enfo­car real­men­te un pro­ble­ma

Todo esto, en reali­dad, des­apa­re­ce cuan­do las pan­ta­llas se apa­gan y/o cor­tan­do la cone­xión onli­ne ubi­cua con las redes socia­les y las IA Gene­ra­ti­vas. La gran incóg­ni­ta es cómo se podrían con­se­guir exten­der los bue­nos usos y el apro­ve­cha­mien­to de las IAs y com­bi­nar las opor­tu­ni­da­des que traen, sin dejar de entre­nar nues­tro cere­bro con cosas tan sim­ples como leer lar­gos tex­tos impre­sos o escri­bir a mano coti­dia­na­men­te.

Hay otro ejem­plo que es extra­po­la­ble al res­pec­to. Un estu­dio con EEG (elec­tro­en­ce­fa­lo­gra­mas) de alta den­si­dad, de junio de 2023, del Labo­ra­to­rio de Neu­ro­cien­cia del Desa­rro­llo de la Uni­ver­si­dad Norue­ga de Cien­cia y Tec­no­lo­gía de Trondheim, publi­ca­do en Fron­tiers in Psy­cho­logy demues­tra que «escri­bir a mano, –pero no en el tecla­do–, pro­vo­ca una conec­ti­vi­dad gene­ra­li­za­da en el cere­bro. Según los cien­tí­fi­cos, ello pue­de tener gran­des impli­ca­cio­nes para el aula y la edu­ca­ción». Los cien­tí­fi­cos entran en el deta­lle pro­fun­do y dan prue­bas con­tun­den­tes halla­das en su inves­ti­ga­ción: «…al escri­bir a mano, los patro­nes de conec­ti­vi­dad cere­bral son mucho más ela­bo­ra­dos y com­ple­jos que al escri­bir con un tecla­do, como mos­tra­ron los patro­nes gene­ra­li­za­dos de cohe­ren­cia de conec­ti­vi­dad theta/alfa entre los nodos de la red cere­bral y los nodos de las regio­nes parie­ta­les y cen­tra­les del cere­bro».

Y con­clu­yen «La lite­ra­tu­ra cien­tí­fi­ca exis­ten­te indi­ca que los patro­nes de conec­ti­vi­dad en estas áreas cere­bra­les, a tales fre­cuen­cias, son cru­cia­les para la for­ma­ción de la memo­ria y para codi­fi­car nue­va infor­ma­ción y, por lo tan­to, son muy bene­fi­cio­sos para el apren­di­za­je… Nues­tros hallaz­gos sugie­ren que el patrón espa­cio­tem­po­ral de la infor­ma­ción visual y pro­pio­cep­ti­va obte­ni­da a tra­vés de los movi­mien­tos de la mano con­tro­la­dos con pre­ci­sión al uti­li­zar un bolí­gra­fo o un lápiz, con­tri­bu­yen amplia­men­te a aumen­tar los patro­nes de conec­ti­vi­dad del cere­bro que empu­jan el apren­di­za­je. Así que, ins­ta­mos a que los niños, des­de una edad tem­pra­na, estén expues­tos a acti­vi­da­des de escri­tu­ra a mano en la escue­la y el ins­ti­tu­to para esta­ble­cer los patro­nes de conec­ti­vi­dad neu­ro­nal que pro­por­cio­nan al cere­bro unas con­di­cio­nes ópti­mas para el apren­di­za­je». En con­se­cuen­cia, escri­bir a mano en abso­lu­to debe­ría ser con­si­de­ra­do algo obso­le­to en los entor­nos edu­ca­ti­vos. Al con­tra­rio. Los cien­tí­fi­cos con­clu­yen en el estu­dio que «tan­to pro­fe­so­res como alum­nos, deben ser cons­cien­tes de que esta prác­ti­ca tie­ne el mejor y más poten­te efec­to en el apren­di­za­je, como ocu­rre, por ejem­plo, con el tomar apun­tes de cla­se, o escri­bir una redac­ción a mano».

No solo este estu­dio lo mues­tra. Cada vez más inves­ti­ga­cio­nes demues­tran que el escri­bir a mano acti­va par­tes del cere­bro que desem­pe­ñan un papel cru­cial en el apren­di­za­je, y ayu­da a los niños a reco­no­cer pala­bras y letras. Tomar notas a mano tam­bién pro­mue­ve el desa­rro­llo de la memo­ria, al obli­gar­nos a sin­te­ti­zar y prio­ri­zar la infor­ma­ción. En cam­bio, al escri­bir siem­pre con tecla­do, gene­ra que la infor­ma­ción «pue­de entrar por un oído y salir por el otro».

Ten­go otro ejem­plo más, con­ver­gen­te y sig­ni­fi­ca­ti­vo. A prin­ci­pios de abril de este año, alguien poco sos­pe­cho­so de ir con­tra las tec­no­lo­gías como el CEO de Ama­zon, Andy Jassy, cau­só un tre­men­do revue­lo con un memo­ran­do interno envia­do a los emplea­dos de su empre­sa, advir­tien­do que la inte­li­gen­cia arti­fi­cial (IA) podría des­pla­zar­los, –lue­go fue muy cri­ti­ca­do por los tra­ba­ja­do­res, por esa afir­ma­ción–. Pero es intere­san­te por­que en él hace afir­ma­cio­nes sor­pren­den­tes en alguien de su posi­ción como: «el ver­da­de­ro peli­gro es que la depen­den­cia exce­si­va de la IA pue­da gene­rar una gene­ra­ción de jóve­nes des­ce­re­bra­dos, inca­pa­ces de afron­tar los tra­ba­jos del futu­ro por­que nun­ca han apren­di­do a pen­sar de for­ma crea­ti­va ni crí­ti­ca». El cita­do Jassy se atre­vió a seña­lar que hipo­té­ti­ca­men­te «…a medi­da que la IA se vuel­ve más inte­li­gen­te, los jóve­nes uni­ver­si­ta­rios podrían vol­ver­se más inge­nuos (y más tor­pes)». Esto es mucho decir, sobre todo, en boca del CEO de Ama­zon. El memo­ran­do fue actua­li­za­do de inme­dia­to en la car­ta anual a los accio­nis­tas del 10 de abril, que es públi­ca, en un tono bas­tan­te dis­tin­to, des­ha­cién­do­se en ella en elo­gios para la IA en el futu­ro de la empre­sa. Pero lo dicho, dicho que­da.

¿Está la IA Gene­ra­ti­va hacién­do­nos más estú­pi­dos?

Ally­sia Fin­ley, que ana­li­zó sema­nas des­pués el tema en el Wall Street Jour­nal, afir­ma en su tex­to que «el cere­bro con­ti­núa desa­rro­llán­do­se y madu­ran­do has­ta los vein­ti­tan­tos, pero, al igual que un múscu­lo, nece­si­ta ejer­ci­tar­se, esti­mu­lar­se y desa­fiar­se para for­ta­le­cer­se. Las tec­no­lo­gías de la IA, pue­den fre­nar este desa­rro­llo al rea­li­zar el tra­ba­jo men­tal que cons­tru­ye la ver­sión cere­bral en una nube infor­má­ti­ca. Es un fenó­meno deno­mi­na­do des­car­ga cog­ni­ti­va». Los estu­dian­tes uni­ver­si­ta­rios y de secun­da­ria uti­li­zan masi­va­men­te, cada vez más, los gran­des mode­los lin­güís­ti­cos como los cita­dos ChatGPT, Gemi­ni, –y aho­ra Sora2 o Nano­ba­na­na de Goo­gle, que se han vuel­to vira­les–, para escri­bir tra­ba­jos, rea­li­zar prue­bas mate­má­ti­cas y crear códi­go infor­má­ti­co. La reali­dad es que, sobre todo los y las ado­les­cen­tes, han empe­za­do masi­va­men­te a des­car­gar estos retos cog­ni­ti­vos en la IA.

Y, al res­pec­to, Fin­ley afir­ma rotun­da: «el ver­da­de­ro peli­gro es que la depen­den­cia exce­si­va de la IA pue­da gene­rar una gene­ra­ción de jóve­nes des­ce­re­bra­dos»; Eso, tras ir mucho más allá ya en el títu­lo de su artícu­lo en el Wall Street Jour­nal: «La mayor ame­na­za de la IA: los jóve­nes que no pue­den pen­sar”. Lue­go seña­la: «los orde­na­do­res inte­li­gen­tes requie­ren huma­nos aún más inte­li­gen­tes, pero sus pro­mo­to­res nos tien­tan peli­gro­sa­men­te a prac­ti­car una «des­car­ga cog­ni­ti­va». Y cul­mi­na, «…aña­da­mos la pere­za inte­lec­tual a la lar­ga lis­ta de pro­ble­mas que aso­lan la ense­ñan­za supe­rior. Muchos estu­dian­tes ni siquie­ra revi­san sus tra­ba­jos gene­ra­dos por IA antes de pre­sen­tar­los». El desas­tre siguien­te ante su pro­fe­sor, lo pode­mos ima­gi­nar.

Si le pre­gun­tas, como he hecho yo, a una App de IA, por ejem­plo, a Gemi­ni de Goo­gle, sobre cuál es su pro­pó­si­to te dice lite­ral­men­te que: «la IA no tie­nen volun­tad ni inten­cio­nes per­so­na­les, sino que está dise­ña­da para cum­plir fun­cio­nes espe­cí­fi­cas y agra­dar a tra­vés de la uti­li­dad y la efec­ti­vi­dad de su pro­pó­si­to». Des­pués, la IA ya entra en bucle, repi­tien­do una y otra vez lo mis­mo, con agra­da­bles pala­bras dife­ren­tes. Pues eso. Pero inten­ta agra­dar por los lími­tes de segu­ri­dad muy estric­tos que le han pues­to ya que, si no los tuvie­ra, como cual­quier gran Mode­lo LLM de AI se podría con­ver­tir en un mons­truo. Aún así pro­vo­can des­gra­cias una y otra vez con per­so­nas vul­ne­ra­bles, pero pare­ce que a las empre­sas líde­res de la indus­tria de la IA no les impor­ta. The Guar­dian, y tam­bién la BBC, publi­ca­ron ayer 27 de octu­bre que, «según esti­ma­cio­nes de Ope­nAI, más de un millón de per­so­nas mues­tran cada sema­na inten­cio­nes sui­ci­das al cha­tear con ChatGPT». Eso no sig­ni­fi­ca que la empre­sa vaya a cam­biar su con­duc­ta por esto. Como ya ha demos­tra­do, no cam­bia­rá, sabien­do esto, su mode­lo de nego­cio en abso­lu­to.

En con­clu­sión, y ade­más, vol­vien­do a Carr, por si se le ocu­rre publi­car otra entre­ga en su línea de las ante­rio­res, espe­ro que no sea con una pre­gun­ta como ¿Está la IA Gene­ra­ti­va hacién­do­nos más estú­pi­dos?, por­que creo que se que­da­rá cor­to con la pre­gun­ta, sobre todo, con res­pec­to a los más vul­ne­ra­bles de noso­tros. Va a ser mucho más que eso. Y eso sig­ni­fi­ca que afec­ta­rá a mucha gen­te y, muy pro­ba­ble­men­te, va a tener un impac­to enor­me. Con todo lo dicho, si tene­mos, como debe ser, una visión crí­ti­ca, es fácil de ima­gi­nar qué podría salir mal.

ENLACE A LA PRIMERA PARTE DE ESTE ARTÍCULO

Comparte esta publicación

amadomio.jpg

Suscríbete a nuestro boletín

Reci­be toda la actua­li­dad en cul­tu­ra y ocio, de la ciu­dad de Valen­cia