Ronald Pur­ser: hacer tram­pa ha deja­do de ser una sub­cul­tu­ra; se ha con­ver­ti­do en una iden­ti­dad de mar­ca y una ideo­lo­gía de capi­tal ries­go. ¿Y por qué no? En la Chat­ver­si­dad, hacer tram­pa ya no es una des­via­ción, sino la nor­ma.

 

Adol­fo Pla­sen­cia, 2 de enero de 2026

Ima­gen supe­rior: Biblio­te­ca de la San Fran­cis­co Sta­te Uni­ver­sity, la uni­ver­si­dad don­de es pro­fe­sor Ronald Pur­ser. Foto: SFSU. CC BY-SA 4.0

La canibalización de la universidad pública por la IA

«La IA está des­tru­yen­do la uni­ver­si­dad y el apren­di­za­je mis­mo». Este es el títu­lo del demo­le­dor ensa­yo en defen­sa de la uni­ver­si­dad que el pro­fe­sor Ronald Pur­ser ha publi­ca­do este mis­mo mes en la pres­ti­gio­sa revis­ta de ensa­yos sobre polí­ti­ca y cul­tu­ra Current Affairs. En su sub­tí­tu­lo ya nos con­fir­ma la sos­pe­cha de lo que todos pen­sa­mos que está pasan­do en las cla­ses y las aulas uni­ver­si­ta­rias, aho­ra mis­mo. La entra­di­lla del ensa­yo dice lite­ral­men­te: «Los estu­dian­tes usan la IA para escri­bir tra­ba­jos, los pro­fe­so­res la usan para cali­fi­car­los, los títu­los pier­den su valor y las empre­sas tec­no­ló­gi­cas ama­san for­tu­nas. Bien­ve­ni­dos a la muer­te de la edu­ca­ción supe­rior».

En esta cani­ba­li­za­ción de la uni­ver­si­dad públi­ca, (pero tam­bién ense­ñan­za de la pri­va­da, por­que la voca­ción de las pla­fa­for­mas, por su pro­pia arqui­tec­tu­ra, tie­nen siem­pre ansias de tota­li­dad y per­si­guen ser mono­po­lio), las big tech de IA no están solas. Como decía Que­ve­do, tras que alguno sale cla­ro ven­ce­dor de una con­tien­da, «pron­to apa­re­ce alguien para ofre­cer­se en pron­to auxi­lio al ven­ce­dor». Así que ya hay tam­bién empre­sas en movi­mien­to que quie­ren ofre­cer su ayu­da de ese modo a las big tech, en su cani­ba­li­za­ción, en el mis­mo sen­ti­do que se expre­sa el Alex Karp, el CEO de Palan­tir y, para poder hacer­lo a gran esca­la, ya está habien­do movi­mien­tos del capi­tal espe­cu­la­dor.

Una mues­tra de ello es la noti­cia de Reuters que expli­ca que Cour­se­ra anun­ció el pasa­do miér­co­les que adqui­ri­rá la pla­ta­for­ma rival de apren­di­za­je onli­ne Udemy en un acuer­do de accio­nes que valo­ra la com­pa­ñía com­bi­na­da en 2.500 millo­nes de dóla­res, una medi­da que reúne a dos de los acto­res más gran­des del cam­po con sede en EE.UU. El pro­pó­si­to pos­te­rior a la ope­ra­ción es crear una nue­va empre­sa con el cita­do valor, des­ti­na­da a la for­ma­ción en IA. La letra peque­ña es que, en Cour­se­ra, están con­ven­ci­dos que con la for­ma­ción de/en IA, se va a poder sus­ti­tuir la for­ma­ción uni­ver­si­ta­ria en sen­ti­do amplio, tal como la cono­cía­mos. De ahí a pen­sar que las uni­ver­si­da­des, su acti­vi­dad edu­ca­ti­va y sus biblio­te­cas, for­man par­te de una visión y un tipo de pen­sa­mien­to cuyas ins­ti­tu­cio­nes edu­ca­ti­vas e inves­ti­ga­do­ras son com­ple­ta­men­te obso­le­tas y pres­cin­di­bles, como ya dice Karp, sólo hay un paso.

Pur­ser des­cri­be para empe­zar su expe­rien­cia vital pro­fe­sio­nal de aho­ra mis­mo ante la súbi­ta irrup­ción del ChatGPT en las aulas de su uni­ver­si­dad don­de el Chat­bot con­ver­sa­cio­nal ha entra­do como ele­fan­te en cacha­rre­ría. Dice, lite­ral­men­te, «El páni­co lle­gó pri­me­ro. Las reunio­nes de pro­fe­so­res esta­lla­ron de terror: «¿Cómo detec­ta­re­mos el pla­gio aho­ra?» «¿Es este el fin del ensa­yo uni­ver­si­ta­rio?» «¿Debe­ría­mos vol­ver a las libre­tas azu­les y los exá­me­nes super­vi­sa­dos?». Mis com­pa­ñe­ros de la Escue­la de nego­cios, –expli­ca Pur­ser–, de repen­te, se com­por­tan como si las tram­pas aca­ba­ran de inven­tar­se. Lue­go, casi de la noche a la maña­na, la angus­tia se con­vir­tió en frus­tra­ción. Los mis­mos pro­fe­so­res que pro­nos­ti­ca­ban el desas­tre aca­dé­mi­co aho­ra se reno­va­ban con entu­sias­mo como «edu­ca­do­res pre­pa­ra­dos para la IA». En todo el cam­pus, talle­res como «Desa­rro­llo de habi­li­da­des y cono­ci­mien­tos de IA en el aula» y «Fun­da­men­tos de alfa­be­ti­za­ción en IA» pro­li­fe­ra­ron como hon­gos des­pués de la llu­via. El páni­co ini­cial por el pla­gio dio paso a una resig­na­da acep­ta­ción: «Si no pue­des con ellos, úne­te a ellos».

Des­pués com­pro­bó que lo mis­mo que esta­ba pasan­do en su cam­pus, esta­ba ocu­rrien­do en muchos otros. Pur­ser se dio cuen­ta de que el asal­to de la IA a las uni­ver­si­da­des era una inva­sión a gran esca­la. Y rela­ta: «Este cam­bio radi­cal no fue exclu­si­vo de mi cam­pus. Nues­tro sis­te­ma de la Uni­ver­si­dad Esta­tal de Cali­for­nia (CSU) es el sis­te­ma uni­ver­si­ta­rio públi­co más gran­de de Esta­dos Uni­dos. Cuen­ta con 23 cam­pus y casi medio millón de estu­dian­tes –un obje­ti­vo gran­de para la colo­ni­za­ción por la IA–. Sin tiem­po ni a deba­tir sobre ello, se anun­ció «una gran inver­sión» y se pre­sen­tó una «cola­bo­ra­ción de 17 millo­nes de dóla­res con Ope­nAI» como si al cam­pus le hubie­se toca­do una espe­cie de lote­ría tec­no­ló­gi­ca. Con ello, dije­ron, la estruc­tu­ra de la CSU se con­ver­ti­ría en el pri­mer sis­te­ma uni­ver­si­ta­rio del país «impul­sa­do por IA». Algo «estu­pen­do» más allá de toda duda por­que, en el len­gua­je del mar­ke­ting de la IA, se pre­sen­ta­ba como un maná de bon­da­des sin cuen­to. Empe­zan­do por ofre­cer ChatGPT Edu gra­tui­to (una ver­sión con la mar­ca del cam­pus dise­ña­da para ins­ti­tu­cio­nes edu­ca­ti­vas) a todos los estu­dian­tes y emplea­dos (a 500.000 usua­rios nue­vos de gol­pe). El comu­ni­ca­do de pren­sa ins­ti­tu­cio­nal repe­tía lema a lema la pro­pa­gan­da de Ope­nAI. Habla­ba, –dice Pur­ser–, con entu­sias­mo de «herra­mien­tas de apren­di­za­je per­so­na­li­za­das y orien­ta­das al futu­ro» y de pre­pa­rar a los estu­dian­tes para estar lis­tos, –la pro­pa­gan­da lo daba como algo inevi­ta­ble–, ante una «eco­no­mía impul­sa­da por la IA».

Cons­cien­te de las posi­bles con­se­cuen­cias, Pur­ser recuer­da que el momen­to de su uni­ver­si­dad era surrea­lis­ta, una situa­ción con una com­bi­na­ción de vul­ne­ra­bi­li­dad y nece­si­dad. Y, empe­za­ron a suce­der muchas cosas al mis­mo tiem­po. Tal vez por esa com­bi­na­ción cita­da, la gober­nan­za de la CSU anun­ció su gran ges­to tec­no­ló­gi­co jus­to al tiem­po que pro­po­nía recor­tar 375 millo­nes de dóla­res de su pre­su­pues­to. Así que, al uní­sono que los admi­nis­tra­do­res inau­gu­ra­ban su ini­cia­ti­va de IA, tam­bién recor­ta­ban pla­zas de pro­fe­so­ra­do, pro­gra­mas aca­dé­mi­cos com­ple­tos y ser­vi­cios estu­dian­ti­les. Al tiem­po, –rela­ta Pun­ser– «en nues­tra Uni­ver­si­dad Esta­tal de San Fran­cis­co, el rec­to­ra­do noti­fi­có for­mal­men­te a nues­tro sin­di­ca­to, la Aso­cia­ción de Pro­fe­so­res de Cali­for­nia (CFA), sobre posi­bles des­pi­dos». Y aña­de una terri­ble refle­xión «Los cálcu­los son bru­ta­les y la con­tra­po­si­ción, cru­da: millo­nes para Ope­nAI, mien­tras que se suce­den los des­pi­dos de pro­fe­so­res vete­ra­nos. La CSU no está invir­tien­do en edu­ca­ción; la está exter­na­li­zan­do, pagan­do ele­va­dos pre­cios por un Chat­bot con­ver­sa­cio­nal que muchos estu­dian­tes ya usa­ban gra­tis».

Penetrar no solo en las aulas sino en las vidas de medio millón de alumnos

Esto no lo dice Puser, pero lo aña­do yo. El ChatGPT no solo pene­tra así a las aulas don­de acu­den medio millón de alum­nos en edad uni­ver­si­ta­ria, sino tam­bién en sus vidas per­so­na­les 24 horas al día a tra­vés de la cone­xión ubi­cua (no olvi­de­mos lo que sig­ni­fi­ca aquí ubi­cua: en cual­quier momen­to, y des­de cual­quier lugar). ChatGPT está acce­si­ble de for­ma ubi­cua para los conec­ta­dos. Y con una fór­mu­la que es una tram­pa cog­ni­ti­va y eco­nó­mi­ca casi infa­li­ble: es gra­tis. ¿que estu­dian­te o pro­fe­sor pue­de resis­tir­se a eso? Como demos­tró en su libro Free de 2008 Chris Ander­son, autor de The Long Tail, eso es para los huma­nos, comer­cial­men­te, algo casi irre­sis­ti­ble.

Ronald Pur­ser se negó a caer en las tram­pas fáci­les de la pro­pa­gan­da tec­no­ló­gi­ca liga­das a la IA. Él se esfor­za­ba en incul­car a sus alum­nos el pen­sa­mien­to crí­ti­co, algo que con­si­de­ra impres­cin­di­ble para la edu­ca­ción y tam­bién para la vida, así que no pen­sa­ba caer en esa tram­pa a pesar de toda la arti­lle­ría pro­pa­gan­dís­ti­ca des­ple­ga­da para some­ter a una enor­me comu­ni­dad uni­ver­si­ta­ria como la de la CSU, vul­ne­ra­ble, y pre­sa de la nece­si­dad, como casi todas las uni­ver­si­da­des públi­cas aho­ra, sabien­do que muchos cole­gas pen­sa­rían segu­ro que él esta­ba exa­ge­ran­do. Pur­ser argu­men­ta en su ensa­yo que no es una nove­dad que la edu­ca­ción públi­ca ha esta­do en ven­ta duran­te déca­das y cita el teó­ri­co cul­tu­ral nor­te­ame­ri­cano Henry Giroux como uno de los pri­me­ros en seña­lar cómo las uni­ver­si­da­des públi­cas se esta­ban trans­for­man­do en cen­tros de for­ma­ción pro­fe­sio­nal para los nego­cios pri­va­dos y sus mer­ca­dos cau­ti­vos.

Los depar­ta­men­tos aca­dé­mi­cos aho­ra tie­nen que jus­ti­fi­car­se en tér­mi­nos de ingre­sos, resul­ta­dos y apren­di­za­je. La nue­va alian­za de su uni­ver­si­dad, la CSU con Ope­nAI es, –según Pur­ser–. «la últi­ma vuel­ta de tuer­ca a esta situa­ción». Y es algo a lo que la pres­ti­gio­sa pro­fe­so­ra del Ins­ti­tu­te of Higher Edu­ca­tion, de la Uni­ver­si­dad de Geor­gia Shei­la Slaugh­ter y su cole­ga Gary Rhoa­des defi­nen como capi­ta­lis­mo aca­dé­mi­co. Ver­bi­gra­cia: «cono­ci­mien­to trans­for­ma­do en mer­can­cía y estu­dian­tes, lite­ral­men­te, en con­su­mi­do­res pasi­vos». Lo des­cri­be en su libro Des­ha­cien­do la Uni­ver­si­dad Públi­ca, el direc­tor de la Research at the Inde­pen­dent Social Research Foun­da­tion de Lon­dres, Chris­topher New­field, que des­cri­be en deta­lle en su tex­to «cómo la ten­den­cia a la pri­va­ti­za­ción empo­bre­ce a las uni­ver­si­da­des públi­cas, con­vir­tién­do­las en cas­ca­ro­nes de sí mis­mas finan­cia­dos con deu­da de agen­tes finan­cie­ros exter­nos». Ben­ja­min Gins­berg des­cri­bió el auge de los «cam­pus total­men­te admi­nis­tra­ti­vos», en los que las capas geren­cia­les y la pla­ga buro­crá­ti­ca se mul­ti­pli­can inclu­so cuan­do el pro­fe­so­ra­do y la acti­vi­dad aca­dé­mi­ca se han redu­ci­do.

En cuan­to a la fun­ción huma­nis­ta, esen­cial en la uni­ver­si­dad, inclu­so en las carre­ras téc­ni­cas e inge­nie­rías de hoy, Martha Nuss­baum advier­te sobre lo que se pier­de cuan­do las huma­ni­da­desesos espa­cios para la ima­gi­na­ción y la refle­xión cívi­ca—, se aca­ban con­si­de­ran­do pres­cin­di­bles en una demo­cra­cia igual que su fun­ción como uni­ver­si­dad. Jun­to con New­field des­cri­ben el cam­bio en mar­cha por el que «una uni­ver­si­dad que ya no se pre­gun­ta para qué sir­ve la edu­ca­ción, sino solo qué pue­de gene­rar». Y aun­que parez­ca una coin­ci­den­cia de tér­mi­nos, no lo es, por­que la IA más en boga en este momen­to es la «IA Gene­ra­ti­va».

La pro­fe­so­ra Martha Ken­ney, poco des­pués del cita­do anun­cio de la CSU, coes­cri­bió un artícu­lo de opi­nión en el San Fran­cis­co Chro­ni­cle con la pro­fe­so­ra de antro­po­lo­gía Martha Lin­coln, advir­tien­do que «la nue­va ini­cia­ti­va corría el ries­go de per­ju­di­car a los estu­dian­tes y soca­var el pen­sa­mien­to crí­ti­co».  Como es natu­ral, se tuvo que defen­der de las habi­tua­les actua­cio­nes de los tec­nó­fi­los: «No soy un ludi­ta», escri­bió, «Pero debe­mos plan­tear­nos pre­gun­tas cru­cia­les sobre el impac­to de la IA en la edu­ca­ción, el tra­ba­jo y la demo­cra­cia». La iro­nía no podía ser más des­car­na­da, más cru­da. –seña­la Pur­ser–; «los pro­gra­mas mejor pre­pa­ra­dos para estu­diar las impli­ca­cio­nes socia­les y éti­cas de la IA esta­ban sien­do des­fi­nan­cia­dos, inclu­so mien­tras la uni­ver­si­dad pro­mo­vía el uso de los pro­duc­tos de Ope­nAI en todo el cam­pus». –y, con­clu­ye–, …«Esto no es inno­va­ción, es auto­ca­ni­ba­lis­mo ins­ti­tu­cio­nal». Com­par­to, en mi caso, situa­cio­nes pare­ci­das. Tam­bién reci­bo ese tipo de acu­sa­cio­nes de tener opi­nio­nes que exa­ge­ran los ries­gos. «Vd. –me dijo un inves­ti­ga­dor en IA, tras mi con­fe­ren­cia de clau­su­ra de cur­so en el Ins­ti­tu­to ITACA de la UPV– envía men­sa­jes peli­gro­sos aso­cian­do la esta­dís­ti­ca pre­dic­ti­va digi­tal con las adic­cio­nes y cosas peo­res». ¿Que exa­ge­ro? Pues como diría el psi­có­lo­go clí­ni­co Fran­cis­co Villar, pare­ce que la reali­dad exa­ge­ra aho­ra mis­mo más que yo, inclu­so los res­pon­sa­bles del Chat GPT.

El País, que es el dia­rio con más difu­sión de Espa­ña, le dedi­có el pasa­do domin­go 21 de diciem­bre un edi­to­rial al Chat­bot de Ope­nAI titu­la­do «El lado sinies­tro de ChatGPT»; citan­do el caso del ado­les­cen­te de 16 años Adam Reis que se qui­tó la vida en abril tras pre­gun­tar­le muchas veces a ChatGPT por for­mas de sui­ci­dio. Y un mes más tar­de, ante los tri­bu­na­les, la empre­sa Open AI, argu­men­tó que «la muer­te del joven era cul­pa suya por su mal uso del Chat­bot por­que lo usó sal­tán­do­se las con­di­cio­nes de uso, y que por tan­to su muer­te no era acha­ca­ble a la inte­li­gen­cia arti­fi­cial en sí». El mis­mo día, dicho perió­di­co publi­có un gran repor­ta­je titu­la­do «ChatGPT no pasa la prue­ba: así pone en peli­gro la vida de meno­res», en el que expli­can el expe­ri­men­to, en el que tres perio­dis­tas del medio enta­bla­ron con­ver­sa­ción con Chay GPT hacién­do­se pasar por ado­les­cen­tes. Los pro­pios perio­dis­tas des­cri­ben su expe­ri­men­to con natu­ra­li­dad como si fue­ra lo más nor­mal que unos adul­tos entren, con cuen­tas fal­sas, en la pla­ta­for­ma hacién­do­se pasar por ado­les­cen­tes o niños para inter­ac­tuar con el Chat­bot. Ni men­cio­nan que así, ellos mis­mos infrin­gían las nor­mas lega­les de uso. Tan­to en estas pla­ta­for­mas, como en las de las redes socia­les nin­gún menor de 13 años es legal que entre ahí, ya que, ade­más, incum­ple las nor­mas de uso. En Aus­tra­lia, aho­ra mis­mo, que un menor de 16 años esté en redes socia­les, está prohi­bi­do y pena­do por la ley. (La minis­tra de comu­ni­ca­cio­nes de Aus­tra­lia, Ani­ka Wells, ha dicho a la BBC, a raíz de la prohi­bi­ción, que no se deja­rá inti­mi­dar por las big tech).

Pues bien, en el repor­ta­je cita­do, los perio­dis­tas del medio expli­can que expe­ri­men­ta­ron con tres cuen­tas fic­ti­cias los fil­tros de Ope­nAI para pro­te­ger a los niños; y que los exper­tos en salud men­tal cri­ti­can el resul­ta­do, por­que las medi­das son insu­fi­cien­tes y la pla­ta­for­ma no aler­tan a los padres a tiem­po cuan­do su hijo reve­la que quie­re qui­tar­se la vida. Con una natu­ra­li­dad pare­ci­da a estos perio­dis­tas, el CEO Sam Alman, expli­có casi como una curio­si­dad en una pre­sen­ta­ción recien­te que más de un millón de per­so­nas habla con el Chat­bot de su empre­sa sobre sui­ci­dio cada sema­na. Pero no ha men­cio­na­do que vaya a cam­biar nada de su mode­lo de nego­cio por eso. Si a su empre­sa los sui­ci­dios de meno­res y la vida de los ado­les­cen­tes le impor­tan tan poco, cómo le va a impor­tar el decons­truir y alte­rar las acti­vi­da­des docen­tes y de apren­di­za­je de los jóve­nes uni­ver­si­ta­rios. No le impor­ta en abso­lu­to.

El cita­do repor­ta­je tam­bién da una idea del nivel de depen­den­cia al ChatGPT que ya han alcan­za­do los y las ado­les­cen­tes. Algu­nas cifras que da: en Espa­ña, el 18% de las chi­cas y el 12% de los jóve­nes de entre 12 y 21 años sue­len usar la IA para con­ver­sa­cio­nes ínti­mas o com­par­tir cues­tio­nes per­so­na­les. Según el infor­me Así somos. El esta­do de la ado­les­cen­cia en Espa­ña, de la ONG Plan Inter­na­tio­nal, ade­más, «uno de cada cua­tro ado­les­cen­tes pre­fie­ra hablar con el Chat­bot de IA en lugar que con una per­so­na real». Y según una encues­ta de Com­mon Sen­se hecha en julio pasa­do a 1.060 ado­les­cen­tes de entre 13 y 17 años, para ave­ri­guar por qué los ado­les­cen­tes usan Chat­bots de IA como «com­pa­ñe­ros», el 17% dice que lo usa por­que «siem­pre está dis­po­ni­ble»; el  14%, «por­que nun­ca le juz­ga»; el 12%, «por­que le pue­den «decir» cosas que no le pue­den decir a los ami­gos, o la fami­lia»; el 19%, «por­que le resul­ta más fácil «hablar» con él que con las per­so­nas»; y, el 6% por­que «le ayu­da a sen­tir­se menos solo». Eso da una idea de la depen­den­cia de la gen­te más joven ya tie­ne del Chat GPT. Estan­do así las cosas, es aho­ra cuan­do Ope­nAI ini­cia una estra­te­gia a gran esca­la para inva­dir la vida estu­dian­til en los cam­pus. Y, por esa vía, con­se­guir inva­dir total­men­te las vidas per­so­na­les (de los estu­dian­tes uni­ver­si­ta­rios y del pro­fe­so­ra­do); y, si pue­den, no sol­tar­los, ya para el res­to.

Aun­que, estoy des­cri­bien­do el impac­to de la IA en la edu­ca­ción uni­ver­si­ta­ria, no se limi­ta a ella; tam­bién impac­ta con un efec­to no menor, en la edu­ca­ción de otros nive­les, por ejem­plo, en la segun­da ense­ñan­za. Por­que si, en los cita­dos por­cen­ta­jes, ya está afec­ta­da la vida de los ado­les­cen­tes en rela­ción ChatGPT; al tiem­po que, a su vida per­so­nal, tam­bién está afec­ta­da su vida edu­ca­ti­va, y su apren­di­za­je en ella. Otro ejem­plo. Víc­tor Ber­mú­dez, pro­fe­sor de Filo­so­fía en el ins­ti­tu­to públi­co I.E.S San­ta Eula­lia de Méri­da a don­de ha vuel­to en sep­tiem­bre, tras cin­co años en el Minis­te­rio de Edu­ca­ción, don­de coor­di­nó la redac­ción de los actua­les currícu­los de su mate­ria y de varias más, ha decla­ra­do en una entre­vis­ta la sema­na pasa­da que «Hemos per­di­do el con­trol del pro­ce­so edu­ca­ti­vo, lo que damos en cla­se es en gran medi­da un simu­la­cro» y ve «a sus com­pa­ñe­ros y com­pa­ñe­ras de pro­fe­sión tra­ba­jan­do como locos para engan­char al alum­na­do». En gene­ral, por­que la escue­la y su cen­tro no saben com­pe­tir con cosas como la IA y su para­fer­na­lia. Y, no sólo eso. Vic­tor pien­sa que «la edu­ca­ción está fra­ca­san­do en gene­rar una cul­tu­ra gene­ral común, una for­ma­ción moral y unos víncu­los comu­ni­ta­rios».

Trai­go aho­ra a cola­ción lo que dice Víc­tor por­que tenien­do en cuen­ta que la suya es una acti­vi­dad docen­te en un Ins­ti­tu­to de ense­ñan­za media, en un país del con­ti­nen­te euro­peo sepa­ra­do por un océano y miles de kiló­me­tros, hace un diag­nós­ti­co sobre la edu­ca­ción públi­ca com­ple­ta­men­te seme­jan­te a la del pro­fe­sor Pur­ser, docen­te en la Uni­ver­si­dad Públi­ca de San Fran­cis­co, la más gran­de de EE.UU. con 23 cam­pus, lo que nos lle­va a pen­sar que ambos y la dis­tin­ta acti­vi­dad edu­ca­ti­va que prac­ti­can, uno en San Fran­cis­co y el otro en Méri­da, se están enfren­tan­do des­de luga­res dis­tin­tos del mun­do edu­ca­ti­vo al mis­mo tipo de pro­ble­mas, a los mis­mos enemi­gos y a las mis­mas difi­cul­ta­des y, con cau­sas equi­va­len­tes, tam­bién. Es decir, que este pro­ble­ma es glo­bal y, muy pro­ba­ble­men­te, abar­ca a dis­tin­tos nive­les de edu­ca­ción. Pare­ce tra­tar­se de una infec­ción sis­té­mi­ca a todos los entor­nos edu­ca­ti­vos; y es de carác­ter glo­bal y ubi­cua, que impac­ta en todos los luga­res y dis­tin­tas geo­gra­fías.

Vol­vien­do a Ope­nAI, que actúa a tiem­po, sobre los dos con­tex­tos, –el de Víc­tor y el de Pur­ser–, es cla­ro que lo que per­si­gue la empre­sa tan­to en la vida uni­ver­si­ta­ria como en la de ense­ñan­za media, sobre todo, es gene­rar jóve­nes depen­dien­tes de ChatGPT en las uni­ver­si­da­des usan­do la típi­ca pro­pa­gan­da tec­no­ló­gi­ca de que la IA de su ChatGPT es una tec­no­lo­gía bené­fi­ca, una herra­mien­ta digi­tal como otras ante­rio­res pero más poten­te y más fácil de usar, para todo. Pero no todo el mun­do está de acuer­do con este diag­nós­ti­co que podría apa­ren­tar que sus cau­sas son sim­ples, pero no lo son en abso­lu­to. Y la mag­ni­tud del fenó­meno es enor­me y su impac­to mul­ti­di­men­sio­nal. Una mag­ni­tud tan gran­de que es nor­mal que el con­jun­to de cen­tros como el de Víc­tor el de Méri­da, no sepan cómo actua­li­zar el len­gua­je edu­ca­ti­vo para com­pe­tir con eso.

«No pode­mos hacer nada» expli­ca José Juan López, vice­rrec­tor de estu­dian­tes de la Uni­ver­si­dad Miguel Her­nán­dez (Elche)… «Y no pode­mos hacer nada, por­que esta tec­no­lo­gía es muy difí­cil de detec­tar y legis­lar. Y hablo de exá­me­nes, pero en tra­ba­jos ya ni te cuen­to»; la IA per­mi­te copiar en exá­me­nes de uni­ver­si­dad con una faci­li­dad nun­ca vis­ta. El uso masi­vo del ChatGPT y los diver­sos dis­po­si­ti­vos con IA inte­gra­da per­mi­ten hacer tram­pas con mayor sol­tu­ra. La IA se ha con­ver­ti­do en las aulas en una tec­no­lo­gía faci­li­ta­do­ra de hacer tram­pas. Y lo mis­mo pasa en San Fran­cis­co a pesar de su dife­ren­te con­tex­to social y cul­tu­ral, como vamos a ver en la expli­ca­ción de deta­lle del pro­fe­sor de la CSU, Ronald Pur­ser.

El Tecnopolio explosiona en el campus 

El cita­do pro­fe­sor Pur­ser, no se que­da en la super­fi­cie con sus crí­ti­cas, hace unas refle­xio­nes con­cep­tua­les pro­fun­das. Va más allá. Por ejem­plo, escri­be cómo sus cole­gas de la Escue­la de Nego­cios le insis­ten en que ChatGPT es «solo una herra­mien­ta más en la caja de herra­mien­tas». Pero él hace una obser­va­ción con­cep­tual impor­tan­te sobre la dife­ren­cia entre herra­mien­tas y tec­no­lo­gías «Las herra­mien­tas nos ayu­dan a rea­li­zar tareas; las tec­no­lo­gías trans­for­man los entor­nos en los que pen­sa­mos, tra­ba­ja­mos y nos rela­cio­na­mos». El filó­so­fo Peter Hershock, hace una dis­tin­ción esen­cial que hoy nos sir­ve muy bien para com­pren­der al res­pec­to en el caso de la IA: «no solo usa­mos tec­no­lo­gías; par­ti­ci­pa­mos en ellas. Con las herra­mien­tas, con­ser­va­mos la auto­no­mía: pode­mos ele­gir cuán­do y cómo usar­las. Con estas tec­no­lo­gías, la elec­ción es más sutil, por­que rede­fi­nen las pro­pias con­di­cio­nes de la elec­ción. Un bolí­gra­fo amplía la comu­ni­ca­ción sin rede­fi­nir­la; las redes socia­les (y la IA Gene­ra­ti­va) están trans­for­man­do lo que enten­de­mos por pri­va­ci­dad, amis­tad e inclu­so ver­dad».

 Y, aña­do, que el mar­co de uso de la esta­dís­ti­ca pre­dic­ti­va de los Chat­bots como ChatGPT, fun­cio­na sobre las mis­mas bases de bús­que­da de adic­ción y de maxi­mi­za­ción de uso que la de las redes socia­les. En ese sen­ti­do, per­si­gue tam­bién el mis­mo obje­ti­vo que las Apps del inter­net social. Así que, si intro­du­ces las for­mas de uso de sus Apps que pro­mue­ven empre­sas como Ope­nAI en las aulas, no solo intro­du­ces en ellas esa IA, sino tam­bién lo que per­si­guen: obte­ner adic­ción y maxi­mi­za­ción de uso en sus usua­rios, que tam­bién indu­ce y pro­mue­ve el ChatGPT, así que apa­re­ce­rán sus con­se­cuen­cias indi­rec­tas en los alum­nos y alum­nas más vul­ne­ra­bles que serán con­ver­ti­dos en adic­tos y depen­dien­tes por el ChatGPT en las aulas y, por exten­sión, en su vida fue­ra de ellas. ¿Cómo te sue­na lo de una uni­ver­si­dad con aulas que sean espa­cios en don­de la adic­ción pros­pe­re? Pues ese es uno de los obje­ti­vos cen­tra­les del ChatGPT allá don­de sea usa­do, gene­rar depen­den­cia y no solo en los actos edu­ca­ti­vos, sino tam­bién en la vida per­so­nal. Lo mis­mo que per­si­gue deno­da­da­men­te Tik Tok, por ejem­plo, sin ir más lejos.

Todo esto de la IA y sus con­se­cuen­cias, que pare­ce tan nue­vo no lo es tan­to. El soció­lo­go y dis­cí­pu­lo de Marshall McLuhan, Neil Post­man, pro­fe­sor de Media Eco­logy y direc­tor del Depar­ta­men­to de Cul­tu­ra y Comu­ni­ca­ción de la Uni­ver­si­dad de Nue­va York, advir­tió ya en su famo­so libro de 1993, que sur­ge un Tec­no­po­lio«cuan­do las socie­da­des ceden el jui­cio a los impe­ra­ti­vos tec­no­ló­gi­cos, y cuan­do la efi­cien­cia y la inno­va­ción se con­vier­ten en bie­nes mora­les en sí mis­mos. Una vez que métri­cas como la velo­ci­dad y la opti­mi­za­ción reem­pla­zan la refle­xión y el diá­lo­go, la edu­ca­ción se trans­for­ma en logís­ti­ca: la cali­fi­ca­ción se auto­ma­ti­za, los ensa­yos y los papers se gene­ran en segun­dos»… «El cono­ci­mien­to se con­vier­te en datos [y no al revés] y la ense­ñan­za se con­vier­te en actos de mera impar­ti­ciónY lo que des­apa­re­cen son valio­sas capa­ci­da­des huma­nas: la curio­si­dad, el dis­cer­ni­mien­to, el sen­ti­do común, la pre­sen­cia huma­na. El resul­ta­do no es inte­li­gen­cia aumen­ta­da, sino apren­di­za­je simu­la­do: un enfo­que del pen­sa­mien­to basa­do solo en núme­ros». 

Pur­ser advier­te que el Tec­no­po­lio pros­pe­ra por la vía de los hechos sin pla­ni­fi­ca­ción uni­ver­si­ta­ria algu­na y como algo com­ple­ta­men­te inevi­ta­ble. Las uni­ver­si­da­des están inten­tan­do adap­tar­se sin tiem­po a refle­xio­nar re-estru­c­­tu­­rá­n­­do­­se como cen­tros de cum­pli­mien­to de la con­ve­nien­cia cog­ni­ti­va. En deta­lle, Pur­ser seña­la: «No se ense­ña a los estu­dian­tes a pen­sar con mayor pro­fun­di­dad, sino cre­cien­te­men­te a esti­mu­lar con mayor efi­ca­cia. Esta­mos expor­tan­do la labor mis­ma de ense­ñar y apren­der: el len­to pro­ce­so de deba­tir con ideas, la supera­ción de la inco­mo­di­dad, la duda y la con­fu­sión»; y, aña­do, la con­tien­da ago­nis­ta por encon­trar la pro­pia voz. Para con­fir­mar lo que afir­ma Pur­ser al res­pec­to, cito el titu­lar de una intere­san­te y recien­te entre­vis­ta a Sonia Con­te­ra, cate­drá­ti­ca de físi­ca bio­ló­gi­ca en Oxford en la que afir­ma: «Una de las cosas más terri­bles de la IA es que nos invi­ta a dejar de pen­sar».

Lamen­ta Pur­ser que la peda­go­gía crí­ti­ca, inclu­so el tér­mino, «ha pasa­do de moda como algo pres­cin­di­ble. En cam­bio, los tru­cos para la pro­duc­ti­vi­dad están de moda. Lo que se ven­de como inno­va­ción es, en reali­dad, ren­di­ción. A medi­da que la uni­ver­si­dad cam­bia su misión docen­te, huma­nis­ta e inves­ti­ga­do­ra, por la «inte­gra­ción de la IA y la tec­no­lo­gía» de la que se espe­ra algo gran­de, –esa inmen­sa pro­me­sa de la indus­tria de la IA–. Pero, en opi­nión de Pur­ser, «con ello, la uni­ver­si­dad no solo se arries­ga a la irre­le­van­cia, sino a vol­ver­se mecá­ni­ca­men­te des­al­ma­da». El coro­la­rio en tér­mi­nos de balan­ce es tre­men­do. Por decir­lo en tér­mi­nos de jer­ga empre­sa­rial o empren­de­do­ra «la autén­ti­ca lucha inte­lec­tual se ha con­ver­ti­do en una pro­pues­ta de valor dema­sia­do cos­to­sa». Y enton­ces, como diría un foro­fo del empren­di­mien­to, eso la con­vier­te en pres­cin­di­ble, por­que enton­ces ya no es algo que con­ven­ga al mode­lo de nego­cio. Pero, ¿al mode­lo de nego­cio de quién, o de quie­nes?

Hacer trampa y glorificar el fraude, un nuevo modelo de negocio

Hay algu­nos ele­men­tos que son comu­nes a todas las IA gene­ra­ti­vas, los LLM y los Chat­bot que cono­ce­mos. El pri­me­ro en común, empe­zan­do por ChatGPT y la empre­sa Open AI que lo lan­zó tras un inmen­so frau­de pre­vio de latro­ci­nio de con­te­ni­do. Antes de lan­zar ChatGPT (acró­ni­mo del inglés Chat Gene­ra­ti­ve Pre-Trai­­ned), la empre­sa Open AI, naci­da solo en apa­rien­cia como una enti­dad sin áni­mo de lucro, lle­vó a cabo antes del pre-entre­­na­­mie­n­­to del Chat­bot, un latro­ci­nio a gran esca­la apro­pián­do­se ile­gal­men­te el con­te­ni­do de millo­nes de libros y tex­tos (se cal­cu­la que un total de 370.000 millo­nes de pala­bras escri­tas por auto­res huma­nos) y archi­vos de todo tipo de con­te­ni­dos, –des­de Wiki­pe­dia ente­ra a millo­nes de archi­vos web, inclu­yen­do tex­tos, imá­ge­nes vídeos, grá­fi­cos, todos publi­ca­cio­nes con auto­ría–. Y todo ello, sin pedir per­mi­so a nin­gún autor, edi­tor o res­pon­sa­ble de con­te­ni­dos. Eso nor­ma­li­zó esta prác­ti­ca de fac­to como si fue­ra algo natu­ral, nor­mal e inevi­ta­ble. Pero hizo algo más: nor­ma­li­zar el latro­ci­nio para pre-entre­­nar a las demás IA Gene­ra­ti­vas, a cual­quie­ra de ellas.

Hay miles de plei­tos en mar­cha con­tra las empre­sas desa­rro­lla­do­res de los mode­los LLM de IA, con algu­nos ejem­plos actua­les sig­ni­fi­ca­ti­vos. Por ejem­plo, el de Andrea Bartz, una escri­to­ra esta­dou­ni­den­se, auto­ra de la nove­la de mis­te­rio y sus­pen­se We Were Never Here, gran éxi­to de ven­tas del New York Times. Andrea abrió una web titu­la­da: ChatGPT Is Eating the World (ChatGPT está devo­ran­do el mun­do). Bartz, que se ha pues­to al fren­te como deman­dan­te prin­ci­pal en una deman­da colec­ti­va por dere­chos de autor con­tra la empre­sa de IA Anth­ro­pic, (ojo!, co-fun­­da­­da por su CEO Dario Amo­dei que antes fue vice­pre­si­den­te de inves­ti­ga­ción de Ope­nAI). Barz ha publi­ca­do un artícu­lo de opi­nión en el New York Times en el que elo­gia la sen­ten­cia del juez William Alsup que otor­ga la apro­ba­ción pre­li­mi­nar de un acuer­do legal de 1.500 millo­nes de dóla­res que debe­rá pagar Anth­ro­pic a los auto­res de las obras pira­tea­das, el más gran­de en la his­to­ria de los dere­chos de autor, en la deman­da colec­ti­va pre­sen­ta­da por Andrea Bartz y miles de auto­res, con­tra la empre­sa de IA Anth­ro­pic. La auto­ra afir­ma que esta sen­ten­cia envía un men­sa­je cla­ro a las gran­des empre­sas tec­no­ló­gi­cas que están inun­dan­do el mun­do con todas las Apps, pági­nas y pro­gra­mas con IA Gene­ra­ti­va advir­tién­do­les que no están por enci­ma de la ley.

Pero, al tiem­po, lan­za una des­agra­da­ble adver­ten­cia a los auto­res de libros, sobre que ten­drán que librar mul­ti­tud de gue­rras para defen­der sus dere­chos de autor «duran­te los pró­xi­mos años». Pues bien, resul­ta que aho­ra, yo mis­mo soy par­te impli­ca­da. Mien­tras escri­bía este tex­to, mi edi­to­rial MIT Press, me aca­ba de enviar una noti­fi­ca­ción de que un libro mío que ellos han publi­ca­do, está afec­ta­do (ha sido pira­tea­do) e inclui­do en el con­jun­to de la deman­da. ¡Vaya sor­pre­sa y sopa­po de reali­dad! Mi tex­to del libro tam­bién fue secre­ta­men­te pira­tea­do por Anth­ro­pic o por algu­na empre­sa de data broc­kers  (bro­kers de datos), por encar­go suyo. Cual­quie­ra diría que el mon­tan­te de la deman­da es muy alto. Pero no se preo­cu­pen ni le ten­gan lás­ti­ma. Antho­pic ya tie­ne un valor en bol­sa cer­cano a los 350.000 millo­nes de dóla­res.

Sin embar­go, pese a ese espec­ta­cu­lar acuer­do legal, yo no soy tan opti­mis­ta como Andrea. Ya que pien­so que este asun­to, no es solo un tema eco­nó­mi­co. Sig­ni­fi­ca un cam­bio de para­dig­ma no solo para las auto­rías de todo tipo, sino tam­bién para la natu­ra­li­za­ción del frau­de como herra­mien­ta pre­via al desa­rro­llo de las IA Gene­ra­ti­vas hacien­do de ese latro­ci­nio pre­vio que he cita­do antes algo nor­mal, natu­ral e inevi­ta­ble­men­te para ser decons­trui­do y regur­gi­ta­do pos­te­rior­men­te por un Chat­bot de IA. Y ade­más como dije, ha inte­gra­do el frau­de como un fac­tor inhe­ren­te al desa­rro­llo de las IA gene­ra­ti­vas y los LLM, que han pasa­do a for­mar par­te del mode­lo de nego­cio de las empre­sas desa­rro­lla­do­ras. La cosa lle­ga más lejos; ha hecho de la tram­pa y el frau­de algo nor­mal e inclu­so tri­vial rela­cio­na­do con este tipo de uso de Apps de IA. Pon­dré aquí, aho­ra (aun­que hay muchos más), un ejem­plo sig­ni­fi­ca­ti­vo, el de Chun­gin R. Lee.

Chun­gin «Roy» Lee. Lee lle­gó como estu­dian­te nova­to de pri­mer año a la Uni­ver­si­dad de Colum­bia en Nue­va York, con mucha ambi­ción, –y una pes­ta­ña de Ope­nAI siem­pre abier­ta–. Él mis­mo admi­tió sin el menor ras­tro de cul­pa que hacía tram­pa en casi todas las tareas. «Sim­ple­men­te escri­bía la con­sig­na en el ChatGPT y entre­ga­ba lo que me salía», decla­ró a la revis­ta New York Maga­zi­ne. «La IA escri­bió el 80 % de todos los ensa­yos que entre­gué». Al pre­gun­tar­le por qué se moles­tó en soli­ci­tar pla­za en una uni­ver­si­dad de la Ivy Lea­gue (la liga de uni­ver­si­da­des de éli­te de EE.UU.), Lee fue des­ar­man­te­men­te hones­to: «Para encon­trar espo­sa, y un socio para una star­tup», –sol­tó, sin pes­ta­ñear–-.

El pri­mer empren­di­mien­to de Lee fue una App de IA lla­ma­da Inter­view Coder, dise­ña­da para hacer tram­pa en las entre­vis­tas de tra­ba­jo de Ama­zon. Se gra­bó él mis­mo usán­do­la. Rápi­da­men­te su vídeo se hizo viral. De inme­dia­to, las auto­ri­da­des de la Univ. de Colum­bia le sus­pen­die­ron por «publi­ci­tar un enla­ce a una herra­mien­ta para hacer trampa».

Nota cro­no­ló­gi­ca: esto ocu­rrió jus­to cuan­do al tiem­po que en la Uni­ver­si­dad de Colum­bia, igual que la CSU, se anun­cia­ba una cola­bo­ra­ción con Ope­nAI. Exac­ta­men­te la mis­ma empre­sa que desa­rro­lla el soft­wa­re que Roy Lee usó para hacer tram­pa en sus cur­sos.

Sin inmu­tar­se, imper­té­rri­to, Lee publi­có su pena­li­za­ción dis­ci­pli­na­ria en inter­net, ganan­do aún más segui­do­res en su red social. Él y su socio Neel Shan­mu­gam, tam­bién san­cio­na­do, argu­men­ta­ron que su App no infrin­gía nin­gu­na nor­ma. «No apren­dí nada en una cla­se en Colum­bia”, fue su coar­ta­da. El socio de Lee decla­ró a KTVU News: “Y creo que a la mayo­ría de mis ami­gos les pasa lo mis­mo».

Tras su sus­pen­sión, Roy y Neel, aban­do­na­ron la uni­ver­si­dad ya que su star­tuprecau­dó 5,3 millo­nes de dóla­res como finan­cia­ción ini­cial. Se muda­ron a San Fran­cis­co. Cla­ro, por­que por allí, –pen­sa­ron para sus aden­tros–, nada repre­sen­ta mejor la «visión tec­no­ló­gi­ca» que ser expul­sa­do por hacer tram­pa. Deci­die­ron seguir con su nihi­lis­ta carre­ra de empren­de­do­res. ¿El nom­bre de su nue­va star­tup?: CluelySu misión: «Que­re­mos hacer tram­pa en todo. Ayu­dar­te a hacer tram­pa de for­ma más inte­li­gen­te». Su visio­na­rio lema: «Crea­mos Cluely para que nun­ca más ten­gas que pen­sar solo”. Cluely no ocul­ta su pro­pó­si­to de hacer tram­pa y seguir con los frau­des,  pre­su­me de ello. Un Mani­fies­to que publi­ca­ron, expli­ca su aplas­tan­te lógi­ca:

¿Para qué memo­ri­zar datos, escri­bir códi­go, inves­ti­gar algo cuan­do un Mode­lo de IA pue­de hacer­lo en segun­dos? El futu­ro no recom­pen­sa­rá el esfuer­zo. Recom­pen­sa­rá el apa­lan­ca­mien­to. Así que empie­za a hacer tram­pa. Por­que cuan­do todos la hacen, nadie la hace.

Cono­cí la his­to­ria de Roy R. Lee gra­cias a Ronald Pur­ser. Y él lo cono­ció en una de las sesio­nes que orga­ni­zó Ope­nAI en su uni­ver­si­dad, la OSU de San Fran­cis­co. Pur­ser refle­xio­na sobre la sen­sa­ción que le pro­du­jo el encuen­tro: …«cuan­do un joven de 21 años, que aban­do­nó la uni­ver­si­dad y fue sus­pen­di­do por hacer tram­pa, nos da una char­la sobre la inevi­ta­bi­li­dad tec­no­ló­gi­ca, la res­pues­ta no debe­ría ser páni­co moral, sino cla­ri­dad moral sobre qué intere­ses se están defen­dien­do. Hacer tram­pa ha deja­do de ser una sub­cul­tu­ra; se ha con­ver­ti­do en una iden­ti­dad de mar­ca y una ideo­lo­gía de capi­tal ries­go. ¿Y por qué no? En la Chat­ver­si­dad, hacer tram­pa ya no es una des­via­ción, sino la nor­ma».

Cuan­do se le cues­tio­na sobre su éti­ca, Lee recu­rre a la defen­sa típi­ca de Sili­con Valley: «Cual­quier tec­no­lo­gía del pasa­do, ya sean cal­cu­la­do­ras o bus­ca­do­res de Goo­gle, se enfren­ta­ba ini­cial­men­te a una reac­ción de ¡Oye, esto es tram­pa!», –decla­ró a KTVU–…Pero, –aña­de Pur­ser–, «es una ana­lo­gía sim­plis­ta que sue­na pro­fun­da en una pre­sen­ta­ción de star­tup, pero se des­mo­ro­na al ser ana­li­za­da. Las cal­cu­la­do­ras expan­die­ron el razo­na­mien­to; la impren­ta difun­dió el cono­ci­mien­toChatGPT, en cam­bio, no extien­de la cog­ni­ción, sino que la auto­ma­ti­za, con­vir­tien­do el pen­sa­mien­to en un ser­vi­cio. En lugar de demo­cra­ti­zar el apren­di­za­je, pri­va­ti­za el acto de pen­sar», (¡ojo!, bajo con­trol cor­po­ra­ti­vo y sin tra­za­bi­li­dad algu­na). Y, con­clu­ye el pro­fe­sor Pur­ser de for­ma no muy opti­mis­ta: «Lo que está ocu­rrien­do aho­ra es más que des­ho­nes­ti­dad; es el des­mo­ro­na­mien­to de cual­quier enten­di­mien­to com­par­ti­do sobre el pro­pó­si­to de la edu­ca­ción. Y los estu­dian­tes no son irra­cio­na­les. Muchos están bajo una enor­me pre­sión para man­te­ner una bue­na nota media, o una alta nota de cor­te aca­dé­mi­ca para con­se­guir acce­der a la carre­ra que más desean y/o para obte­ner becas, ayu­da finan­cie­ra, o visas de per­mi­so de resi­den­cia. La edu­ca­ción se ha vuel­to tran­sac­cio­nal; hacer tram­pa se ha con­ver­ti­do ya en cier­tos casos, en una estra­te­gia de super­vi­ven­cia».

Evita contraer en tu vida deuda personal cognitiva. El espejismo metacognitivo

Como he dicho antes, todo lo ante­rior inten­ta expre­sar que la irrup­ción de la IA en los cam­pus uni­ver­si­ta­rios no se limi­ta a eso, –y esto es importante‑, sino que empre­sas como Ope­nAI y otras, lo van a uti­li­zar, ade­más, a tra­vés de las acti­vi­da­des estu­dian­ti­les, como vía de pene­tra­ción en la vida ente­ra de millo­nes de estu­dian­tes. En el fon­do, con el obje­ti­vo de con­ver­tir­los en usua­rios adic­tos del Chat­bot para los res­tosantes de que lo haga la com­pe­ten­cia. (Eso es una bue­na excu­sa para todo). Pero hay más con­se­cuen­cias como ya expli­qué en mi ulti­mo artícu­lo; tam­bién; va a tener cos­tes cog­ni­ti­vos, vita­les y mora­les para la edu­ca­ción y la uni­ver­si­dad, el apren­di­za­je y la vida de los estu­dian­tes. En ese sen­ti­do, Sonia Con­te­ra, cate­drá­ti­ca de físi­ca bio­ló­gi­ca de la Uni­ver­si­dad de Oxford seña­la lite­ral­men­te: «Una de las cosas más terri­bles de la IA es que nos invi­ta a dejar de pen­sar». Y ella no habla por hablar sobre los peli­gros de ero­sión de la capa­ci­dad men­tal. Cada vez más prue­bas empí­ri­cas de que con la IA sur­gen pro­ble­mas men­ta­les nue­vos.

Una recien­te, se expli­ca en un nue­vo estu­dio lla­ma­do Your Brain on ChatGPT de la cien­tí­fi­ca Nata­li­ya Kos’my­na del gru­po Flui­des Inter­fa­ces del MIT Media Lab. El títu­lo com­ple­to es «Tu cere­bro en ChatGPT: acu­mu­la­ción de deu­da cog­ni­ti­va al uti­li­zar un asis­ten­te de IA para tareas de redac­ción de ensa­yos», y su docu­men­ta­ción ofre­ce prue­bas cien­tí­fi­cas alec­cio­na­do­ras. En dicho estu­dio se des­cri­be que, cuan­do los par­ti­ci­pan­tes uti­li­za­ron ChatGPT para redac­tar ensa­yos, los escá­ne­res cere­bra­les reve­la­ron una caí­da del 47 % en la conec­ti­vi­dad neu­ro­nal en las regio­nes aso­cia­das con la memo­ria, el len­gua­je y el razo­na­mien­to crí­ti­co. Sus cere­bros tra­ba­ja­ban menos, pero se sen­tían igual de invo­lu­cra­dos, gene­rán­do­se en sus men­tes una espe­cie de espe­jis­mo meta­cog­ni­ti­vo del que no son cons­cien­tes. El 83 % de los par­ti­ci­pan­tes, usua­rios habi­tua­les de IA no podían recor­dar los pun­tos cla­ve de lo que habían «escri­to», en com­pa­ra­ción con sólo el 10 % de los que redac­ta­ban sin ayu­da del Chat­bot. Los revi­so­res neu­tra­les des­cri­bie­ron la redac­ción asis­ti­da por IA como «sin alma, vacía y caren­te de indi­vi­dua­li­dad». Lo más alar­man­te se vio des­pués. Tras cua­tro meses de depen­den­cia de ChatGPT, los par­ti­ci­pan­tes escri­bían peor, una vez que se les reti­ró, que aque­llos que nun­ca lo habían uti­li­za­do.

La inves­ti­ga­ción advier­te que cuan­do se dele­ga la escri­tu­ra a la IA, la for­ma en que las per­so­nas apren­den cam­bia radi­cal­men­te. El pro­fe­sor Pur­ser recuer­da que como advir­tió hace déca­das el infor­má­ti­co Joseph Wei­zen­baum«el ver­da­de­ro peli­gro radi­ca en que los seres huma­nos adap­ten sus men­tes a la lógi­ca de las máqui­nasLos estu­dian­tes no solo apren­den menos, sino que sus cere­bros apren­den a no apren­der». Es decir, des­apren­den ya que estas apli­ca­cio­nes, como me expli­có el neu­ro­cien­tí­fi­co Álva­ro Pas­­cual-Leo­­ne, son capa­ces de empeo­rar los meca­nis­mos cere­bra­les.

Cal New­port, pro­fe­sor de com­pu­ter scien­ce de la Uni­ver­si­dad de Geor­ge­town, lla­ma a esto «deu­da cog­ni­ti­va» y expli­ca que con­sis­te en hipo­te­car la capa­ci­dad cog­ni­ti­va futu­ra a cam­bio de una como­di­dad nihi­lis­ta y, a cor­to pla­zo, com­bi­na­da con con­for­mis­mo e inevi­ta­bi­li­dad tec­no­ló­gi­cos. En una entre­vis­ta, su invi­ta­do, Brad Stul­berg, com­pa­ra el meca­nis­mo con usar una carre­ti­lla ele­va­do­ra en el gim­na­sio: «pue­des pasar la mis­ma hora sin levan­tar nada y seguir sin­tién­do­te pro­duc­ti­vo, pero tus múscu­los se atro­fia­rán». El pen­sa­mien­to, al igual que la fuer­za, se desa­rro­lla a tra­vés de la resis­ten­ciaCuan­to más dele­ga­mos nues­tro esfuer­zo men­tal en las máqui­nas, en el soft­wa­re; per­de­mos en mayor gra­do nues­tra capa­ci­dad de pen­sar.

El pro­fe­sor Ronald Pur­ser con­clu­ye su refle­xión en un tono alar­ma­do y bas­tan­te pesi­mis­ta: «esta ero­sión men­tal ya es visi­ble en las aulas. Los estu­dian­tes lle­gan con flui­dez en la expre­sión, pero titu­bean­tes a la hora de arti­cu­lar sus pro­pias ideas. Los ensa­yos «redac­ta­dos» (con la ayu­da de ChatGPT y simi­la­res), pare­cen puli­dos, pero que­dan arti­fi­cia­les, com­pues­tos a par­tir de una sin­ta­xis sin­té­ti­ca y pen­sa­mien­tos pres­ta­dos, no sabe­mos de quién. El len­gua­je de la refle­xión, —me pre­gun­to, me cues­ta, aho­ra lo veo— está des­apa­re­cien­do. En su lugar apa­re­ce la gra­má­ti­ca lim­pia de la auto­ma­ti­za­ción: flui­da, efi­cien­te y vacía…», Y aña­de «La ver­da­de­ra tra­ge­dia no es que los estu­dian­tes uti­li­cen ChatGPT para hacer sus tra­ba­jos de cla­se. Es que las uni­ver­si­da­des están ense­ñan­do a todo el mun­do —estu­dian­tes, pro­fe­so­res, ges­to­res— a dejar de pen­sar. A toda velo­ci­dad, esta­mos exter­na­li­zan­do el dis­cer­ni­mien­to. Los estu­dian­tes se gra­dúan con flui­dez en la for­mu­la­ción de pre­gun­tas, pero son anal­fa­be­tos en mate­ria de jui­cio; los pro­fe­so­res ense­ñan, pero no se les per­mi­te la liber­tad de edu­car; y las uni­ver­si­da­des, ansio­sas por pare­cer inno­va­do­ras, des­man­te­lan las prác­ti­cas que las hicie­ron dig­nas de ese nom­bre. Nos acer­ca­mos a la ban­ca­rro­ta edu­ca­ti­va: títu­los sin apren­di­za­je, ense­ñan­za sin com­pren­sión, ins­ti­tu­cio­nes edu­ca­ti­vas sin pro­pó­si­to». 

A medi­da que la cor­po­ra­ti­vi­za­ción sal­va­je se extien­de en los cam­pus, –aña­de–, aumen­ta el tama­ño de las cla­ses y la car­ga de tra­ba­jo del pro­fe­so­ra­do. La ten­ta­ción es obvia: dejar que ChatGPT escri­ba con­fe­ren­cias y artícu­los de revis­tas, corri­ja ensa­yos y redi­se­ñe los pro­gra­mas de estu­dio. Des­pués, pone un poco de humor… y rela­ta «toda esta simu­la­ción recuer­da un vie­jo chis­te sovié­ti­co de la fábri­ca: Ellos fin­gen pagar­nos, y noso­tros fin­gi­mos tra­ba­jar. En la Chat­ver­si­dad, los roles son igual de guio­ni­za­dos y cíni­cos. Pro­fe­so­res: ellos fin­gen apo­yar­nos, y noso­tros fin­gi­mos ense­ñar. Estu­dian­tes: ellos fin­gen edu­car­nos, y noso­tros fin­gi­mos apren­der».

Pur­ser, aler­ta­do por lo que pasa en su uni­ver­si­dad, advier­te a las otras uni­ver­si­da­des públi­cas de cual­quier lugar del mun­do: «el alma de la edu­ca­ción públi­ca está en jue­go. Cuan­do el mayor sis­te­ma uni­ver­si­ta­rio públi­co con­ce­de una licen­cia masi­va a un Chat­bot de IA de una empre­sa que inclu­ye a perio­dis­tas en lis­tas negras, explo­ta a los tra­ba­ja­do­res de datos del Sur Glo­bal, acu­mu­la poder geo­po­lí­ti­co y ener­gé­ti­co a una esca­la sin pre­ce­den­tes y se posi­cio­na como admi­nis­tra­dor no ele­gi­do del des­tino humano, trai­cio­na su misión como «uni­ver­si­dad del pue­blo», –así lla­man aún a su uni­ver­si­dad–, arrai­ga­da en los idea­les demo­crá­ti­cos y la jus­ti­cia social. Ope­nAI no es un socio, es un impe­rio, envuel­to en simu­la­ción éti­ca y acom­pa­ña­do de unos ama­bles tér­mi­nos de ser­vi­cio. Mi uni­ver­si­dad no se resis­tió. Sim­ple­men­te, hizo clic en «Acep­tar». Y recuer­da su for­ma­ción en la uni­ver­si­dad públi­ca esta­tal de Sono­ma: «De joven, no fui sim­ple­men­te a la uni­ver­si­dad «para» con­se­guir un tra­ba­jo. Fui para explo­rar, para enfren­tar­me a retos, para des­cu­brir lo que era impor­tan­te. Tar­dé seis años en gra­duar­me en Psi­co­lo­gía, seis de los años más sig­ni­fi­ca­ti­vos y explo­ra­to­rios de mi vida».

Su con­clu­sión es que «ese tipo de edu­ca­ción des­de lo públi­co —abier­ta, ase­qui­ble y orien­ta­da a la bús­que­da de sig­ni­fi­ca­do—, flo­re­ció en su día en las uni­ver­si­da­des públi­cas. Pero aho­ra está casi extin­ta. No se adap­ta. No enca­ja en el plan estra­té­gi­co. Y no tie­ne sen­ti­do, razón por la cual la Chat­ver­sity quie­re eli­mi­nar­la. Pero tam­bién mues­tra otra ver­dad impor­tan­te: las cosas pue­den ser dife­ren­tes. Antes lo eran».

La mía, es que, para las uni­ver­si­da­des e ins­ti­tu­cio­nes públi­cas espa­ño­las, ren­dir­se sumi­sa­men­te a la pro­pa­gan­da oscu­ra y enga­ño­sa de la IA de las big tech y sus finan­cia­do­res no debe­ría ser una opción. Coin­ci­do con el diag­nós­ti­co del pro­fe­sor Pur­ser y por eso con­tri­bu­yo a dar­lo a cono­cer. Con­ci­bo el papel de la uni­ver­si­dad públi­ca, –por muy mejo­ra­ble e mper­fec­to que sea su fun­cio­na­mien­to actual, que lo es–, como uno de los pila­res de la socie­dad demo­crá­ti­ca, y cuan­do fun­cio­na bien, sin la odio­sa endo­ga­mia, y sin el no menos nefas­to nepo­tis­mo, es el mejor y más jus­to ascen­sor social que conoz­co. No me gus­ta­ría que la que sien­to como mía, se aca­ba­se con­vir­tien­do en una Chat­ver­sity. Es muy duro oír al pro­fe­sor Pur­ser decir que «la aso­cia­ción de Ope­nAI con la Uni­ver­si­dad Esta­tal de Cali­for­nia (CSU), el sis­te­ma uni­ver­si­ta­rio públi­co más gran­de de Esta­dos Uni­dos, pone de mani­fies­to has­ta qué pun­to las uni­ver­si­da­des públi­cas se han ale­ja­do de su misión demo­crá­ti­ca. Y oír cómo usan la vie­ja invo­ca­ción de la ansie­dad de Sócra­tes por escri­bir, para suge­rir que los temo­res actua­les a la IA son meras nos­tal­gias, cuan­do cri­ti­can a Pur­ser sobre sus pro­pues­tas cpn la pre­cau­ción y le acu­san de pro­ble­mis­mo».

Por mi posi­ción crí­ti­ca, a mí, como a él tam­bién, a veces, me eti­que­tan de escép­ti­co o “gloo­mer de la IA” («pesi­mis­ta de la IA»). Tam­bién me han argu­men­ta­do, algo pare­ci­do a que «regu­lar, ralen­ti­zar o pau­sar la IA sólo anu­la­ría sus bene­fi­cios» O, «si no la usas así, te que­da­rás, se que­da­rán atrás» expre­sión que ya es un lugar común. Pero, afor­tu­na­da­men­te, no soy de la for­ma de pen­sar de Musk, ni de la de Alt­man, o Ver­don, ni los entu­sias­tas y papa­na­tas del ace­le­ra­cio­nis­mo efec­ti­vo. Y, ade­más, creo que hay que defen­der la uni­ver­si­dad públi­ca en rela­ción al mal uso de la IA y sus ame­na­zas y peli­gros, que los tie­ne con los malos usos. Para mí, la uni­ver­si­dad públi­ca fue un lugar don­de tam­bién apren­dí a tener pen­sa­mien­to crí­ti­co, gra­cias a algu­nos maes­troscien­tí­fi­cos y sabios que nun­ca olvi­do, ni olvi­da­ré. No me impor­ta que me cali­fi­quen de gloo­mer, pero no pien­so tra­gar­me sin más la pro­pa­gan­da enga­ño­sa de cier­tas auto cali­fi­ca­das empre­sas de IA, que ocul­tan las con­se­cuen­cias nega­ti­vas de sus malos usos, que tam­bién las hay. Y por eso he escri­to este ensa­yo.

Con res­pec­to a la Uni­ver­si­dad, el pro­fe­sor Pur­ser, como he cita­do antes, ha dicho que «las cosas pue­den ser dife­ren­tes. Antes lo eran». Pues bien, esa afir­ma­ción de su diag­nós­ti­co tam­bién es váli­da con res­pec­to al Inter­net de las redes socia­les y la IA actua­les. Recuer­do que el gran Hans Mag­nus Enzens­ber­ger, refle­xio­nó sobre aquél inter­net pio­ne­ro tan dis­tin­to al actual, en su ensa­yo El evan­ge­lio digi­tal, en el que afir­ma­ba: «mien­tras el idea­lis­mo elec­tró­ni­co de los pio­ne­ros de la web esta­ba pro­yec­tan­do un medio para el dis­cur­so de la no domi­na­ción (y un acce­so uni­ver­sal al cono­ci­mien­to) sin cos­tes, la indi­fe­ren­cia cua­si­di­vi­na del capi­tal (espe­cu­la­ti­vo y sal­va­je) vio pron­to las opor­tu­ni­da­des de explo­ta­ción extrac­ti­va que la red le ofre­cía por ambos lados. Por una par­te, se tra­ta­ba del con­trol eco­nó­mi­co del trá­fi­co de datos, por la otra de la comer­cia­li­za­ción de los con­te­ni­dos. Des­de enton­ces ha cre­ci­do ince­san­te­men­te el ensu­cia­mien­to de la red por la publi­ci­dad». Y ese ensu­cia­mien­to aho­ra va a aumen­tar con la IA, en varios órde­nes de mag­ni­tud.

Para nom­brar la ver­sión actual del ensu­cia­mien­to que men­cio­nó Enzens­ber­ger, Cory Doc­to­row ha acu­ñan­do un tér­mino que ha hecho for­tu­na; le ha lla­ma­do «enshi­ti­fi­ca­tion» (enmer­da­mien­to, en espa­ñol), con el que nom­bra al pro­ce­so de degra­da­ción pro­gre­si­va de casi todos los pro­duc­tos y ser­vi­cios digi­ta­les, espe­cial­men­te los de las pla­ta­for­mas onli­ne, que se vuel­ven cre­cien­te­men­te peo­res, y cada vez para más usua­rios, a medi­da que las empre­sas de las pla­ta­for­mas de las big tech pro­ri­zan la mone­ti­za­ción sobre la cali­dad, sacri­fi­can­do la expe­rien­cia de usua­rio ori­gi­nal para com­pla­cer a sus gran­des inver­so­res, o a los de sus clien­tes comer­cia­les. La IA está ace­le­ran­do la enshi­ti­fi­ca­tion de lo digi­tal ali­nea­da con los mode­los de nego­cio extrac­ti­vos que guían la ava­ri­cia de las pla­ta­for­mas y, con ella, la de sus App de IA por los datos y la aten­ción de la gen­te. Pero el Inter­net de la IA no tie­ne ni ten­dría que ser así. Tam­bién esto podría ser dife­ren­te. Antes lo era.

Yo viví el ini­cio de la Web de Tim Ber­­ners-Lee; el arran­que de la Wiki­pe­dia por Jimmy Wales, el lan­za­mien­to del GNU Pro­ject y de las cua­tro liber­ta­des del soft­wa­re libre por Richard Stall­man; (Cap.22, pág. 283), la lec­tu­ra de la Decla­ra­ción de Inde­pen­den­cia del Ciber­es­pa­cio en Davos por John Perry Bar­low. O la fun­da­ción del Inter­net Archi­ve por Brews­ter Kha­le. Vis­ta la dife­ren­cia, aquel inter­net era casi dia­me­tral­men­te opues­to al mani­pu­la­dor y enshi­ti­fi­ca­do Inter­net actual. Lo que demues­tra que otro Inter­net es posi­ble, por­que aún exis­te. De hecho, ese es el inter­net vir­tuo­so del que se han apro­pia­do uni­la­te­ral­men­te para el entre­na­mien­to de sus IA empre­sas como Ope­nAI, Anth­ro­pic, xAI o Goo­gle, o Deep­Seek y otras. Sin los con­te­ni­dos de ese inter­net vir­tuo­so no exis­ti­rían los trans­for­mers de los que des­cien­den los actua­les LLM, –esas proezas esta­dís­ti­cas, como las lla­ma Chomsky–; ni su des­cen­den­cia digi­tal bas­tar­da en for­ma de Chat­bots con­ver­sa­cio­na­les. Han sur­gi­do así, y son así, pero podrían haber­lo hecho, des­de lue­go, de otra mane­ra. Este no es, ni debe­ría ser, un pro­ce­so deter­mi­nis­ta.

Y es por eso, aun­que me lla­men recal­ci­tran­te­men­te utó­pi­co, por lo que estoy con­ven­ci­do que nues­tra con­vi­ven­cia con la IA tam­bién podrá ser dife­ren­te y con usos dis­tin­tos a los degra­dan­tes que nos quie­ren impo­ner las hues­tes mer­ce­na­rias de los nue­vos líde­res tecno-feu­­da­­les y par­ti­da­rios del ace­le­ra­cio­nis­mo efec­ti­vo. Hay muchas for­mas tec­no­ló­gi­cas en lo que gené­ri­ca­men­te mal lla­ma­mos IA. Nues­tras uni­ver­si­da­des, ins­ti­tu­cio­nes y empre­sas debe­rían deci­dir cómo quie­ren usar las IAs, para qué y en qué ámbi­tos y en base a qué valo­res; en lugar de limi­tar­se, como denun­cia el pro­fe­sor Pur­ser, sim­ple­men­te a «Acep­tar» usos, que úni­ca­men­te están impul­sa­dos por el plan de nego­cio depre­da­dor, extrac­tor y cani­ba­li­za­dor, de muchas de las pla­ta­for­mas de las big tech.

Llá­men­me idea­lis­ta, pero creo que Euro­pa debe­ría hacer con la IA algo como lo que hizo con la físi­ca de par­tí­cu­las con el CERN don­de se inven­tó la Web de for­ma ines­pe­ra­da. Pero eso ocu­rrió, pro­ba­ble­men­te, por­que allí exis­tía un espa­cio de cola­bo­ra­ción para la crea­ti­vi­dad cien­tí­fi­ca, el pro­gre­so y la paz. Insis­to. La UE debe con­quis­tar su pro­pia sobe­ra­nía tec­no­ló­gi­ca en IA y pro­mo­ver los usos cien­tí­fi­cos y de inves­ti­ga­ción que le son pro­pios, según la filo­so­fía y el pro­ver­bial para­dig­ma euro­peo de cola­bo­ra­ción y buen uso de la cien­cia y la tec­no­lo­gía, orien­ta­das al bien común de la socie­dad, fue­ra de extre­mis­mos y con­tien­das del ace­le­ra­cio­nis­mo efec­ti­vo. No impor­ta que Euro­pa no sea líder en la IA de la mani­pu­la­ción, del entre­te­ni­mien­to y el enga­ño. La UE, no solo ha de regu­lar estas tec­no­lo­gías y poner­les lími­tes en pro del bien públi­co. Tam­bién debe desa­rro­llar por sí mis­ma, apli­ca­cio­nes bon­da­do­sas de la IA cien­ti­fi­ca y pro­mo­ver su uso en con­se­cuen­cia, sobre todo para sí mis­ma, su cien­cia y sus socie­da­des demo­crá­ti­cas de ciu­da­da­nos. Creo que el pro­pó­si­to de las IAs euro­peas debe­ría ser simi­lar a los que carac­te­ri­zan al CERN, que esa Euro­pa puso en mar­cha. Es una prue­ba viva de que sabe hacer­lo.

Vol­vien­do a lo glo­bal, no quie­ro dejar de men­cio­nar otros ries­gos, no meno­res, que, dada su evo­lu­ción, pue­de traer como un tsu­na­mi finan­cie­ro la lla­ma­da nue­va indus­tria espe­cu­la­ti­va de la IA, aho­ra que los tecno-oli­­ga­r­­cas arra­ci­ma­dos como un gru­po de plu­tó­cra­tas, y cre­yen­tes del cita­do ace­le­ra­cio­nis­mo efec­ti­vo, ade­más, están tam­bién inten­tan­do fago­ci­tar, median­te líde­res inter­pues­tos, y alcan­zar el máxi­mo poder polí­ti­co, por el méto­do de impul­sar a las fuer­zas reac­cio­na­rias de todo pela­je a lo lar­go del pla­ne­ta. Por­que ese camino tie­ne peli­gro­sos ries­gos sis­té­mi­cos. Ray­mond Torres, direc­tor de coyun­tu­ra de Fun­cas expli­ca en un pre­ci­so aná­li­sis muy recien­te que el exce­so de expec­ta­ti­vas de esta indus­tria de la IA están exce­dien­do la reali­dad has­ta el pun­to de gene­rar una bur­bu­ja de gran­des pro­por­cio­nes, al pun­to que el FMI ya ha avi­sa­do de que está ya comen­zan­do a ame­na­zar la esta­bi­li­dad finan­cie­ra mun­dial. ¿Recuer­dan lo que dije sobre que Ope­nAI está sien­do, es, ya dema­sia­do gran­de para que­brar? Pues, seña­la Torres que, pre­ci­sa­men­te, «el esta­lli­do esta gigan­tes­ca bur­bu­ja infla­da arti­fi­cial­men­te de la IA podría ser uno de los cis­nes negros a los que se pue­den enfren­te en bre­ve la eco­no­mía mun­dial en 2026 con múl­ti­ples deri­va­das (muy preo­cu­pan­tes) para Espa­ña». Si esta suma de tecno-oli­­ga­r­­cas y plu­tó­cra­tas con­si­gue poner­se al man­do de occi­den­te ¿qué podría salir mal? Pues todo, o casi todo.

Ágo­ra del cam­pus de la Uni­ver­si­dad Poli­téc­ni­ca de Valen­cia (UPV) la pri­me­ra poli­téc­ni­ca públi­ca de Espa­ña según el ran­king de ran­king de Shanghái ((ARWU), don­de esta ubi­ca­do el VRAIN. Foto: Adol­fo Pla­sen­cia

Aban­do­nan­do el vér­ti­go de las escar­pa­das e inse­gu­ras cum­bres finan­cie­ras, y vol­vien­do a poner pie a tie­rra, y negan­do aser­ti­va­men­te la bon­dad de cier­tos usos de la IA que pro­mue­ven algu­nas big tech y sus tecno-oli­­ga­r­­cas; y que esos usos sean algo irre­me­dia­ble o impo­si­ble de evi­tar, expli­ca­ré aho­ra por­que estoy con­ven­ci­do de que tam­bién hay bue­nas y posi­ti­vas noti­cias sobre lo que yo lla­mo las cien­cias de la IA segu­ras y úti­les a la socie­dad. No todo va a ser cis­ne negro. Hay ejem­plos alter­na­ti­vos cer­ca­nos.

En la web del Ins­ti­tu­to Valen­ciano de Inves­ti­ga­ción en Inte­li­gen­cia Arti­fi­cial VRAIN, que diri­ge Vicent Bot­ti en mi uni­ver­si­dad, la UPV, se pue­de leer cómo se pro­mue­ve una inte­li­gen­cia arti­fi­cial siem­pre guia­da por la éti­ca y ana­li­zan­do sus con­se­cuen­cias para las per­so­nas. Una que sea una bús­que­da cons­cien­te, libre de ses­gos, cen­tra­da en el bien­es­tar humano; y que impu­se un pro­gre­so tec­no­ló­gi­co de la mano de los valo­res. Allí se inves­ti­ga, entre otros cam­pos, en avan­zar en la detec­ción pre­coz del cán­cer con IA expli­ca­ble; en el pro­ce­sa­do del len­gua­je natu­ral; en agen­tes Inte­li­gen­tes; en apren­di­za­je pro­fun­do y en mil aspec­tos más de las tec­no­lo­gías de la IA bené­fi­ca y, algo esen­cial que com­par­ten con otros cen­tros de inves­ti­ga­ción de IA, su preo­cu­pa­ción por sus impli­ca­cio­nes socia­les.

Que el rela­to intere­sa­do sobre ella ante la opi­nión públi­ca y en los medios lo esten ganan­do aho­ra las big tech de Sili­con Valley, inclu­so en la Euro­pa obje­to de su des­pre­cio, no es de reci­bo. Hay que luchar por cam­biar esa per­cep­ción que domi­na el rela­to gran­de sobre la IA. Debe­mos acce­der a las opor­tu­ni­da­des de la IA, pero bus­cán­do­las tal como las nece­si­te­mos, por volun­tad pro­pia, den­tro de nues­tros valo­res, como dice el VRAIN; y no, como nos impon­gan fabri­can­tes con la fal­ta de escrú­pu­los y éti­ca; y sin brú­ju­la moral, que mues­tran Sam Alt­man, Peter Thiel, Elon Musk o Alex Karp, sin ir más lejos. Y hemos de con­ven­cer­nos que lo que ellos pre­ten­den, me reite­ro, no es algo inevi­ta­ble. Hemos de esfor­zar­nos en lo mucho que hay que apren­der.

En mi caso inten­to com­ba­tir ese rela­to domi­nan­te, por ejem­plo, ponien­do mi gra­ni­to de are­na publi­can­do crí­ti­ca­men­te en la Guía Bási­ca de la IA (ver a par­tir de la pág. 349). Ade­más, yo pro­pon­dría usos y cri­te­rios como los que impul­san sabios de la IA que creo hones­tos como, por ejem­plo, como Demis Has­sa­bis a quien obser­vo des­de hace tiem­po y que ha con­se­gui­do mag­ní­fi­cos logros en bio­lo­gía y medi­ci­na con la IA. O, como los que seña­la el enfo­que euro­peo en IA de la UE (nece­si­ta­mos des­ple­gar una indus­tria euro­pea pro­pia de la IA. Tam­bién como indi­can los Prin­ci­pios gene­ra­les para el uso de la IA en el CERN; o, como pro­po­ne que hay que usar­la otro sabio de la IA, pero de aquí, como José Her­­ná­n­­dez-Ora­­llo que me dijo que la IA pue­de ser una de las pocas gran­des opor­tu­ni­da­des que tie­ne Espa­ña; o, usar­la para edu­ca­ción tal como apun­ta la UNESCO. O, como lo pro­po­ne en Espa­ña comu­ni­dad de IA de códi­go abier­to.

Sí, como dice el pro­fe­sor Pur­ser, sim­ple­men­te, cual­quier ins­ti­tu­ción, minis­te­rio o enti­dad guber­na­men­tal de aquí, inclu­so tu uni­ver­si­dad públi­ca, hicie­ra, como dice Pur­ser, clic en «Acep­tar» y sucum­be a la pro­pa­gan­da, sin pen­sar más allá, ni deba­tir, inclu­so sobre el papel de la for­ma­ción en IA, con inves­ti­ga­do­res, pro­fe­so­res y alum­nos, y no haces nada. Lo mis­mo como con­su­mi­dor, pro­fe­sio­nal, o empre­sa­rio (esta es una revo­lu­ción hori­zon­tal, que afec­ta todo los ámbi­tos), lue­go lo lamen­ta­rás. Par­ti­ci­pa. No sucum­bas a la pro­pa­gan­da intere­sa­da que pro­mue­ve usos per­ver­sos de la IA y per­si­gue la adic­ción de los vul­ne­ra­bles; ni cai­gas en el cómo­do nihi­lis­mo.

De igual modo, me diri­jo a ti, lec­tor, apren­de, infór­ma­te, deci­de pru­den­te­men­te con sen­ti­do común, por ti mis­mo y/o por ti mis­ma, sobre el uso de la IA Gene­ra­ti­va en tu vida per­so­nal, en tu casa y con los tuyos. Pro­te­ge a los vul­ne­ra­bles, están en peli­gro. No vamos hacia una Arca­dia, aho­ra. Pien­sa en posi­bles con­se­cuen­cias. Para esto, la como­di­dad nihi­lis­ta y el con­for­mis­mo tec­no­ló­gi­co y su resig­na­ción, no debe­rían ser tam­po­co una opción. Hay dema­sia­do en jue­go en esta revo­lu­ción.

ENLACE A LA PRIMERA PARTE DE ESTE ARTÍCULO

Comparte esta publicación

amadomio.jpg

Suscríbete a nuestro boletín

Reci­be toda la actua­li­dad en cul­tu­ra y ocio, de la ciu­dad de Valen­cia