La tram­po­sa indus­tria de los Chat­bot quie­re auto­ma­ti­zar la uni­ver­si­dad públi­ca y a sus estu­dian­tes y con­ver­tir­los en men­tal­men­te depen­dien­tes en una espe­cie de Chat­ver­sity.

 

Adol­fo Pla­sen­cia, 2 de enero de 2026

 

Edi­fi­cio del Labo­ra­to­rio de Cien­cias de la Compu­tación e Inte­li­gen­cia Arti­fi­cial (CSAIL) del Ins­ti­tu­to de Tec­no­lo­gía de Mas­sa­chu­setts (MIT), una de las uni­ver­si­da­des que el pasa­do octu­bre se ha nega­do a acep­tar el plan de finan­cia­ción pro­pues­to por la Casa Blan­ca, ya que algu­nas dis­po­si­cio­nes de la pro­pues­ta, limi­ta­rían la liber­tad de expre­sión y la inde­pen­den­cia de la uni­ver­si­dad, y son inacep­ta­bles para el MIT. Foto: Adol­fo Pla­sen­cia

Los miem­bros del gru­po de tecno-oli­­ga­r­­cas que se ha arra­ci­ma­do alre­de­dor de la actual gober­nan­za de la Casa Blan­ca tie­nen varias cosas en común. Una, su odio gené­ri­co y cie­go hacia lo públi­co, así como hacia lo euro­peo, sus nor­mas y regu­la­cio­nes. Y, otra, que son indi­vi­duos de una cla­se extrac­ti­va cuya fuer­za se ha cons­trui­do en base a esquil­mar muchí­si­mo del valor que se ha pro­du­ci­do finan­cia­do por el sec­tor públi­co y por su cien­cia, inven­ción, inves­ti­ga­ción e inno­va­ción. Y una ter­ce­ra cosa, su méto­do para apro­piar­se median­te tram­pas de todo ese valor, trans­fe­rir­lo a sus empre­sas y paten­tar todo lo posi­ble, –en eso sí quie­ren reglas y leyes–, para explo­tar­lo en su pro­pio bene­fi­cio. Por eso, cual­quier regla legal solo es salu­da­ble para estos tec­no­je­tas si está alie­na­da con sus intere­ses eco­nó­mi­cos par­ti­cu­la­res.

Odian todo aque­llo que no pue­den com­prar con dine­ro. Pien­san que todo y todos tie­nen un pre­cio. Cuan­do des­cu­bren que no es así, que hay gen­te incom­pra­ble, le mues­tran un esdrú­ju­lo des­pre­cio y la cóle­ra más len­gua­raz que nadie pue­de ima­gi­nar. Pero sí, hay gen­te inso­bor­na­ble capaz de gene­rar un valor extra­or­di­na­rio, por ejem­plo, en la uni­ver­si­dad públi­ca –por muy per­fec­ti­ble que sea–, o en ejem­pla­res cen­tros de inves­ti­ga­ción. La Web la inven­tó Tim Ber­­ners-Lee en el CERN, una ins­ti­tu­ción públi­ca y euro­pea; y, por eso, per­te­ne­ce a toda la huma­ni­dad, no con­vie­ne olvi­dar­lo. Ni tam­po­co que el CERN, don­de tam­bién se des­cu­brió el bosón de Higgs, es el mayor cen­tro de coope­ra­ción inves­ti­ga­do­ra a nivel mun­dial, don­de siguen coope­ran­do libre­men­te cien­tí­fi­cos de 112 paí­ses.

Una de las más radi­ca­les ofen­si­vas actua­les de esa pan­di­lla mafio­sa de pode­ro­sos es con­tra la uni­ver­si­dad como ins­ti­tu­ción y con­tra la esen­cia de sus valo­res, su misión, y su pro­pó­si­to de docen­cia y des­cu­bri­mien­to orien­ta­do al bien común de toda la socie­dad. El bien común para ellos no exis­te. Ni quie­ren saber qué sig­ni­fi­ca ese con­cep­to. Pre­fie­ren igno­rar­lo como si no exis­tie­ra o no fue­ra posi­ble. Lo que está pasan­do en don­de esta pan­di­lla pue­de ejer­cer su nue­vo poder, es una autén­ti­ca tra­ge­dia de los bie­nes comu­nes a esca­la glo­bal. El micro­bió­lo­go Garrett Har­din defi­nía muy bien uno de sus aspec­tos en la natu­ra­le­za que lla­ma la tra­ge­dia de la liber­tad sobre los recur­sos comu­nes. Una tra­ge­dia que alguno de la cita­da pan­di­lla amo­ral quie­re lle­var inclu­so a la luna con inclu­so usan­do tru­cos semán­ti­cos, por ejem­plo, dan­do a una misión actual, para vaciar su sig­ni­fi­ca­do ori­gi­nal, el mis­mo nom­bre de los Acuer­dos Arte­mis, que se basan explí­ci­ta­men­te en el Tra­ta­do del Espa­cio Ultra­te­rres­tre de las Nacio­nes Uni­das de 1967 al que con­tra­di­ce com­ple­ta­men­te, con sus demos­tra­das avie­sas inten­cio­nes (El actual inqui­lino de la Casa Blan­ca, en una de sus pri­me­ras pirue­tas polí­ti­cas de su pre­si­den­cia ini­cial, orden pre­si­den­cial eje­cu­ti­va median­te, deci­dió man­te­ner for­mal­men­te a EE.UU. en esos acuer­dos y el cita­do Tra­ta­do, pero libe­ró a las empre­sas nor­te­ame­ri­ca­nas de cum­plir­los).

Es otro ejem­plo de los méto­dos, y de las ideas en las que aflo­ran otra de las más evi­den­tes carac­te­rís­ti­cas reco­no­ci­ble de sus dis­cur­sos: la hipér­bo­le exa­ge­ra­da, el exce­so en los tér­mi­nos de su rela­to y el ago­ta­mien­to del super­la­ti­vo, Y, al tiem­po, nom­bran siem­pre con des­pre­cio a cual­quie­ra que disien­ta sobre sus posi­cio­nes. No les impor­ta a los tecno-oli­­ga­r­­cas ser con­tra­dic­to­rios o embus­te­ros. Ni cono­cen la dación de cuen­tas, que para ellos es algo que no exis­te. Y del Esta­do de dere­cho solo les intere­san las leyes, nor­mas o sen­ten­cias que les den la razón, o les con­ven­ga eco­nó­mi­ca­men­te. El res­to, para ellos, son abo­mi­na­bles. Y, como dice Ramón López de Mán­ta­ras «esto for­ma par­te de una estra­te­gia sos­te­ni­da que tie­ne como obje­ti­vo cues­tio­nar el cono­ci­mien­to, des­acre­di­tar la inves­ti­ga­ción y debi­li­tar uno de los pila­res cen­tra­les de las demo­cra­cias con­tem­po­rá­neas: la capa­ci­dad colec­ti­va de dis­tin­guir hechos pro­ba­dos de pro­pa­gan­da basa­da en des­in­for­ma­ción». Esto nun­ca antes se había mos­tra­do de for­ma tan públi­ca y «nun­ca tam­po­co habían mos­tra­do un des­pre­cio tan explí­ci­to hacia las inves­ti­ga­cio­nes uni­ver­si­ta­rias que no se ali­nean con sus intere­ses».

Por ejem­plo, sobre la Aca­de­mia, pare­cen creer, a tenor de sus decla­ra­cio­nes, sean des­de pues­tos de la gober­nan­za o des­de las cúpu­las empre­sa­ria­les, que todas las uni­ver­si­da­des, sobre todo las más pres­ti­gio­sas, –a las que ni siquie­ra con todo su obs­ceno dine­ro pue­den com­prar ni doble­gar–, debe­rían ser sus­ti­tui­das por cor­po­ra­cio­nes ya que, según Alex Karp, el CEO de Palan­tir «todos esos sis­te­mas uni­ver­si­ta­rios son para­si­ta­rios»; así, sin más mati­ces. Esta afir­ma­ción resul­ta como míni­mo curio­sa, en pri­mer lugar, por­que su empre­sa Palan­tir, –que fue finan­cia­da ini­cial­men­te en par­te por In-Q-Tel, el bra­zo de capi­tal de ries­go de la CIA–, ha arti­cu­la­do un enor­me­men­te lucra­ti­vo nego­cio de gran­des con­tra­tos guber­na­men­ta­les para sí mis­ma sin con­cur­so públi­co ni trans­pa­ren­cia, y muy pro­ba­ble­men­te, con el auxi­lio de un pode­ro­so trá­fi­co de influen­cias. Y todo sin com­ple­jos, a pesar de las múl­ti­ples con­tra­dic­cio­nes entre las accio­nes y el dis­cur­so de Karp, más osa­do que el de otros gigan­tes de la tec­no­lo­gía, pero que está lejos de ser un caso atí­pi­co. Y, en segun­do, por­que por su cer­ca­nía al poder de la Casa Blan­ca, su empre­sa se ha con­ver­ti­do en una enti­dad que para­si­ta, –él sí es un pará­si­to de lo públi­co–, de for­ma casi obs­ce­na algu­nos de los más gran­des con­tra­tos públi­cos esta­ta­les de EE.UU.

Palantir: denostar la universidad y lo público aprovechándose, al tiempo, de ellos

Pero hay más. Una solu­ción tos­ca muy recien­te para sal­tar­se las con­ven­cio­nes sobre los recur­sos huma­nos de Palan­tir es con­tra­tar ado­les­cen­tes. La Jefa de Talen­to de Palan­tir Mar­ge York, ­–total­men­te ali­nea­da con los pos­tu­la­dos de Karp–, les dijo, sin el menor rubor, diri­gién­do­se a un gru­po de jóve­nes, que «una expe­rien­cia uni­ver­si­ta­ria tra­di­cio­nal, podrían no ser ade­cua­da para sus vidas en este momen­to». El pro­pio CEO Alex Karp, licen­cia­do en el Haver­ford Colle­ge, una Facul­tad de artes libe­ra­les, y con un un doc­to­ra­do en teo­ría social neo­clá­si­ca en la Uni­ver­si­dad Goethe de Frank­furt, ha decla­ra­do que «Una mayo­ría de gen­te vie­ne de la uni­ver­si­dad, don­de solo se han dedi­ca­do a tópi­cos y ocu­rren­cias». Y, en un alar­de de visión supre­ma­cis­ta del cono­ci­mien­to de Palan­tir, decla­ra que su empre­sa es capaz de dar cosas mejo­res a sus nue­vos emplea­dos que luga­res como  Har­vard, Prin­ce­ton o Yale. Según su dis­cur­so públi­co, la empre­sa Palan­tir cree que ir a la uni­ver­si­dad podría ser una pér­di­da de tiem­poPor eso con­tra­ta a recién gra­dua­dos de bachi­lle­ra­to.

En su últi­ma com­pa­re­cen­cia ante inver­so­res el pasa­do agos­to, Karp decla­ró su ani­mad­ver­sión por la ins­ti­tu­ción uni­ver­si­ta­ria y su fun­cio­na­mien­to, con mucha hipo­cre­sía, cinis­mo y sin com­ple­jo alguno, afir­man­do que «los gra­dua­dos uni­ver­si­ta­rios lle­gan a la empre­sa tras ser «inci­ta­dos a la super­fi­cia­li­dad duran­te su paso por la uni­ver­si­dad»; «En Palan­tir, –afir­ma, tam­bién sin rubor–, esta­mos crean­do una nue­va cer­ti­fi­ca­ción de su empre­sa para sus­ti­tuir a la uni­ver­si­ta­ria, inde­pen­dien­te de la cla­se social y de los ante­ce­den­tes de la for­ma­ción ante­rior»;… y pro­po­ne a los recién titu­la­dos de bachi­lle­ra­to «entrar en la empre­sa Palan­tir en lugar de matri­cu­lar­se en una uni­ver­si­dad». Les acon­se­ja una estan­cia anti-uni­­ve­r­­si­­ta­­ria en su empre­sa y, así, les pro­me­te, «Evi­ta­rás las deu­das», –hacien­do refe­ren­cia a los cré­di­tos que los estu­dian­tes uni­ver­si­ta­rios de EE.UU. sus­cri­ben para finan­ciar­se sus estu­dios–. Y algo que dice, no es menor para él, «evi­ta­rás el adoc­tri­na­mien­to».

Karp está con­ven­ci­do en su pen­sa­mien­to ultra­mon­tano que las más pres­ti­gio­sas uni­ver­si­da­des son, sin mati­ces, una espe­cie de máqui­nas de adoc­tri­na­mien­to. Y eso le lle­va des­de esta posi­ción a mos­trar sin amba­ges su inqui­na y ani­mad­ver­sión a la ins­ti­tu­ción uni­ver­si­ta­ria y su papel en la socie­dad, decla­ran­do que «los cam­pus se han con­ver­ti­do en cal­do de cul­ti­vo para el extre­mis­mo y el caos». Así, de nue­vo, sin excep­cio­nes. Karp, afir­ma como un ilu­mi­na­do des­acom­ple­ja­do, creer que su empre­sa es un sus­ti­tu­to con ven­ta­ja de cual­quier uni­ver­si­dad, a las que con­si­de­ra ins­ti­tu­cio­nes pres­cin­di­bles. Y reite­ra que, en su empre­sa, Palan­tir, se pien­sa que «ir a la uni­ver­si­dad podría ser una pér­di­da de tiem­po», así, de nue­vo, sin mati­ces.

Conoz­co a un con­sul­tor acos­tum­bra­do a ocu­par altos car­gos eje­cu­ti­vos, entre ellos alguno de alta direc­ción en una de las empre­sas mayo­res del mun­do, que me expli­ca­ba su opi­nión, com­par­ti­da con otros cole­gas del mun­do de la empre­sa, al res­pec­to, sobre lo que dice Karp. Ellos están con­ven­ci­dos de que, en reali­dad, este CEO no pien­sa así, pero su estra­te­gia empre­sa­rial pasa por cap­tar a jóve­nes malea­bles e inge­nuos, que espe­ra­ran cobrar menos por­que no tie­nen títu­lo, y lue­go ense­ñar­les a hacer lo que él nece­si­ta por­que no los con­si­de­ra, en reali­dad, más que unos nue­vos escla­vos sin volun­tad pro­pia. «Ese CEO es jus­to el jefe que tú no quie­res tener en cual­quier empre­sa», me dice.

 La ins­ti­tu­ción uni­ver­si­ta­ria, una enti­dad naci­da como públi­ca y orien­ta­da al bien común des­de hace más de nue­ve siglos, cuya fun­ción docen­te y para las huma­ni­da­des ya no se pue­de sepa­rar de su poten­te sis­te­ma de inves­ti­ga­ción y des­cu­bri­mien­to, está hoy sien­do ata­ca­da en EE.UU. y más allá, no solo por algu­nos geri­fal­tes radi­ca­les de Sili­con Valley como Karp, sino por las pro­pias auto­ri­da­des gober­nan­tes. Algo inau­di­to. Un ejem­plo de ello ha sido el dis­cur­so en la cum­bre Ganan­do la carre­ra de la IA de Washing­ton, D. C. en julio de 2025, en la que el vice­pre­si­den­te de EE.UU. J. D. Van­ce ase­gu­ró en su dis­cur­so ante el públi­co, más de una bar­ba­ri­dad, como la de que «algu­nos estu­dian­tes uni­ver­si­ta­rios sien­ten que viven en una dic­ta­du­ra tota­li­ta­ria al esti­lo nor­co­reano mien­tras estu­dian en la uni­ver­si­dad»… «Creo que todo el sis­te­ma uni­ver­si­ta­rio de este país está des­com­pues­to», con­clu­yó Van­ce, entre aplau­sos de enar­de­ci­dos corre­li­gio­na­rios suyos dis­pues­tos a aplau­dir­le cual­quier cosa, por fal­sa que fue­ra. Este es el mis­mo Van­ce, sobre el que Susie Wiles, actual Jefa de Gabi­ne­te del pre­si­den­te en la Casa Blan­ca en un sor­pren­den­te rap­to de sin­ce­ri­dad lo defi­nió en una entre­vis­ta en Vanity Fair, el pasa­do 17 de diciem­bre como alguien que lle­va «una déca­da abo­na­do a teo­rías de la cons­pi­ra­ción».

La mafia de PayPal

Me vie­ne a la cabe­za aho­ra algo que Jacob Sil­ver­man publi­có en The New Repu­blic un impac­tan­te artícu­lo titu­la­do «El dile­ma mili­tar de las tec­no­ló­gi­cas» en el que ana­li­za­ba la rela­ción de unas pocas gran­des empre­sas tec­no­ló­gi­cas de Sili­con Valley y su labe­rín­ti­ca rela­ción con las gran­des agen­cias públi­cas de la admi­nis­tra­ción esta­tal de EE.UU. En ese artícu­lo había un des­ta­ca­do que decía: «Las big tech tie­nen cada vez más el poder y la obli­ga­ción éti­ca de ayu­dar a deci­dir qué tipo de país debe ser Esta­dos Uni­dos». Vis­to lo vis­to, esta fra­se hoy sue­na sar­cás­ti­ca, cíni­ca, –diría yo–, y con las afir­ma­cio­nes de gen­te como Karp, Thiel, y sus ami­gos co-reli­­gio­­na­­rios, –que en la jer­ga se les aso­cia gené­ri­ca­men­te con la mafia de Pay­Pal gru­po de anti­guos emplea­dos de Pay­Pal bau­ti­za­dos así por la revis­ta For­tu­ne en 2007–. Casi podría­mos afir­mar que, para ellos, el tipo de país que debe­ría ser EE.UU. es nin­guno. Para ellos debe­ría ser una cor­po­ra­ción, –eso sí, en el sen­ti­do de una empre­sa mono­po­lís­ti­ca y de pen­sa­mien­to úni­co sin la menor disi­den­cia inter­na, que es tal como ellos la con­ci­ben–.

Es curio­so pero este gru­po, que inclu­ye, si nom­bra­mos a los que For­tu­ne publi­có en su famo­sa foto, a Jawed Karim, Jeremy Stop­pel­man, Andrew McCor­mack, Pre­mal Shah, Luke Nosek, Ken Howery, David O. Sacks, Peter Thiel, Keith Rabois, Reid Hoff­man, Max Lev­chin, Roe­lof Botha y Rus­sel Sim­mons, son gen­te que, en su mayo­ría, rea­li­za­ron estu­dios en dos de las mejo­res uni­ver­si­da­des de EE.UU., la Univ. de Stan­ford y la Univ. de Illi­nois en Urba­­na-Cha­m­­paign (–¿recuer­dan que ese era el que decía la máqui­na Hal 9000 en la pelí­cu­la 2001 de Stan­ley Kubrick era el cam­pus don­de lo habían crea­do?– , dos ver­da­de­ras poten­cias tan­to en inves­ti­ga­ción como en huma­ni­da­des. Este es un gru­po para­dig­má­ti­co de empren­de­do­res y fun­da­do­res de com­pa­ñías y star­tups ya que, des­de enton­ces, han esta­do impli­ca­dos en fun­dar de empre­sas tec­no­ló­gi­cas con sede en Sili­con Valley, como Lin­ke­dIn, Palan­tir Tech­no­lo­gies, Spa­ceX, Affirm, Sli­de, Kiva, You­Tu­be, Yelp y Yam­mer. En su dis­cur­so cor­po­ra­ti­vo, Palan­tir pone como ejem­plo ideal este esti­lo de fun­dar y crear nue­vos pro­yec­tos empre­sa­ria­les, algo que, según ellos, sus­ti­tui­ría con ven­ta­ja a lo que han hecho has­ta aho­ra las uni­ver­si­da­des inclui­das las de éli­te de las que ellos mis­mos pro­ce­den.

Ideo­ló­gi­ca­men­te, se ha aso­cia­do a este gru­po con esa men­ta­li­dad y visión postem­pre­sa­rial a una suer­te de ana­r­­co-capi­­ta­­li­s­­mo (aquél que pre­di­ca­ba la ausen­cia de Esta­do al que con­si­de­ra­ban como una enti­dad agre­si­va y mono­po­lís­ti­ca, que roba a tra­vés de impues­tos y limi­ta la liber­tad), pero eso no aca­ba de enca­jar racio­nal­men­te. Tam­bién, se les ha aso­cia­do por sus ata­ques con todo lo que sue­ne a woke o pseu­do­pro­gre­sis­ta; y con las ideo­lo­gías de extre­ma dere­cha, pero tam­po­co enca­jan racio­nal­men­te por­que sus con­tra­dic­cio­nes pare­cen fru­to de una espe­cie de tras­torno de dis­gre­sión o diso­nan­cia cog­ni­ti­va. Ya que todos ellos en sus empre­sas actúan con voca­ción mono­po­lís­ti­ca de nicho y sus pro­pias reglas. Así que pare­ce una ideo­lo­gía postem­pre­sa­rial híbri­da y des­car­na­da­men­te prag­má­ti­ca.

Hay quien los con­si­de­ra como una espe­cie de seño­res tec­no­feu­da­les, algo así como los oli­gar­cas tecno-illu­­mi­­na­­ti del siglo XXI. Hace más de vein­te años Javier Eche­ve­rría los eti­que­tó como Seño­res del aire, o de La Nube, en una pro­pues­ta pio­ne­ra que vis­lum­bra­ba una evo­lu­ción que se con­fir­ma con­for­me pasa­mos del capi­ta­lis­mo tra­di­cio­nal al tec­no­feu­da­lis­mo; es decir, con­for­me el poder se con­cen­tra cada vez más en manos de unos pocos gigan­tes mono­­pó­­li­­co-tec­­no­­ló­­gi­­cos que con­tro­lan la infra­es­truc­tu­ra digi­tal de la que depen­de la socie­dad, cada vez en mayor medi­da. El obje­ti­vo final es la eco­no­mía sis­té­mi­ca, es decir una eco­no­mía glo­bal basa­da en estruc­tu­ras socia­les y sis­te­mas eco­nó­mi­cos bajo la visión de ideo­lo­gías neo-capi­­ta­­li­s­­tas enfo­ca­das de for­ma nihi­lis­ta, según un para­dig­ma extrac­ti­vo, orien­ta­das a la maxi­mi­za­ción radi­cal del bene­fi­cio eco­nó­mi­co ins­tan­tá­neo, sin impor­tar las con­se­cuen­cias para la gen­te o para el pla­ne­ta. Pare­ce una for­ma de eco­no­mía pre­sa de la para­do­ja de la demo­cra­ti­za­ción, –con sig­ni­fi­ca­do no-polí­­ti­­co del tér­mino–, sino en su acep­ción de la adop­ción masi­va total algo que, creen, faci­li­ta­rá la IA.

Aun­que per­te­ne­cen a un lugar don­de no todos son así, ni tie­nen la brú­ju­la moral tan ave­ria­da; cual­quier cosa, para el peque­ño gru­po de líde­res empre­sa­ria­les de Sili­con Valley cita­dos, todo lo que sue­ne a Esta­do, ins­ti­tu­ción o país, que inte­gre socie­dad, par­la­men­to y legis­la­do­res, –o sea, que haya leyes y regu­la­cio­nes–, es un obs­tácu­lo. Para ellos, el mun­do no debía estar divi­di­do en paí­ses sino en cor­po­ra­cio­nes y usua­rios enten­di­dos como con­su­mi­do­res sumi­sos mane­ja­dos sin nin­gún lími­te para las pri­me­ras. Ese sería el fin ideal que per­se­gui­ría lo que ellos lla­man pre­ten­cio­sa­men­te «opti­mi­zar el mun­do», por supues­to como un mer­ca­do mono­po­li­za­do sin com­pe­ti­do­res. Y, han con­se­gui­do tan­to poder, inclu­so por enci­ma de los Esta­dos que, des­de sus ata­la­yas, son capa­ces de pro­mo­ver en un mun­do ideal (para ellos) sin reglas, sin ins­ti­tu­cio­nes, con los paí­ses al ser­vi­cio de las cor­po­ra­cio­nes y no al revés. Esa pare­ce ser su visión ideal que lle­va­ría a lo que lla­man la efi­cien­cia supre­ma. Y lue­go, deta­lles en ello ya se opti­mi­za­rían sobre la mar­cha.

Si yo fue­ra empren­de­dor o empre­sa­rio, me preo­cu­pa­ría tener cole­gas así, con esa visión, esa ideo­lo­gía empre­sa­rial radi­cal de eli­mi­na­ción por las bra­vas de cual­quier com­pa­ñía com­pe­ti­do­ra. Las pala­bras com­pe­ten­cia, inno­va­ción, inven­ción, van­guar­dia, …eti­que­tas semán­ti­cas que hemos escu­cha­do repe­ti­da­men­te en las más pres­ti­gio­sas reunio­nes de empren­de­do­res y escue­las de nego­cios des­de hace muchos años, –en esto no hablo de oídas, co-fun­­dé los First Tues­day Valen­cia; fun­dé y diri­gí el Power­ful Ideas Sum­mit–, pero hoy son tér­mi­nos que prác­ti­ca­men­te han des­apa­re­ci­do de los dis­cur­sos de cor­te tota­li­ta­rio de la gen­te como Karp, Thiel y sus pan­di­llas. Por eso, estos tecno-oli­­ga­r­­cas sue­len hablar tan mal de Euro­pa. Un tér­mino que les sue­na a ente lleno de paí­ses, de Esta­dos y de avi­dez regu­la­do­ra. Un dolor de cabe­za para su visión alér­gi­ca a reglas, que no sean las que ellos quie­ren impo­ner.

La uni­ver­si­dad fue algo que nació en Euro­pa, pero hoy, según ellos, es una ins­ti­tu­ción pro­pia de una socie­dad que con­si­de­ran obso­le­ta. Pero ese tér­mino escon­de en reali­dad que es una enti­dad de pen­sa­mien­to inde­pen­dien­te y de difí­cil con­trol. Y, por eso, la ata­can sin pie­dad en sus ses­ga­dos dis­cur­sos.

A la mafia de Paypal 2.0 por la vía de la IA

Y, aho­ra, hay un nue­vo CEO estre­lla. Pero es un adve­ne­di­zo, que no esta­ba en la foto de For­tu­ne en 2007 y que está hacien­do méri­tos para entrar en una ver­sión 2.0 de aque­lla mafia de Pay­Pal. Se lla­ma Sam Alt­man, CEO de Open AI, –empre­sa que nació como una fin­gi­da enti­dad sin áni­mo de lucro–, fun­da­da por él jun­to con Elon Musk, Sam Alt­man, Ilya Suts­ke­ver, Greg Brock­man y otros exper­tos en IA de los que muy pron­to se sepa­ró por dife­ren­cias doc­tri­na­les. Su pro­pó­si­to con­fe­sa­do pero sos­pe­cho­so –y poco creí­ble en alguien como él–, en la misión de la empre­sa era el de ase­gu­rar que la inte­li­gen­cia arti­fi­cial gene­ral (IAG) bene­fi­cie a toda la huma­ni­dad. Sam Alt­man fin­ge has­ta en su rim­bom­ban­te semán­ti­ca. Por ejem­plo, tam­bién posee una empre­sa bau­ti­za­da con el pre­ten­cio­so nom­bre, nada menos, que Tools for Huma­nity (Herra­mien­tas para la huma­ni­dad), -–cuya tec­no­lo­gía que usa para esca­near el iris con una bola-escá­­ner lla­ma­do orb (orbe) a los más incau­tos e igno­ran­tes y que­dar­se con sus datos bio­mé­tri­cos a cam­bio de tokens de una ciber­di­vi­sa inven­ta­da sobre la mar­cha. Alt­man cum­ple la cir­cuns­tan­cia vital pro­pues­ta por Karp; en 2003 con 18 años ini­ció sus estu­dios en el com­pu­ter scien­ce pro­gram de Stan­ford y en segun­do cur­so, con 19, en 2005 aban­do­nó la uni­ver­si­dad para cofun­dar su pri­me­ra empre­sa, Loopt, –ori­gi­nal­men­te, lla­ma­da Radia­te–, que lan­zó una apli­ca­ción móvil pio­ne­ra de geo­lo­ca­li­za­ción, que per­mi­tía a sus usua­rios com­par­tir su ubi­ca­ción con otros ami­gos en tiem­po real, algo que fue repli­ca­do de inme­dia­to por Fours­qua­re, Face­book y más ade­lan­te por Goo­gle en su Goo­gle Maps.

Este adve­ne­di­zo es un esca­pis­ta, –como bien le des­cri­be Karen Hao en su libro Impe­rio IA, don­de le hace una estu­pen­da radio­gra­fía men­tal y cir­cuns­tan­cial, apar­te de decla­rar que «Open AI es una ame­na­za para la liber­tad per­so­nal»–, y mos­trar que es muy buen simu­la­dor de las mejo­res inten­cio­nes; y, un des­ta­ca­do mala­ba­ris­ta de la más hipó­cri­ta apa­rien­cia hiper­bon­da­do­sa, como cual­quie­ra pue­de com­pro­bar si le escu­cha en sus com­pa­re­cen­cias  en el Sena­do de EE.UU sobre la carre­ra por la IA. En aque­lla sesión del 8 de mayor de 2025, recuer­do que Alt­man recha­zó inten­sa y repe­ti­da­men­te las peti­cio­nes espe­cí­fi­cas sobre regu­la­ción de la IA. Des­pués afir­mó que las pro­pues­tas que exi­gen que los desa­rro­lla­do­res de IA para que eva­lúen los ries­gos de estos sis­te­mas, antes de poner­los al uso del públi­co, serían «desas­tro­sas» para la/su indus­tria. Su len­gua­je cor­po­ral y ver­bal que simu­la afa­bi­li­dad, siem­pre con­tras­ta con la con­tun­den­cia de sus pala­bras: «No es nece­sa­rio que se esta­blez­can están­da­res de IA, –decla­ró Alt­man, como si tal cosa–…No creo que los nece­si­te­mos».

Vol­vien­do al tema uni­ver­si­ta­rio, Alt­man, a pesar de sus apa­ren­tes disen­sos con Alex Karp, com­par­te su doc­tri­na y ansía ser acep­ta­do en la Pay­Pal mafia 2.0, divi­sión IA–. Su estra­te­gia con res­pec­to a las uni­ver­si­da­des es sedu­cir­las, y si se resis­ten, pene­trar­las, inclu­so vio­lar­las tec­no­ló­gi­ca­men­te, si fue­ra nece­sa­rio. Pero pre­fie­re apa­ren­tar una estra­te­gia más soft y «com­prar su volun­tad» median­te oscu­ros acuer­dos lega­les, –al más puro esti­lo Sili­con Valley–. Y, en cuan­to se hue­le que los aca­dé­mi­cos y sus jun­tas de gobierno de un cam­pus son vul­ne­ra­bles, y los per­ci­be como fácil­men­te com­pra­bles, les ofre­ce señue­los irre­sis­ti­bles de apa­ren­te gra­tui­dad para el uso de sus cómo­das y faci­li­ta­do­ras tec­no­lo­gías de IA.

Sobre el des­plie­gue de su filo­so­fía de colo­ni­za­ción pasa por con­si­de­rar, no solo su tra­ba­jo, sino las vidas de todos miem­bros de la comu­ni­dad uni­ver­si­ta­ria como sus­cep­ti­bles de ser colo­ni­za­das por su IA. (Recuer­den que hay dos sec­to­res de pro­fe­sio­na­les que lla­man usua­rios de su pro­duc­to a sus clien­tes: los desa­rro­lla­do­res de soft­wa­re y los nar­co­tra­fi­can­tes). Así que Alt­man quie­re con­ver­tir en usua­rios de su ChatGPT a todos los uni­ver­si­ta­rios con el pro­pó­si­to, según su pro­pa­gan­da, de «mejo­rar» (en su ver­sión de mejo­rar, cla­ro) cada uno de los aspec­tos de su tra­ba­jo en la uni­ver­si­dad. Pero, en reali­dad, el ver­da­de­ro obje­ti­vo cen­tral sería inva­dir la vida pri­va­da y per­so­nal de los miem­bros de las comu­ni­da­des uni­ver­si­ta­rias, usan­do como vía de entra­da su ser­vi­cio faci­li­ta­dor del tra­ba­jo en la uni­ver­si­dad. Ese ser­vi­cio no sería en reali­dad gra­tui­to, ya que sería ins­ti­tu­cio­nal­men­te sufra­ga­do con millo­nes de dóla­res por la ins­ti­tu­ción. El señue­lo es que los uni­ver­si­ta­rios tuvie­ran, por ser­lo, un uso gra­tui­to del ChatGPT 24 horas al día. El pro­pó­si­to ocul­to, con­se­guir su adic­ción, es decir su depen­den­cia vital del Chat­bot.

Como lue­go vere­mos su estra­te­gia de pro­pa­gan­da son nume­ro­sas pre­sen­ta­cio­nes que evan­ge­li­zan sobre las irre­sis­ti­bles bon­da­des sin cuen­to para la vida del usua­rio de su Chat­bot con­ver­sa­cio­nal de IA, el ChatGPT basa­do en el GTP4omni –o supe­rior–. ¿Las con­se­cuen­cias? Eso no impor­ta, –te dirán los evan­ge­lis­tas lle­ga­dos al cam­pus, si les pre­gun­tas, sin dejar de son­reír–. Para estos tecno-empre­­sa­­rios nihi­lis­tas las con­se­cuen­cias pos­te­rio­res que pro­du­cen sus tec­no­lo­gías pre­dic­ti­vas en las men­tes y la vida de la gen­te no impor­tan, como bien demos­tró Mark Zuc­ker­berg en su corres­pon­dien­te com­pa­re­cen­cia ante el Comi­té Judi­cial del Sena­do en el Capi­to­lio.

Lo últi­mo, en estos equí­vo­cos entre lo públi­co y lo pri­va­do en rela­ción a esta pan­di­lla de tecno-oli­­ga­r­­cas es lo que Finan­cial Times publi­có el mes pasa­do sobre lo últi­mo que anda pre­di­can­do Sam Alt­man, –cuya star­tup Open AI sobre la que los más per­for­ma­ti­vos espe­cu­la­do­res andan ya valo­ran­do en 500.000 millo­nes de dóla­res–. Lo últi­mo es que ha pro­me­ti­do urbi et orbi a los gran­des inver­so­res que va a lan­zar un plan de inver­sión de 1.400 millo­nes de dóla­res para finan­ciar el desa­rro­llo de chips e infra­es­truc­tu­ra de inte­li­gen­cia arti­fi­cial. Ante el peli­gro obvio de los enor­mes ries­gos eco­nó­mi­cos, si su plan sale mal, que su fra­ca­so podría tras­la­dar tan­to a inver­so­res de Sili­con Valley como a los con­tri­bu­yen­tes esta­dou­ni­den­ses, Alt­man ha decla­ra­do, para tran­qui­li­zar, que él no esta inten­tan­do con­ver­tir a su empre­sa en algo «dema­sia­do gran­de para que­brar», y que no está bus­can­do res­pal­do finan­cie­ro del gobierno fede­ral de EE.UU. para un posi­ble enor­me fra­ca­so ¿Uste­des le creen? Yo tam­po­co.

De las plataformas de redes sociales a los Chatbot conversacionales de IA

Los tecno-oli­­ga­r­­cas care­cen de brú­ju­la moral, –cuyo ejem­plo más para­dig­má­ti­co es Sam Alt­man–, y par­ten de una ausen­cia no sólo de moral, sino tam­bién de escrú­pu­los. Ellos ya actua­ban con este des­par­pa­jo con las redes socia­les. La esta­dís­ti­ca pre­dic­ti­va de las pla­ta­for­mas de red social y sus impe­rios publi­ci­ta­rios arran­can de usar los últi­mos avan­ces de la neu­ro­cien­cia para modi­fi­car a dis­tan­cia la con­duc­ta a gran esca­la a millo­nes de per­so­nas en los que siem­bran la adic­ción a pan­ta­llas y a con­te­ni­dos con todo tipo de tram­pas cog­ni­ti­vas. Es decir, usan los avan­ces que los cien­tí­fi­cos des­cu­bren sobre el cere­bro para inten­tar com­ba­tir y curar enfer­me­da­des, y las pla­ta­for­mas los usan para atra­par una enor­me audien­cia publi­ci­ta­da, glo­bal, cau­ti­va y adic­ta.

Si eso lo enfo­cas hacia niños y ado­les­cen­tes, como hace Tik Tok, –por ejem­plo–, gene­ra como efec­tos secun­da­rios, en los más vul­ne­ra­bles, ade­más de adic­ción, daños en salud men­tal, con­duc­tas de auto­agre­sión y auto­lí­ti­cas que, en algu­nos casos, de ado­les­cen­tes más vul­ne­ra­bles, pue­den lle­gar a con­duc­tas sui­ci­das. Usar los avan­ces de la medi­ci­na y la neu­ro­cien­cia, que los inves­ti­ga­do­res bus­can apli­car para curar enfer­me­da­des y que estas empre­sas usen estos avan­ces para apli­car­los en mani­pu­lar la con­duc­ta huma­na, con­ver­tir a los usua­rios en adic­tos, y obte­ner dine­ro a cos­ta de todo ello, ya no como medio sino como úni­co fin, sin impor­tar los daños secun­da­rios ni inten­tar pre­ve­nir­los, no es solo que sea inmo­ral, sino es casi un cri­men de lesa huma­ni­dad, por la esca­la a la que lo hacen, sin asu­mir nin­gu­na res­pon­sa­bi­li­dad por el daño infrin­gi­do en la vida y la salud men­tal de mul­ti­tud de per­so­nas de todo el mun­do.

Ya hay prue­bas empí­ri­cas y docu­men­ta­das de ello. Hay per­so­nas que han ocu­pa­do pues­tos des­ta­ca­dos en las pla­ta­for­mas de lo que aho­ra es Meta, –nue­vo nom­bre de Face­book pre­sen­ta­do con la coar­ta­da del meta­ver­so, pero que en reali­dad sola­men­te era por evi­tar una cri­sis repu­tacio­nal mayor–, que se han con­ver­ti­do de for­ma arries­ga­da en acu­sa­do­res públi­cos de las peo­res prác­ti­cas de la empre­sa. Como Fran­cis Hau­gen, inge­nie­ra infor­má­ti­ca, exper­ta en ges­tión de pro­duc­tos algo­rít­mi­cos y ex-tra­­ba­­ja­­do­­ra de Face­book; o Artu­ro Béjar, ex-inge­­nie­­ro de Meta. La pri­me­ra, des­cri­bién­do­las bajo jura­men­to inclu­so en el Sena­do de EE.UU.; y, el segun­do tam­bién, ade­más, en un pro­gra­ma de TV en espa­ñol titu­la­do: «Redes socia­les: la fábri­ca del terror» y «La fábri­ca del terror: Impac­to de Meta en los meno­res». Como dice Béjar el mode­lo de nego­cio de Meta, Ins­ta­gram o Face­book, no ha cam­bia­do en abso­lu­to, a pesar que dichas empre­sas son muy cons­cien­tes del daño que los usos que indu­cen y pro­mue­ven de sus apli­ca­cio­nes y pla­ta­for­mas  y cau­san gra­ves daños a miles de ado­les­cen­tes. Se per­ci­be cla­ra­men­te que el com­por­ta­mien­to de la empre­sa Meta y sus pla­ta­for­mas (Face­book, Ins­ta­gram, WhatsApp, Mes­sen­ger, Threads, Meta AI) va a estar a la nefas­ta altu­ra de la cala­ña moral de su CEO Mark Zuc­ker­berg.

Según infor­ma­ba el pasa­do noviem­bre mi ami­go Enri­que Dans pro­fe­sor de inno­va­ción en IE Busi­ness School des­de el año 1990 y blo­gue­ro inde­pen­dien­te pio­ne­ro y tenaz libre­pen­sa­dor sobre  tec­no­lo­gía e inno­va­ción, el Juz­ga­do de lo Mer­can­til nº 15 de Madrid ha con­de­na­do a Meta a pagar 479 millo­nes de euros a 87 edi­to­ras de pren­sa digi­tal espa­ño­la y agen­cias de noti­cias inte­gra­das en AMI (Aso­cia­ción de Medios de Infor­ma­ción) por haber obte­ni­do una ven­ta­ja com­pe­ti­ti­va ile­gal sig­ni­fi­ca­ti­va al rea­li­zar publi­ci­dad en sus redes socia­les Face­book e Ins­ta­gram infrin­gien­do el Regla­men­to Euro­peo de Pro­tec­ción de Datos (RGPD). Es decir, todo tipo de acti­vi­da­des que pue­dan poten­ciar el mode­lo extrac­ti­vo de las empre­sas de Zuc­ker­berg, tan­to en lo que se refie­re a las vidas de los usua­rios como en el de las regu­la­cio­nes euro­peas o espa­ño­las van a ser rea­li­za­das, no impor­ta que sean ile­ga­les o con­cul­quen las leyes euro­peas o espa­ño­las y nin­gu­na san­ción hará modi­fi­car su con­duc­ta, ni siquie­ra si ponen en peli­gro la vida a la salud men­tal de las per­so­nas. El efec­to de estas gran­des mul­tas son solo peque­ños incon­ve­nien­tes eco­nó­mi­cos para estos gigan­tes empre­sa­ria­les. Es como pin­char con un alfi­ler a un gran ele­fan­te.

Recor­da­ré que fue el mis­mo Mark Zuc­ker­berg el que hizo popu­lar en Sili­con Valley el man­tra de «move fast and break things» (cuya tra­duc­ción lite­ral mué­ve­te rápi­do y rom­pe cosas, se podría expre­sar tam­bién como equi­va­len­te al famo­so man­tra de Sili­con Valley «más vale pedir per­dón que per­mi­so». El pod­cas­ter Lex Frid­man expli­có hace pocos meses en un epi­so­dio de sus pod­cast, que Gui­llau­me Ver­don, ex ‑emplea­do de Goo­gle, y líder del ace­le­ra­cio­nis­mo efec­ti­vo (un movi­mien­to que par­te de una oscu­ra teo­ría, pero con una visi­ble misión: luchar con­tra quie­nes, según ellos, fre­nan el pro­gre­so tec­no­ló­gi­co), cree que ha lle­ga­do el momen­to de pasar a la acción prác­ti­ca pro­pa­gan­do un «virus del opti­mis­mo» con el pro­pó­si­to explí­ci­to de gene­rar un «movi­mien­to opti­mis­ta viral». Ver­dón defi­ne así sus líneas de acción en el movi­mien­to: «apos­ta­mos por la entro­pía, la nove­dad, la dis­rup­ción, la malea­bi­li­dad y la velo­ci­dad». Por supues­to, pese a quien pese, y con una estra­te­gia de cor­te nihi­lis­ta, sin impor­tar las con­se­cuen­cias nega­ti­vas o efec­tos secun­da­rios per­ju­di­cia­les para las socie­da­des o los usua­rios de sus tec­no­lo­gías de van­guar­dia, que repre­sen­tan el úni­co tipo de pro­gre­so que ellos con­ci­ben.

En esa mis­ma línea del ace­le­ra­cio­nis­mo efec­ti­vo pare­ce estar ali­nea­do el núcleo cen­tral de la actual indus­tria de la IA Gene­ra­ti­va, que par­te de los Gran­des Mode­los de Len­gua­je (LLM), que para fun­cio­nar han de ser pre-entre­­na­­dos con ingen­tes can­ti­da­des de con­te­ni­dos en for­ma de tex­to, imá­ge­nes, pelí­cu­las y vídeos, sin los cua­les, los Chat­bot –inclui­do el más famo­so de todos, el actual Chat GPT, que deri­va del LLM GPT 4o–, no serían capa­ces de escu­pir (spit out, en la expre­sión ori­gi­nal en inglés) a la pan­ta­lla lo que se les soli­ci­ta en un prompt a los Gran­des Mode­los de Len­gua­je (LLM), y los Chat­bot como Chat GPT que, como expli­có Chomsky, son mara­vi­llas del apren­di­za­je auto­má­ti­co, pero no escri­ben, ni redac­tan ni pien­san. Y no los debe­ría­mos lla­mar­los por la ter­ce­ra per­so­na del sin­gu­lar ni antro­po­for­mi­zar nues­tro len­gua­je al refe­rir­nos a ellos. En este tex­to, he deja­do por su com­ple­ji­dad un poco a un lado, deli­be­ra­da­men­te, a los LLM, a pesar que son la raíz de los Chat­bot. Han sido nece­sa­rios para que exis­ta el ChatGPT y lo pue­da usar la gen­te. Pri­me­ro la empre­sa Open AI tuvo que desa­rro­llar la saga de trans­for­mers de apren­di­za­je auto­má­ti­co como GPT‑3, etc. Y para entre­nar a ese trans­for­mer opta­ron por «extraer» en secre­to millo­nes de tex­tos y obras de autor sin pedir per­mi­so a sus auto­res, o a los due­ños de sus dere­chos de autor. Y, tam­bién, usa­ron casi en secre­to todos aque­llos con­te­ni­dos úti­les que pudie­ran «ras­par» (extraer todo) vía inter­net. Este ya es un pro­ce­di­mien­to ile­gal –como lue­go vere­mos que demues­tra la sen­ten­cia del Juez William Alsup–, apar­te de amo­ral.

La IA Gene­ra­ti­va pro­ce­de de la gran arqui­tec­tu­ra del soft­wa­re de apren­di­za­je auto­má­ti­co y apren­di­za­je pro­fun­do que se mate­ria­li­zó en los Trans­for­mers y lue­go en los LLM (gran­des mode­los de len­gua­je), que para poner­lo al alcan­ce del públi­co masi­vo a tra­vés del móvil, han dado lugar Apps (Apli­ca­cio­nes móvi­les) como el famo­so Chat­bot con­ver­sa­cio­nal ChatGPT y sus con­gé­ne­res ya nacie­ron con ese peca­do ori­gi­nal. Para que fue­ran posi­bles hubo que lle­var a cabo un gigan­tes­co latro­ci­nio de obras inte­lec­tua­les de autor de todo tipo. Si no hay apro­pia­ción gigan­te de con­te­ni­dos (has­ta aho­ra impu­ne) no hay entre­na­mien­to de mode­los LLM. Y sin ese entre­na­mien­to no es posi­ble que fun­cio­ne un Chat­bot. Dicho esto, hay que esta­ble­cer una dis­tin­ción entre los ámbi­tos cien­tí­fi­cos de los LLM de IA en que se está inves­ti­gan­do labo­ra­to­rios de uni­ver­si­da­des y empre­sas de todo el mun­do para apro­ve­char su poten­cial en todo tipo de sec­to­res de cien­cia, indus­tria y empre­sa.

Hay algu­nos deta­lles con­cep­tua­les preo­cu­pan­tes en la natu­ra­le­za de las Apps de IA que los evan­ge­lis­tas de las big tech pasan por alto. Pero según Noam Chomsky, aun­que ChatGPT de Ope­nAI, o Gemi­ni Bard de Goo­gle, Syd­ney, de Micro­soft o Grok, de xAI, –empre­sa de Elon Musk– «son mara­vi­llas del apren­di­za­je auto­má­ti­co, pero no son ver­da­de­ra inte­li­gen­cia. Y tam­bién son la bana­li­dad del mal reini­cia­da. La reve­la­ción de la com­pren­sión (que los Chat­bot com­pren­dan las pala­bras mis­mas que escu­pen), no se ha pro­du­ci­do, ni se pro­du­ci­rá». Y, –en su opi­nión–, no pue­de pro­du­cir­se, si los pro­gra­mas de apren­di­za­je auto­má­ti­co como ChatGPT y los LLM siguen domi­nan­do el cam­po de la inte­li­gen­cia arti­fi­cial». Y, «por muy úti­les que pue­dan ser estos pro­gra­mas en algu­nos ámbi­tos con­cre­tos, –advier­te Chomsky–, sabe­mos por la cien­cia de la lin­güís­ti­ca y la filo­so­fía del cono­ci­mien­to que difie­ren pro­fun­da­men­te de la for­ma en que los seres huma­nos razo­nan y uti­li­zan el len­gua­je». Los LLM o los Chat­bots no com­pren­den el sig­ni­fi­ca­do de ni una sola de las pala­bras que ‘escu­pen’ a la pan­ta­lla.

Ade­más, hay otra dife­ren­cia gran­de de estas IA, por ejem­plo, el Chat GPT, con la inte­li­gen­cia huma­na. Seña­la tam­bién Chomsky que «La ver­da­de­ra inte­li­gen­cia tam­bién es capaz de pen­sar moral­men­te. Esto sig­ni­fi­ca limi­tar la crea­ti­vi­dad ili­mi­ta­da de nues­tras men­tes con un con­jun­to de prin­ci­pios éti­cos que deter­mi­nan lo que debe y no debe ser (y, por supues­to, some­ter esos prin­ci­pios a la crí­ti­ca crea­ti­va). Para ser útil, ChatGPT, –según el legen­da­rio lin­güís­ta–, debe ser capaz de gene­rar resul­ta­dos nove­do­sos; pero, para ser acep­ta­ble para la mayo­ría de sus usua­rios, debe­ría man­te­ner­se ale­ja­do de con­te­ni­dos moral­men­te cen­su­ra­bles».

Por otra par­te, como seña­ló Will Knight en MIT Tech Review son cajas negras que ocul­tan un oscu­ro secre­to: «nadie sabe real­men­te cómo sus algo­rit­mos más avan­za­dos hacen lo que hacen y eso, –dice Knigth–, podría ser un pro­ble­ma». Son las pri­me­ras tec­no­lo­gías en que ocu­rre que los mis­mos que las han desa­rro­lla­do, no saben cómo hacen lo que hacen. No hay tra­za­bi­li­dad visi­ble de lo que ocu­rre den­tro de estas cajas negras. Según Will Knight «inclu­so los inge­nie­ros que cons­tru­yen estas apli­ca­cio­nes infor­má­ti­cas de IA no pue­den expli­car com­ple­ta­men­te su com­por­ta­mien­to». Así, lle­ga a un momen­to en que plan­tea pre­gun­tas alu­ci­nan­tes (mind-bog­­gling ques­tions), y seña­la: «a medi­da que esta tec­no­lo­gía avan­za, es posi­ble que pron­to cru­ce­mos algún umbral más allá del cual, el uso de la IA requie­ra un sal­to de fe». Pero si hay algo inten­so en el rela­to de la IA de los evan­ge­lis­tas como Ver­don, es fe a man­sal­va y sin lími­te. Los cre­yen­tes de la IA la creen capaz de cual­quier cosa, por extra­or­di­na­ria que sea. Y, para ellos, cual­quie­ra que les con­tra­di­ga está equi­vo­ca­do y es des­pre­cia­ble.

Pero hay más cien­tí­fi­cos que advier­ten sobre las cajas negras de los LLM y Chat­bots. Tom­mi Jaak­ko­la, pro­fe­sor del MIT que tra­ba­ja en apli­ca­cio­nes de apren­di­za­je auto­má­ti­co seña­la que. «Ya sea una deci­sión impor­tan­te, de inver­sión, médi­ca, o tal vez, una deci­sión mili­tar, no pue­des con­fiar sólo en el méto­do de la «caja negra». Por su par­te Chomsky seña­la que «todas estas dife­ren­cias impo­nen limi­ta­cio­nes sig­ni­fi­ca­ti­vas a lo que estos pro­gra­mas pue­den hacer, codi­fi­cán­do­los con defec­tos inerra­di­ca­bles». Así sin tie­ne razón Chosmky que esa iner­cia de la evo­lu­ción infor­má­ti­ca liga­da a la Ley de Moo­re de que cada gene­ra­ción de tec­no­lo­gía infor­má­ti­ca avan­za en una mejo­ra casi auto­má­ti­ca en la siguien­te, pue­de rom­per­se dado que estás apli­ca­cio­nes de soft­wa­re con­tie­nen defec­tos impo­si­bles de eli­mi­nar. Pero nadie en la indus­tria de la IA quie­re hablar de limi­ta­cio­nes, solo de expec­ta­ti­vas super­la­ti­vas». Dado que todo este hype de la IA tie­ne detrás una enor­me ope­ra­ción espe­cu­la­ti­va finan­cie­ra, es la nue­va indus­tria cuyas expec­ta­ti­vas esta más cer­ca de una bur­bu­ja de eco­no­mía finan­cie­ra de casino. El avan­ce de los cien­tí­fi­cos de estas empre­sas de IA, siem­pre tie­nen detrás de la nuca el alien­to de los gran­des inver­so­res espe­cu­la­ti­vos. Los suyos no son avan­ces impul­sa­dos por la curio­si­dad cien­tí­fi­ca sino por las nece­si­da­des urgen­tes de rea­li­za­ción de bene­fi­cios. Ese es el mar­co de fon­do.

Dejan­do esto cla­ro, a par­tir de aho­ra me cen­tra­ré en los malos com­por­ta­mien­tos de algu­nas big tech de la IA. Estas empre­sas, en algu­nos casos, rea­li­zan infa­mes prác­ti­cas a par­tir de mode­los de nego­cios radi­cal­men­te extrac­ti­vos. Esto carac­te­ri­za a toda una serie de pla­ta­for­mas de las lla­ma­das big tech que per­si­guen gene­rar mono­po­lios, lo cual pro­du­ce por el camino, todo tipo de daños socia­les y per­so­nas y siguen ade­lan­te sin impor­tar el cómo ni el por­qué. La coar­ta­da es que hay una gue­rra total entre empre­sas y pla­ta­for­mas para ganar la Carre­ra de la IA, y hacia la Inte­li­gen­cia Arti­fi­cial Gene­ral (AIG) y lle­gar la pri­me­ra a la meta de la carre­ra y antes que los demás y con voca­ción de con­ver­tir­se en el núcleo cen­tral del futu­ro gran mono­po­lio de IA. No les impor­tan los daños cola­te­ra­les de esta carre­ra, ni los daños huma­nos a las vidas de las per­so­nas y a su salud men­tal. (El sabio de la tec­no­lo­gía Jaron Lanier ya nos ha avi­sa­do “El mayor peli­gro de la IA no es que nos des­tru­ya, sino que nos vuel­va locos y estú­pi­dos»).

Si el peca­do ori­gi­nal para desa­rro­llar los LLM fue lle­var a cabo un gigan­tes­co latro­ci­nio pre­vio, el segun­do peca­do ori­gi­nal de la gue­rra por lide­rar el mono­po­lio glo­bal de los Chat­bots es el demos­tra­do com­por­ta­mien­to amo­ral de estas empre­sas y sus líde­res ya con­ver­ti­dos tecno-oli­­ga­r­­cas. Inclu­so más; a estas altu­ras for­man una nue­va cla­se de plu­tó­cra­tas glo­ba­les, con un poder a la altu­ra, o supe­rior, casi al de cual­quier car­go demo­crá­ti­co elec­to por  pode­ro­so que sea. Podría­mos nom­brar­los tam­bién como autó­cra­tas digi­ta­les glo­ba­les por sus actos y decla­ra­cio­nes, por­que se adi­vi­na ya en ellos que este es el esta­tus al que aspi­ran; un poder abso­lu­to sin cor­ta­pi­sas.

Vol­vien­do a lo que casi todos per­ci­ben des­de el lado del usua­rio como tec­no­lo­gía IA, son los Chat­bot con­ver­sa­cio­na­les que es a la que los usua­rios de a pie tie­nen acce­so. Así sobre el esca­lón ante­rior de los LLM, y los trans­for­mers ni les preo­cu­pa. Para ellos, Ia IA y el apren­di­za­je auto­má­ti­co son los son los Chat­bots y sus Apps que, creen, les sir­ve de ayu­da inte­lec­tual para cual­quier tema.

Des­de este pun­to de vis­ta, entro aho­ra en el impac­to de los usos que impo­nen las pla­ta­for­mas y sus Apps, toman­do como ejem­plo cen­tral el más cono­ci­do, el ChatGPT y la estra­te­gia de la empre­sa que lo desa­rro­lló Open AI, con el pro­pó­si­to de con­ver­tir­lo en una herra­mien­ta de uso total para cual­quier entorno social en el que la pue­da impo­ner antes de que Goo­gle, Anth­ro­pic, Micro­soft, xAI, Open AI, u otras big tech con­si­gan impo­ner el uso de su pro­pia IA, de su pro­pio Chat­bot.

Uno de los mayo­res y más enor­mes impac­tos tem­pra­nos de los Chat­bots es sobre el mun­do de la edu­ca­ción de todos los nive­les. Y el dato es que la estra­te­gia de Open AI para impo­ner su uso en las uni­ver­si­da­des está ya tenien­do lugar, con unas con­se­cuen­cias que ame­na­zan ser enor­mes, como vere­mos. A par­tir de aho­ra, aquí me cen­tra­ré en ello. Vaya por delan­te que ahí vamos a ver el ter­cer peca­do ori­gi­nal que es el uso del enga­ño de for­ma mul­ti­di­men­sio­nal como méto­do gene­ra­li­za­do de actua­ción, de dis­cur­so y rela­to en torno a la adop­ción de esa tec­no­lo­gía por tut­ti quan­ti.

En torno a ello, voy a tra­tar de des­cri­bir las múl­ti­ples face­tas de una opi­nión muy cua­li­fi­ca­da, a con­ti­nua­ción, casi dia­me­tral­men­te opues­ta a las que he cita­do antes de gen­te como Karp, Alt­man y, com­pa­ñía, y que tam­po­co coin­ci­de con el rela­to de sus evan­ge­lis­tas y que se cen­tra sobre todo en las con­se­cuen­cias del uso de la IA de Open AI en la uni­ver­si­dad públi­ca con todo deta­lle.

Dicha cua­li­fi­ca­da opi­nión sobre las con­se­cuen­cias de la inva­sión de este tipo de IA en los cam­pus, es la Ronald Pur­ser, pro­fe­sor de Mana­ge­ment Admi­nis­tra­ción en la Escue­la de Nego­cios de la Uni­ver­si­dad Esta­tal de San Fran­cis­co don­de es cate­drá­ti­co, a quien le impor­tan tan­to las con­se­cuen­cias para la ins­ti­tu­ción uni­ver­si­ta­ria, como las con­se­cuen­cias huma­nas, que tam­bién le preo­cu­pan y mucho. Ade­más, como cate­drá­ti­co en San Fran­cis­co es buen cono­ce­dor de las mafias tec­no­ló­gi­cas como la de Pay Pal y el con­tex­to de los mag­na­tes tec­no­ló­gi­cos de Sili­con Valley, por pura pro­xi­mi­dad geo­grá­fi­ca. Veá­mos­lo en la Segun­da Par­te.

ENLACE A LA SEGUNDA PARTE DE ESTE ARTÍCULO.

Comparte esta publicación

amadomio.jpg

Suscríbete a nuestro boletín

Reci­be toda la actua­li­dad en cul­tu­ra y ocio, de la ciu­dad de Valen­cia