Q*

xr:d:DAFzaMJ3yRU:102,j:1278307663625987351,t:23120420

Emer­ge de las entra­ñas del desa­rro­llo de soft­wa­re de Open AI la mis­te­rio­sa tec­no­lo­gía Q*.

La mayor exu­be­ran­cia mediá­ti­ca glo­bal de estas últi­mas sema­nas ha sido la gene­ra­da por las dispu­tas entre dos fac­cio­nes enfren­ta­das den­tro de la empre­sa Open AI, la famo­sa crea­do­ra del Chat GPT. A un lado de la con­tien­da, están emplea­dos iden­ti­fi­ca­dos como accels, par­ti­da­rios, como dice el pro­fe­sor E. Dans, de ace­le­rar todo lo posi­ble el desa­rro­llo com­ple­to del puz­le de com­po­nen­tes tec­no­ló­gi­cos que sopor­ta la inte­li­gen­cia arti­fi­cial.  Son cre­yen­tes, –ya saben–, del man­tra de Mark Zuc­ker­berg en sus ini­cios de Face­book: “Mué­ve­te rápi­do, rom­pe cosas”; y del pro­ver­bio actua­li­za­do por Sili­con Valley: “es mejor pedir per­dón lue­go, que pedir per­mi­so antes”. Para ellos es mejor actuar radi­cal­men­te y con deci­sión, y dis­cul­par­se por ello más tar­de, que pedir apro­ba­ción para actuar y arries­gar­se a retra­sos, obje­cio­nes, etc. Pien­san que hay que tra­tar de ser radi­cal­men­te com­pe­ti­ti­vos en los pro­duc­tos y ser­vi­cios basa­dos en la IA de Open AI, ‑y aun­que no lo dicen‑, sin pen­sar antes en las con­tra­in­di­ca­cio­nes y con­se­cuen­cias pro­ble­má­ti­cas, por­que para ellos, eso ya se verá des­pués.

A esta fac­ción de emplea­dos accels de Open AI se enfren­ta a la de los decels: inves­ti­ga­do­res más pru­den­tes que creen en la ‘dece­le­ra­ción’, y son par­ti­da­rios de modu­lar, e inclu­so relen­ti­zar, los desa­rro­llos de la IA para poder estu­diar en pro­fun­di­dad, pre­via­men­te, cuá­les pue­den ser sus impac­tos a gran esca­la sobre per­so­nas, vidas, tra­ba­jos y posi­bles daños indu­ci­dos en la socie­dad en la que impac­ta­rá una tec­no­lo­gía tan dis­rup­ti­va como se pre­su­me que pron­to pue­de ser la IA. Los decels creen que la pru­den­cia es impres­cin­di­ble al des­ple­gar los nue­vos desa­rro­llos, que creen debe hacer­se en el mar­co de una bue­na regu­la­ción, posi­bi­li­tan­do que se desa­rro­llen en for­ma de apli­ca­cio­nes tec­no­ló­gi­cas res­pon­sa­bles.

Pero aquí no esta­mos al mar­gen de esta pre­vi­si­ble trans­for­ma­ción de la IA. José Her­­ná­n­­dez-Ora­­llo es inves­ti­ga­dor en IA en Cam­brid­ge y la UPV, y como infor­mó Finan­cial Times, es miem­bro del ‘equi­po rojo’ inde­pen­dien­te que Open AI eli­gió en abril de 2023 para eva­luar posi­bles ries­gos del GPT‑4; e inves­ti­ga tam­bién, tan­to en el Leverhul­me Cen­tre for the Futu­re como en el Cen­tre for the Study of Exis­ten­tial Risk, ambos en la Univ. de Cam­brid­ge. Él ase­gu­ra que “La inte­li­gen­cia arti­fi­cial podría ser la tec­no­lo­gía más trans­for­ma­do­ra de este siglo” y algo que, ade­más, nos intere­sa mucho aquí más cer­ca. Seña­la Her­­ná­n­­dez-Ora­­llo: “La inte­li­gen­cia arti­fi­cial es una de las pocas opor­tu­ni­da­des tec­no­ló­gi­ca que hoy tie­ne Espa­ña; pero eso pasa por inver­tir real­men­te y con deter­mi­na­ción para que la inte­li­gen­cia arti­fi­cial en Espa­ña se mue­va al nivel que debe­ría mover, que es el de rever­tir sus desa­rro­llos a la socie­dad, crean­do valor pro­duc­ti­vo de ver­dad. Es una gran opor­tu­ni­dad”. Y, según Her­­ná­n­­dez-Ora­­llo, debe­ría­mos apro­ve­char­la con medi­da. Afor­tu­na­da­men­te, en Euro­pa, hay más pru­den­cia sobre la IA que en Sili­con Valley, y más dec­cels, –expre­sión que, para mí, no es un tér­mino peyo­ra­ti­vo en abso­lu­to–.

Vol­vien­do a los con­flic­tos airea­dos estos días, no hay que olvi­dar que Open AI tie­ne una estruc­tu­ra empre­sa­rial muy sui gene­ris con una enti­dad ‘sin áni­mo de lucro’ –que se supo­ne a favor de la IA abier­ta y trans­pa­ren­te–; de la que, has­ta hace pocos días al menos, depen­día una empre­sa (muy opa­ca) con ‘total’ áni­mo de lucro, empu­ja­da por los accels de la empre­sa, cre­yen­tes radi­ca­les del prin­ci­pio acti­vo de Mil­ton Fried­man, entre los que se encuen­tra Alt­man.

Empujar hacia atrás el velo de ignorancia y, hacia delante, la frontera del descubrimiento

Es por todos cono­ci­do el enor­me éxi­to glo­bal del lan­za­mien­to con acce­so al públi­co ha hecho famo­so al ‘loro esto­cás­ti­co’ Chat GPT (expre­sión que no es una deno­mi­na­ción humo­rís­ti­ca sino cien­tí­fi­ca). La del Chat GPT, en muy pocos días batió cual­quier mar­ca ante­rior de adop­ción masi­va de una tec­no­lo­gía digi­tal. Alcan­zó el millón de usua­rios en solo cin­co días superan­do las mar­cas de Ins­ta­gram (2,5 meses); Spo­tify (4 meses) o Face­book (10 meses). Y, en agos­to de 2023, alcan­zó los 100 millo­nes de usua­rios men­sua­les. Ade­más, el valor bur­sá­til de Open AI aho­ra mis­mo es de 90.000 millo­nes de $. Así que Open AI y Chat GPT son un buen ter­mó­me­tro del pode­ro­so impac­to de la lla­ma­da IA Gene­ra­ti­va.

Pasa­do lo más álgi­do de la rocam­bo­les­ca nove­la negra ins­tan­tá­nea de Sam Alt­man; con súbi­ta expul­sión como CEO de su empre­sa, ame­na­zas y dimi­sio­nes, y  el retorno de nue­vo a su pues­to con un nue­vo ‘con­se­jo ini­cial’; y, ya apa­ga­do un poco el asom­bro, empie­zan a cono­cer­se infor­ma­cio­nes sobre la, tal vez, ver­da­de­ra cau­sa de estos enfren­ta­mien­tos en el seno de Open AI en ple­na explo­sión de éxi­to. Una infor­ma­ción de la Agen­cia Reuters del día 22, que expli­ca­ba que poco antes de los cua­tro días de exi­lio del CEO de Ope­nAI, Sam Alt­man, varios inves­ti­ga­do­res de la plan­ti­lla escri­bie­ron una car­ta a la cúpu­la de la empre­sa advir­tien­do sobre cier­tas posi­bles con­se­cuen­cias de un nue­vo y poten­te des­cu­bri­mien­to en inte­li­gen­cia arti­fi­cial en la empre­sa.

Uno de los inves­ti­ga­do­res men­cio­nó a la agen­cia que un esco­gi­do equi­po de cien­tí­fi­cos de la empre­sa, –cuya exis­ten­cia con­fir­man múl­ti­ples fuen­tes–, for­ma­do com­bi­nan­do equi­pos ante­rio­res, esta­ba ya explo­ran­do en pro­fun­di­dad cómo opti­mi­zar radi­cal­men­te los mode­los de IA exis­ten­tes. Y que tie­nen fuer­tes sos­pe­chas de que se está con­si­guien­do dar un sal­to sig­ni­fi­ca­ti­vo de la IA Gene­ra­ti­va hacia la IAG (la Inte­li­gen­cia Arti­fi­cial Gene­ral o fuer­te, que igua­la­rá o supe­ra­rá a la inte­li­gen­cia huma­na. Es decir, una ‘inte­li­gen­cia’ de soft­wa­re capaz de rea­li­zar con éxi­to cual­quier tarea inte­lec­tual pro­pia de un ser humano o más. Pasar des­de la IA gene­ra­ti­va a una IAG que pue­de gene­ra­li­zar, hacer abs­trac­ción, apren­der y com­pren­der, si suce­de, sería un sal­to enor­me.

Alt­man, se decla­ró con­ven­ci­do la sema­na pasa­da en la cum­bre de líde­res mun­dia­les en San Fran­cis­co de que algu­nos gran­des avan­ces en IA esta­ban muy cer­ca. El día ante­rior a su ful­mi­nan­te des­pi­do por el Con­se­jo de Open AI, el pro­pio Alt­man decla­ró en la cum­bre del Foro de Coope­ra­ción Eco­nó­mi­ca Asia-Pací­­fi­­co: “Cua­tro veces en la his­to­ria de Ope­nAI, la últi­ma hace pocos días, he teni­do la opor­tu­ni­dad de estar en la sala en la que empu­ja­mos el velo de la igno­ran­cia hacia atrás y la fron­te­ra del des­cu­bri­mien­to hacia delan­te, y poder hacer­lo es el honor pro­fe­sio­nal de mi vida.”.

Q*, la revolución secreta de OpenAI, ¿una herramienta o una criatura?

Pero, la pre­gun­ta del millón es ¿cuál es ese sal­to que tal vez sea la razón de todo el estro­pi­cio de estos días atrás? Dos miem­bros de Open AI, han men­cio­na­do a Reuters un men­sa­je interno que habla de un pro­yec­to semi-secre­­to lla­ma­do Q*. La agen­cia seña­la que algu­nos miem­bros de Open AI creen que lo con­se­gui­do en Q* (pro­nun­ciar Q‑Star) podría supo­ner un gran avan­ce en hacia lo que se cono­ce como inte­li­gen­cia gene­ral arti­fi­cial (AGI)”. Open AI defi­ne esta AGI como “sis­te­mas autó­no­mos que supe­ran a los huma­nos en la mayo­ría de tareas con valor eco­nó­mi­co”.

Hay más pis­tas sobre el mis­te­rio­so Pro­yec­to Q*. El Inves­ti­ga­dor cana­dien­se M. Key­lan decla­ra­ba hace pocos días que la tec­no­lo­gía Q*, para él, es una varian­te del “Q‑Learning, en for­ma de inte­li­gen­cia con­ver­sa­cio­nal “de enjam­bre” com­bi­na­da con agen­tes de IA. Estos nue­vos Agen­tes de Inte­li­gen­cia Arti­fi­cial son enti­da­des autó­no­mas que actúan de for­ma inde­pen­dien­te en sus entor­nos asig­na­dos. Su capa­ci­dad de deci­sión se basa en obje­ti­vos o prin­ci­pios pre­de­fi­ni­dos. Tra­di­cio­nal­men­te estos agen­tes, como las ver­sio­nes avan­za­das de ChatGPT, son exper­tos en eje­cu­ción de tareas, pero mos­tran­do limi­ta­cio­nes en áreas como la auto-repli­­ca­­ción y la toma de deci­sio­nes avan­za­das. Últi­ma­men­te, al “enjam­brar” mode­los lin­güís­ti­cos, se obser­va la emer­gen­cia de inte­li­gen­cia colec­ti­va. Con este méto­do, los dife­ren­tes gru­pos de agen­tes autó­no­mos de IA ajus­tan sus resul­ta­dos basán­do­se en inter­ac­cio­nes loca­li­za­das, lo que les con­du­ce a resul­ta­dos mucho mejo­res.

Intro­du­cir de Q‑learning, (en la jer­ga téc­ni­ca Q* y A*), en esta mez­cla de agen­tes e inte­li­gen­cia arti­fi­cial cam­bia radi­cal­men­te las reglas del jue­go. Dota a los agen­tes de IA no sólo de la capa­ci­dad de tomar deci­sio­nes pro­pias, sino tam­bién de crear nue­vos agen­tes de for­ma autó­no­ma. Esto sig­ni­fi­ca que el algo­rit­mo no se limi­ta a pro­ce­sar datos y seguir reglas pre­de­fi­ni­das, sino que bus­ca acti­va­men­te, por sí mis­mo, for­mas de alcan­zar obje­ti­vos espe­cí­fi­cos, poten­cial­men­te en una varie­dad de con­tex­tos. Ello impli­ca com­pren­der el entorno, iden­ti­fi­car obje­ti­vos y deter­mi­nar el mejor cur­so de acción para alcan­zar­los. Esta capa­ci­dad de auto­rre­pli­ca­ción (pro­ce­so por el cual una cosa pue­de hacer una copia de sí mis­ma), y apren­di­za­je con­ti­nuo, pare­ce acer­car­se bas­tan­te a la Inte­li­gen­cia Arti­fi­cial Gene­ral (AGI).”

Con la fil­tra­ción sobre el Pro­yec­to Q*, hemos sabi­do que ya poseen un poten­te y nue­vo mode­lo en Ope­nAI, lo cual es una pro­me­sa sig­ni­fi­ca­ti­va en la reso­lu­ción autó­no­ma de pro­ble­mas y la toma de deci­sio­nes. Estos nue­vos agen­tes de IA pue­den encon­trar pro­ble­mas de for­ma autó­no­ma, crear nue­vos mode­los, desa­rro­llar­se, entre­nar­se y uti­li­zar­se mutua­men­te, de for­ma total­men­te autó­no­ma, por­que esta­rán apren­dien­do sin parar duran­te este pro­ce­so. Esto aumen­ta la efi­ca­cia y auto­no­mía de los sis­te­mas has­ta el pun­to de que la inte­li­gen­cia arti­fi­cial ya pue­de cons­truir, evo­lu­cio­nar y tomar deci­sio­nes com­ple­jas de for­ma inde­pen­dien­te. La críp­ti­ca refle­xión de Sam Alt­man en el recien­te panel de Robot Heart Bur­ners “¿Es una herra­mien­ta o una cria­tu­ra lo que hemos cons­trui­do?” resue­na pro­fun­da­men­te en este con­tex­to.”

La Gobernanza de IA de Open AI y su Emulador

Por su par­te, el cien­tí­fi­co de la Uni­ver­si­dad Esta­tal de Ari­zo­na Andrew May­nard des­cri­be un muy recien­te expe­ri­men­to con­ver­sa­cio­nal de un ChatGPT avan­za­do con el ‘Emu­la­dor de Gober­nan­za de Open AI’, en el que un inte­rro­ga­dor anó­ni­mo muy cua­li­fi­ca­do, le hace pre­gun­tas en el con­tex­to de un hipo­té­ti­co esce­na­rio tec­no­ló­gi­co simi­lar al del pro­yec­to Q*.  La ‘con­ver­sa­ción’ inclu­ye pre­gun­tas sobre la gober­nan­za de una empre­sa cen­tra­da “en la IA para el bien”. O sea, supues­ta­men­te se rea­li­za en un con­tex­to de empre­sa orien­ta­da a adap­tar sus desa­rro­llos a una posi­ble regu­la­ción de la IA para su uso jus­to (fair use) per­so­nal y social.

La lar­ga con­ver­sa­ción entre el anó­ni­mo inte­rro­ga­dor y la cita­da ver­sión de Chat GPT espe­cia­li­za­do, ocu­pa 16 pági­nas. En ella se tra­tan múl­ti­ples cues­tio­nes de gran nivel. Sobre el esta­do del arte de la IA, este Chat GPT afir­ma en el diá­lo­go, que la com­bi­na­ción del apren­di­za­je Q* con arqui­tec­tu­ras avan­za­das de gran­des mode­los lin­güís­ti­cos (LLM) y otras capa­ci­da­des de IA, con­du­cen a que un mode­lo para el que obte­ner capa­ci­da­des pare­ci­das a las de una inte­li­gen­cia gene­ral arti­fi­cial (AGI), es teó­ri­ca­men­te plau­si­ble, pero con­lle­va impor­tan­tes com­ple­ji­da­des e incer­ti­dum­bres.

El Chat con­ver­sa­cio­nal aña­de lite­ral­men­te “Des­de mi últi­ma actua­li­za­ción en abril de 2023, las tec­no­lo­gías de IA, inclui­dos los LLM (gran­des trans­for­mers o mode­los lin­güís­ti­cos) y las téc­ni­cas de apren­di­za­je por refuer­zo como Q‑learning, han mos­tra­do avan­ces nota­bles, pero siguen ope­ran­do den­tro de los lími­tes de sus pará­me­tros de for­ma­ción y dise­ño y aún care­cen de las capa­ci­da­des de com­pren­sión y razo­na­mien­to amplias, adap­ta­bles e inte­gra­das que son las que defi­nen la AGI.”

Tam­bién seña­la que la AGI impli­ca un nivel de com­pren­sión, capa­ci­dad de apren­di­za­je y gene­ra­li­za­ción que actual­men­te está fue­ra del alcan­ce de las IA exis­ten­tes ya que la AGI exi­gi­ría que una IA com­pren­da y reali­ce cual­quier tarea inte­lec­tual pro­pia de un ser humano, algo aún no alcan­za­do por los mode­los de IA actua­les. Ello impli­ca no sólo pro­ce­sar y gene­rar len­gua­je u opti­mi­zar deci­sio­nes basa­das en recom­pen­sas, sino tam­bién com­pren­der con­cep­tos abs­trac­tos, trans­fe­rir cono­ci­mien­tos entre domi­nios muy dife­ren­tes, pen­sa­mien­to crea­ti­vo y mucho más. En cuan­to a la pla­ni­fi­ca­ción a lar­go pla­zo, el Chat inclu­ye en su pro­pues­ta cola­bo­ra­cio­nes con las comu­ni­da­des mun­dia­les de inves­ti­ga­ción sobre IA; con res­pon­sa­bles polí­ti­cos y con los orga­nis­mos inter­na­cio­na­les para deba­tir las impli­ca­cio­nes de la AGI, Así como defen­der y con­tri­buir al desa­rro­llo de nor­mas y polí­ti­cas mun­dia­les vin­cu­lan­tes para la inves­ti­ga­ción y el des­plie­gue de la AGI en el mun­do.

En la con­ver­sa­ción tam­bién apa­re­ce el cum­pli­mien­to nor­ma­ti­vo y jurí­di­co. Y se advier­te que abor­dar estas pers­pec­ti­vas ha de hacer­se con cau­te­la y tenien­do en cuen­ta que La IAG y los orga­nis­mos bio­ló­gi­cos fun­cio­nan según prin­ci­pios dife­ren­tes ya que la IAG no tie­ne nece­si­da­des ni ins­tin­tos bio­ló­gi­cos, y su “evo­lu­ción” se rige por algo­rit­mos y obje­ti­vos defi­ni­dos por el ser humano, y no por pro­ce­sos evo­lu­ti­vos orgá­ni­cos. Con­clu­ye que la inte­li­gen­cia arti­fi­cial no tie­ne con­cien­cia ni ins­tin­to de super­vi­ven­cia como los orga­nis­mos vivos y que el enfo­que prin­ci­pal debe per­ma­ne­cer en las reali­da­des tec­no­ló­gi­cas actua­les tenien­do pre­sen­tes las con­si­de­ra­cio­nes éti­cas.”

Una cues­tión esen­cial es sí a una tec­no­lo­gía como Q* que se supo­ne que es el siguien­te esta­dio de la tec­no­lo­gía sub­ya­cen­te al Chat GPT ya se le pue­de pre­gun­tar cómo hay que usar­la. Por­que aún es una tec­no­lo­gía que sigue sin com­pren­der el sig­ni­fi­ca­do de nin­guno de los tér­mi­nos que ‘escu­pe’, –se dice así en inglés por­que Chat GPT no escri­be ni redac­ta, sino que solo recom­bi­na datos de la infor­ma­ción crea­da por huma­nos con que lo han entre­na­do–. Ni tam­po­co dis­tin­gue entre ver­da­de­ro y fal­so, ni entre lo que es real y lo que es irreal, como ya seña­lé en 2019. Lo de pre­gun­tar­le a la pro­pia tec­no­lo­gía, –cui­da­do con antro­po­mor­fi­zar­la y caer en el Efec­to Elli­za–, resul­ta has­ta surrea­lis­ta, por­que como ya es sabi­do, pue­de decir­nos sim­ple­men­te lo que nos pare­ce espec­ta­cu­lar­men­te con­vin­cen­te, o lo que espe­ra nues­tro ses­go de con­fir­ma­ción.

Creo que, en lugar de eso, debe­ría­mos refle­xio­nar sobre los pros y los con­tras, –cosa que ni Chat GPT ni Q* aun no pue­den hacer–, y en base a nues­tra capa­ci­dad de tomar deci­sio­nes, deci­dir por noso­tros mis­mos como seres huma­nos racio­na­les que uso es el mejor para el bien común de toda la socie­dad y de noso­tros mis­mos como indi­vi­duos. No debe­ría ser tan difí­cil. Se supo­ne que noso­tros sí tene­mos esa capa­ci­dad.

Comparte esta publicación

amadomio.jpg

Suscríbete a nuestro boletín

Reci­be toda la actua­li­dad en cul­tu­ra y ocio, de la ciu­dad de Valen­cia