Por su inte­rés, repro­du­ci­mos este diá­lo­go con José Her­­ná­n­­dez-Ora­­llo rea­li­za­do en Cla­re Hall Colle­ge, de Cam­brid­ge, por Adol­fo Pla­sen­cia.

José Her­­ná­n­­dez-Ora­­llo en el Cla­re Hall Colle­ge de la Uni­ver­si­dad de Cam­brid­ge, al que per­te­ne­ce. Foto: Adol­fo Pla­sen­cia

Adol­fo Pla­sen­cia: José, tú estás inves­ti­gan­do aquí en Cam­brid­ge en el Leverhul­me Cen­tre for the Futu­re of Inte­lli­gen­ce (IFCI), un ins­ti­tu­to que tie­ne que ver con la inves­ti­ga­ción sobre el futu­ro de la inte­li­gen­cia. Ima­gino que no solo con la inte­li­gen­cia arti­fi­cial sino con cual­quier tipo de inte­li­gen­cia.… Cuén­ta­nos en qué estás inves­ti­gan­do aquí. Bueno, lo que se pue­da con­tar.

José Her­­ná­n­­dez-Ora­­llo: es un cen­tro, como tú has dicho, para inves­ti­gar el futu­ro de la inte­li­gen­cia, y aun­que, fun­da­men­tal­men­te, está cen­tra­do en la inte­li­gen­cia arti­fi­cial, tam­bién se estu­dian sus efec­tos en la inte­li­gen­cia huma­na, y en algu­nos aspec­tos tam­bién de otras inte­li­gen­cias, la ani­mal, etc.

A. P.: A tra­vés de la inte­li­gen­cia arti­fi­cial tam­bién se pue­den ave­ri­guar cosas de la inte­li­gen­cia natu­ral, inclui­da la huma­na, que no sabía­mos. ¿No es así?

J. H‑O.: Esas son par­te de las ambi­cio­nes que quie­re con­se­guir el cen­tro. Hay algu­nos pro­yec­tos en esa línea y en alguno de ellos es en don­de estoy tra­ba­jan­do yo. En reali­dad, en sen­ti­do inver­so de lo que es habi­tual, explo­rar el futu­ro de la inte­li­gen­cia nos ayu­da a enten­der el pre­sen­te y el pasa­do de la inte­li­gen­cia. Se diría que el cen­tro ha sido des­ple­ga­do para enten­der los efec­tos de la inte­li­gen­cia arti­fi­cial (IA), pero para poder cono­cer esos efec­tos ten­dre­mos que enten­der lo que es la inte­li­gen­cia, como un pro­ce­so. El nom­bre de “para el futu­ro de la inte­li­gen­cia” sir­ve para defi­nir los obje­ti­vos del cen­tro ya que habla­mos de inte­li­gen­cia y no solo de AI. La inte­li­gen­cia va a cam­biar en esen­cia pero tam­bién en cómo se dis­tri­bu­ye en el pla­ne­ta, tenien­do en cuen­ta dón­de se encuen­tran los labo­ra­to­rios y la gen­te más bri­llan­te en IA y para quién tra­ba­jan.

A. P.: Supon­go que cuan­do habla­mos sobre lo que es la inte­li­gen­cia nos refe­ri­mos a qué la com­po­ne, cómo fun­cio­na, cuá­les son sus lími­tes, etc. …

J. H‑O.: Nos refe­ri­mos a las capa­ci­da­des que uno aso­cia con ‘inte­li­gen­cia’. Inte­li­gen­cia es algo que aún no está defi­ni­do: sus tipos, sus gra­dos… cómo va a cam­biar. Lo que intere­sa en el cen­tro es ana­li­zar hacia dón­de van esos cam­bios, las inte­li­gen­cias nue­vas que se van a crear y cómo esa inte­li­gen­cia arti­fi­cial va a afec­tar a nues­tra mane­ra de ver el mun­do tam­bién. Esa inte­li­gen­cia enten­di­da como algo colec­ti­vo. Es decir, la huma­ni­dad va a enten­der el mun­do de mane­ra dife­ren­te por­que el glo­bal de la inte­li­gen­cia en el pla­ne­ta va a ser dife­ren­te. No es que vaya a ser nece­sa­ria­men­te más gran­de, sino dife­ren­te en muchos aspec­tos. Habrá gen­te que será ‘mejo­ra­da’ por la inte­li­gen­cia arti­fi­cial y gen­te que se verá ‘atro­fia­da’ por ella. Todo eso afec­ta­rá a la inte­li­gen­cia huma­na, que for­ma­rá par­te de las cosas que van a cam­biar con la irrup­ción de la inte­li­gen­cia arti­fi­cial.

Inteligencia humana ‘aumentada’ por la inteligencia artificial

A. P.: ¿Tú crees en una inte­li­gen­cia huma­na ‘aumen­ta­da’ por la inte­li­gen­cia arti­fi­cial?

J. H‑O.: No es que crea. Eso es ya un hecho. Pero no solo por la inte­li­gen­cia arti­fi­cial. Cuan­do uti­li­za­mos nues­tros dis­po­si­ti­vos esta­mos aumen­tan­do nues­tra inte­li­gen­cia. Cuan­do usa­mos, por ejem­plo, una cal­cu­la­do­ra, cier­tas capa­ci­da­des, aun­que muy res­trin­gi­das y espe­cí­fi­cas para hacer cálcu­los de ope­ra­cio­nes arit­mé­ti­cas, esta­mos sien­do ‘aumen­ta­dos’. La cues­tión es qué tipo de capa­ci­da­des en el futu­ro van a aumen­tar­se. Aho­ra mis­mo, te pue­des mover por una ciu­dad usan­do apli­ca­cio­nes que uti­li­zan un gran volu­men de datos y son pre­dic­ti­vas. Es decir, tie­nen un com­po­nen­te de inte­li­gen­cia ahí. Así, esta­mos dejan­do que cier­tas capa­ci­da­des nues­tras las hagan estos sis­te­mas por noso­tros. Eso, por ejem­plo, nos per­mi­te aho­ra nave­gar por una ciu­dad mucho mejor que cómo lo hacía­mos hace 20 años. ¿Con­si­de­ra­mos, tal vez, que eso no es par­te de noso­tros, que no esta­mos mejo­ran­do nues­tra inte­li­gen­cia por­que no está den­tro de nues­tro cere­bro? Yo creo que pen­sar así es una visión muy res­tric­ti­va de lo que es la inte­li­gen­cia. Hay toda una teo­ría de lo que es la ‘men­te exten­di­da’, que argu­men­ta que cuan­do uti­li­zas lápiz y papel tie­nes más capa­ci­da­des que cuan­do no lo uti­li­zas. Muchas de las cosas que la huma­ni­dad ha hecho no se hubie­ran podi­do hacer sin lápiz y papel.

A. P.: Pero eso sería la ver la inte­li­gen­cia arti­fi­cial como una ‘exten­sión del hom­bre’ de la que habla­ba McLuhan. Es decir, se le aña­den al hom­bre ‘exten­sio­nes’, median­te arte­fac­tos tec­no­ló­gi­cos conec­ta­dos a su cere­bro.…

J. H‑O.: Yo dudo que el mejor camino para inten­tar mejo­rar las capa­ci­da­des huma­nas sea modi­fi­car el cere­bro, con el cono­ci­mien­to limi­ta­do que tene­mos de él en este momen­to. Hay muchas mejo­res mane­ras de hacer­lo con dis­po­si­ti­vos exter­nos o inter­fa­ces que poda­mos desa­rro­llar en los pró­xi­mos años, para que ten­gas una ‘per­cep­ción aumen­ta­da’, (ya exis­ten dis­po­si­ti­vos de reali­dad aumen­ta­da o reali­dad vir­tual), sin tener que modi­fi­car algo en el cere­bro. Que a nivel tera­péu­ti­co poda­mos actuar sobre el cere­bro intro­du­cien­do célu­las madre en zonas que están mal es razo­na­ble, pero creo que inten­tar ‘aumen­tar’ la men­te actuan­do sobre el cere­bro no lo veo un camino via­ble a cor­to y medio pla­zo. Si tú tie­nes que poner­te en el cere­bro un chip para poder nave­gar por una ciu­dad, ‑lo cual supo­ne cier­tos riesgos‑, y resul­ta que pue­des hacer­lo lle­van­do un chip en el bol­si­llo en tu móvil, es pre­fe­ri­ble esto últi­mo.

‘Aumentar’ y/o ‘Atrofiar’ tu inteligencia

A. P.: Tú has dicho que la IA te pue­de ‘aumen­tar’ tu inte­li­gen­cia, pero tam­bién te la pue­de ‘atro­fiar’. Eso me recuer­da la esce­na de Fedra de Pla­tón en la que el inven­tor de la escri­tu­ra va a pre­sen­tar su inven­to al faraón, Thal­mus, pen­san­do que le va a lle­nar de hono­res y resul­ta que, una vez oída la des­crip­ción de la vir­tu­des de la escri­tu­ra y las ven­ta­jas que iba a tener eso para las per­so­nas, el faraón se mues­tra preo­cu­pa­do argu­men­tan­do que “la gen­te no esta­ría obli­ga­da a recor­dar y por eso, ya no recor­da­ría lo que antes sí recor­da­ba”, y eso haría que su memo­ria depen­die­ra de un dis­po­si­ti­vo ‘mine­ral’ externo. ¿Eso equi­val­dría a que en par­te ‘atro­fiar’ esa capa­ci­dad de recor­dar del cere­bro humano?

Toda tec­no­lo­gía crea depen­den­cia. Si vol­vié­ra­mos a la saba­na afri­ca­na de don­de sali­mos, no dura­ría­mos ni dos días allí sin nin­gu­na ayu­da tec­no­ló­gi­ca, por­que nos hemos ‘atro­fia­do’ para ese entorno.

J. H‑O.: Sí, pero creo que hay que ir con cui­da­do con el tema de la ‘inde­pen­den­cia’. Toda tec­no­lo­gía crea depen­den­cia. Si noso­tros los huma­nos nos vol­vié­ra­mos a la saba­na afri­ca­na de don­de sali­mos, no dura­ría­mos ni dos días allí, sin nin­gu­na ayu­da tec­no­ló­gi­ca, por­que nos hemos ‘atro­fia­do’ para ese entorno. Esta­mos afec­ta­mos por la ‘depen­di­bi­li­dad’. Si tú estás acos­tum­bra­do a las cosas que te pro­por­cio­na un dis­po­si­ti­vo que uti­li­zas, y te falla en un momen­to dado, ya no pue­des hacer las cosas que tú podías hacer con él, ‑con esa capa­ci­dad ‘aumen­ta­da’ que te pro­­po­r­­cio­­na­­ba-. Noso­tros cal­cu­la­mos mucho peor que nues­tros padres, por­que noso­tros siem­pre ‘tira­mos’ de cal­cu­la­do­ra, igual que con muchas otras cosas. Pero eso no es malo, siem­pre que la tec­no­lo­gía esté ahí, dis­po­ni­ble. El pro­ble­ma es que nos estre­sa­mos muchí­si­mo cuan­do algo falla. “Hoy no ten­go cone­xión, ya no pue­do tra­ba­jar”, — deci­­mos-. Y eso lo vamos a vivir cada vez más, por­que la depen­den­cia ya no va a ser sólo cosa de herra­mien­tas que usa­mos, sino de herra­mien­tas que pien­san ‘par­cial­men­te’ por noso­tros.

Software que ‘piensa’ parcialmente por nosotros y nos crea dependencia

A. P.: Cuan­do dices herra­mien­tas que ‘pien­san’, ¿te refie­res a que sean racio­na­les con res­pec­to a algo, hagan deduc­cio­nes y tomen sus pro­pias deci­sio­nes al res­pec­to?

J. H‑O.: Sí. Ya lo hacen. De hecho, para muchas cosas pre­fe­ri­mos ya una deci­sión toma­da por una máqui­na a una deci­sión toma­da por un humano. Eso ya es una mane­ra de ‘exten­der’ nues­tras capa­ci­da­des. Pero si esa máqui­na, en un momen­to dado, no está ope­ra­ti­va o no dis­po­ne­mos de ella, nos sen­ti­mos ‘atro­fia­dos’. Ya no pue­do tener ese infor­me para el lunes por­que ha falla­do el sis­te­ma que eva­lúa… diga­mos, …, por ejem­plo, el ries­go de las póli­zas de los segu­ros. Pues ya no lo pue­des tener. Te atro­fias en el momen­to en que eso de que dis­po­nías, ya no lo tie­nes. Pero no hay nada nega­ti­vo en depen­der de algo, si esa cosa de que depen­des es fia­ble y está ahí cuan­do la nece­si­tas, como cual­quier herra­mien­ta tec­no­ló­gi­ca.

Lo que ocu­rre es que lo que está vinien­do no son herra­mien­tas espe­cia­li­za­das de apo­yo físi­co, sino que van a ser ‘asis­ten­tes per­so­na­les’ vir­tua­les que nos va a ayu­dar en diver­sas cosas inte­lec­tua­les… Noso­tros tam­bién tene­mos depen­den­cia de otras per­so­nas, y cuan­do esas per­so­nas fal­tan, nos sen­ti­mos ‘atro­fia­dos’ por­que ya no pode­mos hacer lo que antes sí podía­mos, y así fun­cio­nan las orga­ni­za­cio­nes, las empre­sas y las fami­lias. Lo mis­mo va a pasar con la inte­li­gen­cia arti­fi­cial. La cues­tión es cómo dise­ña­mos todo esto para que el asis­ten­te nun­ca falle y siem­pre esté dis­po­ni­ble. Y tam­bién, si en algún momen­to hay per­so­nas que deci­den no tener estos asis­ten­tes, pue­dan no tener­los y pue­dan des­ha­cer­se de esa depen­den­cia, si ese es el deseo de esa per­so­na. Es decir, que no te veas siem­pre obli­ga­do impe­ra­ti­va­men­te a usar la tec­no­lo­gía.

A.P.: Pero nor­mal­men­te una depen­den­cia, lo que sue­le hacer, es suplan­tar a la capa­ci­dad de deci­sión de las per­so­nas, está por enci­ma de su volun­tad. Aca­ba con­si­guien­do que las per­so­nas hagan cosas que no han deci­di­do, o no han sido capa­ces de deci­dir. En ese sen­ti­do, ¿la inte­li­gen­cia arti­fi­cial podría gene­rar depen­den­cias de ese tipo?

Cuan­to más ‘inte­li­gen­te’ es una herra­mien­ta, más se pue­de usar para mani­pu­lar

J. H‑O.: En ese sen­ti­do, eso tam­bién está pasan­do. Es un pro­ble­ma de con­fian­za en las máqui­nas. Empe­za­mos a con­fiar en ellas y, en un momen­to dado, a dele­gar en que ellas tomen las deci­sio­nes. Muchas de esas deci­sio­nes son correc­tas. Pero pue­de lle­gar un momen­to, ‑por­que esas máqui­nas están desa­rro­lla­das por com­­pa­­ñías- que estén guia­das por intere­ses que no coin­ci­dan con los nues­tros. Así que pue­den gene­rar­nos tam­bién una cier­ta des­con­fian­za. Pero no por­que estén mal dise­ña­das, o por­que la posi­bi­li­dad de que que­den fue­ra de nues­tro con­trol sea alta, sino por­que detrás del dise­ño de esa máqui­na hay unos cier­tos intere­ses, comer­cia­les, etc. Igual que ocu­rre con las rela­cio­nes huma­nas. Cuan­to más ‘inte­li­gen­te’ es una herra­mien­ta, más se pue­de usar para mani­pu­lar. Pero eso ya es un uso mali­cio­so de intere­ses no ali­nea­dos, entre los de quien ha dise­ña­do ese sis­te­ma con res­pec­to a los de la per­so­na que los usa. Cuan­do una gran com­pa­ñía de dis­tri­bu­ción te quie­re ven­der algo y te lo reco­mien­da, con sis­te­mas tec­no­ló­gi­cos de reco­men­da­ción, lo hace con intere­ses muy cla­ros de mani­pu­lar tus deseos para que aca­bes com­pran­do. Pero no es un pro­ble­ma de inte­li­gen­cia arti­fi­cial sino de un uso que se hace de ella, como ocu­rre con cual­quier otra herra­mien­ta.

A.P.: En la Web del CFI, el cen­tro don­de estás inves­ti­gan­do aquí en Cam­brid­ge, hay áreas en cuya des­crip­ción se habla de nor­ma­ti­vas, orde­na­ción, lími­tes, etc., en rela­ción al futu­ro de la inte­li­gen­cia arti­fi­cial. Sabes que ha habi­do polé­mi­cas e inclu­so mani­fies­tos, fir­ma­dos por muchos cien­tí­fi­cos, dicien­do que hay que poner lími­tes a cier­tas inves­ti­ga­cio­nes en IA, y nor­ma­ti­vi­zar­las por peli­gros como las armas leta­les autó­no­mas, etc. Eso ha crea­do una cier­ta alar­ma lo que, uni­do a mucha des­in­for­ma­ción, ha hecho que mucha gen­te vea muy nega­ti­vas las posi­bi­li­da­des de le inte­li­gen­cia arti­fi­cial.

¿Cómo se abor­da esto de poner­le lími­tes a la inves­ti­ga­ción en la cien­cia de la IA, de la que os ocu­páis aquí en vues­tro cen­tro?

Poner límites a la Ciencia

J. H‑O.: Yo no creo que se tra­te de poner lími­tes. La gen­te no está hablan­do aquí en el CFI de poner lími­tes, sino de regu­lar. Y regu­lar, si se hace bien…

A.P.: ¿Pero ‘regu­lar’ no es poner lími­tes?…

J. H‑O.: Sí, en cier­to modo es encau­zar, sí… Pero, es que el tér­mino ‘poner lími­tes’ se aso­cia con que no poda­mos lle­gar a cier­tas cosas. No se está hablan­do aquí de poner lími­tes a la cien­cia sino de regu­lar el uso de la tec­no­lo­gía, que es dife­ren­te. Es cier­to que en algún momen­to se está hablan­do de qué cosas es no éti­co inves­ti­gar. Eso es un tema más mino­ri­ta­rio, pero impor­tan­te tam­bién. Hay cier­ta fra­se en inglés al res­pec­to que se podría tra­du­cir por el “de qué es peli­gro­so inves­ti­gar”. Pero yo creo que de lo que se tra­ta es de ‘nor­ma­ti­zar’ el uso de la tec­no­lo­gía. Por ejem­plo, de has­ta dón­de pue­de lle­gar una empre­sa para con­ven­cer­te de que com­pres su pro­duc­to; qué tipo de herra­mien­tas pue­den usar para ello, qué nivel de trans­pa­ren­cia tie­ne que ofre­cer esa com­pa­ñía: temas, por ejem­plo, de con­fian­za, pri­va­ci­dad, y otras cosas pro­pias de la era del cono­ci­mien­to que ya esta­mos vivien­do y que no son tan nue­vas… Lo que nos está moti­van­do a mover­nos más al res­pec­to es que los cam­bios se están ace­le­ran­do. Aun­que no me refie­ro a este tipo de ace­le­ra­ción expo­nen­cial de la que se ha habla­do…

A.P.: Lo que ha lla­ma­do La Sin­gu­la­ri­dad Ray Kurz­weil…, aho­ra jefe de inge­nie­ría de Goo­gle…

J. H‑O.: No creo que el con­cep­to de sin­gu­la­ri­dad esté bien defi­ni­do. Es incom­pa­ti­ble con la físi­ca. Lo que sí que se obser­va es que hay momen­tos en que una tec­no­lo­gía avan­za mucho más rápi­do y, en otros, hay cre­ci­mien­tos más len­tos. Pero aho­ra en inte­li­gen­cia arti­fi­cial hay un cre­ci­mien­to muy rápi­do, sobre todo des­de el pun­to de vis­ta de las apli­ca­cio­nes. Se están invir­tien­do can­ti­da­des ingen­tes de dine­ro, y eso tam­bién hace que la ‘rue­da’ vaya giran­do más rápi­do, ya no sólo des­de hace diez años sino, sobre todo, des­de hace dos años. Se pro­du­cen más cosas que crean nue­vas opor­tu­ni­da­des. Y tam­bién, oca­sio­nal­men­te, como con cual­quier tec­no­lo­gía nue­va y sus apli­ca­cio­nes, o com­bi­na­cio­nes de ellas, se gene­ran cosas que no eran pre­de­ci­bles.

A.P.: Del invierno de la IA del que se que­ja­ba hace algo más de una déca­da Rod­ney Brooks, hemos pasa­do a lo que, aho­ra mis­mo, pare­ce una explo­sión de la AI, del machi­ne lear­ning (M.L., apren­di­za­je auto­má­ti­coy del deep lear­ning. ¿Se ha detec­ta­do en la his­to­ria recien­te de la cien­cia y la tec­no­lo­gía, algún meca­nis­mo que haya ser­vi­do de cata­li­za­dor para engen­drar esta trans­for­ma­ción y su evi­den­te cam­bio de velo­ci­dad de los cam­bios?

J. H‑O.: Ha habi­do bas­tan­tes deba­tes sobre cuál ha sido el moti­vo. Yo creo que hay una mez­cla de fac­to­res. Nin­guno de los ele­men­tos bási­cos es nue­vo del todo. El apren­di­za­je auto­má­ti­co ha esta­do ahí des­de hace déca­das. La cien­cia de mine­ría de datos eclo­sio­nó hace vein­te años. El tér­mino Big Data está pre­sen­te des­de hace bas­tan­te tiem­po. Hay una con­jun­ción de fac­to­res: tene­mos muchí­si­mos más datos de los que tenía­mos y resul­ta que cier­to tipo de téc­ni­cas de apren­di­za­je auto­má­ti­co empie­zan a fun­cio­nar muy bien con una gran masa de datos y no se satu­ran cuan­do les entre­gas más y más datos. Cuan­tos más datos les das a estos algo­rit­mos, más mejo­ran y siguen apren­dien­do. Esto reque­ría gran capa­ci­dad de cálcu­lo, de cómpu­to, que no esta­ba dis­po­ni­ble. Eso, en los últi­mos 5 años ha cam­bia­do y aho­ra, ya es posi­ble. Y hay otro fac­tor en las apli­ca­cio­nes, por ejem­plo, las del reco­no­ci­mien­to del habla y del len­gua­je natu­ral que han empe­za­do a fun­cio­na mucho mejor que hace cin­co años. Y ocu­rre tam­bién con el reco­no­ci­mien­to de imá­ge­nes que es una de las pri­me­ras cosas que la gen­te valo­ra y dice… ¡ostras!, si una máqui­na pue­de ver, o pue­de enten­der­me cuan­do yo hablo, es que esta­mos cer­ca de algo gran­de… Eso no había pasa­do antes. Las con­ver­sa­cio­nes que podías tener con aque­llos pri­mi­ti­vos sis­te­mas de dic­ta­do auto­má­ti­co de hace una déca­da eran bas­tan­te pobres. Aho­ra, tie­nes un dis­po­si­ti­vo, le hablas y te entien­de. Eso crea en la gen­te una sen­sa­ción de decir… “si ya me entien­de, el siguien­te paso va a ser que pien­se!”

A.P.: Sí, pero en reali­dad, no te entien­de, …por­que, en el famo­so con­cur­so Jeo­pardy!, el super­compu­tador Watson, que ganó a los espe­cia­lis­tas huma­nos, res­pon­día correc­ta­men­te pero la máqui­na no com­pren­día en abso­lu­to el sig­ni­fi­ca­do de las ideas con­te­ni­das en sus res­pues­tas que, sin embar­go, eran correc­tas…

J. H‑O.: Es ver­dad, el sis­te­ma de Watson no enten­día nada.

A.P.: Pare­ce que te com­pren­dan, pero, en reali­dad, las máqui­nas aún no com­pren­den…

El cómputo de la Inteligencia Artificial crece hoy a un ritmo insostenible

J. H‑O.: Sí, pero por eso cuan­do esta­mos hablan­do de que algo es inmi­nen­te, exis­te una muy alta expec­ta­ti­va … Tú ves que, cuan­do a los arte­fac­tos y sis­te­mas les hablas, te res­pon­den. Les pones una foto que has hecho con tu móvil y ves que des­cri­ben correc­ta­men­te lo que con­tie­ne esa ima­gen, algo impo­si­ble hace cin­co años… Y ves que inver­so­res de todo el mun­do están invir­tien­do masi­va­men­te en inte­li­gen­cia arti­fi­cial por­que pien­san que va a ser algo deci­si­vo de for­ma inmi­nen­te. Ves que la gen­te está com­bi­nán­do­lo todo. Por ejem­plo, hay un infor­me de la sema­na pasa­da que afir­ma­ba que, si com­pa­ra­mos la Ley de Moo­re con el cre­ci­mien­to de cómpu­to que se está usan­do aho­ra en inte­li­gen­cia arti­fi­cial, cada año se está mul­ti­pli­can­do por 5. Cuan­do aque­lla ley sig­ni­fi­ca­ba sólo mul­ti­pli­car­se por dos, cada 18 meses. Ese cre­ci­mien­to x5 de la IA no es sos­te­ni­ble. Así que el por­cen­ta­je del cre­ci­mien­to del cómpu­to que se está uti­li­zan­do para IA aho­ra mis­mo está cre­cien­do en mag­ni­tu­des que no son sos­te­ni­bles en tér­mi­nos eco­nó­mi­cos por­que eso sig­ni­fi­ca­ría que en 10 años ten­dría­mos todo el pla­ne­ta cubier­to de ser­vi­do­res con un con­su­mo de ener­gía tam­bién insos­te­ni­ble. Habrá que redu­cir ese cre­ci­mien­to para ali­near­lo con el de la Ley de Moo­re. Ya se habla de compu­tación cuán­ti­ca y, qui­zá pode­mos seguir cre­cien­do, pero ten­drá que ser con un tipo de tec­no­lo­gía dis­tin­to del actual.

El por­cen­ta­je del cre­ci­mien­to del cómpu­to que se está uti­li­zan­do para la IA aho­ra mis­mo está cre­cien­do en mag­ni­tu­des que no son sos­te­ni­bles.

A.P.: Esta­mos en la Uni­ver­si­dad de Cam­brid­ge, que tie­ne más de ocho siglos de exis­ten­cia, pero tú estás en ella, aquí en el Leverhul­me Cen­tre for the Futu­re of Inte­lli­gen­ce (LCFI, o sim­ple­men­te CFI), un cen­tro que es una enti­dad muy joven, ‑nació en diciem­bre de 2015, hace menos de tres años- pro­mo­vi­do por las uni­ver­si­da­des de Cam­brid­ge, Oxford, Ber­ke­ley, el Impe­rial Colle­ge, Royal Society el Leverhul­me Trust. Su lema prin­ci­pal es “Pre­pa­rán­do­nos para la era de las máqui­nas inte­li­gen­tes”, y cuyo obje­ti­vo es “reu­nir lo mejor de la inte­li­gen­cia huma­na para que poda­mos apro­ve­char al máxi­mo la inte­li­gen­cia de las máqui­nas.”

¿Crees que este cen­tro nació a raíz de esta explo­sión recien­te de expec­ta­ti­vas cau­sa­da por el súbi­to rena­ci­mien­to de la IA?

J. H‑O.: Sí, cla­ro, cla­ro. Aun­que nues­tro cen­tro en par­ti­cu­lar se ori­gi­na a par­tir de una con­jun­ción, yo diría que ha sido a par­tir de un con­jun­to de varias men­tes sin­gu­la­res que han teni­do una ‘visión’ espe­cí­fi­ca sobre la IA. Lle­va­ba varios años en pre­pa­ra­ción. Empe­zó a rodar hace dos años y, ofi­cial­men­te, el año pasa­do. Este cen­tro for­ma par­te de una ola mun­dial de ini­cia­ti­vas que dan una idea de la mag­ni­tud de los retos que nos plan­tea el cre­ci­mien­to y los pró­xi­mos impac­tos de la IA. Todos los gobier­nos están hacien­do infor­mes. Oba­ma, hizo uno hace tres años. Se están vien­do un cre­ci­mien­to y unos impac­tos más rápi­dos e inmi­nen­tes de los espe­ra­dos, y pare­ce razo­na­ble poner a las mejo­res men­tes del pla­ne­ta a pen­sar cuá­les son esos impac­tos. Yo creo que una uni­ver­si­dad de gran pres­ti­gio como Cam­brid­ge es lógi­co que pien­se y abor­de todos estos temas.

A.P.: Den­tro del con­tex­to de una serie de líneas de inves­ti­ga­ción que tie­ne este cen­tro (CFI), ¿cómo se podrían sin­te­ti­zar los aspec­tos de la inves­ti­ga­ción que estáis lle­van­do a cabo aquí, tú y la gen­te con la que cola­bo­ras?

Las narrativas de la inteligencia artificial

J. H‑O.: Hay líneas diver­sas. Hay líneas sobre las “Narra­ti­vas de la Inte­li­gen­cia Arti­fi­cial”.

A.P.: … Sí, he vis­to que hay un área lla­ma­da “IA: Narra­ti­ves and Jus­ti­ce”, que según vues­tra web se foca­li­za en “com­pren­der los con­tex­tos cul­tu­ra­les que con­for­man la for­ma en que se per­ci­be y desa­rro­lla la IA, y las con­se­cuen­cias que esto tie­ne para la diver­si­dad, la jus­ti­cia cog­ni­ti­va y la jus­ti­cia social.”…

J. H‑O.: Sí, va sobre cómo la gen­te per­ci­be la inte­li­gen­cia arti­fi­cial y sus ‘narra­ti­vas’, des­de la cien­cia fic­ción has­ta en los medios de comu­ni­ca­ción en don­de sur­gen pre­gun­tas como ¿Y la inte­li­gen­cia arti­fi­cial pue­de aca­bar con todos noso­tros?, pre­gun­ta que la gen­te se hace y ha con­ver­ti­do en una espe­cie de ‘meme’ [ ]. Sobre estas cosas, tú entien­des algo por­que te lo han con­ta­do de una deter­mi­na­da mane­ra, o se sigue con­tan­do de cier­tas mane­ras… A veces, hay que cam­biar esas narra­ti­vas por­que, tal vez, el ries­go en reali­dad no está ahí y está en otro sitio. La ima­gen que tie­ne la gen­te no téc­ni­ca sobre la IA, es muy ‘robó­ti­ca’ y muy orien­ta­da por la cien­cia fic­ción, las pelí­cu­las, los ‘apo­ca­lip­sis’ de los robots. Eso es muy impor­tan­te estu­diar­lo por­que tú no pue­des ana­li­zar los impac­tos de la AI sin pen­sar que como recep­tor de todos ellos está la socie­dad, y la socie­dad reac­cio­na muchas veces de mane­ras diver­sas. Pue­des decir: esto hay que regu­lar­lo todo. Y pue­de ocu­rrir, por ejem­plo, que en dos o tres años apa­rez­ca un movi­mien­to polí­ti­co que se opon­ga a los robots por­que apa­re­ce un cre­ci­mien­to de ‘ludi­tas’ [ ] en el mun­do. Es una cues­tión edu­ca­ti­va, ade­más, el trans­mi­tir a la pobla­ción la reali­dad de esta cien­cia, por­que muchas veces la gen­te no tie­ne una visión correc­ta sobre lo que está pasan­do cien­tí­fi­ca­men­te de ver­dad en la dis­ci­pli­na. Esta par­te de las ‘Narra­ti­vas de la AI” es fun­da­men­tal. No sólo inten­tar ave­ri­guar hacia dón­de la IA nos va a lle­var, e inten­tar que la gen­te lo entien­da, por­que si la pobla­ción no lo entien­de, toda­vía es más difí­cil pre­ve­nir qué va a pasar.…

“El robot me va a quitar el trabajo”

A.P.: Sí. Ya sabes lo del mani­fies­to sobre la AI, al que el pres­ti­gio­so Rod­ney Brooks con­tes­tó “La AI no es una ame­na­za, sino una herra­mien­ta.”…

J. H‑O.: Sí, pero que lo diga Rod­ney Brooks no quie­re decir que la gen­te lo crea…La gen­te pue­de creer otra cosa. Por eso es impor­tan­te saber qué cree la gen­te sobre la IA, lo que sabe y cómo con­ta­mos estas cosas a la gen­te. Es impor­tan­te para poder inten­tar pre­de­cir el futu­ro sobre ello. Por ejem­plo, cuan­do un esta­do o la Unión Euro­pea está deci­dien­do poner dine­ro para el desa­rro­llo de la IA, y la gen­te está ner­vio­sa en rela­ción al tema. No pode­mos ave­ri­guar lo que va a venir sin saber qué pien­sa la gen­te. Te voy a poner un ejem­plo. Si quie­res abrir un cen­tro de inves­ti­ga­ción para ave­ri­guar el impac­to de la comi­da modi­fi­ca­da gené­ti­ca­men­te, y no entien­des cómo eso se per­ci­be por dis­tin­tas pobla­cio­nes, por ejem­plo, tan­to en EE.UU. como en Euro­pa, no podrás pre­de­cir ni pla­near efi­caz­men­te nada. En Euro­pa no se hizo nada a ese res­pec­to, por­que la regu­la­ción vino indu­ci­da por la alar­ma que se creó en Euro­pa. En cam­bio, en EE.UU., esa dis­ci­pli­na flo­re­ció y, segu­ra­men­te, eso tie­ne que ver con las ‘narra­ti­vas’ sobre el tema. Eso es muy pare­ci­do a lo que pue­de pasar con la inte­li­gen­cia arti­fi­cial en muchos ámbi­tos. Y esas narra­ti­vas aca­ban modi­fi­can­do las cul­tu­ras. Por ejem­plo, en Japón la gen­te ve a los robots de for­ma total­men­te dis­tin­ta a como los ven los euro­peos. No me refie­ro a los cien­tí­fi­cos que los vemos igual, sino a la gen­te de la calle para la que su acep­ta­ción es dife­ren­te. Por ejem­plo, la idea de que “el robot me va a qui­tar el tra­ba­jo” es una narra­ti­va pre­pon­de­ran­te en Euro­pa, y no lo es en Japón.

A.P.: Sí, pero es que hay quien dice que, con la digi­ta­li­za­ción y la auto­ma­ti­za­ción que trae la IA, el prin­ci­pio del eco­no­mis­ta Schum­pe­ter según el cual la “des­truc­ción crea­ti­va” de las olea­das tec­no­ló­gi­cas crean más empleos nue­vos de los que des­tru­yen, ya no se cum­ple. ¿Tú estás de acuer­do?

J. H‑O.: No, no estoy nada de acuer­do. Me pare­ce una narra­ti­va muy sim­plis­ta que pone el tra­ba­jo como medio y como fin. Para mí, el tra­ba­jo es un medio. Y ¿cuá­les son los fines? Los fines son man­te­ner el Esta­do del bien­es­tar en Euro­pa o, sim­ple­men­te, el bien­es­tar públi­co. Si tú pue­des con­se­guir­lo sin tra­ba­jar y que tra­ba­je quien quie­ra… sería lo ideal. Para mí, es un pro­ble­ma de redis­tri­bu­ción de la rique­za.

A.P.: Tam­bién hay quien dice que, si la gen­te no tra­ba­ja­ra, no se sen­ti­ría rea­li­za­da…

J. H‑O.: Eso lo dice la gen­te que tie­ne bue­nos tra­ba­jos. Yo, por ejem­plo, lo diría. Si a mí, maña­na, me dije­ran que me seguían pagan­do lo mis­mo sin ir a tra­ba­jar, muy pro­ba­ble­men­te dedi­ca­ría gran par­te de mi tiem­po a hacer lo mis­mo que hago aho­ra. Pero otras per­so­nas… no nos enga­ñe­mos. Hay mucha gen­te que tie­ne tra­ba­jos que le obli­gan a levan­tar­se a las seis de la maña­na, ha de via­jar mucho para ir al tra­ba­jo, tie­ne jefes horro­ro­sos. Si a ellos les dije­ran: te paga­mos igual pero ya no tie­nes que venir a tra­ba­jar, esta­rían encan­ta­dos. Se jubi­lan, bus­can un hob­bie y están feli­ces. Hay muchas mane­ras de moti­var­se en la vida que no son el tra­ba­jar.

Lo de que la Inte­li­gen­cia Arti­fi­cial nos va a qui­tar el tra­ba­joes una ‘narra­ti­va’ equi­vo­ca­da

A.P.: Enton­ces, ¿crees que lo de que la IA nos va a qui­tar el tra­ba­jo es una ‘narra­ti­va’ equi­vo­ca­da?

J. H‑O.: Yo creo que está equi­vo­ca­da. De todas mane­ras, si lle­ga­mos a un futu­ro utó­pi­co en que nadie ten­ga que tra­ba­jar y, a pesar de ello, alguien diga… si no me dais un tra­ba­jo, no me moti­vo en la vida… pues ¡que le den un tra­ba­jo! Oja­lá lle­gue un momen­to en que el tra­ba­jo sea algo volun­ta­rio para vivir nor­mal­men­te. El pro­ble­ma es que los sis­te­mas eco­nó­mi­cos de todo el mun­do se han mon­ta­do en base al tra­ba­jo, en base al capi­ta­lis­mo. Pero bueno, los eco­no­mis­tas y los polí­ti­cos aho­ra se tie­nen que poner las pilas para pen­sar un nue­vo sis­te­ma en el que las máqui­nas real­men­te tra­ba­jen por noso­tros y la nue­va pro­duc­ti­vi­dad que crean todas estas máqui­nas nos revier­ta a todos. Ade­más, en el caso de Espa­ña, tene­mos un pro­ble­ma cla­ro de enve­je­ci­mien­to de la pobla­ción. Es una gran opor­tu­ni­dad. Pare­ce que tene­mos mucho paro en Espa­ña, pero cual­quie­ra que mire la pirá­mi­de pobla­cio­nal se dará cuen­ta de que tene­mos un pro­ble­ma, pero tam­bién que una posi­ble solu­ción pasa por una auto­ma­ti­za­ción que real­men­te revier­ta en el país.

A.P.: … O sea que lo fun­da­men­tal es que haya una redis­tri­bu­ción de la rique­za que sea sostenible…y bien hecha. ¿No? … que no hay mucha gen­te vivien­do mal, para unos pocos sean mul­ti­mi­llo­na­rios. En el mun­do, ‑según Oxfam []-, el 82% del dine­ro que se gene­ró en 2017 se acu­mu­ló solo por el 1% más rico de la pobla­ción mun­dial.

J. H‑O.: Sí cla­ro, tie­ne que estru­jar­se la cabe­za mucha gen­te ade­cua­da para pen­sar cuál es la mejor solu­ción en el ámbi­to glo­bal. Pero solo hacién­do­lo un país se pue­de hacer poco… y, a nivel mun­dial, es muy difí­cil lle­gar a acuer­dos. Sería fan­tás­ti­co que los robots tra­ba­ja­ran para todos noso­tros y redis­tri­buir la rique­za, pero, tal como están las estruc­tu­ras inter­na­cio­na­les y los movi­mien­tos eco­nó­mi­cos, eso va a cos­tar mucho de cam­biar.

A.P.: Sabes que en Sili­con Valley se ha pro­pues­to que cada robot pague impues­tos, y su alta pro­duc­ti­vi­dad sir­va para finan­ciar a las per­so­nas a las que esos robots qui­tan el tra­ba­jo.

J. H‑O.: Eso es una apli­ca­ción de una narra­ti­va sobre ‘pasar de tra­ba­ja­do­res que pagan impues­tos a robots que pagan impues­tos’. Hay muchos erro­res ahí. Lo pri­me­ro, equi­pa­rar un robot a un ser humano. Un robot no es una enti­dad equi­pa­ra­ble a un humano. No hacen el mis­mo tipo de labor, ni una enti­dad que ten­ga los mis­mos lími­tes y pue­da con­tar­los: ¿cuán­tos robots tie­nes? ¿cuán­tos ‘soft­wa­re’ tie­nes?: 27…

Es con­tra­pro­du­cen­te equi­pa­rar robots y huma­nos

A.P.: ¿Es una ton­te­ría equi­pa­rar­los?

J. H‑O.: Una ton­te­ría no, es con­tra­pro­du­cen­te. Lo que que­re­mos es más auto­ma­ti­za­ción. Ponien­do impues­tos lo que hace­mos es fre­nar­lo. Si en ese con­tex­to exis­te un país en que no pon­gan ese impues­to, se van a ir allí todos los robots. Es de sen­ti­do común. Lo esta­mos vien­do con la ener­gía. Las gran­des com­pa­ñías tec­no­ló­gi­cas ubi­can sus ‘gran­jas de ser­vi­do­res’ en los paí­ses que tie­nen la ener­gía más bara­ta. ¿Por qué? Pues por­que tie­nen que pagar menos ener­gía. Así de sim­ple. Tú pones una tasa a los robots y la fábri­ca de robots ya no te la van a poner en tu país. La pon­drán en los luga­res que no haya esa tasa. Eso es cavar­te tu pro­pia tum­ba. Igual hay algún argu­men­to eco­nó­mi­co, sose­ga­do y demás a favor, pero yo no lo veo.

La inteligencia artificial, una oportunidad para España

A.P.: Tú has men­cio­na­do el caso de Espa­ña y la situa­ción muy des­fa­vo­ra­ble de su pirá­mi­de pobla­cio­nal, igual que en otros paí­ses del pri­mer mun­do. Pero, para que sean sos­te­ni­bles los sis­te­mas públi­cos que tene­mos en Euro­pa: la edu­ca­ción, la salud uni­ver­sal, las pen­sio­nes públi­cas, …si se man­tie­ne la actual evo­lu­ción de la pobla­ción se con­ver­ti­rán en insos­te­ni­bles.

¿Qué hacer? ¿Cam­biar el para­dig­ma eco­nó­mi­co glo­bal de las socie­da­des?

J. H‑O.: Creo que hay que hace una apues­ta muy fuer­te y deci­di­da, a nivel euro­peo. Espa­ña, como país, sola, no pue­de cam­biar el orden mun­dial. A Euro­pa, le que­dan aún dos o tres déca­das para tener influen­cia a nivel mun­dial. O Euro­pa lo hace aho­ra, que toda­vía tie­ne peso en el mun­do, o lle­ga­rá tar­de. El meca­nis­mo es que las empre­sas que no hagan lo ade­cua­do no podrán dis­tri­buir sus pro­duc­tos en Euro­pa. Habrá que hacer cosas así a nivel euro­peo. Des­de un úni­co país, por ejem­plo, del tama­ño de Espa­ña a nivel mun­dial, poco se pude hacer. Las gran­des apues­tas a nivel mun­dial de la inte­li­gen­cia arti­fi­cial, algo deci­si­vo de cara al futu­ro, no están, ya no digo en Espa­ña, casi ni en Euro­pa, excep­tuan­do Rei­no Uni­do, o Ale­ma­nia, a nivel indus­trial. Casi todas están en la cos­ta Oes­te de EE.UU. y en el hub entre Cam­brid­ge y Lon­dres, que es don­de en este momen­to se están ins­ta­lan­do las gran­des gran­des de la IA. Sam­sung se va a mover aho­ra a Cam­brid­ge con un gran cen­tro de inves­ti­ga­ción.

Y el tema de la auto­ma­ti­za­ción, no es hacer robot con sus bra­zos, etc. Se hace muchas otras mane­ras. Por eso, esa visión de poner un impues­to a un robot… Habría que poner­le tam­bién una tasa a mi móvil ya que lle­va un mon­tón de apps de soft­wa­reque auto­ma­ti­zan tareas. No tie­ne sen­ti­do.

A.P.: Hay otra cosa. Si esta explo­sión de la IA va a mar­car deci­si­va­men­te las líneas del pró­xi­mo futu­ro y es algo tan estra­té­gi­co aho­ra, por ejem­plo, en EE.UU., don­de hace años, Oba­ma ya imple­men­tó un plan sobre el futu­ro de la AI [ ], lo mis­mo en el Rei­no Uni­do [] o en Fran­cia [https://reut.rs/2uycF5K ] … ¿Cómo es que, en paí­ses como el nues­tro, Espa­ña, es algo tan inexis­ten­te…?

¿No ha lle­ga­do las ‘narra­ti­vas’ ade­cua­das allí, o es que sus diri­gen­tes no ana­li­zan la reali­dad de la mis­ma mane­ra?

J. H‑O.: La ‘narra­ti­va’ que tie­ne que lle­gar a Espa­ña es que la apues­ta por la inte­li­gen­cia arti­fi­cial es una de las pocas opor­tu­ni­da­des tec­no­ló­gi­cas que tie­ne el país para cam­biar la eco­no­mía pro­duc­ti­va. O nos toma­mos eso en serio o hay pocas alter­na­ti­vas real­men­te via­bles a diez, vein­te años, con la situa­ción que tene­mos.

Muchas de las ‘narra­ti­vas’ que nos lle­gan a Espa­ña no son sobre las opor­tu­ni­da­des sino sobre los ries­gos de la inte­li­gen­cia arti­fi­cial. Tene­mos muchí­si­mos ries­gos estruc­tu­ra­les más impor­tan­tes en estos momen­tos, muchos de los cua­les podrían resol­ver­se si hay una apues­ta fuer­te por la inte­li­gen­cia arti­fi­cial, ya no digo en uno o dos años…, eso no va cam­biar el défi­cit ni la deu­da en uno o dos años…, pero a diez años si real­men­te inver­ti­mos en IA en el con­tex­to que tene­mos que estar, en el euro­peo, don­de se están ponien­do las pilas de ver­dad.

La apues­ta por la inte­li­gen­cia arti­fi­cial, es una de las pocas opor­tu­ni­da­des tec­no­ló­gi­cas que aho­ra tie­ne Espa­ña

Y eso sig­ni­fi­ca que habrá que sacar el dine­ro de don­de sea para que real­men­te la inte­li­gen­cia arti­fi­cial en Espa­ña se mue­va al nivel que se tie­ne que mover. Y se mue­va al nivel de rever­tir en la socie­dad y de crear valor pro­duc­ti­vo de ver­dad en Espa­ña.

A.P.: Ade­más del área de “Narra­ti­vas de la IA”, en este cen­tro don­de estás, tam­bién hay otros aspec­tos de la IA muy impor­tan­tes…

J. H‑O.: Habla­mos de las ‘narra­ti­vas’ en pri­me­ro tér­mino por­que es lo que más le lle­ga a la gen­te y eso es muy impor­tan­te poner­lo en pri­mer plano. Pero sí, hay otras líneas muy intere­san­tes en desa­rro­llo. Por ejem­plo, las hay sobre éti­ca, regu­la­cio­nes y nor­ma­ti­vas en rela­ción a la IA. Sobre qué es con­ve­nien­te regu­lar, o no. Sobre temas como el de si está sur­gien­do o no una carre­ra arma­men­tís­ti­ca basa­da en la IA [ ]; sobre si los paí­ses luchan entre sí para domi­nar el lide­raz­go de la IA en el mun­do. Vemos que Rusia está en esa carre­ra; Chi­na tam­bién y Esta­dos Uni­dos, por supues­to. Cla­ro que, si se ve como una ‘carre­ra’, vamos mal. Se aumen­tan los ries­gos sobre a dón­de alguien quie­re lle­gar, o sea, a tener más poder, un inmen­so poder con la IA. Esos son aspec­tos que se están inves­ti­gan­do por su impor­tan­cia social y polí­ti­ca. Y lue­go, hay aspec­tos un poco más ‘cien­tí­fi­cos’, inclu­so filo­só­fi­cos. Por ejem­plo: cómo va a cam­biar el con­cep­to de ‘per­so­na’; el de ‘agen­cia’, etc.

Ciencia, tecnología y humanidades, juntas en el desarrollo de la IA

A.P.: Pero eso se com­bi­nan la cien­cia, la tec­no­lo­gía y las huma­ni­da­des que aquí en el CFI, están tra­ba­jan­do jun­tas des­de el prin­ci­pio ¿no?

J. H‑O.: Sí, por supues­to. En este cen­tro hay filó­so­fos, jun­to con cien­tí­fi­cos de la compu­tación, etc. Es un cen­tro mul­ti­dis­ci­pli­nar en el que se tra­tan las cosas que van a cam­biar la socie­dad y otras pre­gun­tas cien­tí­fi­cas. Este no es un cen­tro foca­li­za­do en hacer desa­rro­llos de la IA. Para eso, la pro­pia Uni­ver­si­dad de Cam­brid­ge tie­ne sus pro­pios depar­ta­men­tos, que son pun­te­ros en desa­rro­llos y apli­ca­cio­nes de la IA, o enmachi­ne lear­ning. Uno de los direc­to­res aca­dé­mi­cos de nues­tro cen­tro es Zou­bin Ghah­ra­ma­ni [], uno de los líde­res mun­dia­les en AI, que ade­más de pro­fe­sor el Depar­ta­men­to de Inge­nie­ría en la Uni­ver­si­dad de Cam­brid­ge, don­de diri­ge el Gru­po de Apren­di­za­je Auto­má­ni­co, tam­bién es jefe cien­tí­fi­co en Uber, don­de diri­ge Uber AI Labs. Des­de el pun­to de vis­ta téc­ni­co y tec­no­ló­gi­co, esta gen­te sigue tam­bién con su acti­vi­dad. Por otra par­te, hay varios pla­nos en el cen­tro: uno de ‘impac­to’; otro, de aná­li­sis filo­só­fi­co y de inves­ti­ga­ción cien­tí­fi­ca, que es en el que más estoy yo. Para enten­der todos estos impac­tos de la AI en el mun­do y ave­ri­guar si ese impac­to está cre­cien­do y está afec­tan­do a la inte­li­gen­cia huma­na, tene­mos que enten­der qué es la inte­li­gen­cia y el impac­to que ha teni­do sobre el pla­ne­ta.

¿Por qué ha teni­do y está tenien­do impac­to sobre el pla­ne­ta el homo sapiens?. Pues por su inte­li­gen­cia y por su ‘domi­na­ción’. Se tra­ta de enten­der qué te da la inte­li­gen­cia para ‘domi­nar’. Cuan­do hay una per­so­na que es mucho más inte­li­gen­te que el res­to, aca­ba domi­nan­do a ese res­to. Eso pue­de tener rela­ción con ave­ri­guar qué pasa­ría si crea­mos mono­po­lios de inte­li­gen­cia arti­fi­cial…

La inteligencia, un bien universal muy distribuido en el planeta.

A.P.: Pero eso tie­ne rela­ción con la idea que te oí una vez sobre que la inte­li­gen­cia pare­cía un bien uni­ver­sal muy dis­tri­bui­do por la natu­ra­le­za en el planeta…pero qui­zá, este cam­bio de para­dig­ma de la IA, podría des­equi­li­brar eso.

J. H‑O.: Sí, ya lo está des­equi­li­bran­do. La inte­li­gen­cia huma­na sigue estan­do uni­for­me­men­te dis­tri­bui­da en el pla­ne­ta. Vayas don­de vayas, las dife­ren­cias son míni­mas, (no así el desa­rro­llo de su poten­cial median­te la edu­ca­ción). Pero una vez pro­por­cio­nas la edu­ca­ción, prác­ti­ca­men­te no hay dife­ren­cias psi­co­mé­tri­cas entre las pobla­cio­nes. Les das edu­ca­ción y son como los demás. Pero en los últi­mos vein­te años, se han ido reali­nean­do las posi­bi­li­da­des. Sitios muy remo­tos, con una bue­na cone­xión a inter­net, y con Wiki­pe­dia, etc., cual­quier niño o niña, de cual­quier lugar del pla­ne­ta es capaz de tener acce­so al cono­ci­mien­to glo­bal. Eso sí que es una pasa­da, algo extra­or­di­na­rio nun­ca ocu­rri­do antes, en toda la his­to­ria de la huma­ni­dad. Y con la inte­li­gen­cia repar­ti­da, esta­mos vien­do que nume­ro­sos paí­ses en desa­rro­llo están eclo­sio­nan­do, ‑algo que pare­cía improbable‑, y que va a hacer que Áfri­ca, por ejem­plo, se con­vier­ta en un gigan­te en muchos aspec­tos, gra­cias a eso y a la can­ti­dad de gen­te joven que tie­nen, por su nata­li­dad. Toda esa gen­te joven se está conec­tan­do a inter­net. Los de nues­tra gene­ra­ción aca­ba­rán dicien­do en 40 o 50 años ¿Cómo es posi­ble que Áfri­ca haya cam­bia­do así?

Pero el pro­ble­ma que esta­mos empe­zan­do a ver es que están emer­gien­do mono­po­lios u oli­go­po­lios en inte­li­gen­cia arti­fi­cial. En este momen­to, en IA, tene­mos ya un oli­go­po­lio: hay cin­co o seis gran­des (Goo­gle, ‑y Deep­Mind-, Ama­zon, Face­book, Micro­soft Research, Ten­cent, IBM, Apple, Bai­du, etc.), que, ya no sólo a nivel eco­nó­mi­co sino en el tec­no­ló­gi­co y cien­tí­fi­co tam­bién, están crean­do sus pro­pios cen­tros de inves­ti­ga­ción para ana­li­zar los pro­ble­mas cien­tí­fi­cos de lo que es la inte­li­gen­cia natu­ral y los de la AI, lo cual está muy bien. Pero, al final, no dejan de ser empre­sas pri­va­das. Conoz­co a gen­te que están tra­ba­jan­do en estos sitios y que inclu­so han crea­do depar­ta­men­tos pro­pios para ana­li­zar, no solo las cues­tio­nes éti­cas como cual­quier otra empre­sa, sino tam­bién el impac­to que pue­de tener en el mun­do la pro­pia acti­vi­dad de la empre­sa a la que per­te­ne­cen, ‑y que pue­de ser enor­­me-. Son 4 o 5 gran­des que ni siquie­ra están con­tro­la­das por gobier­nos. Pero al ser tan gran­des, son visi­bles, y toda­vía pode­mos pre­gun­tar­nos si tene­mos un cier­to con­trol. Pero hoy en día, no hacen fal­ta ser tan enor­mes para hacer usos mali­cio­sos de la AI con impac­to, hacien­do daño. Lo hemos com­pro­ba­do con las recien­tes elec­cio­nes y el uso de las fake news, o el hacer ‘nud­ging’ [ ] (mani­pu­lar a alguien con el obje­ti­vo que cam­bie de opi­nión o com­pre un pro­duc­to), para la mani­pu­la­ción masi­va de la gen­te.

Cuan­do habla­ba de oli­go­po­lios, no solo habla­ba des­de el pun­to de vis­ta de los recur­sos de compu­tación que pue­dan tener. Muchas de esas téc­ni­cas requie­ren muchos recur­sos que solo esas empre­sas tie­nen, y tie­nen muchos datos que ni siquie­ra las uni­ver­si­da­des o los esta­dos tie­nen. Ellos pue­den hacer inves­ti­ga­ción que no está al alcan­ce de cen­tros de inves­ti­ga­ción públi­ca o pri­­va­­da-publi­­ca, por­que tie­nen los datos, la compu­tación y el dine­ro para hacer­lo. Nor­mal­men­te los resul­ta­dos de eso casi siem­pre tie­nen apli­ca­ción comer­cial…

A.P.: Pero esta sería una bús­que­da hacia el futu­ro, no con­du­ci­da por la cien­cia o por la curio­si­dad cien­tí­fi­ca sino por otro tipo de intere­ses, comer­cia­les, de domi­nio de mer­ca­dos, etc. Que podría des­equi­li­brar ese equi­li­bro de la inte­li­gen­cia que de for­ma natu­ral había.

J. H‑O.: Cla­ro. Lo que pasa es que no está cla­ro cuál es la alter­na­ti­va… ¿Que­re­mos una inves­ti­ga­ción en IA ultra-regu­­la­­da, diri­gi­da por los gobier­nos? ¿y por qué gobier­nos?… Tam­bién tie­ne que ver con la cul­tu­ra y situa­ción de los paí­ses. En Euro­pa y EE.UU. esta­mos hablan­do de un eco­sis­te­ma de empre­sas con bas­tan­te liber­tad para que esas empre­sas hagan lo que quie­ran, a no ser que lle­guen a aspec­tos que ya estén regu­la­dos. Si quie­res hacer algo en el ámbi­to de los coches sin con­duc­tor pues tie­nes que pedir per­mi­sos para hacer cier­tas cosas. Pero para hacer una apli­ca­ción de reco­men­da­ción de pro­duc­tos, qui­tan­do la nue­va reco­men­da­ción euro­pea que ha entra­do en vigor, esas regu­la­cio­nes son de pri­va­ci­dad de datos, pero no sobre lo que pue­des infe­rir, y qué capa­ci­dad de con­vic­ción pue­de tener una herra­mien­ta. Cuan­tas más capa­ci­da­des de con­vic­ción más con­ten­ta está la empre­sa. No hay regu­la­cio­nes sobre eso. Pero hay otros paí­ses como Chi­na cuya eco­no­mía está mucho más diri­gi­da. Y si ellos quie­ren en 5 o 10 años con­tro­lar sus empre­sas de IA lo pue­den hacer.

A.P.: Pero en Chi­na se ha pues­to en mar­cha un pro­ce­so de ‘gami­fi­ca­ción’ de la con­duc­ta ciu­da­da­na basa­da en la acti­vi­dad de los ciu­da­da­nos conec­ta­dos y su acti­vi­dad en Inter­net a tra­vés de los gigan­tes de la red chi­nos cuyos datos de la con­duc­ta on-line de los inter­nau­tas están a dis­po­si­ción del gobierno. Según sea tu ‘con­duc­ta’, el esta­do te da un ‘sco­re’ una pun­ta­ción que te pue­de dar ven­ta­jas o incon­ve­nien­tes según hagas cosas que le gus­tan más o menos al esta­do [ https://bit.ly/2LnSe2P ]. Eso se tra­du­ce en faci­li­da­des o difi­cul­ta­des prác­ti­cas para la gen­te en su vida coti­dia­na, los per­mi­sos ofi­cia­les para ges­tio­nes ofi­cia­les, via­jar, etc.

J. H‑O.: La cues­tión es que todas estas cosas las inter­pre­ta­mos según las ‘narra­ti­vas’ occi­den­ta­les. Una cosa que hemos tra­ta­do aquí en el cen­tro es que en los cole­gios y guar­de­rías chi­nas hay cáma­ras con las que pue­de obser­var a los niños y sabes si están apro­ve­chan­do el tiem­po o no en la cla­se. Eso sería una abe­rra­ción en Euro­pa. ¿Cómo vas a poner cáma­ras para obser­var el com­por­ta­mien­to de mis hijos? Te denun­cio. Y en cam­bio, en Chi­na, es lo más nor­mal del mun­do por­que allí dicen que con eso haces la edu­ca­ción más efi­caz. Son cul­tu­ras y men­ta­li­da­des com­ple­ta­men­te dis­tin­tas a las nues­tras. Pero, mira, en Chi­na no tie­nen pro­ble­mas con eso.

La inteligencia es un ‘Arte General’ (Ars Generalis)

A.P.: Tú eres un cien­tí­fi­co de la compu­tación, pero tam­bién hicis­te tu doc­to­ra­do en lógi­ca y filo­so­fía de la cien­cia. Qué dirías sobre la dis­ci­pli­na en don­de estás enfras­ca­do aho­ra, es más pro­pia de un cen­tro de tec­no­lo­gía, o más de huma­ni­da­des, o de cien­cia. ¿Estás tra­ba­jan­do en una inter­sec­ción o en un sola­pa­mien­to? ¿Dón­de está tu cen­tro de gra­ve­dad dis­ci­pli­na­rio? ¿O ya no le pode­mos apli­car a lo que haces la divi­sión típi­ca que aún fun­cio­na para adje­ti­var uni­ver­si­da­des, depar­ta­men­tos y su inves­ti­ga­ción, con arre­glo a la divi­sión entre dis­ci­pli­nas que cono­cía­mos? ¿Hay que salir de la dico­to­mía de si el tuyo es un cen­tro de tec­no­lo­gía, o uno de huma­ni­da­des?

La inte­li­gen­cia es un ‘Arte Gene­ral’ (Ars Gene­ra­lis). Inten­tar hacer ‘par­ti­cio­nes’ de un ‘Arte Gene­ral’ es un error

J. H‑O.: Para res­pon­der a esa pre­gun­ta te voy a retro­traer unos cuan­tos siglos atrás. La inte­li­gen­cia es lo que Ramón Lull, ya en el siglo XIII, deno­mi­na­ba ‘el Arte Gene­ral’ (Ars Gene­ra­lis). Inten­tar hacer ‘par­ti­cio­nes’ de un ‘Arte Gene­ral’ es un error. Cuan­do esta­mos hablan­do de inte­li­gen­cia, esta­mos hablan­do real­men­te de lo que impac­ta en las huma­ni­da­des, en el arte, en la cien­cia, lo que impac­ta en la tec­no­lo­gía…

A.P.: …es algo que nin­gu­na de las dis­ci­pli­nas que cono­ce­mos, por sí sola, se la pue­de apro­piar…

J. H‑O.: No. Tu pue­des hablar sobre que hay una Cien­cia de la inte­li­gen­cia… Por ejem­plo, en psi­co­me­tría pode­mos decir que a mí lo que me intere­sa es la cien­cia de la inte­li­gen­cia huma­na y en cog­ni­ción ani­mal pue­des hablar de la inte­li­gen­cia ani­mal. Y si se tra­ta del cam­po de la inte­li­gen­cia arti­fi­cial, pue­des hablar sólo de la de las máqui­nas. Pero de todos esos com­par­ti­men­tos, al final, lo que va a tener más impac­to sobre la huma­ni­dad en los pró­xi­mos años y déca­das es, pro­ba­ble­men­te, la inte­li­gen­cia arti­fi­cial. Así que la cues­tión fun­da­men­tal, más inclu­so que la pre­gun­ta sobre el Big Bang, es: ¿vamos a inten­tar enten­der bien qué es la inte­li­gen­cia? Y, eso, es inter­dis­ci­pli­nar, cla­ra­men­te.

A.P.: …Y esas son las gran­des pre­gun­tas sobre la inte­li­gen­cia y, no las que se plan­tean sobre apli­ca­cio­nes. ¿No?

J. H‑O.: Yo creo que lo que ayu­da más a enten­der lo que es la inte­li­gen­cia, no son tan­to en las apli­ca­cio­nes, en las que a una per­so­na se le ocurre…voy a cru­zar esto con eso, y por ahí pue­des obte­ner una apli­ca­ción que en seis meses rom­pe el mer­ca­do; sino en cómo afec­ta eso a la huma­ni­dad y sobre los ries­gos poten­cia­les que pue­de traer. Es como si hubie­ras hecho una bom­ba ató­mi­ca sin enten­der las ecua­cio­nes pri­me­ro. La podía­mos haber hecho: mira pones esto aquí y explo­ta. Pero… ¿la explo­ta­mos?… por­que igual no se para nun­ca… Cuan­do se hicie­ron los pri­me­ros expe­ri­men­tos pen­sa­ron que aque­lla reac­ción en cade­na se iba a parar, y que no iba a hacer des­apa­re­cer la Tie­rra. Si no, no le habrían dado al botón.

A.P.: …algo como aque­llo que alguien dijo sobre el ries­go a que en el CERN se for­ma­ra un ‘agu­je­ro negro’ sin con­trol en algún expe­ri­men­to…

J. H‑O.: Había cier­to acuer­do de que eso era bas­tan­te impro­ba­ble. Pero en esos momen­tos no se tenía ni siquie­ra la mitad de la incer­ti­dum­bre actual sobre la inte­li­gen­cia. De todas mane­ras, es impor­tan­te mos­trar lo que es la inte­li­gen­cia a nivel humano, pero tam­bién cómo fun­cio­na a nivel social. La inte­li­gen­cia huma­na tam­bién es social. El pro­ble­ma de cómo se dis­tri­bu­ye la inte­li­gen­cia y cómo sur­ge el que haya pro­ble­mas de ‘domi­na­ción’ de unos sobre otros. Este es otro de los ries­gos fun­da­men­ta­les. Que con­cen­tre­mos esas capa­ci­da­des que van a lle­gar, en muy pocos… Y esos muy pocos no tie­nen que ser máqui­nas, pue­den ser per­so­nas que posean estas máqui­nas, o que per­te­nez­can a unas pocas com­pa­ñías. Enton­ces ten­dre­mos un pro­ble­ma. Tener mucha inte­li­gen­cia con­cen­tra­da sig­ni­fi­ca tener un poder sobre algo que aún no enten­de­mos bien.

Eso que no enten­de­mos bien tie­ne que ver con la rela­ción entre la inte­li­gen­cia y los recur­sos que nece­si­ta­mos para obte­ner­la, es decir: para inten­tar ‘aumen­tar’ la inte­li­gen­cia cuán­tos recur­sos compu­tacio­na­les tene­mos que aña­dir y cuál es la rela­ción entre esas dos cosas… El úni­co ejem­plo natu­ral que tene­mos es el de los pocos recur­sos que con­su­mi­mos para tener un cere­bro que, sin embar­go, es tan potente…Pero tam­po­co sabe­mos los lími­tes. De esa rela­ción lo que no sabe­mos es, cuan­do tene­mos un dife­ren­cial de inte­li­gen­cia entre dos sis­te­mas, ¿qué sig­ni­fi­ca eso en cuan­to a la capa­ci­dad que tie­ne de domi­nar el uno al otro? No siem­pre es sólo cues­tión de inte­li­gen­cia. Por ejem­plo, los niños nos domi­nan a los adul­tos muchas veces, a pesar de tener menos desa­rro­lla­da aún toda su capa­ci­dad de inte­li­gen­cia. O sea que no tene­mos cla­ro el con­cep­to este de que, si tú con­si­gues tener en el mun­do ‘algo’ que es mucho más inte­li­gen­te que el res­to, pue­da poten­cial­men­te domi­nar al res­to de la huma­ni­dad. Creo que el sis­te­ma más segu­ro al res­pec­to es el que tene­mos aho­ra, el natu­ral, en el que los recur­sos de inte­li­gen­cia están dis­tri­bui­dos.

A.P.: …un sis­te­ma que, si se des­equi­li­bra, podría lle­var a la socie­dad del futu­ro a ser ‘dis­tó­pi­ca’…

J. H‑O.: Es como el capi­ta­lis­mo. El capi­ta­lis­mo sal­va­je, si lo dejas des­con­tro­la­do…, que ya lo está bas­tan­te, …

A.P.: Lo decía­mos antes… 1% más rico de la pobla­ción mun­dial aca­pa­ra el 82% de la rique­za mun­dial.

J. H‑O.: Pues algo pare­ci­do podría pasar con la inte­li­gen­cia arti­fi­cial. Yo lo que si espe­ro es que, en 10, 20 o 30 años, noso­tros enten­da­mos mejor lo que es la inte­li­gen­cia que los eco­no­mis­tas entien­den lo que es la eco­no­mía.

PARTE II. SOBRE EL LIBRO: “The Mea­su­re of All Minds. Eva­lua­ting Natu­ral and Arti­fi­cial Inte­lli­gen­ce.” (Cam­brid­ge Uni­ver­sity Press. 2017)

Medir la inteligencia de todo

A.P.: Cam­brid­ge Uni­ver­sity Press te ha publi­ca­do un impre­sio­nan­te libro [ ] cuyo títu­lo reza: “La medi­da de todas las men­tes Eva­lua­ción de la Inte­li­gen­cia Natu­ral y Arti­fi­cial”. Eso sig­ni­fi­ca que no sólo de los huma­nos, o de otros seres vivos, sino tam­bién de robots, o del soft­wa­re, o la del hor­mi­gue­ro. Todo, aquí, quie­re decir ‘de todo’, ¿no? … ¿por qué ese títu­lo?

J. H‑O.: Lo del títu­lo es muy sen­ci­llo. Es el títu­lo iró­ni­co que yo que­ría. ¿De dón­de vie­ne?… pues hay esta expre­sión del sofis­ta Pro­tá­go­ras:“El hom­bre es la medi­da de todas las cosas”. De ahí, la visión que se tie­ne des­de la inte­li­gen­cia arti­fi­cial es tam­bién que el hom­bre, el ser humano, su inte­li­gen­cia, es la medi­da de todas las cosas, entre ellas, de la inte­li­gen­cia. Es recu­rrir al antro­po­cen­tris­mo para enten­der el mun­do. El títu­lo, y el libro, es una res­pues­ta con­tra esa visión.

La visión que tene­mos des­de la Inte­li­gen­cia Arti­fi­cial es que la inte­li­gen­cia del ser humano es la medi­da de todas las cosas

¿Cómo enten­de­mos la inte­li­gen­cia?: la inte­li­gen­cia es lo que tie­nen los seres huma­nos. A par­tir de ahí, tú inten­tas enten­der la inte­li­gen­cia que quie­res crear, o la inte­li­gen­cia de otros ani­ma­les. Eso se ha ido rom­pien­do, gra­cias, en par­te, a gen­te que ha pasa­do por Cam­brid­ge. Como Dar­win. Gra­cias a su teo­ría de la evo­lu­ción median­te la selec­ción natu­ral, sabe­mos que somos un caso par­ti­cu­lar. La inte­li­gen­cia huma­na es un caso par­ti­cu­lar en lo que es la evo­lu­ción ani­mal y la evo­lu­ción de la vida.

La inte­li­gen­cia huma­na es un caso par­ti­cu­lar de la evo­lu­ción ani­mal y de la vida

Y lo del títu­lo expre­sa que el libro inten­ta ir un poco más allá… en rela­ción a lo que pasó con la revo­lu­ción coper­ni­ca­na. Lle­gó un momen­to que diji­mos: no, la Tie­rra no es el cen­tro del sis­te­ma solar. El Sol es el cen­tro. Y lo mis­mo, hubo un momen­to a par­tir del que se acep­tó que el hom­bre ya no era cen­tro del uni­ver­so. Y la cosa no aca­bó ahí: la evo­lu­ción es la que nos ha aca­ba­do hacien­do así. Pode­mos enten­der algo de cómo es la men­te huma­na gra­cias a mirar cómo son otros ani­ma­les, y mirar la evo­lu­ción. Noso­tros nos com­por­ta­mos de cier­ta mane­ra por todo nues­tro baga­je evo­lu­ti­vo. Deja­mos de decir que la Tie­rra era el cen­tro, lue­go que el Sol era el cen­tro. No, el Sol es una estre­lla que sim­ple­men­te está en un pun­to de la gala­xia de la vía lác­tea… lo que hay que hacer es mover­se en esa direc­ción. La cues­tión ya no es cómo plan­tear­se cuál es el cen­tro, sino inten­tar ver cuál es el espa­cio. En físi­ca aho­ra sabe­mos cuál es el uni­ver­so, aun­que se habla de si hay uni­ver­sos para­le­los, etc. Pen­sa­mos aho­ra que es fini­to… etc.

A. P.: … si el uni­ver­so, en reali­dad, es un holo­gra­ma…

J. H‑O.: Exac­ta­men­te. Enton­ces, el con­cep­to que el libro intro­du­ce es lo que podría­mos lla­mar el ‘Espa­cio de inte­li­gen­cia’. Los tipos de inte­li­gen­cia que cono­ce­mos y pode­mos con­tem­plar en él son los de la inte­li­gen­cia huma­na y los de otros ani­ma­les, pero tam­bién se pue­den crear otros tipos de inte­li­gen­cia, ya no solo a nivel cuan­ti­ta­ti­vo de más capa­ci­da­des sino pue­den tener tam­bién dife­ren­tes capa­ci­da­des. Noso­tros tene­mos diver­sas capa­ci­da­des, más que nada por la mane­ra en que inter­ac­tua­mos, por el tipo de per­cep­ción que tene­mos, pero eso no quie­re decir que no poda­mos cons­truir sis­te­mas total­men­te dife­ren­tes. La inte­li­gen­cia arti­fi­cial como tec­no­lo­gía está muy adap­ta­da al ser humano, sobre todo son apli­ca­cio­nes para el ser humano.

Pero des­de el pun­to de vis­ta del aná­li­sis de lo que es la inte­li­gen­cia está la pre­gun­ta: ¿Qué es la inte­li­gen­cia a nivel uni­ver­sal? Es cómo pre­gun­tar­se ¿qué es el uni­ver­so? Es la pre­gun­ta gran­de. Así que cómo inten­tar ata­car esa gran pre­gun­ta es par­te de la moti­va­ción del libro.

A. P.: Eso pue­de lle­var a pre­gun­tar­se cuál es el pro­pó­si­to en reali­dad de la inte­li­gen­cia y por qué exis­te.

J. H‑O.: Por qué exis­te la inte­li­gen­cia. A nivel evo­lu­ti­vo se habla mucho de que es un ‘fenó­meno con­ver­gen­te’. Es decir, ¿cómo pue­de ser que tan­to un pul­po como noso­tros ten­ga­mos inte­li­gen­cia?, ‑un pul­po hace cosas bas­tan­te sor­­pre­n­­de­n­­tes-. Y cómo pue­de ser cuan­do nues­tro ances­tro común no tenía nada de eso. Era un peque­ño gusa­ni­to que de inte­li­gen­cia tenía casi menos que una pared. ¿Cómo es posi­ble que el pul­po y noso­tros, dos ani­ma­les lle­ga­dos has­ta aquí por dos ramas evo­lu­ti­vas com­ple­ta­men­te dife­ren­tes, ten­ga­mos ambos capa­ci­dad para resol­ver pro­ble­mas median­te la inte­li­gen­cia? Esas son dudas que que­re­mos ana­li­zar des­de el pun­to de vis­ta de la inte­li­gen­cia en el con­tex­to evo­lu­ti­vo. Pero lue­go que­re­mos enten­der qué rela­ción tie­ne eso con el con­cep­to mis­mo de compu­tación y de tra­ta­mien­to de infor­ma­ción, por­que los dos sis­te­mas, tan­to de los seres huma­nos como los pul­pos, reco­gen per­cep­cio­nes y las pro­ce­san y, con eso, toman deci­sio­nes, eje­cu­tan accio­nes y con­si­guen sobre­vi­vir. Ocu­rre cons­cien­te o incons­cien­te­men­te, depen­de del ani­mal de que este­mos hablan­do, ‑noso­tros rea­li­za­mos muchas accio­nes incons­cien­te­men­te.

Pues todo eso no es un caso par­ti­cu­lar de la vida. Es más gene­ral que eso. Lo esta­mos vien­do. Esta­mos desa­rro­llan­do sis­te­mas arti­fi­cia­les capa­ces de repro­du­cir algu­nos de estos com­por­ta­mien­tos; repro­du­cir o hacer otro tipo de com­por­ta­mien­tos que se guían por otro tipo de moti­va­cio­nes y que has­ta aho­ra no hemos vis­to hacer ni en nin­gún ani­mal ni ser humano. Ese es un espa­cio que vamos a explo­rar, ya no digo en las pró­xi­mas déca­das sino, ‑si no hay algo gordo‑, sino inde­fi­ni­da­men­te. Pro­ba­ble­men­te la pro­pia inte­li­gen­cia que crea el espa­cio ten­drá que dedi­car­se a explo­rar.

Esta­mos desa­rro­llan­do sis­te­mas arti­fi­cia­les capa­ces de tener com­por­ta­mien­tos que, has­ta aho­ra, no había­mos vis­to en nin­gún ani­mal, ni ser humano.

A. P.: Pero eso sig­ni­fi­ca que, si resul­ta que la inte­li­gen­cia huma­na es un caso par­ti­cu­lar y las otras de los seres vivos tam­bién lo son; y tam­bién que pue­de haber arte­fac­tos no- vivos en el sen­ti­do natu­ral que tam­bién la ten­gan, …sig­ni­fi­ca, tal vez, que haya que con­si­de­rar un para­dig­ma uni­ver­sal de inte­li­gen­cia, en el que haya algo en común para poder medir todo eso… Y en ese caso, si pue­do medir la inte­li­gen­cia de un humano, tam­bién pue­do medir la de un ser vivo, una célu­la, o un virus; pero tam­bién la de un meca­nis­mo, o arte­fac­to. Y, por tan­to, eso sig­ni­fi­ca que en tu libro tú con­si­de­ras que hay com­po­nen­tes uni­ver­sa­les de lo que lla­ma­mos inte­li­gen­cia que te per­mi­tan medir­la en todos los casos, en los casos par­ti­cu­la­res de lo natu­ral y tam­bién en los arti­fi­cia­les.

J. H‑O.: Sí. Bueno, diga­mos que hay dos extre­mos. Uno, en el que nie­gas que la pro­pia inte­li­gen­cia exis­ta. Enton­ces nos limi­ta­mos a crear sis­te­mas que sean bue­nos para una tarea. Cuan­do hablo de ‘tarea’ es simi­lar a un entorno. Por ejem­plo, si un ani­mal se encuen­tra en un entorno y el entorno cam­bia y no es capaz de resol­ver los nue­vos pro­ble­mas que sur­gen tras los cam­bios enton­ces no sobre­vi­ve. Sole­mos decir que la evo­lu­ción tie­ne un com­por­ta­mien­to inte­li­gen­te por­que se adap­ta a los cam­bios. Pero cuan­do habla­mos de inte­li­gen­cia de un indi­vi­duo, esta­mos hablan­do sin evo­lu­ción. Una vez les cam­bia el entorno, su sis­te­ma cog­ni­ti­vo se pue­de adap­tar por­que pue­de apren­der, lo cual sig­ni­fi­ca que hay apren­di­za­je que, real­men­te, es la base de la inte­li­gen­cia. Cuan­do tene­mos eso, por ejem­plo, un sis­te­ma que es capaz de resol­ver los pro­ble­mas y sobre­vi­vir en un entorno y pasar a otro, ¿pode­mos decir algo de ese sis­te­ma? Miran­do los dos entor­nos, es decir, lo que tie­nen en común sus tareas a resol­ver… Si tús ha sido bueno para resol­ver las tareas del pri­mer entorno, ¿pue­do decir algo de las segun­das tareas? Si tú dices: “no”, por­que no hay nin­gu­na razón. Yo pue­do dise­ñar un sis­te­ma que sea bueno para estas tareas y malo para las otras, sin que haya nin­gu­na rela­ción entre las tareas. Pode­mos decir, enton­ces, que hay tan­tas inte­li­gen­cias como sis­te­mas. El con­jun­to es infi­ni­to y no hay nin­gu­na estruc­tu­ra. No habría nada que estu­diar.

Y pode­mos lle­gar al otro extre­mo. Y pen­sar que la inte­li­gen­cia es enten­di­da como que, si tú eres bueno en una tarea, eres bueno para todas las demás. Enton­ces sería muy sen­ci­llo. Yo mido la efi­ca­cia en cua­tro o cin­co tareas selec­cio­na­das alea­to­ria­men­te y si eres bueno en esas tareas pue­do extra­po­lar cosas sobre ser bueno en otras tareas. Esto es lo que suce­de con los seres huma­nos. Es lo que mues­tran los test psi­co­mé­tri­cos: la medi­da del inte­lec­to, o de la men­te.

A.P.: Sí, pero, José, ¿cómo mides la men­te si no sabe­mos exac­ta­men­te lo qué es?…

J. H‑O.: Ese es un tema de la psi­co­me­tría tra­di­cio­nal. En huma­nos se pue­den medir cier­tas cosas que son pre­dic­ti­vas para cier­tas cosas en la vida, sin saber real­men­te lo que mides. Un ejem­plo. Hay lo que se lla­ma en psi­co­me­tría el ‘fac­tor g’ que da sopor­te al cocien­te de inte­li­gen­cia (IQ). Ese valor es un núme­ro pre­dic­ti­vo, a par­tir del cual, a par­tir de test psi­co­mé­tri­cos, yo pue­do pre­de­cir cosas sobre la vida de las per­so­nas: éxi­to aca­dé­mi­co, por ejem­plo; reli­gio­si­dad…

A.P.: Sí, pero tú haces que una per­so­na relle­ne un for­mu­la­rio com­ple­jo… y de ahí obte­néis un núme­ro… ¿y cómo lle­gáis las pre­dic­cio­nes sobre lo que pue­de hacer?

J. H‑O.: Es un asun­to ‘ope­ra­cio­nal’… te pue­des pre­gun­tar ¿qué tie­nen que ver unos tests con unos sim­bo­li­tos con trian­gu­li­tos y cua­dra­dos, con la capa­ci­dad de hacer cosas? La vali­dez del test no quie­re decir que lo que estás midien­do sea repre­sen­ta­cio­nal. Es ‘ope­ra­cio­nal’. ¿Ope­ra­cio­nal qué quie­re decir? Ima­gí­na­te que corre­la­ciono, com­pa­ro, el tama­ño de la nariz, con el del dedo gor­do de tu pie. Y encuen­tro una corre­la­ción que nos seña­la la esta­dís­ti­ca. Y en reali­dad, ¿qué esta­mos midien­do? No lo sabe­mos. En cam­bio, has encon­tra­do una corre­la­ción con unos tests y esa corre­la­ción la explo­tas. Esos tests, a base de refi­nar­los duran­te varias déca­das te has dado cuen­ta que esos resul­ta­dos son un pre­dic­tor para un mon­tón de cosas de la con­duc­ta, y es super­útil. Que tú le lla­mes g, o le lla­mes ‘inte­li­gen­cia gene­ral’ o le lla­mes h, solo es cues­tión de inter­pre­ta­ción. Lo impor­tan­te es que eso te sir­ve para pre­de­cir cosas tan poco rela­cio­na­das entre sí cómo, por ejem­plo, la fer­ti­li­dad de las muje­res…- las muje­res con mayor cocien­te inte­lec­tual sue­len tener menos hijos-. O la reli­gio­si­dad o el nivel de estu­dios, o la esta­dís­ti­ca de sui­ci­dios, etc. Tú ya pue­des inten­tar inter­pre­tar eso como quie­ras. Posi­ti­va­men­te o nega­ti­va­men­te. Y te sir­ve para des­cri­bir un mon­tón de cosas …

A.P.: Pero, eso es muy sub­ver­si­vo…

J. H‑O.: Es psi­co­me­tría, sim­ple­men­te. ¿Cuan­tos estu­dios médi­cos encuen­tran una corre­la­ción esta­dís­ti­ca y, de ella, se extra­po­lan reco­men­da­cio­nes tales como… no tomes café por las maña­nas por­que hay una corre­la­ción cuyo meca­nis­mo en reali­dad no se cono­ce? El pro­ble­ma de todos estos aná­li­sis corre­la­cio­na­les, de ana­li­zar los datos sólo a tra­vés de corre­la­cio­nes es que por ese camino no vamos a enten­der la cau­sa o el mode­lo cau­sal que lle­va a que esas dos cosas ten­gan una corre­la­ción. Pue­de ser un fac­tor laten­te o que están rela­cio­na­dos por un meca­nis­mo con­cre­to. Si tú encuen­tras un gen que deter­mi­na o rela­cio­na el tama­ño del dedo del pie con el tama­ño de tu nariz, enton­ces dices: ya lo he enten­di­do; ya sé por­que apa­re­ce esa corre­la­ción… Por­que está ahí ese gen que la pro­vo­ca pero, en reali­dad, la cau­sa últi­ma no la sabes…

A.P.: En resu­men… vol­vien­do al pro­pó­si­to del libro y lo que pro­po­ne…

Sobre la inte­li­gen­cia, tene­mos dos extre­mos; en uno exis­ti­rían infi­ni­tas inte­li­gen­cias; y en el otro, el úni­co con­cep­to de inte­li­gen­cia que ten­dría sen­ti­do es el de inte­li­gen­cia gene­ral

J. H‑O.: En sín­te­sis, la cues­tión sería fun­da­men­tal­men­te que tene­mos los dos extre­mos: en uno afir­ma­ría­mos que real­men­te no exis­te nin­gu­na estruc­tu­ra de inte­li­gen­cia y exis­ti­rían infi­ni­tas inte­li­gen­cias, con lo cual el con­cep­to de inte­li­gen­cia no ser­vi­ría para nada. Y el otro extre­mo sería decir: el úni­co con­cep­to de inte­li­gen­cia que ten­dría sen­ti­do es el con­cep­to de inte­li­gen­cia gene­ral…

A.P.: … la inte­li­gen­cia de pro­pó­si­to gene­ral

J. H‑O.: Sí, el con­cep­to de la inte­li­gen­cia de pro­pó­si­to gene­ral. La cues­tión es que tú pue­des crear sis­te­mas inte­li­gen­tes, de inte­li­gen­cia arti­fi­cial, que estén entre medio de esos dos extre­mos. Y lue­go está una cues­tión que hay que explo­rar que es la que se lla­ma la de ‘estruc­tu­ra de inte­li­gen­cia’. Hay cier­tas tareas que, por lo que sea, cuan­do eres capaz de resol­ver una, lue­go te es fácil resol­ver otra. Hay gen­te que pien­sa que eso depen­de del sis­te­ma que está resol­vien­do la tarea. Igual para otro sis­te­ma esas tareas no tie­nen nada que ver…

Por ejem­plo, se pue­de obser­var que a veces, el ‘nave­gar’, o mover bien en un entorno espa­cial, en una habi­ta­ción, o en un barrio, pue­de tener que ver con dibu­jar. Si alguien es capaz de dibu­jar bien pro­ba­ble­men­te sea capaz de orien­tar­se bien, ya que las dos cosas tie­nen que ver con las capa­ci­da­des espa­cia­les. Lo que hemos obser­va­do, lo que sí sabe­mos, es que hay cosas aso­cia­das o corre­la­cio­na­das en (la men­te de) los seres huma­nos. Si eres bueno en esto, lo serás en aque­llo, pro­ba­ble­men­te. Eso sue­le pasar. Pero tam­bién hay casos par­ti­cu­la­res… hay gen­te que tie­ne lesio­nes y, en ese caso, alguien es bueno en esto, pero no en aque­llo. Es pobla­cio­nal. Lue­go hay cosas que no se han vis­to en nin­gún caso, y es que seas bueno en una cosa y, a no ser que lo hagas a pro­pó­si­to, ‑es decir, no voy a hacer esa tarea por­que no quie­ro hacerla‑, seas malo en la otra cosa.

Pero tú podrías dise­ñar una máqui­na (un soft­wa­re), que igual sí que es capaz de hacer bien una cosa, y mal otra. Si noso­tros encon­trá­ra­mos tareas en que eso no ocu­rre nun­ca con seres huma­nos, ‑con o sin pato­lo­gía -, no ocu­rre nun­ca con ani­ma­les, no con­se­gui­mos hacer­lo con máqui­nas y enci­ma enten­de­mos que esas tareas tie­nen segu­ro una rela­ción, diría­mos: sí que hay una estruc­tu­ra (de inte­li­gen­cia) que liga los entor­nos y las tareas a resol­ver, y enton­ces, pode­mos afir­mar que, a par­tir del com­por­ta­mien­to (inte­li­gen­te) en una tarea pue­do extra­po­lar o trans­fe­rir, y dedu­cir, el com­por­ta­mien­to para otra tarea.

A.P.: … la psi­co­me­tría huma­na es pobla­cio­nal y se cono­ce bas­tan­te, pero esas con­duc­tas ¿son extra­po­la­bles a arte­fac­tos como máqui­nas o soft­wa­re y que, en su caso, las deci­sio­nes tam­bién pue­dan ser pre­de­ci­bles?

La con­duc­ta huma­na no es extra­po­la­ble a la de una máqui­na, de nin­gu­na mane­ra

J. H‑O.: No son extra­po­la­bles de nin­gu­na de las mane­ras. Pri­me­ro por­que no tie­nes una pobla­ción de máqui­nas; segun­do, por­que tu obje­ti­vo no es pre­de­cir la varian­za de esa pobla­ción, que es lo que tú haces en psi­co­me­tría. Por ejem­plo, cuan­do tú das un valor de cocien­te inte­lec­tual (IQ), tú estás dicien­do en qué posi­ción de la dis­tri­bu­ción huma­na estás. Cuan­do tú tie­nes 130, y la des­via­ción típi­ca es 15; lo que estás dicien­do es que estás dos veces por enci­ma de la des­via­ción típi­ca en la pobla­ción huma­na. Esto es lo que sig­ni­fi­ca tener un cocien­te inte­lec­tual igual a 130. Eso es no com­pa­ra­ble con cual­quier otra esca­la, con la de la inte­li­gen­cia ani­mal, etc. Inclu­so con niños no pue­des com­pa­rar esos núme­ros. Son núme­ros pobla­cio­na­les; son ‘cuan­ti­les’, para que nos enten­da­mos.

A.P.: Como en ergo­no­mía, don­de están los per­cen­ti­les y las medias esta­dís­ti­cas.

J. H‑O.: Pero es que, en ergo­no­mía tie­nes la altu­ra de alguien. Y esa altu­ra es una medi­da físi­ca. Y tú la podrías com­pa­rar con un obje­to. Lo que no podrías com­pa­rar nun­ca un cocien­te inte­lec­tual con algo que no es de esa pobla­ción. Esa pobla­ción solo la pue­des apli­car a huma­nos. Solo te sir­ve para eso. No es lo que se lla­ma una medi­da de razo­nes (ratio sca­le).

A.P.: Y ¿cómo es el sal­to a la medi­da de inte­li­gen­cia ‘no huma­na’, a una medi­da de la inte­li­gen­cia “de todo”?

J. H‑O.: Pues tie­nes que ir a una apro­xi­ma­ción repre­sen­ta­cio­nal. ¿Qué sig­ni­fi­ca repre­sen­ta­ción? Que de entra­da tú sabes lo que quie­res medir. Y hay casos; no es que toda la psi­co­me­tría no sea ‘repre­sen­ta­cio­nal’. Por ejem­plo, yo pue­do medir el voca­bu­la­rio de una per­so­na. ¿Cómo lo mido? Pues lo más natu­ral es coger el dic­cio­na­rio. Miro las pala­bas más y menos fre­cuen­tes, y hago una mues­tra. Con esa mues­tra le pre­gun­to los sig­ni­fi­ca­dos. Así pue­do saber cuál es su nivel de voca­bu­la­rio en este o en otro idio­ma, etc. Eso es una medi­da repre­sen­ta­cio­nal. Y eso lo pue­do com­pa­rar con un sis­te­ma al que pue­do pre­gun­tar si sabe las defi­ni­cio­nes o sig­ni­fi­ca­dos.

A.P.: Así se pue­de saber si una per­so­na va a enten­der o no un tex­to o una alo­cu­ción en un idio­ma con­cre­to.

J. H‑O.: Esa es una medi­da útil del voca­bu­la­rio que el humano sabe. Cuan­do estás en el ámbi­to humano, tú asu­mes un mon­tón de cosas. Y si quie­res hacer­lo para máqui­nas es muy sen­ci­llo tener un sis­te­ma que sim­ple­men­te te bus­que la defi­ni­ción sin que ten­ga ni idea de los que sig­ni­fi­ca la pala­bra…

A.P.: Como lo hizo el super­or­de­na­dor Watson de IBM del con­cur­so Jeo­par­di!…

J. H‑O.: Sí, por ejem­plo, como Watson. Pero para inten­tar bus­car algo que te mida capa­ci­da­des, ten­drás que: pri­me­ro, enten­der cuan­do tú haces tareas que es lo que mide cada una de esas tareas, qué cosas requie­re el sis­te­ma para hacer esas tareas. Si usa­ras lápiz y papel, el sis­te­ma debe­ría ser capaz tam­bién de reco­no­cer el papel, el espa­cio, etc. Todas esas cosas son nece­sa­rias para poder hacer el test.

A.P.: Pero eso requie­re un sis­te­ma com­ple­jo de cog­ni­ción… ¿La cog­ni­ción ten­dría enton­ces que ver con eso…?

J. H‑O.: La cues­tión se com­pli­ca mucho con ello. Por eso hay un com­po­nen­te de cog­ni­ción gran­de en el libro. Ima­gí­na­te que quie­res eva­luar un ratón… ¿cómo lo haces? No lo haces ponién­do­le un test. Tú sabes que el ratón tan ton­to no es. Al final, ¿cómo lo haces? Pues hay una mane­ra de moti­var el ratón: a tra­vés de recom­pen­sas. Y te das cuen­ta de que el ratón ve, y de que hue­le mejor que ve. Cuan­do tú empie­zas a enten­der al ratón un poco, lle­gas a la con­clu­sión de que, si yo quie­ro ver la capa­ci­dad de memo­ria para recor­dar, por ejem­plo, imá­ge­nes, pues ya pue­des con­fi­gu­rar las con­di­cio­nes que él nece­si­ta para que el test que le voy a hacer sea efi­caz. Enton­ces ya sé que, en rela­ción a este tipo de ani­mal, estoy cen­tra­do exac­ta­men­te en lo que le quie­ro medir, en este caso, que es la memo­ria que tie­ne el ani­mal; por ejem­plo, sobre cier­tos obje­tos o sim­ples aso­cia­cio­nes típi­cas con rato­nes, etc. De lo que tie­nes que estar segu­ro es que lo que mides con esa tarea es real­men­te lo que crees que mides. No que de casua­li­dad estés midien­do otra cosa, aun­que sea pró­xi­ma.

Conducta humana versus comportamiento de ‘máquinas’

A.P.: Cuan­do habla­mos de máqui­nas en espa­ñol sole­mos, por iner­cia, pen­sar en máqui­nas ‘mecá­ni­cas’. Pero en inglés para el tér­mino machi­ne (máqui­nas) se uti­li­za tam­bién para hablar de soft­wa­re. Se usa la mis­ma pala­bra. Y aho­ra las ‘máqui­nas’ inma­te­ria­les de soft­wa­re empie­zan a tener ‘con­duc­ta’. ¿Hemos de usar ese tér­mino? ¿Es correc­to hablar en espa­ñol de ‘con­duc­ta’ del soft­wa­re’?

Los huma­nos tie­nen con­duc­ta. Las máqui­nas, ‘com­por­ta­mien­to’.

J. H‑O.: Es correc­to. En inge­nie­ría de soft­wa­re se uti­li­za la expre­sión. Pero, al final, no es ‘con­duc­ta’, es ‘com­por­ta­mien­to’ (en inglés se usa ‘beha­vior’). Com­por­ta­mien­to de un sis­te­ma de soft­wa­re, cla­ro. En sis­te­mas com­ple­jos, tú sabes que la mejor mane­ra de ana­li­zar­los no es enten­der todos sus ‘engra­na­jes’, sino que muchas veces se ana­li­za el sis­te­ma des­de fue­ra, y sabien­do cua­tro o cin­co carac­te­rís­ti­cas más abs­trac­tas sabes real­men­te cómo fun­cio­na el sis­te­ma. Pasa con muchos de los arte­fac­tos que mane­ja­mos. Tú con­du­ces tu coche, pero en reali­dad no sabes cómo fun­cio­na por den­tro. Si te pre­gun­to que cómo va, igual me dices: “mi coche está un poco ren­quean­te esta maña­na”. Y ¿eso qué quie­re decir? Pues que nos hemos inven­ta­do unas apre­cia­cio­nes algo abs­trac­tas que nos sir­ven para trans­mi­tir en tér­mi­nos de ‘com­por­ta­mien­to’, una mane­ra de expli­car lo que está pasan­do. Muchas veces para enten­der como está fun­cio­na­do un sis­te­ma com­ple­jo de soft­wa­re esa mane­ra es mucho más pode­ro­sa y útil, que decir… cuan­do le metes X, te sale Y, por­que en ese sis­te­ma hay infi­ni­tas equis e y grie­gas. Hablar de su fun­cio­na­mien­to en tér­mi­nos de com­por­ta­mien­to es una mane­ra de sin­te­ti­zar lo que el sis­te­ma hace y los pro­ble­mas que pue­de tener y la ‘inte­li­gen­cia’ no es más que un sub­con­jun­to de cosas o una carac­te­rís­ti­ca muy impor­tan­te a la hora de ver qué pasa con el com­por­ta­mien­to de un sis­te­ma, espe­cial­men­te de los sis­te­mas que son ‘inte­li­gen­tes’. Cuan­do tie­nes unsoft­wa­re de cal­cu­la­do­ra no nos vamos a poner a ana­li­zar cómo actúa.

A. P.: Si no sabe­mos de ver­dad lo que es la inte­li­gen­cia, ¿es correc­ta decir­lo así? Por­que en reali­dad sabe­mos lo que es capaz de hacer por su com­por­ta­mien­to, pero no qui­zá por su ‘inte­li­gen­cia’…

J. H‑O.: En el libro yo uti­li­zo la expre­sión medir las “Carac­te­rís­ti­cas de com­por­ta­mien­to” de un sis­te­ma. Y cuan­do se tra­ta de medir el inte­lec­to de los seres huma­nos, se usa la psi­co­me­tría.

A.P.: ¿Y sobre las con­clu­sio­nes de tu libro: “The Mea­su­re of All Minds: Eva­lua­ting Natu­ral and Arti­fi­cial Inte­lli­gen­ce” [] (Cam­brid­ge Uni­ver­sity Press 2018), que me pue­des decir?

J. H‑O.: La con­clu­sión prin­ci­pal, des­pués de qui­nien­tas pági­nas, es que está todo por hacer. El libro explo­ra muchas vías que son erró­neas, por ejem­plo, cuan­do se dice “ya tene­mos estos test para medir la inte­li­gen­cia en huma­nos; vamos a usar­los con máqui­nas”, etc. Y cosas así. Hay que dar­le muchas más vuel­tas al tema.

Creo que el libro es útil para ver cami­nos que apa­re­cen, por ejem­plo, cuan­do alguien dice: “voy a inten­tar ave­ri­guar cuán inte­li­gen­te es esta máqui­na”. Apa­re­ce el ‘Test de Turing’ [], y un mon­tón de cosas que aún tie­nen muchí­si­mos pro­ble­mas. A noso­tros, lo que nos intere­sa es saber de ver­dad lo que una máqui­na es capaz de hacer, por­que si yo quie­ro com­prar una de esas máqui­nas para que haga unos tra­ba­jos, nece­si­to saber qué sabe hacer. No para qué tareas está pro­gra­ma­do para resol­ver sino qué tareas pue­de apren­der a hacer. Y eso en un entorno, por ejem­plo, en el cam­po de la auto­ma­ti­za­ción: ¿si yo pon­go a este robot fren­te a un ope­ra­rio humano para que el robot ‘lo mire’ duran­te tres horas, ¿al cabo de ese tiem­po será capaz de hacer lo mis­mo que hace el ope­ra­rio? Pues bien, en este momen­to aún no sabe­mos ave­ri­guar ni medir cuán cer­ca, o lejos, esta­mos de eso.

A.P.: O sea, no solo saber para hacer qué cosas está pro­gra­ma­da una máqui­na sino tam­bién qué cosas es capaz de apren­der para las que en prin­ci­pio no están pro­gra­ma­da, ¿no?

J. H‑O.: Es que la ‘inte­li­gen­cia’ aquí no se ve como un catá­lo­go de tareas. Cuan­do tú ves, por ejem­plo, un sis­te­ma ani­mal muy pri­mi­ti­vo que… es capaz de hacer el apa­rea­mien­to así, es capaz de comer de esta flor. Eso no es inte­li­gen­cia. La evo­lu­ción lo ha lle­va­do has­ta ahí, resuel­ve 27 tareas que están pre­de­fi­ni­das y de ahí no lo sacas. Cuan­do habla­mos de ‘inte­li­gen­cia’, habla­mos un sis­te­ma que apren­de, capaz de resol­ver tareas que nun­ca antes se le habían pre­sen­ta­do en su entorno. Los huma­nos hace­mos eso de niños y tam­bién des­pués. La inte­li­gen­cia no se pue­de enten­der sin apren­di­za­je. Cuan­do habla­mos de inte­li­gen­cia gene­ral, no nos refe­ri­mos a un sis­te­ma que tie­ne un reper­to­rio de accio­nes, que aprie­tas el botón 3 y te hace algo deter­mi­na­do. No es algo que depen­de de un reper­to­rio de suce­sos pre­vis­tos. La inte­li­gen­cia gene­ral apren­de a hacer cosas nue­vas.

A.P.: ¿Y en resu­men cuál es el pro­pó­si­to del libro?

J. H‑O.: El libro cum­ple varias fun­cio­nes. Una es la de reco­ger y con­tras­tar dife­ren­tes tipos de eva­lua­ción de inte­li­gen­cia de dis­tin­tos ámbi­tos: inte­li­gen­cia arti­fi­cial; huma­na y en cog­ni­ción ani­mal; ver dón­de están los ‘cho­ques’, y tam­bién qué cosas son extra­po­la­bles y cuá­les se pue­den adap­tar de un ámbi­to a otro. La par­te cen­tral del libro tra­ta sobre cómo pode­mos ‘refun­dar’ este cam­po e inten­tar defi­nir o bus­car unos fun­da­men­tos basa­dos en teo­ría algo­rít­mi­ca de la infor­ma­ción, o la teo­ría de la compu­tación, sobre cómo se podría inten­tar hacer esto. No son herra­mien­tas raras; la físi­ca las usa, por ejem­plo. Si esta­mos hablan­do de inte­li­gen­cia que, hoy en día, prác­ti­ca­men­te se entien­de como un tipo muy espe­cial de pro­ce­sa­mien­to de infor­ma­ción, sería bas­tan­te raro que al inten­tar enten­der la inte­li­gen­cia, no tuvie­ra para nada que ver con la teo­ría de la infor­ma­ción, o la de la compu­tación. Sería un poco absur­do. Otra cosa es que hay para­dig­mas dife­ren­tes que pue­den ser mejo­res, o peo­res, para enten­der esto. Pero real­men­te la visión ‘uni­ver­sal’ de ello es que noso­tros, al final, somos máqui­nas que pro­ce­sa­mos y pro­du­ci­mos infor­ma­ción y toda­vía no enten­de­mos el meca­nis­mo.

Los humanos somos un caso particular de las máquinas

A.P.: ¿Tú pien­sas que los huma­nos tam­bién somos máqui­nas, un tipo de máqui­na?

J. H‑O.: Sí, cla­ro. Cuan­do está­ba­mos hablan­do antes del espa­cio de inte­li­gen­cia y en él los seres huma­nos eran un sub­con­jun­to o caso par­ti­cu­lar, expre­sa­ba eso.

A.P.: ¿Y sobre tus reco­men­da­cio­nes al final del libro?

J. H‑O.: Bueno, apar­te de los fun­da­men­tos cita­dos de la par­te cen­tral, mis pro­pues­tas expli­can que nece­si­ta­mos más esfuer­zos en eva­lua­ción en inte­li­gen­cia arti­fi­cial; que debe­mos estu­diar más el baga­je que hay ya en eva­lua­ción ani­mal y huma­na; y tam­bién hay un tras­va­se de ideas de lo que pode­mos ir apren­dien­do a medi­da que vamos ‘fal­san­do’ [ ] tests. Por ejem­plo, si se lo apli­ca­mos a una máqui­na y no mide lo mis­mo que medía en huma­nos, o en ani­ma­les; ¿de eso qué apren­de­mos? Pues que ese test no mide la inte­li­gen­cia uni­ver­sal sino sir­ve espe­cí­fi­ca­men­te en cier­tas espe­cies y pobla­ción; y, uti­li­zar la herra­mien­ta arti­fi­cial como herra­mien­ta para pro­bar como coba­yas si esto es así o no es así… O sea: ¿pue­do usar la IA para crear sis­te­mas que pue­den desa­rro­llar un com­por­ta­mien­to, pero no pue­dan desa­rro­llar otro? Todas estas cues­tio­nes son par­te de lo que ha sido par­te tra­di­cio­nal­men­te de las cien­cias cog­ni­ti­vas y aho­ra están tam­bién en la inte­li­gen­cia arti­fi­cial.

A.P.: Tú aso­cia­bas casi direc­ta­men­te, la cog­ni­ción a la inte­li­gen­cia, ¿no?
Es decir, si un ser, una enti­dad, no tie­ne nin­gu­na capa­ci­dad cog­ni­ti­va no es inte­li­gen­te.

J. H‑O.: Si no tie­ne nin­gu­na capa­ci­dad cog­ni­ti­va no es inte­li­gen­te. Pero hay con­cep­tos muy dife­ren­tes. De hecho, yo evi­to hablar siem­pre de con­cien­cia, etc. … La ter­mi­no­lo­gía de la psi­co­me­tría es muy útil para esto; las capa­ci­da­des cog­ni­ti­vas, — …cuan­to más ten­gas mejor; y si son ver­ba­les aún mejor‑, de cara a tener inte­li­gen­cia. Pero lue­go están los ras­gos de per­so­na­li­dad y eso afec­ta a tu com­por­ta­mien­to. Esos no son cog­ni­ti­vos. Tú pue­des ser intro­ver­ti­do o extro­ver­ti­do y eso no quie­re decir que sea más o menos capaz, como con la inte­li­gen­cia. Cuan­do habla­mos de capa­ci­dad cog­ni­ti­va, la cues­tión es que hay cier­ta estruc­tu­ra y hay capa­ci­da­des dife­ren­tes. Y pue­de ser que tuvie­ras mucho de una, y nada de las demás…Si eso pasa tú tie­nes un sis­te­ma muy espe­cia­li­za­do. A ese sis­te­ma ¿tú lo lla­ma­rías inte­li­gen­te? Ima­gi­na que tú pue­des resol­ver una ecua­ción de ter­cer gra­do, pero lue­go no pue­des hacer una suma. ¿Cómo expli­cas eso? ¿Lla­ma­rías a una per­so­na con esas carac­te­rís­ti­cas inte­li­gen­te? Pues de eso es de lo que tene­mos mucho aho­ra en la actual inte­li­gen­cia arti­fi­cial. Tene­mos sis­te­mas que son mucho mejo­res que los huma­nos para resol­ver cier­tas cosas; pero lue­go para otras, no son capa­ces de resol­ver­las.

A.P.: No pue­den hacer apren­di­za­je de pro­pó­si­to gene­ral.

J. H‑O.: No pue­den. Lo que nos sor­pren­de aho­ra en AI es que hay tareas muy muy sen­ci­llas, que las máqui­nas no son capa­ces de hacer… a no ser que tú hayas pro­gra­ma­do esa máqui­na para apren­der ese tipo con­cre­to de tarea. La cues­tión es que, si tú tie­nes unos recur­sos limi­ta­dos, es más efi­cien­te hacer un sis­te­ma de pro­pó­si­to gene­ral y que te cubra un aba­ni­co de tareas, que inten­tar espe­cia­li­zar­te en solo resol­ver unas cuan­tas. Que las corre­la­cio­nes entre capa­ci­da­des apa­re­cen en los huma­nos no es casua­li­dad, por­que eso tie­ne que ver con la efi­cien­cia por­que reuti­li­zan prin­ci­pios bási­cos de apren­di­za­je y esa cues­tión la tene­mos tam­bién en la IA.

Lo que nos sor­pren­de aho­ra en inte­li­gen­cia arti­fi­cial es que hay tareas muy muy sen­ci­llas, que las máqui­nas no son capa­ces de hacer

Nor­mal­men­te, un sis­te­ma de reco­no­ci­mien­to de imá­ge­nes no vale para nada para el reco­no­ci­mien­to del habla o del len­gua­je natu­ral. Pero miras su arqui­tec­tu­ra y resul­ta que ves que… este módu­lo en uno es el que tie­nes en otro, un módu­lo de apren­di­za­je, o una serie con­vo­lu­cio­nal que coincide…Y dices, ¡ostras! Están uti­li­zan­do los mis­mos com­po­nen­tes… Es obvio; es por­que esos com­po­nen­tes son los que hacen apren­di­za­je. Es decir, que tú mon­tan­do los com­po­nen­tes de la mane­ra ade­cua­da con­si­gues resol­ver dos capa­ci­da­des cog­ni­ti­vas dife­ren­tes. Y lo que esta­mos vien­do en inte­li­gen­cia arti­fi­cial es que no es casua­li­dad que estas dos cosas estén rela­cio­na­das por­que tie­nes los mis­mos com­po­nen­tes. Pero cla­ro, un cere­bro, no los repi­te, sino que los usa suce­si­va­men­te para dife­ren­tes cosas. Solo los tie­ne una vez. O solo ten­go los genes que gene­ran ese mis­mo tipo de com­po­nen­tes más de una vez. O sea que es nor­mal que apa­rez­can estas corre­la­cio­nes tan fuer­tes. Y que tam­bién las vea­mos en dos sis­te­mas que hacen cosas dife­ren­tes, pero con los mis­mos com­po­nen­tes, aun­que orga­ni­za­dos según dife­ren­tes arqui­tec­tu­ras. De la mis­ma mane­ra, ocu­rre con nues­tro cere­bro, que es capaz de hacer cosas muy dife­ren­tes, pero, al final son solo neu­ro­nas.

A.P.: Si resul­ta que tú des­cu­bres un sis­te­ma por el cual, una red neu­ral arti­fi­cial [https://bit.ly/2HXZCga ], es decir una inte­li­gen­cia arti­fi­cial, que con­si­guie­ra apren­der mucho imi­tan­do lo que hace la inte­li­gen­cia de la men­te para apren­der. ¿Crees que eso podría apli­car­se en ayu­dar o mejo­rar a la for­ma de apren­der de los huma­nos?

J. H‑O.: Yo creo que no. No tene­mos mucho con­trol sobre la for­ma de cómo apren­de­mos. Se ha inten­ta­do con dro­gas; con elec­tro­dos, con un mon­tón de cosas y, al final, como mucho, qui­zá pue­das mejo­rar un 10% en la mane­ra en que apren­de­mos. El ‘brain trai­ning’ y todo eso no sir­ve de mucho. Lue­go hay tác­ti­cas en la vida que te faci­li­tan las cosas pero al final la capa­ci­dad de nues­tro cere­bro no la pue­des modi­fi­car por­que te digan “usa este tru­co”, por­que hemos enten­di­do cómo fun­cio­na tu inte­li­gen­cia, y así, aho­ra vas a pen­sar mejor.

A.P.: Recuer­do que, sobre tu cono­ci­do artícu­lo cien­tí­fi­co [ https://bit.ly/2vCrJ0c ], “Psi­co­me­tría uni­ver­sal: Medi­ción de las capa­ci­da­des cog­ni­ti­vas en el rei­no de las máqui­nas”, que publi­cas­te con tus cole­gas David L. Dowe y M. V. Her­­ná­n­­dez-Llo­­re­­da, se publi­có un titu­lar que decía: “Han encon­tra­do un ‘medi­dor uni­ver­sal’ de inte­li­gen­cia”. ¿Ese titu­lar era una exa­ge­ra­ción? ¿Hay que mati­zar todo, al res­pec­to?

J. H‑O.: Hay que mati­zar todo, y leer­se bien el artícu­lo. Tal como se habla de ‘medi­da’ en el títu­lo… hay que tener en cuen­ta que ‘Medi­da’, tam­bién es un tér­mino de mate­má­ti­cas, y no es casua­li­dad que se uti­li­ce la mis­ma pala­bra. Pero, al final, una ‘medi­da’ no es más que una dis­tri­bu­ción de pro­ba­bi­li­dad sobre obje­tos. Enton­ces cuan­do nos refe­ri­mos a una ‘medi­da uni­ver­sal’ es que pone ‘peso’ a todas las tareas, y con eso, depen­dien­do de tu com­por­ta­mien­to en esas tareas, tie­nes un indi­ca­dor. El indi­ca­dor es el que vie­ne de esa medi­da. Hay otro artícu­lo que publi­ca­mos que se lla­ma: “Cuán inte­li­gen­te pue­de ser un test de inte­li­gen­cia”. Enton­ces, la cues­tión es que, si no es adap­ta­ti­vo, es muy difí­cil hacer­lo ‘uni­ver­sal’. Si yo no conoz­co bien un sis­te­ma, no pue­do arti­cu­lar­lo… Por ejem­plo: si yo me encuen­tro o tro­pie­zo en algún lugar, ‑no sé, …bajo los hie­los de la luna Euro­pa de Júpiter‑, con un extra­te­rres­tre que vie­ne den­tro de un tra­je espa­cial y no sé nada de cómo fun­cio­na y solo ten­go una vía de comu­ni­ca­ción… Lo que no voy a espe­rar que se com­por­te como un humano, ni que se parez­ca a mí. Pero quie­ro saber si es inte­li­gen­te o no, y has­ta qué pun­to. Enton­ces ¿qué harías? Pues usar un test adap­ta­ti­vo, que pri­me­ro inten­ta esta­ble­cer con­tac­to, y lue­go pro­bar cier­tas cosas para cono­cer más. El articu­lo al que te refe­rías pre­sen­ta un test adap­ta­ti­vo con el que tú vas reco­gien­do infor­ma­ción en rela­ción al com­por­ta­mien­to median­te un pro­ce­so inter­ac­ti­vo en el que dis­po­nes de un ‘canal de recom­pen­sas’, sin el cual es muy difí­cil. A no saber cómo pue­do dar­le de comer al extra­te­rres­tre, es muy com­pli­ca­do. Por­que podría ocu­rrir que no me esté resol­vien­do la tarea del test por­que no tie­ne inte­rés en hacer­lo. Sin cono­cer nada del ‘otro’ sis­te­ma, no se pue­de medir su inte­li­gen­cia.

Comparte esta publicación

amadomio.jpg

Suscríbete a nuestro boletín

Reci­be toda la actua­li­dad en cul­tu­ra y ocio, de la ciu­dad de Valen­cia