Por su interés, reproducimos este diálogo con José Hernández-Orallo realizado en Clare Hall College, de Cambridge, por Adolfo Plasencia.

Adolfo Plasencia: José, tú estás investigando aquí en Cambridge en el Leverhulme Centre for the Future of Intelligence (IFCI), un instituto que tiene que ver con la investigación sobre el futuro de la inteligencia. Imagino que no solo con la inteligencia artificial sino con cualquier tipo de inteligencia.… Cuéntanos en qué estás investigando aquí. Bueno, lo que se pueda contar.
José Hernández-Orallo: es un centro, como tú has dicho, para investigar el futuro de la inteligencia, y aunque, fundamentalmente, está centrado en la inteligencia artificial, también se estudian sus efectos en la inteligencia humana, y en algunos aspectos también de otras inteligencias, la animal, etc.
A. P.: A través de la inteligencia artificial también se pueden averiguar cosas de la inteligencia natural, incluida la humana, que no sabíamos. ¿No es así?
J. H‑O.: Esas son parte de las ambiciones que quiere conseguir el centro. Hay algunos proyectos en esa línea y en alguno de ellos es en donde estoy trabajando yo. En realidad, en sentido inverso de lo que es habitual, explorar el futuro de la inteligencia nos ayuda a entender el presente y el pasado de la inteligencia. Se diría que el centro ha sido desplegado para entender los efectos de la inteligencia artificial (IA), pero para poder conocer esos efectos tendremos que entender lo que es la inteligencia, como un proceso. El nombre de “para el futuro de la inteligencia” sirve para definir los objetivos del centro ya que hablamos de inteligencia y no solo de AI. La inteligencia va a cambiar en esencia pero también en cómo se distribuye en el planeta, teniendo en cuenta dónde se encuentran los laboratorios y la gente más brillante en IA y para quién trabajan.
A. P.: Supongo que cuando hablamos sobre lo que es la inteligencia nos referimos a qué la compone, cómo funciona, cuáles son sus límites, etc. …
J. H‑O.: Nos referimos a las capacidades que uno asocia con ‘inteligencia’. Inteligencia es algo que aún no está definido: sus tipos, sus grados… cómo va a cambiar. Lo que interesa en el centro es analizar hacia dónde van esos cambios, las inteligencias nuevas que se van a crear y cómo esa inteligencia artificial va a afectar a nuestra manera de ver el mundo también. Esa inteligencia entendida como algo colectivo. Es decir, la humanidad va a entender el mundo de manera diferente porque el global de la inteligencia en el planeta va a ser diferente. No es que vaya a ser necesariamente más grande, sino diferente en muchos aspectos. Habrá gente que será ‘mejorada’ por la inteligencia artificial y gente que se verá ‘atrofiada’ por ella. Todo eso afectará a la inteligencia humana, que formará parte de las cosas que van a cambiar con la irrupción de la inteligencia artificial.
Inteligencia humana ‘aumentada’ por la inteligencia artificial
A. P.: ¿Tú crees en una inteligencia humana ‘aumentada’ por la inteligencia artificial?
J. H‑O.: No es que crea. Eso es ya un hecho. Pero no solo por la inteligencia artificial. Cuando utilizamos nuestros dispositivos estamos aumentando nuestra inteligencia. Cuando usamos, por ejemplo, una calculadora, ciertas capacidades, aunque muy restringidas y específicas para hacer cálculos de operaciones aritméticas, estamos siendo ‘aumentados’. La cuestión es qué tipo de capacidades en el futuro van a aumentarse. Ahora mismo, te puedes mover por una ciudad usando aplicaciones que utilizan un gran volumen de datos y son predictivas. Es decir, tienen un componente de inteligencia ahí. Así, estamos dejando que ciertas capacidades nuestras las hagan estos sistemas por nosotros. Eso, por ejemplo, nos permite ahora navegar por una ciudad mucho mejor que cómo lo hacíamos hace 20 años. ¿Consideramos, tal vez, que eso no es parte de nosotros, que no estamos mejorando nuestra inteligencia porque no está dentro de nuestro cerebro? Yo creo que pensar así es una visión muy restrictiva de lo que es la inteligencia. Hay toda una teoría de lo que es la ‘mente extendida’, que argumenta que cuando utilizas lápiz y papel tienes más capacidades que cuando no lo utilizas. Muchas de las cosas que la humanidad ha hecho no se hubieran podido hacer sin lápiz y papel.
A. P.: Pero eso sería la ver la inteligencia artificial como una ‘extensión del hombre’ de la que hablaba McLuhan. Es decir, se le añaden al hombre ‘extensiones’, mediante artefactos tecnológicos conectados a su cerebro.…
J. H‑O.: Yo dudo que el mejor camino para intentar mejorar las capacidades humanas sea modificar el cerebro, con el conocimiento limitado que tenemos de él en este momento. Hay muchas mejores maneras de hacerlo con dispositivos externos o interfaces que podamos desarrollar en los próximos años, para que tengas una ‘percepción aumentada’, (ya existen dispositivos de realidad aumentada o realidad virtual), sin tener que modificar algo en el cerebro. Que a nivel terapéutico podamos actuar sobre el cerebro introduciendo células madre en zonas que están mal es razonable, pero creo que intentar ‘aumentar’ la mente actuando sobre el cerebro no lo veo un camino viable a corto y medio plazo. Si tú tienes que ponerte en el cerebro un chip para poder navegar por una ciudad, ‑lo cual supone ciertos riesgos‑, y resulta que puedes hacerlo llevando un chip en el bolsillo en tu móvil, es preferible esto último.
‘Aumentar’ y/o ‘Atrofiar’ tu inteligencia
A. P.: Tú has dicho que la IA te puede ‘aumentar’ tu inteligencia, pero también te la puede ‘atrofiar’. Eso me recuerda la escena de Fedra de Platón en la que el inventor de la escritura va a presentar su invento al faraón, Thalmus, pensando que le va a llenar de honores y resulta que, una vez oída la descripción de la virtudes de la escritura y las ventajas que iba a tener eso para las personas, el faraón se muestra preocupado argumentando que “la gente no estaría obligada a recordar y por eso, ya no recordaría lo que antes sí recordaba”, y eso haría que su memoria dependiera de un dispositivo ‘mineral’ externo. ¿Eso equivaldría a que en parte ‘atrofiar’ esa capacidad de recordar del cerebro humano?
Toda tecnología crea dependencia. Si volviéramos a la sabana africana de donde salimos, no duraríamos ni dos días allí sin ninguna ayuda tecnológica, porque nos hemos ‘atrofiado’ para ese entorno.
J. H‑O.: Sí, pero creo que hay que ir con cuidado con el tema de la ‘independencia’. Toda tecnología crea dependencia. Si nosotros los humanos nos volviéramos a la sabana africana de donde salimos, no duraríamos ni dos días allí, sin ninguna ayuda tecnológica, porque nos hemos ‘atrofiado’ para ese entorno. Estamos afectamos por la ‘dependibilidad’. Si tú estás acostumbrado a las cosas que te proporciona un dispositivo que utilizas, y te falla en un momento dado, ya no puedes hacer las cosas que tú podías hacer con él, ‑con esa capacidad ‘aumentada’ que te proporcionaba-. Nosotros calculamos mucho peor que nuestros padres, porque nosotros siempre ‘tiramos’ de calculadora, igual que con muchas otras cosas. Pero eso no es malo, siempre que la tecnología esté ahí, disponible. El problema es que nos estresamos muchísimo cuando algo falla. “Hoy no tengo conexión, ya no puedo trabajar”, — decimos-. Y eso lo vamos a vivir cada vez más, porque la dependencia ya no va a ser sólo cosa de herramientas que usamos, sino de herramientas que piensan ‘parcialmente’ por nosotros.
Software que ‘piensa’ parcialmente por nosotros y nos crea dependencia
A. P.: Cuando dices herramientas que ‘piensan’, ¿te refieres a que sean racionales con respecto a algo, hagan deducciones y tomen sus propias decisiones al respecto?
J. H‑O.: Sí. Ya lo hacen. De hecho, para muchas cosas preferimos ya una decisión tomada por una máquina a una decisión tomada por un humano. Eso ya es una manera de ‘extender’ nuestras capacidades. Pero si esa máquina, en un momento dado, no está operativa o no disponemos de ella, nos sentimos ‘atrofiados’. Ya no puedo tener ese informe para el lunes porque ha fallado el sistema que evalúa… digamos, …, por ejemplo, el riesgo de las pólizas de los seguros. Pues ya no lo puedes tener. Te atrofias en el momento en que eso de que disponías, ya no lo tienes. Pero no hay nada negativo en depender de algo, si esa cosa de que dependes es fiable y está ahí cuando la necesitas, como cualquier herramienta tecnológica.
Lo que ocurre es que lo que está viniendo no son herramientas especializadas de apoyo físico, sino que van a ser ‘asistentes personales’ virtuales que nos va a ayudar en diversas cosas intelectuales… Nosotros también tenemos dependencia de otras personas, y cuando esas personas faltan, nos sentimos ‘atrofiados’ porque ya no podemos hacer lo que antes sí podíamos, y así funcionan las organizaciones, las empresas y las familias. Lo mismo va a pasar con la inteligencia artificial. La cuestión es cómo diseñamos todo esto para que el asistente nunca falle y siempre esté disponible. Y también, si en algún momento hay personas que deciden no tener estos asistentes, puedan no tenerlos y puedan deshacerse de esa dependencia, si ese es el deseo de esa persona. Es decir, que no te veas siempre obligado imperativamente a usar la tecnología.
A.P.: Pero normalmente una dependencia, lo que suele hacer, es suplantar a la capacidad de decisión de las personas, está por encima de su voluntad. Acaba consiguiendo que las personas hagan cosas que no han decidido, o no han sido capaces de decidir. En ese sentido, ¿la inteligencia artificial podría generar dependencias de ese tipo?
Cuanto más ‘inteligente’ es una herramienta, más se puede usar para manipular
J. H‑O.: En ese sentido, eso también está pasando. Es un problema de confianza en las máquinas. Empezamos a confiar en ellas y, en un momento dado, a delegar en que ellas tomen las decisiones. Muchas de esas decisiones son correctas. Pero puede llegar un momento, ‑porque esas máquinas están desarrolladas por compañías- que estén guiadas por intereses que no coincidan con los nuestros. Así que pueden generarnos también una cierta desconfianza. Pero no porque estén mal diseñadas, o porque la posibilidad de que queden fuera de nuestro control sea alta, sino porque detrás del diseño de esa máquina hay unos ciertos intereses, comerciales, etc. Igual que ocurre con las relaciones humanas. Cuanto más ‘inteligente’ es una herramienta, más se puede usar para manipular. Pero eso ya es un uso malicioso de intereses no alineados, entre los de quien ha diseñado ese sistema con respecto a los de la persona que los usa. Cuando una gran compañía de distribución te quiere vender algo y te lo recomienda, con sistemas tecnológicos de recomendación, lo hace con intereses muy claros de manipular tus deseos para que acabes comprando. Pero no es un problema de inteligencia artificial sino de un uso que se hace de ella, como ocurre con cualquier otra herramienta.
A.P.: En la Web del CFI, el centro donde estás investigando aquí en Cambridge, hay áreas en cuya descripción se habla de normativas, ordenación, límites, etc., en relación al futuro de la inteligencia artificial. Sabes que ha habido polémicas e incluso manifiestos, firmados por muchos científicos, diciendo que hay que poner límites a ciertas investigaciones en IA, y normativizarlas por peligros como las armas letales autónomas, etc. Eso ha creado una cierta alarma lo que, unido a mucha desinformación, ha hecho que mucha gente vea muy negativas las posibilidades de le inteligencia artificial.
¿Cómo se aborda esto de ponerle límites a la investigación en la ciencia de la IA, de la que os ocupáis aquí en vuestro centro?
Poner límites a la Ciencia
J. H‑O.: Yo no creo que se trate de poner límites. La gente no está hablando aquí en el CFI de poner límites, sino de regular. Y regular, si se hace bien…
A.P.: ¿Pero ‘regular’ no es poner límites?…
J. H‑O.: Sí, en cierto modo es encauzar, sí… Pero, es que el término ‘poner límites’ se asocia con que no podamos llegar a ciertas cosas. No se está hablando aquí de poner límites a la ciencia sino de regular el uso de la tecnología, que es diferente. Es cierto que en algún momento se está hablando de qué cosas es no ético investigar. Eso es un tema más minoritario, pero importante también. Hay cierta frase en inglés al respecto que se podría traducir por el “de qué es peligroso investigar”. Pero yo creo que de lo que se trata es de ‘normatizar’ el uso de la tecnología. Por ejemplo, de hasta dónde puede llegar una empresa para convencerte de que compres su producto; qué tipo de herramientas pueden usar para ello, qué nivel de transparencia tiene que ofrecer esa compañía: temas, por ejemplo, de confianza, privacidad, y otras cosas propias de la era del conocimiento que ya estamos viviendo y que no son tan nuevas… Lo que nos está motivando a movernos más al respecto es que los cambios se están acelerando. Aunque no me refiero a este tipo de aceleración exponencial de la que se ha hablado…
A.P.: Lo que ha llamado La Singularidad Ray Kurzweil…, ahora jefe de ingeniería de Google…
J. H‑O.: No creo que el concepto de singularidad esté bien definido. Es incompatible con la física. Lo que sí que se observa es que hay momentos en que una tecnología avanza mucho más rápido y, en otros, hay crecimientos más lentos. Pero ahora en inteligencia artificial hay un crecimiento muy rápido, sobre todo desde el punto de vista de las aplicaciones. Se están invirtiendo cantidades ingentes de dinero, y eso también hace que la ‘rueda’ vaya girando más rápido, ya no sólo desde hace diez años sino, sobre todo, desde hace dos años. Se producen más cosas que crean nuevas oportunidades. Y también, ocasionalmente, como con cualquier tecnología nueva y sus aplicaciones, o combinaciones de ellas, se generan cosas que no eran predecibles.
A.P.: Del invierno de la IA del que se quejaba hace algo más de una década Rodney Brooks, hemos pasado a lo que, ahora mismo, parece una explosión de la AI, del machine learning (M.L., aprendizaje automático) y del deep learning. ¿Se ha detectado en la historia reciente de la ciencia y la tecnología, algún mecanismo que haya servido de catalizador para engendrar esta transformación y su evidente cambio de velocidad de los cambios?
J. H‑O.: Ha habido bastantes debates sobre cuál ha sido el motivo. Yo creo que hay una mezcla de factores. Ninguno de los elementos básicos es nuevo del todo. El aprendizaje automático ha estado ahí desde hace décadas. La ciencia de minería de datos eclosionó hace veinte años. El término Big Data está presente desde hace bastante tiempo. Hay una conjunción de factores: tenemos muchísimos más datos de los que teníamos y resulta que cierto tipo de técnicas de aprendizaje automático empiezan a funcionar muy bien con una gran masa de datos y no se saturan cuando les entregas más y más datos. Cuantos más datos les das a estos algoritmos, más mejoran y siguen aprendiendo. Esto requería gran capacidad de cálculo, de cómputo, que no estaba disponible. Eso, en los últimos 5 años ha cambiado y ahora, ya es posible. Y hay otro factor en las aplicaciones, por ejemplo, las del reconocimiento del habla y del lenguaje natural que han empezado a funciona mucho mejor que hace cinco años. Y ocurre también con el reconocimiento de imágenes que es una de las primeras cosas que la gente valora y dice… ¡ostras!, si una máquina puede ver, o puede entenderme cuando yo hablo, es que estamos cerca de algo grande… Eso no había pasado antes. Las conversaciones que podías tener con aquellos primitivos sistemas de dictado automático de hace una década eran bastante pobres. Ahora, tienes un dispositivo, le hablas y te entiende. Eso crea en la gente una sensación de decir… “si ya me entiende, el siguiente paso va a ser que piense!”
A.P.: Sí, pero en realidad, no te entiende, …porque, en el famoso concurso Jeopardy!, el supercomputador Watson, que ganó a los especialistas humanos, respondía correctamente pero la máquina no comprendía en absoluto el significado de las ideas contenidas en sus respuestas que, sin embargo, eran correctas…
J. H‑O.: Es verdad, el sistema de Watson no entendía nada.
A.P.: Parece que te comprendan, pero, en realidad, las máquinas aún no comprenden…
El cómputo de la Inteligencia Artificial crece hoy a un ritmo insostenible
J. H‑O.: Sí, pero por eso cuando estamos hablando de que algo es inminente, existe una muy alta expectativa … Tú ves que, cuando a los artefactos y sistemas les hablas, te responden. Les pones una foto que has hecho con tu móvil y ves que describen correctamente lo que contiene esa imagen, algo imposible hace cinco años… Y ves que inversores de todo el mundo están invirtiendo masivamente en inteligencia artificial porque piensan que va a ser algo decisivo de forma inminente. Ves que la gente está combinándolo todo. Por ejemplo, hay un informe de la semana pasada que afirmaba que, si comparamos la Ley de Moore con el crecimiento de cómputo que se está usando ahora en inteligencia artificial, cada año se está multiplicando por 5. Cuando aquella ley significaba sólo multiplicarse por dos, cada 18 meses. Ese crecimiento x5 de la IA no es sostenible. Así que el porcentaje del crecimiento del cómputo que se está utilizando para IA ahora mismo está creciendo en magnitudes que no son sostenibles en términos económicos porque eso significaría que en 10 años tendríamos todo el planeta cubierto de servidores con un consumo de energía también insostenible. Habrá que reducir ese crecimiento para alinearlo con el de la Ley de Moore. Ya se habla de computación cuántica y, quizá podemos seguir creciendo, pero tendrá que ser con un tipo de tecnología distinto del actual.
El porcentaje del crecimiento del cómputo que se está utilizando para la IA ahora mismo está creciendo en magnitudes que no son sostenibles.
A.P.: Estamos en la Universidad de Cambridge, que tiene más de ocho siglos de existencia, pero tú estás en ella, aquí en el Leverhulme Centre for the Future of Intelligence (LCFI, o simplemente CFI), un centro que es una entidad muy joven, ‑nació en diciembre de 2015, hace menos de tres años- promovido por las universidades de Cambridge, Oxford, Berkeley, el Imperial College, Royal Society el Leverhulme Trust. Su lema principal es “Preparándonos para la era de las máquinas inteligentes”, y cuyo objetivo es “reunir lo mejor de la inteligencia humana para que podamos aprovechar al máximo la inteligencia de las máquinas.”
¿Crees que este centro nació a raíz de esta explosión reciente de expectativas causada por el súbito renacimiento de la IA?
J. H‑O.: Sí, claro, claro. Aunque nuestro centro en particular se origina a partir de una conjunción, yo diría que ha sido a partir de un conjunto de varias mentes singulares que han tenido una ‘visión’ específica sobre la IA. Llevaba varios años en preparación. Empezó a rodar hace dos años y, oficialmente, el año pasado. Este centro forma parte de una ola mundial de iniciativas que dan una idea de la magnitud de los retos que nos plantea el crecimiento y los próximos impactos de la IA. Todos los gobiernos están haciendo informes. Obama, hizo uno hace tres años. Se están viendo un crecimiento y unos impactos más rápidos e inminentes de los esperados, y parece razonable poner a las mejores mentes del planeta a pensar cuáles son esos impactos. Yo creo que una universidad de gran prestigio como Cambridge es lógico que piense y aborde todos estos temas.
A.P.: Dentro del contexto de una serie de líneas de investigación que tiene este centro (CFI), ¿cómo se podrían sintetizar los aspectos de la investigación que estáis llevando a cabo aquí, tú y la gente con la que colaboras?
Las narrativas de la inteligencia artificial
J. H‑O.: Hay líneas diversas. Hay líneas sobre las “Narrativas de la Inteligencia Artificial”.
A.P.: … Sí, he visto que hay un área llamada “IA: Narratives and Justice”, que según vuestra web se focaliza en “comprender los contextos culturales que conforman la forma en que se percibe y desarrolla la IA, y las consecuencias que esto tiene para la diversidad, la justicia cognitiva y la justicia social.”…
J. H‑O.: Sí, va sobre cómo la gente percibe la inteligencia artificial y sus ‘narrativas’, desde la ciencia ficción hasta en los medios de comunicación en donde surgen preguntas como ¿Y la inteligencia artificial puede acabar con todos nosotros?, pregunta que la gente se hace y ha convertido en una especie de ‘meme’ [ ]. Sobre estas cosas, tú entiendes algo porque te lo han contado de una determinada manera, o se sigue contando de ciertas maneras… A veces, hay que cambiar esas narrativas porque, tal vez, el riesgo en realidad no está ahí y está en otro sitio. La imagen que tiene la gente no técnica sobre la IA, es muy ‘robótica’ y muy orientada por la ciencia ficción, las películas, los ‘apocalipsis’ de los robots. Eso es muy importante estudiarlo porque tú no puedes analizar los impactos de la AI sin pensar que como receptor de todos ellos está la sociedad, y la sociedad reacciona muchas veces de maneras diversas. Puedes decir: esto hay que regularlo todo. Y puede ocurrir, por ejemplo, que en dos o tres años aparezca un movimiento político que se oponga a los robots porque aparece un crecimiento de ‘luditas’ [ ] en el mundo. Es una cuestión educativa, además, el transmitir a la población la realidad de esta ciencia, porque muchas veces la gente no tiene una visión correcta sobre lo que está pasando científicamente de verdad en la disciplina. Esta parte de las ‘Narrativas de la AI” es fundamental. No sólo intentar averiguar hacia dónde la IA nos va a llevar, e intentar que la gente lo entienda, porque si la población no lo entiende, todavía es más difícil prevenir qué va a pasar.…
“El robot me va a quitar el trabajo”
A.P.: Sí. Ya sabes lo del manifiesto sobre la AI, al que el prestigioso Rodney Brooks contestó “La AI no es una amenaza, sino una herramienta.”…
J. H‑O.: Sí, pero que lo diga Rodney Brooks no quiere decir que la gente lo crea…La gente puede creer otra cosa. Por eso es importante saber qué cree la gente sobre la IA, lo que sabe y cómo contamos estas cosas a la gente. Es importante para poder intentar predecir el futuro sobre ello. Por ejemplo, cuando un estado o la Unión Europea está decidiendo poner dinero para el desarrollo de la IA, y la gente está nerviosa en relación al tema. No podemos averiguar lo que va a venir sin saber qué piensa la gente. Te voy a poner un ejemplo. Si quieres abrir un centro de investigación para averiguar el impacto de la comida modificada genéticamente, y no entiendes cómo eso se percibe por distintas poblaciones, por ejemplo, tanto en EE.UU. como en Europa, no podrás predecir ni planear eficazmente nada. En Europa no se hizo nada a ese respecto, porque la regulación vino inducida por la alarma que se creó en Europa. En cambio, en EE.UU., esa disciplina floreció y, seguramente, eso tiene que ver con las ‘narrativas’ sobre el tema. Eso es muy parecido a lo que puede pasar con la inteligencia artificial en muchos ámbitos. Y esas narrativas acaban modificando las culturas. Por ejemplo, en Japón la gente ve a los robots de forma totalmente distinta a como los ven los europeos. No me refiero a los científicos que los vemos igual, sino a la gente de la calle para la que su aceptación es diferente. Por ejemplo, la idea de que “el robot me va a quitar el trabajo” es una narrativa preponderante en Europa, y no lo es en Japón.
A.P.: Sí, pero es que hay quien dice que, con la digitalización y la automatización que trae la IA, el principio del economista Schumpeter según el cual la “destrucción creativa” de las oleadas tecnológicas crean más empleos nuevos de los que destruyen, ya no se cumple. ¿Tú estás de acuerdo?
J. H‑O.: No, no estoy nada de acuerdo. Me parece una narrativa muy simplista que pone el trabajo como medio y como fin. Para mí, el trabajo es un medio. Y ¿cuáles son los fines? Los fines son mantener el Estado del bienestar en Europa o, simplemente, el bienestar público. Si tú puedes conseguirlo sin trabajar y que trabaje quien quiera… sería lo ideal. Para mí, es un problema de redistribución de la riqueza.
A.P.: También hay quien dice que, si la gente no trabajara, no se sentiría realizada…
J. H‑O.: Eso lo dice la gente que tiene buenos trabajos. Yo, por ejemplo, lo diría. Si a mí, mañana, me dijeran que me seguían pagando lo mismo sin ir a trabajar, muy probablemente dedicaría gran parte de mi tiempo a hacer lo mismo que hago ahora. Pero otras personas… no nos engañemos. Hay mucha gente que tiene trabajos que le obligan a levantarse a las seis de la mañana, ha de viajar mucho para ir al trabajo, tiene jefes horrorosos. Si a ellos les dijeran: te pagamos igual pero ya no tienes que venir a trabajar, estarían encantados. Se jubilan, buscan un hobbie y están felices. Hay muchas maneras de motivarse en la vida que no son el trabajar.
Lo de que la Inteligencia Artificial nos va a quitar el trabajoes una ‘narrativa’ equivocada
A.P.: Entonces, ¿crees que lo de que la IA nos va a quitar el trabajo es una ‘narrativa’ equivocada?
J. H‑O.: Yo creo que está equivocada. De todas maneras, si llegamos a un futuro utópico en que nadie tenga que trabajar y, a pesar de ello, alguien diga… si no me dais un trabajo, no me motivo en la vida… pues ¡que le den un trabajo! Ojalá llegue un momento en que el trabajo sea algo voluntario para vivir normalmente. El problema es que los sistemas económicos de todo el mundo se han montado en base al trabajo, en base al capitalismo. Pero bueno, los economistas y los políticos ahora se tienen que poner las pilas para pensar un nuevo sistema en el que las máquinas realmente trabajen por nosotros y la nueva productividad que crean todas estas máquinas nos revierta a todos. Además, en el caso de España, tenemos un problema claro de envejecimiento de la población. Es una gran oportunidad. Parece que tenemos mucho paro en España, pero cualquiera que mire la pirámide poblacional se dará cuenta de que tenemos un problema, pero también que una posible solución pasa por una automatización que realmente revierta en el país.
A.P.: … O sea que lo fundamental es que haya una redistribución de la riqueza que sea sostenible…y bien hecha. ¿No? … que no hay mucha gente viviendo mal, para unos pocos sean multimillonarios. En el mundo, ‑según Oxfam []-, el 82% del dinero que se generó en 2017 se acumuló solo por el 1% más rico de la población mundial.
J. H‑O.: Sí claro, tiene que estrujarse la cabeza mucha gente adecuada para pensar cuál es la mejor solución en el ámbito global. Pero solo haciéndolo un país se puede hacer poco… y, a nivel mundial, es muy difícil llegar a acuerdos. Sería fantástico que los robots trabajaran para todos nosotros y redistribuir la riqueza, pero, tal como están las estructuras internacionales y los movimientos económicos, eso va a costar mucho de cambiar.
A.P.: Sabes que en Silicon Valley se ha propuesto que cada robot pague impuestos, y su alta productividad sirva para financiar a las personas a las que esos robots quitan el trabajo.
J. H‑O.: Eso es una aplicación de una narrativa sobre ‘pasar de trabajadores que pagan impuestos a robots que pagan impuestos’. Hay muchos errores ahí. Lo primero, equiparar un robot a un ser humano. Un robot no es una entidad equiparable a un humano. No hacen el mismo tipo de labor, ni una entidad que tenga los mismos límites y pueda contarlos: ¿cuántos robots tienes? ¿cuántos ‘software’ tienes?: 27…
Es contraproducente equiparar robots y humanos
A.P.: ¿Es una tontería equipararlos?
J. H‑O.: Una tontería no, es contraproducente. Lo que queremos es más automatización. Poniendo impuestos lo que hacemos es frenarlo. Si en ese contexto existe un país en que no pongan ese impuesto, se van a ir allí todos los robots. Es de sentido común. Lo estamos viendo con la energía. Las grandes compañías tecnológicas ubican sus ‘granjas de servidores’ en los países que tienen la energía más barata. ¿Por qué? Pues porque tienen que pagar menos energía. Así de simple. Tú pones una tasa a los robots y la fábrica de robots ya no te la van a poner en tu país. La pondrán en los lugares que no haya esa tasa. Eso es cavarte tu propia tumba. Igual hay algún argumento económico, sosegado y demás a favor, pero yo no lo veo.
La inteligencia artificial, una oportunidad para España
A.P.: Tú has mencionado el caso de España y la situación muy desfavorable de su pirámide poblacional, igual que en otros países del primer mundo. Pero, para que sean sostenibles los sistemas públicos que tenemos en Europa: la educación, la salud universal, las pensiones públicas, …si se mantiene la actual evolución de la población se convertirán en insostenibles.
¿Qué hacer? ¿Cambiar el paradigma económico global de las sociedades?
J. H‑O.: Creo que hay que hace una apuesta muy fuerte y decidida, a nivel europeo. España, como país, sola, no puede cambiar el orden mundial. A Europa, le quedan aún dos o tres décadas para tener influencia a nivel mundial. O Europa lo hace ahora, que todavía tiene peso en el mundo, o llegará tarde. El mecanismo es que las empresas que no hagan lo adecuado no podrán distribuir sus productos en Europa. Habrá que hacer cosas así a nivel europeo. Desde un único país, por ejemplo, del tamaño de España a nivel mundial, poco se pude hacer. Las grandes apuestas a nivel mundial de la inteligencia artificial, algo decisivo de cara al futuro, no están, ya no digo en España, casi ni en Europa, exceptuando Reino Unido, o Alemania, a nivel industrial. Casi todas están en la costa Oeste de EE.UU. y en el hub entre Cambridge y Londres, que es donde en este momento se están instalando las grandes grandes de la IA. Samsung se va a mover ahora a Cambridge con un gran centro de investigación.
Y el tema de la automatización, no es hacer robot con sus brazos, etc. Se hace muchas otras maneras. Por eso, esa visión de poner un impuesto a un robot… Habría que ponerle también una tasa a mi móvil ya que lleva un montón de apps de softwareque automatizan tareas. No tiene sentido.
A.P.: Hay otra cosa. Si esta explosión de la IA va a marcar decisivamente las líneas del próximo futuro y es algo tan estratégico ahora, por ejemplo, en EE.UU., donde hace años, Obama ya implementó un plan sobre el futuro de la AI [ ], lo mismo en el Reino Unido [] o en Francia [https://reut.rs/2uycF5K ] … ¿Cómo es que, en países como el nuestro, España, es algo tan inexistente…?
¿No ha llegado las ‘narrativas’ adecuadas allí, o es que sus dirigentes no analizan la realidad de la misma manera?
J. H‑O.: La ‘narrativa’ que tiene que llegar a España es que la apuesta por la inteligencia artificial es una de las pocas oportunidades tecnológicas que tiene el país para cambiar la economía productiva. O nos tomamos eso en serio o hay pocas alternativas realmente viables a diez, veinte años, con la situación que tenemos.
Muchas de las ‘narrativas’ que nos llegan a España no son sobre las oportunidades sino sobre los riesgos de la inteligencia artificial. Tenemos muchísimos riesgos estructurales más importantes en estos momentos, muchos de los cuales podrían resolverse si hay una apuesta fuerte por la inteligencia artificial, ya no digo en uno o dos años…, eso no va cambiar el déficit ni la deuda en uno o dos años…, pero a diez años si realmente invertimos en IA en el contexto que tenemos que estar, en el europeo, donde se están poniendo las pilas de verdad.
La apuesta por la inteligencia artificial, es una de las pocas oportunidades tecnológicas que ahora tiene España
Y eso significa que habrá que sacar el dinero de donde sea para que realmente la inteligencia artificial en España se mueva al nivel que se tiene que mover. Y se mueva al nivel de revertir en la sociedad y de crear valor productivo de verdad en España.
A.P.: Además del área de “Narrativas de la IA”, en este centro donde estás, también hay otros aspectos de la IA muy importantes…
J. H‑O.: Hablamos de las ‘narrativas’ en primero término porque es lo que más le llega a la gente y eso es muy importante ponerlo en primer plano. Pero sí, hay otras líneas muy interesantes en desarrollo. Por ejemplo, las hay sobre ética, regulaciones y normativas en relación a la IA. Sobre qué es conveniente regular, o no. Sobre temas como el de si está surgiendo o no una carrera armamentística basada en la IA [ ]; sobre si los países luchan entre sí para dominar el liderazgo de la IA en el mundo. Vemos que Rusia está en esa carrera; China también y Estados Unidos, por supuesto. Claro que, si se ve como una ‘carrera’, vamos mal. Se aumentan los riesgos sobre a dónde alguien quiere llegar, o sea, a tener más poder, un inmenso poder con la IA. Esos son aspectos que se están investigando por su importancia social y política. Y luego, hay aspectos un poco más ‘científicos’, incluso filosóficos. Por ejemplo: cómo va a cambiar el concepto de ‘persona’; el de ‘agencia’, etc.
Ciencia, tecnología y humanidades, juntas en el desarrollo de la IA
A.P.: Pero eso se combinan la ciencia, la tecnología y las humanidades que aquí en el CFI, están trabajando juntas desde el principio ¿no?
J. H‑O.: Sí, por supuesto. En este centro hay filósofos, junto con científicos de la computación, etc. Es un centro multidisciplinar en el que se tratan las cosas que van a cambiar la sociedad y otras preguntas científicas. Este no es un centro focalizado en hacer desarrollos de la IA. Para eso, la propia Universidad de Cambridge tiene sus propios departamentos, que son punteros en desarrollos y aplicaciones de la IA, o enmachine learning. Uno de los directores académicos de nuestro centro es Zoubin Ghahramani [], uno de los líderes mundiales en AI, que además de profesor el Departamento de Ingeniería en la Universidad de Cambridge, donde dirige el Grupo de Aprendizaje Autománico, también es jefe científico en Uber, donde dirige Uber AI Labs. Desde el punto de vista técnico y tecnológico, esta gente sigue también con su actividad. Por otra parte, hay varios planos en el centro: uno de ‘impacto’; otro, de análisis filosófico y de investigación científica, que es en el que más estoy yo. Para entender todos estos impactos de la AI en el mundo y averiguar si ese impacto está creciendo y está afectando a la inteligencia humana, tenemos que entender qué es la inteligencia y el impacto que ha tenido sobre el planeta.
¿Por qué ha tenido y está teniendo impacto sobre el planeta el homo sapiens?. Pues por su inteligencia y por su ‘dominación’. Se trata de entender qué te da la inteligencia para ‘dominar’. Cuando hay una persona que es mucho más inteligente que el resto, acaba dominando a ese resto. Eso puede tener relación con averiguar qué pasaría si creamos monopolios de inteligencia artificial…
La inteligencia, un bien universal muy distribuido en el planeta.
A.P.: Pero eso tiene relación con la idea que te oí una vez sobre que la inteligencia parecía un bien universal muy distribuido por la naturaleza en el planeta…pero quizá, este cambio de paradigma de la IA, podría desequilibrar eso.
J. H‑O.: Sí, ya lo está desequilibrando. La inteligencia humana sigue estando uniformemente distribuida en el planeta. Vayas donde vayas, las diferencias son mínimas, (no así el desarrollo de su potencial mediante la educación). Pero una vez proporcionas la educación, prácticamente no hay diferencias psicométricas entre las poblaciones. Les das educación y son como los demás. Pero en los últimos veinte años, se han ido realineando las posibilidades. Sitios muy remotos, con una buena conexión a internet, y con Wikipedia, etc., cualquier niño o niña, de cualquier lugar del planeta es capaz de tener acceso al conocimiento global. Eso sí que es una pasada, algo extraordinario nunca ocurrido antes, en toda la historia de la humanidad. Y con la inteligencia repartida, estamos viendo que numerosos países en desarrollo están eclosionando, ‑algo que parecía improbable‑, y que va a hacer que África, por ejemplo, se convierta en un gigante en muchos aspectos, gracias a eso y a la cantidad de gente joven que tienen, por su natalidad. Toda esa gente joven se está conectando a internet. Los de nuestra generación acabarán diciendo en 40 o 50 años ¿Cómo es posible que África haya cambiado así?
Pero el problema que estamos empezando a ver es que están emergiendo monopolios u oligopolios en inteligencia artificial. En este momento, en IA, tenemos ya un oligopolio: hay cinco o seis grandes (Google, ‑y DeepMind-, Amazon, Facebook, Microsoft Research, Tencent, IBM, Apple, Baidu, etc.), que, ya no sólo a nivel económico sino en el tecnológico y científico también, están creando sus propios centros de investigación para analizar los problemas científicos de lo que es la inteligencia natural y los de la AI, lo cual está muy bien. Pero, al final, no dejan de ser empresas privadas. Conozco a gente que están trabajando en estos sitios y que incluso han creado departamentos propios para analizar, no solo las cuestiones éticas como cualquier otra empresa, sino también el impacto que puede tener en el mundo la propia actividad de la empresa a la que pertenecen, ‑y que puede ser enorme-. Son 4 o 5 grandes que ni siquiera están controladas por gobiernos. Pero al ser tan grandes, son visibles, y todavía podemos preguntarnos si tenemos un cierto control. Pero hoy en día, no hacen falta ser tan enormes para hacer usos maliciosos de la AI con impacto, haciendo daño. Lo hemos comprobado con las recientes elecciones y el uso de las fake news, o el hacer ‘nudging’ [ ] (manipular a alguien con el objetivo que cambie de opinión o compre un producto), para la manipulación masiva de la gente.
Cuando hablaba de oligopolios, no solo hablaba desde el punto de vista de los recursos de computación que puedan tener. Muchas de esas técnicas requieren muchos recursos que solo esas empresas tienen, y tienen muchos datos que ni siquiera las universidades o los estados tienen. Ellos pueden hacer investigación que no está al alcance de centros de investigación pública o privada-publica, porque tienen los datos, la computación y el dinero para hacerlo. Normalmente los resultados de eso casi siempre tienen aplicación comercial…
A.P.: Pero esta sería una búsqueda hacia el futuro, no conducida por la ciencia o por la curiosidad científica sino por otro tipo de intereses, comerciales, de dominio de mercados, etc. Que podría desequilibrar ese equilibro de la inteligencia que de forma natural había.
J. H‑O.: Claro. Lo que pasa es que no está claro cuál es la alternativa… ¿Queremos una investigación en IA ultra-regulada, dirigida por los gobiernos? ¿y por qué gobiernos?… También tiene que ver con la cultura y situación de los países. En Europa y EE.UU. estamos hablando de un ecosistema de empresas con bastante libertad para que esas empresas hagan lo que quieran, a no ser que lleguen a aspectos que ya estén regulados. Si quieres hacer algo en el ámbito de los coches sin conductor pues tienes que pedir permisos para hacer ciertas cosas. Pero para hacer una aplicación de recomendación de productos, quitando la nueva recomendación europea que ha entrado en vigor, esas regulaciones son de privacidad de datos, pero no sobre lo que puedes inferir, y qué capacidad de convicción puede tener una herramienta. Cuantas más capacidades de convicción más contenta está la empresa. No hay regulaciones sobre eso. Pero hay otros países como China cuya economía está mucho más dirigida. Y si ellos quieren en 5 o 10 años controlar sus empresas de IA lo pueden hacer.
A.P.: Pero en China se ha puesto en marcha un proceso de ‘gamificación’ de la conducta ciudadana basada en la actividad de los ciudadanos conectados y su actividad en Internet a través de los gigantes de la red chinos cuyos datos de la conducta on-line de los internautas están a disposición del gobierno. Según sea tu ‘conducta’, el estado te da un ‘score’ una puntación que te puede dar ventajas o inconvenientes según hagas cosas que le gustan más o menos al estado [ https://bit.ly/2LnSe2P ]. Eso se traduce en facilidades o dificultades prácticas para la gente en su vida cotidiana, los permisos oficiales para gestiones oficiales, viajar, etc.
J. H‑O.: La cuestión es que todas estas cosas las interpretamos según las ‘narrativas’ occidentales. Una cosa que hemos tratado aquí en el centro es que en los colegios y guarderías chinas hay cámaras con las que puede observar a los niños y sabes si están aprovechando el tiempo o no en la clase. Eso sería una aberración en Europa. ¿Cómo vas a poner cámaras para observar el comportamiento de mis hijos? Te denuncio. Y en cambio, en China, es lo más normal del mundo porque allí dicen que con eso haces la educación más eficaz. Son culturas y mentalidades completamente distintas a las nuestras. Pero, mira, en China no tienen problemas con eso.
La inteligencia es un ‘Arte General’ (Ars Generalis)
A.P.: Tú eres un científico de la computación, pero también hiciste tu doctorado en lógica y filosofía de la ciencia. Qué dirías sobre la disciplina en donde estás enfrascado ahora, es más propia de un centro de tecnología, o más de humanidades, o de ciencia. ¿Estás trabajando en una intersección o en un solapamiento? ¿Dónde está tu centro de gravedad disciplinario? ¿O ya no le podemos aplicar a lo que haces la división típica que aún funciona para adjetivar universidades, departamentos y su investigación, con arreglo a la división entre disciplinas que conocíamos? ¿Hay que salir de la dicotomía de si el tuyo es un centro de tecnología, o uno de humanidades?
La inteligencia es un ‘Arte General’ (Ars Generalis). Intentar hacer ‘particiones’ de un ‘Arte General’ es un error
J. H‑O.: Para responder a esa pregunta te voy a retrotraer unos cuantos siglos atrás. La inteligencia es lo que Ramón Lull, ya en el siglo XIII, denominaba ‘el Arte General’ (Ars Generalis). Intentar hacer ‘particiones’ de un ‘Arte General’ es un error. Cuando estamos hablando de inteligencia, estamos hablando realmente de lo que impacta en las humanidades, en el arte, en la ciencia, lo que impacta en la tecnología…
A.P.: …es algo que ninguna de las disciplinas que conocemos, por sí sola, se la puede apropiar…
J. H‑O.: No. Tu puedes hablar sobre que hay una Ciencia de la inteligencia… Por ejemplo, en psicometría podemos decir que a mí lo que me interesa es la ciencia de la inteligencia humana y en cognición animal puedes hablar de la inteligencia animal. Y si se trata del campo de la inteligencia artificial, puedes hablar sólo de la de las máquinas. Pero de todos esos compartimentos, al final, lo que va a tener más impacto sobre la humanidad en los próximos años y décadas es, probablemente, la inteligencia artificial. Así que la cuestión fundamental, más incluso que la pregunta sobre el Big Bang, es: ¿vamos a intentar entender bien qué es la inteligencia? Y, eso, es interdisciplinar, claramente.
A.P.: …Y esas son las grandes preguntas sobre la inteligencia y, no las que se plantean sobre aplicaciones. ¿No?
J. H‑O.: Yo creo que lo que ayuda más a entender lo que es la inteligencia, no son tanto en las aplicaciones, en las que a una persona se le ocurre…voy a cruzar esto con eso, y por ahí puedes obtener una aplicación que en seis meses rompe el mercado; sino en cómo afecta eso a la humanidad y sobre los riesgos potenciales que puede traer. Es como si hubieras hecho una bomba atómica sin entender las ecuaciones primero. La podíamos haber hecho: mira pones esto aquí y explota. Pero… ¿la explotamos?… porque igual no se para nunca… Cuando se hicieron los primeros experimentos pensaron que aquella reacción en cadena se iba a parar, y que no iba a hacer desaparecer la Tierra. Si no, no le habrían dado al botón.
A.P.: …algo como aquello que alguien dijo sobre el riesgo a que en el CERN se formara un ‘agujero negro’ sin control en algún experimento…
J. H‑O.: Había cierto acuerdo de que eso era bastante improbable. Pero en esos momentos no se tenía ni siquiera la mitad de la incertidumbre actual sobre la inteligencia. De todas maneras, es importante mostrar lo que es la inteligencia a nivel humano, pero también cómo funciona a nivel social. La inteligencia humana también es social. El problema de cómo se distribuye la inteligencia y cómo surge el que haya problemas de ‘dominación’ de unos sobre otros. Este es otro de los riesgos fundamentales. Que concentremos esas capacidades que van a llegar, en muy pocos… Y esos muy pocos no tienen que ser máquinas, pueden ser personas que posean estas máquinas, o que pertenezcan a unas pocas compañías. Entonces tendremos un problema. Tener mucha inteligencia concentrada significa tener un poder sobre algo que aún no entendemos bien.
Eso que no entendemos bien tiene que ver con la relación entre la inteligencia y los recursos que necesitamos para obtenerla, es decir: para intentar ‘aumentar’ la inteligencia cuántos recursos computacionales tenemos que añadir y cuál es la relación entre esas dos cosas… El único ejemplo natural que tenemos es el de los pocos recursos que consumimos para tener un cerebro que, sin embargo, es tan potente…Pero tampoco sabemos los límites. De esa relación lo que no sabemos es, cuando tenemos un diferencial de inteligencia entre dos sistemas, ¿qué significa eso en cuanto a la capacidad que tiene de dominar el uno al otro? No siempre es sólo cuestión de inteligencia. Por ejemplo, los niños nos dominan a los adultos muchas veces, a pesar de tener menos desarrollada aún toda su capacidad de inteligencia. O sea que no tenemos claro el concepto este de que, si tú consigues tener en el mundo ‘algo’ que es mucho más inteligente que el resto, pueda potencialmente dominar al resto de la humanidad. Creo que el sistema más seguro al respecto es el que tenemos ahora, el natural, en el que los recursos de inteligencia están distribuidos.
A.P.: …un sistema que, si se desequilibra, podría llevar a la sociedad del futuro a ser ‘distópica’…
J. H‑O.: Es como el capitalismo. El capitalismo salvaje, si lo dejas descontrolado…, que ya lo está bastante, …
A.P.: Lo decíamos antes… 1% más rico de la población mundial acapara el 82% de la riqueza mundial.
J. H‑O.: Pues algo parecido podría pasar con la inteligencia artificial. Yo lo que si espero es que, en 10, 20 o 30 años, nosotros entendamos mejor lo que es la inteligencia que los economistas entienden lo que es la economía.
PARTE II. SOBRE EL LIBRO: “The Measure of All Minds. Evaluating Natural and Artificial Intelligence.” (Cambridge University Press. 2017)
Medir la inteligencia de todo
A.P.: Cambridge University Press te ha publicado un impresionante libro [ ] cuyo título reza: “La medida de todas las mentes Evaluación de la Inteligencia Natural y Artificial”. Eso significa que no sólo de los humanos, o de otros seres vivos, sino también de robots, o del software, o la del hormiguero. Todo, aquí, quiere decir ‘de todo’, ¿no? … ¿por qué ese título?
J. H‑O.: Lo del título es muy sencillo. Es el título irónico que yo quería. ¿De dónde viene?… pues hay esta expresión del sofista Protágoras:, “El hombre es la medida de todas las cosas”. De ahí, la visión que se tiene desde la inteligencia artificial es también que el hombre, el ser humano, su inteligencia, es la medida de todas las cosas, entre ellas, de la inteligencia. Es recurrir al antropocentrismo para entender el mundo. El título, y el libro, es una respuesta contra esa visión.
La visión que tenemos desde la Inteligencia Artificial es que la inteligencia del ser humano es la medida de todas las cosas
¿Cómo entendemos la inteligencia?: la inteligencia es lo que tienen los seres humanos. A partir de ahí, tú intentas entender la inteligencia que quieres crear, o la inteligencia de otros animales. Eso se ha ido rompiendo, gracias, en parte, a gente que ha pasado por Cambridge. Como Darwin. Gracias a su teoría de la evolución mediante la selección natural, sabemos que somos un caso particular. La inteligencia humana es un caso particular en lo que es la evolución animal y la evolución de la vida.
La inteligencia humana es un caso particular de la evolución animal y de la vida
Y lo del título expresa que el libro intenta ir un poco más allá… en relación a lo que pasó con la revolución copernicana. Llegó un momento que dijimos: no, la Tierra no es el centro del sistema solar. El Sol es el centro. Y lo mismo, hubo un momento a partir del que se aceptó que el hombre ya no era centro del universo. Y la cosa no acabó ahí: la evolución es la que nos ha acabado haciendo así. Podemos entender algo de cómo es la mente humana gracias a mirar cómo son otros animales, y mirar la evolución. Nosotros nos comportamos de cierta manera por todo nuestro bagaje evolutivo. Dejamos de decir que la Tierra era el centro, luego que el Sol era el centro. No, el Sol es una estrella que simplemente está en un punto de la galaxia de la vía láctea… lo que hay que hacer es moverse en esa dirección. La cuestión ya no es cómo plantearse cuál es el centro, sino intentar ver cuál es el espacio. En física ahora sabemos cuál es el universo, aunque se habla de si hay universos paralelos, etc. Pensamos ahora que es finito… etc.
A. P.: … si el universo, en realidad, es un holograma…
J. H‑O.: Exactamente. Entonces, el concepto que el libro introduce es lo que podríamos llamar el ‘Espacio de inteligencia’. Los tipos de inteligencia que conocemos y podemos contemplar en él son los de la inteligencia humana y los de otros animales, pero también se pueden crear otros tipos de inteligencia, ya no solo a nivel cuantitativo de más capacidades sino pueden tener también diferentes capacidades. Nosotros tenemos diversas capacidades, más que nada por la manera en que interactuamos, por el tipo de percepción que tenemos, pero eso no quiere decir que no podamos construir sistemas totalmente diferentes. La inteligencia artificial como tecnología está muy adaptada al ser humano, sobre todo son aplicaciones para el ser humano.
Pero desde el punto de vista del análisis de lo que es la inteligencia está la pregunta: ¿Qué es la inteligencia a nivel universal? Es cómo preguntarse ¿qué es el universo? Es la pregunta grande. Así que cómo intentar atacar esa gran pregunta es parte de la motivación del libro.
A. P.: Eso puede llevar a preguntarse cuál es el propósito en realidad de la inteligencia y por qué existe.
J. H‑O.: Por qué existe la inteligencia. A nivel evolutivo se habla mucho de que es un ‘fenómeno convergente’. Es decir, ¿cómo puede ser que tanto un pulpo como nosotros tengamos inteligencia?, ‑un pulpo hace cosas bastante sorprendentes-. Y cómo puede ser cuando nuestro ancestro común no tenía nada de eso. Era un pequeño gusanito que de inteligencia tenía casi menos que una pared. ¿Cómo es posible que el pulpo y nosotros, dos animales llegados hasta aquí por dos ramas evolutivas completamente diferentes, tengamos ambos capacidad para resolver problemas mediante la inteligencia? Esas son dudas que queremos analizar desde el punto de vista de la inteligencia en el contexto evolutivo. Pero luego queremos entender qué relación tiene eso con el concepto mismo de computación y de tratamiento de información, porque los dos sistemas, tanto de los seres humanos como los pulpos, recogen percepciones y las procesan y, con eso, toman decisiones, ejecutan acciones y consiguen sobrevivir. Ocurre consciente o inconscientemente, depende del animal de que estemos hablando, ‑nosotros realizamos muchas acciones inconscientemente.
Pues todo eso no es un caso particular de la vida. Es más general que eso. Lo estamos viendo. Estamos desarrollando sistemas artificiales capaces de reproducir algunos de estos comportamientos; reproducir o hacer otro tipo de comportamientos que se guían por otro tipo de motivaciones y que hasta ahora no hemos visto hacer ni en ningún animal ni ser humano. Ese es un espacio que vamos a explorar, ya no digo en las próximas décadas sino, ‑si no hay algo gordo‑, sino indefinidamente. Probablemente la propia inteligencia que crea el espacio tendrá que dedicarse a explorar.
Estamos desarrollando sistemas artificiales capaces de tener comportamientos que, hasta ahora, no habíamos visto en ningún animal, ni ser humano.
A. P.: Pero eso significa que, si resulta que la inteligencia humana es un caso particular y las otras de los seres vivos también lo son; y también que puede haber artefactos no- vivos en el sentido natural que también la tengan, …significa, tal vez, que haya que considerar un paradigma universal de inteligencia, en el que haya algo en común para poder medir todo eso… Y en ese caso, si puedo medir la inteligencia de un humano, también puedo medir la de un ser vivo, una célula, o un virus; pero también la de un mecanismo, o artefacto. Y, por tanto, eso significa que en tu libro tú consideras que hay componentes universales de lo que llamamos inteligencia que te permitan medirla en todos los casos, en los casos particulares de lo natural y también en los artificiales.
J. H‑O.: Sí. Bueno, digamos que hay dos extremos. Uno, en el que niegas que la propia inteligencia exista. Entonces nos limitamos a crear sistemas que sean buenos para una tarea. Cuando hablo de ‘tarea’ es similar a un entorno. Por ejemplo, si un animal se encuentra en un entorno y el entorno cambia y no es capaz de resolver los nuevos problemas que surgen tras los cambios entonces no sobrevive. Solemos decir que la evolución tiene un comportamiento inteligente porque se adapta a los cambios. Pero cuando hablamos de inteligencia de un individuo, estamos hablando sin evolución. Una vez les cambia el entorno, su sistema cognitivo se puede adaptar porque puede aprender, lo cual significa que hay aprendizaje que, realmente, es la base de la inteligencia. Cuando tenemos eso, por ejemplo, un sistema que es capaz de resolver los problemas y sobrevivir en un entorno y pasar a otro, ¿podemos decir algo de ese sistema? Mirando los dos entornos, es decir, lo que tienen en común sus tareas a resolver… Si tús ha sido bueno para resolver las tareas del primer entorno, ¿puedo decir algo de las segundas tareas? Si tú dices: “no”, porque no hay ninguna razón. Yo puedo diseñar un sistema que sea bueno para estas tareas y malo para las otras, sin que haya ninguna relación entre las tareas. Podemos decir, entonces, que hay tantas inteligencias como sistemas. El conjunto es infinito y no hay ninguna estructura. No habría nada que estudiar.
Y podemos llegar al otro extremo. Y pensar que la inteligencia es entendida como que, si tú eres bueno en una tarea, eres bueno para todas las demás. Entonces sería muy sencillo. Yo mido la eficacia en cuatro o cinco tareas seleccionadas aleatoriamente y si eres bueno en esas tareas puedo extrapolar cosas sobre ser bueno en otras tareas. Esto es lo que sucede con los seres humanos. Es lo que muestran los test psicométricos: la medida del intelecto, o de la mente.
A.P.: Sí, pero, José, ¿cómo mides la mente si no sabemos exactamente lo qué es?…
J. H‑O.: Ese es un tema de la psicometría tradicional. En humanos se pueden medir ciertas cosas que son predictivas para ciertas cosas en la vida, sin saber realmente lo que mides. Un ejemplo. Hay lo que se llama en psicometría el ‘factor g’ que da soporte al cociente de inteligencia (IQ). Ese valor es un número predictivo, a partir del cual, a partir de test psicométricos, yo puedo predecir cosas sobre la vida de las personas: éxito académico, por ejemplo; religiosidad…
A.P.: Sí, pero tú haces que una persona rellene un formulario complejo… y de ahí obtenéis un número… ¿y cómo llegáis las predicciones sobre lo que puede hacer?
J. H‑O.: Es un asunto ‘operacional’… te puedes preguntar ¿qué tienen que ver unos tests con unos simbolitos con triangulitos y cuadrados, con la capacidad de hacer cosas? La validez del test no quiere decir que lo que estás midiendo sea representacional. Es ‘operacional’. ¿Operacional qué quiere decir? Imagínate que correlaciono, comparo, el tamaño de la nariz, con el del dedo gordo de tu pie. Y encuentro una correlación que nos señala la estadística. Y en realidad, ¿qué estamos midiendo? No lo sabemos. En cambio, has encontrado una correlación con unos tests y esa correlación la explotas. Esos tests, a base de refinarlos durante varias décadas te has dado cuenta que esos resultados son un predictor para un montón de cosas de la conducta, y es superútil. Que tú le llames g, o le llames ‘inteligencia general’ o le llames h, solo es cuestión de interpretación. Lo importante es que eso te sirve para predecir cosas tan poco relacionadas entre sí cómo, por ejemplo, la fertilidad de las mujeres…- las mujeres con mayor cociente intelectual suelen tener menos hijos-. O la religiosidad o el nivel de estudios, o la estadística de suicidios, etc. Tú ya puedes intentar interpretar eso como quieras. Positivamente o negativamente. Y te sirve para describir un montón de cosas …
A.P.: Pero, eso es muy subversivo…
J. H‑O.: Es psicometría, simplemente. ¿Cuantos estudios médicos encuentran una correlación estadística y, de ella, se extrapolan recomendaciones tales como… no tomes café por las mañanas porque hay una correlación cuyo mecanismo en realidad no se conoce? El problema de todos estos análisis correlacionales, de analizar los datos sólo a través de correlaciones es que por ese camino no vamos a entender la causa o el modelo causal que lleva a que esas dos cosas tengan una correlación. Puede ser un factor latente o que están relacionados por un mecanismo concreto. Si tú encuentras un gen que determina o relaciona el tamaño del dedo del pie con el tamaño de tu nariz, entonces dices: ya lo he entendido; ya sé porque aparece esa correlación… Porque está ahí ese gen que la provoca pero, en realidad, la causa última no la sabes…
A.P.: En resumen… volviendo al propósito del libro y lo que propone…
Sobre la inteligencia, tenemos dos extremos; en uno existirían infinitas inteligencias; y en el otro, el único concepto de inteligencia que tendría sentido es el de inteligencia general
J. H‑O.: En síntesis, la cuestión sería fundamentalmente que tenemos los dos extremos: en uno afirmaríamos que realmente no existe ninguna estructura de inteligencia y existirían infinitas inteligencias, con lo cual el concepto de inteligencia no serviría para nada. Y el otro extremo sería decir: el único concepto de inteligencia que tendría sentido es el concepto de inteligencia general…
A.P.: … la inteligencia de propósito general
J. H‑O.: Sí, el concepto de la inteligencia de propósito general. La cuestión es que tú puedes crear sistemas inteligentes, de inteligencia artificial, que estén entre medio de esos dos extremos. Y luego está una cuestión que hay que explorar que es la que se llama la de ‘estructura de inteligencia’. Hay ciertas tareas que, por lo que sea, cuando eres capaz de resolver una, luego te es fácil resolver otra. Hay gente que piensa que eso depende del sistema que está resolviendo la tarea. Igual para otro sistema esas tareas no tienen nada que ver…
Por ejemplo, se puede observar que a veces, el ‘navegar’, o mover bien en un entorno espacial, en una habitación, o en un barrio, puede tener que ver con dibujar. Si alguien es capaz de dibujar bien probablemente sea capaz de orientarse bien, ya que las dos cosas tienen que ver con las capacidades espaciales. Lo que hemos observado, lo que sí sabemos, es que hay cosas asociadas o correlacionadas en (la mente de) los seres humanos. Si eres bueno en esto, lo serás en aquello, probablemente. Eso suele pasar. Pero también hay casos particulares… hay gente que tiene lesiones y, en ese caso, alguien es bueno en esto, pero no en aquello. Es poblacional. Luego hay cosas que no se han visto en ningún caso, y es que seas bueno en una cosa y, a no ser que lo hagas a propósito, ‑es decir, no voy a hacer esa tarea porque no quiero hacerla‑, seas malo en la otra cosa.
Pero tú podrías diseñar una máquina (un software), que igual sí que es capaz de hacer bien una cosa, y mal otra. Si nosotros encontráramos tareas en que eso no ocurre nunca con seres humanos, ‑con o sin patología -, no ocurre nunca con animales, no conseguimos hacerlo con máquinas y encima entendemos que esas tareas tienen seguro una relación, diríamos: sí que hay una estructura (de inteligencia) que liga los entornos y las tareas a resolver, y entonces, podemos afirmar que, a partir del comportamiento (inteligente) en una tarea puedo extrapolar o transferir, y deducir, el comportamiento para otra tarea.
A.P.: … la psicometría humana es poblacional y se conoce bastante, pero esas conductas ¿son extrapolables a artefactos como máquinas o software y que, en su caso, las decisiones también puedan ser predecibles?
La conducta humana no es extrapolable a la de una máquina, de ninguna manera
J. H‑O.: No son extrapolables de ninguna de las maneras. Primero porque no tienes una población de máquinas; segundo, porque tu objetivo no es predecir la varianza de esa población, que es lo que tú haces en psicometría. Por ejemplo, cuando tú das un valor de cociente intelectual (IQ), tú estás diciendo en qué posición de la distribución humana estás. Cuando tú tienes 130, y la desviación típica es 15; lo que estás diciendo es que estás dos veces por encima de la desviación típica en la población humana. Esto es lo que significa tener un cociente intelectual igual a 130. Eso es no comparable con cualquier otra escala, con la de la inteligencia animal, etc. Incluso con niños no puedes comparar esos números. Son números poblacionales; son ‘cuantiles’, para que nos entendamos.
A.P.: Como en ergonomía, donde están los percentiles y las medias estadísticas.
J. H‑O.: Pero es que, en ergonomía tienes la altura de alguien. Y esa altura es una medida física. Y tú la podrías comparar con un objeto. Lo que no podrías comparar nunca un cociente intelectual con algo que no es de esa población. Esa población solo la puedes aplicar a humanos. Solo te sirve para eso. No es lo que se llama una medida de razones (ratio scale).
A.P.: Y ¿cómo es el salto a la medida de inteligencia ‘no humana’, a una medida de la inteligencia “de todo”?
J. H‑O.: Pues tienes que ir a una aproximación representacional. ¿Qué significa representación? Que de entrada tú sabes lo que quieres medir. Y hay casos; no es que toda la psicometría no sea ‘representacional’. Por ejemplo, yo puedo medir el vocabulario de una persona. ¿Cómo lo mido? Pues lo más natural es coger el diccionario. Miro las palabas más y menos frecuentes, y hago una muestra. Con esa muestra le pregunto los significados. Así puedo saber cuál es su nivel de vocabulario en este o en otro idioma, etc. Eso es una medida representacional. Y eso lo puedo comparar con un sistema al que puedo preguntar si sabe las definiciones o significados.
A.P.: Así se puede saber si una persona va a entender o no un texto o una alocución en un idioma concreto.
J. H‑O.: Esa es una medida útil del vocabulario que el humano sabe. Cuando estás en el ámbito humano, tú asumes un montón de cosas. Y si quieres hacerlo para máquinas es muy sencillo tener un sistema que simplemente te busque la definición sin que tenga ni idea de los que significa la palabra…
A.P.: Como lo hizo el superordenador Watson de IBM del concurso Jeopardi!…
J. H‑O.: Sí, por ejemplo, como Watson. Pero para intentar buscar algo que te mida capacidades, tendrás que: primero, entender cuando tú haces tareas que es lo que mide cada una de esas tareas, qué cosas requiere el sistema para hacer esas tareas. Si usaras lápiz y papel, el sistema debería ser capaz también de reconocer el papel, el espacio, etc. Todas esas cosas son necesarias para poder hacer el test.
A.P.: Pero eso requiere un sistema complejo de cognición… ¿La cognición tendría entonces que ver con eso…?
J. H‑O.: La cuestión se complica mucho con ello. Por eso hay un componente de cognición grande en el libro. Imagínate que quieres evaluar un ratón… ¿cómo lo haces? No lo haces poniéndole un test. Tú sabes que el ratón tan tonto no es. Al final, ¿cómo lo haces? Pues hay una manera de motivar el ratón: a través de recompensas. Y te das cuenta de que el ratón ve, y de que huele mejor que ve. Cuando tú empiezas a entender al ratón un poco, llegas a la conclusión de que, si yo quiero ver la capacidad de memoria para recordar, por ejemplo, imágenes, pues ya puedes configurar las condiciones que él necesita para que el test que le voy a hacer sea eficaz. Entonces ya sé que, en relación a este tipo de animal, estoy centrado exactamente en lo que le quiero medir, en este caso, que es la memoria que tiene el animal; por ejemplo, sobre ciertos objetos o simples asociaciones típicas con ratones, etc. De lo que tienes que estar seguro es que lo que mides con esa tarea es realmente lo que crees que mides. No que de casualidad estés midiendo otra cosa, aunque sea próxima.
Conducta humana versus comportamiento de ‘máquinas’
A.P.: Cuando hablamos de máquinas en español solemos, por inercia, pensar en máquinas ‘mecánicas’. Pero en inglés para el término machine (máquinas) se utiliza también para hablar de software. Se usa la misma palabra. Y ahora las ‘máquinas’ inmateriales de software empiezan a tener ‘conducta’. ¿Hemos de usar ese término? ¿Es correcto hablar en español de ‘conducta’ del software’?
Los humanos tienen conducta. Las máquinas, ‘comportamiento’.
J. H‑O.: Es correcto. En ingeniería de software se utiliza la expresión. Pero, al final, no es ‘conducta’, es ‘comportamiento’ (en inglés se usa ‘behavior’). Comportamiento de un sistema de software, claro. En sistemas complejos, tú sabes que la mejor manera de analizarlos no es entender todos sus ‘engranajes’, sino que muchas veces se analiza el sistema desde fuera, y sabiendo cuatro o cinco características más abstractas sabes realmente cómo funciona el sistema. Pasa con muchos de los artefactos que manejamos. Tú conduces tu coche, pero en realidad no sabes cómo funciona por dentro. Si te pregunto que cómo va, igual me dices: “mi coche está un poco renqueante esta mañana”. Y ¿eso qué quiere decir? Pues que nos hemos inventado unas apreciaciones algo abstractas que nos sirven para transmitir en términos de ‘comportamiento’, una manera de explicar lo que está pasando. Muchas veces para entender como está funcionado un sistema complejo de software esa manera es mucho más poderosa y útil, que decir… cuando le metes X, te sale Y, porque en ese sistema hay infinitas equis e y griegas. Hablar de su funcionamiento en términos de comportamiento es una manera de sintetizar lo que el sistema hace y los problemas que puede tener y la ‘inteligencia’ no es más que un subconjunto de cosas o una característica muy importante a la hora de ver qué pasa con el comportamiento de un sistema, especialmente de los sistemas que son ‘inteligentes’. Cuando tienes unsoftware de calculadora no nos vamos a poner a analizar cómo actúa.
A. P.: Si no sabemos de verdad lo que es la inteligencia, ¿es correcta decirlo así? Porque en realidad sabemos lo que es capaz de hacer por su comportamiento, pero no quizá por su ‘inteligencia’…
J. H‑O.: En el libro yo utilizo la expresión medir las “Características de comportamiento” de un sistema. Y cuando se trata de medir el intelecto de los seres humanos, se usa la psicometría.
A.P.: ¿Y sobre las conclusiones de tu libro: “The Measure of All Minds: Evaluating Natural and Artificial Intelligence” [] (Cambridge University Press 2018), que me puedes decir?
J. H‑O.: La conclusión principal, después de quinientas páginas, es que está todo por hacer. El libro explora muchas vías que son erróneas, por ejemplo, cuando se dice “ya tenemos estos test para medir la inteligencia en humanos; vamos a usarlos con máquinas”, etc. Y cosas así. Hay que darle muchas más vueltas al tema.
Creo que el libro es útil para ver caminos que aparecen, por ejemplo, cuando alguien dice: “voy a intentar averiguar cuán inteligente es esta máquina”. Aparece el ‘Test de Turing’ [], y un montón de cosas que aún tienen muchísimos problemas. A nosotros, lo que nos interesa es saber de verdad lo que una máquina es capaz de hacer, porque si yo quiero comprar una de esas máquinas para que haga unos trabajos, necesito saber qué sabe hacer. No para qué tareas está programado para resolver sino qué tareas puede aprender a hacer. Y eso en un entorno, por ejemplo, en el campo de la automatización: ¿si yo pongo a este robot frente a un operario humano para que el robot ‘lo mire’ durante tres horas, ¿al cabo de ese tiempo será capaz de hacer lo mismo que hace el operario? Pues bien, en este momento aún no sabemos averiguar ni medir cuán cerca, o lejos, estamos de eso.
A.P.: O sea, no solo saber para hacer qué cosas está programada una máquina sino también qué cosas es capaz de aprender para las que en principio no están programada, ¿no?
J. H‑O.: Es que la ‘inteligencia’ aquí no se ve como un catálogo de tareas. Cuando tú ves, por ejemplo, un sistema animal muy primitivo que… es capaz de hacer el apareamiento así, es capaz de comer de esta flor. Eso no es inteligencia. La evolución lo ha llevado hasta ahí, resuelve 27 tareas que están predefinidas y de ahí no lo sacas. Cuando hablamos de ‘inteligencia’, hablamos un sistema que aprende, capaz de resolver tareas que nunca antes se le habían presentado en su entorno. Los humanos hacemos eso de niños y también después. La inteligencia no se puede entender sin aprendizaje. Cuando hablamos de inteligencia general, no nos referimos a un sistema que tiene un repertorio de acciones, que aprietas el botón 3 y te hace algo determinado. No es algo que depende de un repertorio de sucesos previstos. La inteligencia general aprende a hacer cosas nuevas.
A.P.: ¿Y en resumen cuál es el propósito del libro?
J. H‑O.: El libro cumple varias funciones. Una es la de recoger y contrastar diferentes tipos de evaluación de inteligencia de distintos ámbitos: inteligencia artificial; humana y en cognición animal; ver dónde están los ‘choques’, y también qué cosas son extrapolables y cuáles se pueden adaptar de un ámbito a otro. La parte central del libro trata sobre cómo podemos ‘refundar’ este campo e intentar definir o buscar unos fundamentos basados en teoría algorítmica de la información, o la teoría de la computación, sobre cómo se podría intentar hacer esto. No son herramientas raras; la física las usa, por ejemplo. Si estamos hablando de inteligencia que, hoy en día, prácticamente se entiende como un tipo muy especial de procesamiento de información, sería bastante raro que al intentar entender la inteligencia, no tuviera para nada que ver con la teoría de la información, o la de la computación. Sería un poco absurdo. Otra cosa es que hay paradigmas diferentes que pueden ser mejores, o peores, para entender esto. Pero realmente la visión ‘universal’ de ello es que nosotros, al final, somos máquinas que procesamos y producimos información y todavía no entendemos el mecanismo.
Los humanos somos un caso particular de las máquinas
A.P.: ¿Tú piensas que los humanos también somos máquinas, un tipo de máquina?
J. H‑O.: Sí, claro. Cuando estábamos hablando antes del espacio de inteligencia y en él los seres humanos eran un subconjunto o caso particular, expresaba eso.
A.P.: ¿Y sobre tus recomendaciones al final del libro?
J. H‑O.: Bueno, aparte de los fundamentos citados de la parte central, mis propuestas explican que necesitamos más esfuerzos en evaluación en inteligencia artificial; que debemos estudiar más el bagaje que hay ya en evaluación animal y humana; y también hay un trasvase de ideas de lo que podemos ir aprendiendo a medida que vamos ‘falsando’ [ ] tests. Por ejemplo, si se lo aplicamos a una máquina y no mide lo mismo que medía en humanos, o en animales; ¿de eso qué aprendemos? Pues que ese test no mide la inteligencia universal sino sirve específicamente en ciertas especies y población; y, utilizar la herramienta artificial como herramienta para probar como cobayas si esto es así o no es así… O sea: ¿puedo usar la IA para crear sistemas que pueden desarrollar un comportamiento, pero no puedan desarrollar otro? Todas estas cuestiones son parte de lo que ha sido parte tradicionalmente de las ciencias cognitivas y ahora están también en la inteligencia artificial.
A.P.: Tú asociabas casi directamente, la cognición a la inteligencia, ¿no?
Es decir, si un ser, una entidad, no tiene ninguna capacidad cognitiva no es inteligente.
J. H‑O.: Si no tiene ninguna capacidad cognitiva no es inteligente. Pero hay conceptos muy diferentes. De hecho, yo evito hablar siempre de conciencia, etc. … La terminología de la psicometría es muy útil para esto; las capacidades cognitivas, — …cuanto más tengas mejor; y si son verbales aún mejor‑, de cara a tener inteligencia. Pero luego están los rasgos de personalidad y eso afecta a tu comportamiento. Esos no son cognitivos. Tú puedes ser introvertido o extrovertido y eso no quiere decir que sea más o menos capaz, como con la inteligencia. Cuando hablamos de capacidad cognitiva, la cuestión es que hay cierta estructura y hay capacidades diferentes. Y puede ser que tuvieras mucho de una, y nada de las demás…Si eso pasa tú tienes un sistema muy especializado. A ese sistema ¿tú lo llamarías inteligente? Imagina que tú puedes resolver una ecuación de tercer grado, pero luego no puedes hacer una suma. ¿Cómo explicas eso? ¿Llamarías a una persona con esas características inteligente? Pues de eso es de lo que tenemos mucho ahora en la actual inteligencia artificial. Tenemos sistemas que son mucho mejores que los humanos para resolver ciertas cosas; pero luego para otras, no son capaces de resolverlas.
A.P.: No pueden hacer aprendizaje de propósito general.
J. H‑O.: No pueden. Lo que nos sorprende ahora en AI es que hay tareas muy muy sencillas, que las máquinas no son capaces de hacer… a no ser que tú hayas programado esa máquina para aprender ese tipo concreto de tarea. La cuestión es que, si tú tienes unos recursos limitados, es más eficiente hacer un sistema de propósito general y que te cubra un abanico de tareas, que intentar especializarte en solo resolver unas cuantas. Que las correlaciones entre capacidades aparecen en los humanos no es casualidad, porque eso tiene que ver con la eficiencia porque reutilizan principios básicos de aprendizaje y esa cuestión la tenemos también en la IA.
Lo que nos sorprende ahora en inteligencia artificial es que hay tareas muy muy sencillas, que las máquinas no son capaces de hacer
Normalmente, un sistema de reconocimiento de imágenes no vale para nada para el reconocimiento del habla o del lenguaje natural. Pero miras su arquitectura y resulta que ves que… este módulo en uno es el que tienes en otro, un módulo de aprendizaje, o una serie convolucional que coincide…Y dices, ¡ostras! Están utilizando los mismos componentes… Es obvio; es porque esos componentes son los que hacen aprendizaje. Es decir, que tú montando los componentes de la manera adecuada consigues resolver dos capacidades cognitivas diferentes. Y lo que estamos viendo en inteligencia artificial es que no es casualidad que estas dos cosas estén relacionadas porque tienes los mismos componentes. Pero claro, un cerebro, no los repite, sino que los usa sucesivamente para diferentes cosas. Solo los tiene una vez. O solo tengo los genes que generan ese mismo tipo de componentes más de una vez. O sea que es normal que aparezcan estas correlaciones tan fuertes. Y que también las veamos en dos sistemas que hacen cosas diferentes, pero con los mismos componentes, aunque organizados según diferentes arquitecturas. De la misma manera, ocurre con nuestro cerebro, que es capaz de hacer cosas muy diferentes, pero, al final son solo neuronas.
A.P.: Si resulta que tú descubres un sistema por el cual, una red neural artificial [https://bit.ly/2HXZCga ], es decir una inteligencia artificial, que consiguiera aprender mucho imitando lo que hace la inteligencia de la mente para aprender. ¿Crees que eso podría aplicarse en ayudar o mejorar a la forma de aprender de los humanos?
J. H‑O.: Yo creo que no. No tenemos mucho control sobre la forma de cómo aprendemos. Se ha intentado con drogas; con electrodos, con un montón de cosas y, al final, como mucho, quizá puedas mejorar un 10% en la manera en que aprendemos. El ‘brain training’ y todo eso no sirve de mucho. Luego hay tácticas en la vida que te facilitan las cosas pero al final la capacidad de nuestro cerebro no la puedes modificar porque te digan “usa este truco”, porque hemos entendido cómo funciona tu inteligencia, y así, ahora vas a pensar mejor.
A.P.: Recuerdo que, sobre tu conocido artículo científico [ https://bit.ly/2vCrJ0c ], “Psicometría universal: Medición de las capacidades cognitivas en el reino de las máquinas”, que publicaste con tus colegas David L. Dowe y M. V. Hernández-Lloreda, se publicó un titular que decía: “Han encontrado un ‘medidor universal’ de inteligencia”. ¿Ese titular era una exageración? ¿Hay que matizar todo, al respecto?
J. H‑O.: Hay que matizar todo, y leerse bien el artículo. Tal como se habla de ‘medida’ en el título… hay que tener en cuenta que ‘Medida’, también es un término de matemáticas, y no es casualidad que se utilice la misma palabra. Pero, al final, una ‘medida’ no es más que una distribución de probabilidad sobre objetos. Entonces cuando nos referimos a una ‘medida universal’ es que pone ‘peso’ a todas las tareas, y con eso, dependiendo de tu comportamiento en esas tareas, tienes un indicador. El indicador es el que viene de esa medida. Hay otro artículo que publicamos que se llama: “Cuán inteligente puede ser un test de inteligencia”. Entonces, la cuestión es que, si no es adaptativo, es muy difícil hacerlo ‘universal’. Si yo no conozco bien un sistema, no puedo articularlo… Por ejemplo: si yo me encuentro o tropiezo en algún lugar, ‑no sé, …bajo los hielos de la luna Europa de Júpiter‑, con un extraterrestre que viene dentro de un traje espacial y no sé nada de cómo funciona y solo tengo una vía de comunicación… Lo que no voy a esperar que se comporte como un humano, ni que se parezca a mí. Pero quiero saber si es inteligente o no, y hasta qué punto. Entonces ¿qué harías? Pues usar un test adaptativo, que primero intenta establecer contacto, y luego probar ciertas cosas para conocer más. El articulo al que te referías presenta un test adaptativo con el que tú vas recogiendo información en relación al comportamiento mediante un proceso interactivo en el que dispones de un ‘canal de recompensas’, sin el cual es muy difícil. A no saber cómo puedo darle de comer al extraterrestre, es muy complicado. Porque podría ocurrir que no me esté resolviendo la tarea del test porque no tiene interés en hacerlo. Sin conocer nada del ‘otro’ sistema, no se puede medir su inteligencia.
Comparte esta publicación
Suscríbete a nuestro boletín
Recibe toda la actualidad en cultura y ocio, de la ciudad de Valencia