
Emerge de las entrañas del desarrollo de software de Open AI la misteriosa tecnología Q*.
La mayor exuberancia mediática global de estas últimas semanas ha sido la generada por las disputas entre dos facciones enfrentadas dentro de la empresa Open AI, la famosa creadora del Chat GPT. A un lado de la contienda, están empleados identificados como accels, partidarios, como dice el profesor E. Dans, de acelerar todo lo posible el desarrollo completo del puzle de componentes tecnológicos que soporta la inteligencia artificial. Son creyentes, –ya saben–, del mantra de Mark Zuckerberg en sus inicios de Facebook: “Muévete rápido, rompe cosas”; y del proverbio actualizado por Silicon Valley: “es mejor pedir perdón luego, que pedir permiso antes”. Para ellos es mejor actuar radicalmente y con decisión, y disculparse por ello más tarde, que pedir aprobación para actuar y arriesgarse a retrasos, objeciones, etc. Piensan que hay que tratar de ser radicalmente competitivos en los productos y servicios basados en la IA de Open AI, ‑y aunque no lo dicen‑, sin pensar antes en las contraindicaciones y consecuencias problemáticas, porque para ellos, eso ya se verá después.
A esta facción de empleados accels de Open AI se enfrenta a la de los decels: investigadores más prudentes que creen en la ‘deceleración’, y son partidarios de modular, e incluso relentizar, los desarrollos de la IA para poder estudiar en profundidad, previamente, cuáles pueden ser sus impactos a gran escala sobre personas, vidas, trabajos y posibles daños inducidos en la sociedad en la que impactará una tecnología tan disruptiva como se presume que pronto puede ser la IA. Los decels creen que la prudencia es imprescindible al desplegar los nuevos desarrollos, que creen debe hacerse en el marco de una buena regulación, posibilitando que se desarrollen en forma de aplicaciones tecnológicas responsables.
Pero aquí no estamos al margen de esta previsible transformación de la IA. José Hernández-Orallo es investigador en IA en Cambridge y la UPV, y como informó Financial Times, es miembro del ‘equipo rojo’ independiente que Open AI eligió en abril de 2023 para evaluar posibles riesgos del GPT‑4; e investiga también, tanto en el Leverhulme Centre for the Future como en el Centre for the Study of Existential Risk, ambos en la Univ. de Cambridge. Él asegura que “La inteligencia artificial podría ser la tecnología más transformadora de este siglo” y algo que, además, nos interesa mucho aquí más cerca. Señala Hernández-Orallo: “La inteligencia artificial es una de las pocas oportunidades tecnológica que hoy tiene España; pero eso pasa por invertir realmente y con determinación para que la inteligencia artificial en España se mueva al nivel que debería mover, que es el de revertir sus desarrollos a la sociedad, creando valor productivo de verdad. Es una gran oportunidad”. Y, según Hernández-Orallo, deberíamos aprovecharla con medida. Afortunadamente, en Europa, hay más prudencia sobre la IA que en Silicon Valley, y más deccels, –expresión que, para mí, no es un término peyorativo en absoluto–.
Volviendo a los conflictos aireados estos días, no hay que olvidar que Open AI tiene una estructura empresarial muy sui generis con una entidad ‘sin ánimo de lucro’ –que se supone a favor de la IA abierta y transparente–; de la que, hasta hace pocos días al menos, dependía una empresa (muy opaca) con ‘total’ ánimo de lucro, empujada por los accels de la empresa, creyentes radicales del principio activo de Milton Friedman, entre los que se encuentra Altman.
Empujar hacia atrás el velo de ignorancia y, hacia delante, la frontera del descubrimiento
Es por todos conocido el enorme éxito global del lanzamiento con acceso al público ha hecho famoso al ‘loro estocástico’ Chat GPT (expresión que no es una denominación humorística sino científica). La del Chat GPT, en muy pocos días batió cualquier marca anterior de adopción masiva de una tecnología digital. Alcanzó el millón de usuarios en solo cinco días superando las marcas de Instagram (2,5 meses); Spotify (4 meses) o Facebook (10 meses). Y, en agosto de 2023, alcanzó los 100 millones de usuarios mensuales. Además, el valor bursátil de Open AI ahora mismo es de 90.000 millones de $. Así que Open AI y Chat GPT son un buen termómetro del poderoso impacto de la llamada IA Generativa.
Pasado lo más álgido de la rocambolesca novela negra instantánea de Sam Altman; con súbita expulsión como CEO de su empresa, amenazas y dimisiones, y el retorno de nuevo a su puesto con un nuevo ‘consejo inicial’; y, ya apagado un poco el asombro, empiezan a conocerse informaciones sobre la, tal vez, verdadera causa de estos enfrentamientos en el seno de Open AI en plena explosión de éxito. Una información de la Agencia Reuters del día 22, que explicaba que poco antes de los cuatro días de exilio del CEO de OpenAI, Sam Altman, varios investigadores de la plantilla escribieron una carta a la cúpula de la empresa advirtiendo sobre ciertas posibles consecuencias de un nuevo y potente descubrimiento en inteligencia artificial en la empresa.
Uno de los investigadores mencionó a la agencia que un escogido equipo de científicos de la empresa, –cuya existencia confirman múltiples fuentes–, formado combinando equipos anteriores, estaba ya explorando en profundidad cómo optimizar radicalmente los modelos de IA existentes. Y que tienen fuertes sospechas de que se está consiguiendo dar un salto significativo de la IA Generativa hacia la IAG (la Inteligencia Artificial General o fuerte, que igualará o superará a la inteligencia humana. Es decir, una ‘inteligencia’ de software capaz de realizar con éxito cualquier tarea intelectual propia de un ser humano o más. Pasar desde la IA generativa a una IAG que puede generalizar, hacer abstracción, aprender y comprender, si sucede, sería un salto enorme.
Altman, se declaró convencido la semana pasada en la cumbre de líderes mundiales en San Francisco de que algunos grandes avances en IA estaban muy cerca. El día anterior a su fulminante despido por el Consejo de Open AI, el propio Altman declaró en la cumbre del Foro de Cooperación Económica Asia-Pacífico: “Cuatro veces en la historia de OpenAI, la última hace pocos días, he tenido la oportunidad de estar en la sala en la que empujamos el velo de la ignorancia hacia atrás y la frontera del descubrimiento hacia delante, y poder hacerlo es el honor profesional de mi vida.”.
Q*, la revolución secreta de OpenAI, ¿una herramienta o una criatura?
Pero, la pregunta del millón es ¿cuál es ese salto que tal vez sea la razón de todo el estropicio de estos días atrás? Dos miembros de Open AI, han mencionado a Reuters un mensaje interno que habla de un proyecto semi-secreto llamado Q*. La agencia señala que algunos miembros de Open AI creen que lo conseguido en Q* (pronunciar Q‑Star) podría suponer un gran avance en hacia lo que se conoce como inteligencia general artificial (AGI)”. Open AI define esta AGI como “sistemas autónomos que superan a los humanos en la mayoría de tareas con valor económico”.
Hay más pistas sobre el misterioso Proyecto Q*. El Investigador canadiense M. Keylan declaraba hace pocos días que la tecnología Q*, para él, es una variante del “Q‑Learning, en forma de inteligencia conversacional “de enjambre” combinada con agentes de IA. Estos nuevos Agentes de Inteligencia Artificial son entidades autónomas que actúan de forma independiente en sus entornos asignados. Su capacidad de decisión se basa en objetivos o principios predefinidos. Tradicionalmente estos agentes, como las versiones avanzadas de ChatGPT, son expertos en ejecución de tareas, pero mostrando limitaciones en áreas como la auto-replicación y la toma de decisiones avanzadas. Últimamente, al “enjambrar” modelos lingüísticos, se observa la emergencia de inteligencia colectiva. Con este método, los diferentes grupos de agentes autónomos de IA ajustan sus resultados basándose en interacciones localizadas, lo que les conduce a resultados mucho mejores.
Introducir de Q‑learning, (en la jerga técnica Q* y A*), en esta mezcla de agentes e inteligencia artificial cambia radicalmente las reglas del juego. Dota a los agentes de IA no sólo de la capacidad de tomar decisiones propias, sino también de crear nuevos agentes de forma autónoma. Esto significa que el algoritmo no se limita a procesar datos y seguir reglas predefinidas, sino que busca activamente, por sí mismo, formas de alcanzar objetivos específicos, potencialmente en una variedad de contextos. Ello implica comprender el entorno, identificar objetivos y determinar el mejor curso de acción para alcanzarlos. Esta capacidad de autorreplicación (proceso por el cual una cosa puede hacer una copia de sí misma), y aprendizaje continuo, parece acercarse bastante a la Inteligencia Artificial General (AGI).”
Con la filtración sobre el Proyecto Q*, hemos sabido que ya poseen un potente y nuevo modelo en OpenAI, lo cual es una promesa significativa en la resolución autónoma de problemas y la toma de decisiones. Estos nuevos agentes de IA pueden encontrar problemas de forma autónoma, crear nuevos modelos, desarrollarse, entrenarse y utilizarse mutuamente, de forma totalmente autónoma, porque estarán aprendiendo sin parar durante este proceso. Esto aumenta la eficacia y autonomía de los sistemas hasta el punto de que la inteligencia artificial ya puede construir, evolucionar y tomar decisiones complejas de forma independiente. La críptica reflexión de Sam Altman en el reciente panel de Robot Heart Burners “¿Es una herramienta o una criatura lo que hemos construido?” resuena profundamente en este contexto.”
La Gobernanza de IA de Open AI y su Emulador
Por su parte, el científico de la Universidad Estatal de Arizona Andrew Maynard describe un muy reciente experimento conversacional de un ChatGPT avanzado con el ‘Emulador de Gobernanza de Open AI’, en el que un interrogador anónimo muy cualificado, le hace preguntas en el contexto de un hipotético escenario tecnológico similar al del proyecto Q*. La ‘conversación’ incluye preguntas sobre la gobernanza de una empresa centrada “en la IA para el bien”. O sea, supuestamente se realiza en un contexto de empresa orientada a adaptar sus desarrollos a una posible regulación de la IA para su uso justo (fair use) personal y social.
La larga conversación entre el anónimo interrogador y la citada versión de Chat GPT especializado, ocupa 16 páginas. En ella se tratan múltiples cuestiones de gran nivel. Sobre el estado del arte de la IA, este Chat GPT afirma en el diálogo, que la combinación del aprendizaje Q* con arquitecturas avanzadas de grandes modelos lingüísticos (LLM) y otras capacidades de IA, conducen a que un modelo para el que obtener capacidades parecidas a las de una inteligencia general artificial (AGI), es teóricamente plausible, pero conlleva importantes complejidades e incertidumbres.
El Chat conversacional añade literalmente “Desde mi última actualización en abril de 2023, las tecnologías de IA, incluidos los LLM (grandes transformers o modelos lingüísticos) y las técnicas de aprendizaje por refuerzo como Q‑learning, han mostrado avances notables, pero siguen operando dentro de los límites de sus parámetros de formación y diseño y aún carecen de las capacidades de comprensión y razonamiento amplias, adaptables e integradas que son las que definen la AGI.”
También señala que la AGI implica un nivel de comprensión, capacidad de aprendizaje y generalización que actualmente está fuera del alcance de las IA existentes ya que la AGI exigiría que una IA comprenda y realice cualquier tarea intelectual propia de un ser humano, algo aún no alcanzado por los modelos de IA actuales. Ello implica no sólo procesar y generar lenguaje u optimizar decisiones basadas en recompensas, sino también comprender conceptos abstractos, transferir conocimientos entre dominios muy diferentes, pensamiento creativo y mucho más. En cuanto a la planificación a largo plazo, el Chat incluye en su propuesta colaboraciones con las comunidades mundiales de investigación sobre IA; con responsables políticos y con los organismos internacionales para debatir las implicaciones de la AGI, Así como defender y contribuir al desarrollo de normas y políticas mundiales vinculantes para la investigación y el despliegue de la AGI en el mundo.
En la conversación también aparece el cumplimiento normativo y jurídico. Y se advierte que abordar estas perspectivas ha de hacerse con cautela y teniendo en cuenta que La IAG y los organismos biológicos funcionan según principios diferentes ya que la IAG no tiene necesidades ni instintos biológicos, y su “evolución” se rige por algoritmos y objetivos definidos por el ser humano, y no por procesos evolutivos orgánicos. Concluye que la inteligencia artificial no tiene conciencia ni instinto de supervivencia como los organismos vivos y que el enfoque principal debe permanecer en las realidades tecnológicas actuales teniendo presentes las consideraciones éticas.”
Una cuestión esencial es sí a una tecnología como Q* que se supone que es el siguiente estadio de la tecnología subyacente al Chat GPT ya se le puede preguntar cómo hay que usarla. Porque aún es una tecnología que sigue sin comprender el significado de ninguno de los términos que ‘escupe’, –se dice así en inglés porque Chat GPT no escribe ni redacta, sino que solo recombina datos de la información creada por humanos con que lo han entrenado–. Ni tampoco distingue entre verdadero y falso, ni entre lo que es real y lo que es irreal, como ya señalé en 2019. Lo de preguntarle a la propia tecnología, –cuidado con antropomorfizarla y caer en el Efecto Elliza–, resulta hasta surrealista, porque como ya es sabido, puede decirnos simplemente lo que nos parece espectacularmente convincente, o lo que espera nuestro sesgo de confirmación.
Creo que, en lugar de eso, deberíamos reflexionar sobre los pros y los contras, –cosa que ni Chat GPT ni Q* aun no pueden hacer–, y en base a nuestra capacidad de tomar decisiones, decidir por nosotros mismos como seres humanos racionales que uso es el mejor para el bien común de toda la sociedad y de nosotros mismos como individuos. No debería ser tan difícil. Se supone que nosotros sí tenemos esa capacidad.
Comparte esta publicación
Suscríbete a nuestro boletín
Recibe toda la actualidad en cultura y ocio, de la ciudad de Valencia