Investigadores buscan consenso sobre qué constituye la Inteligencia General Artificial

Un equipo de investigadores de DeepMind que se centra en la próxima frontera de la inteligencia artificial, la Inteligencia General Artificial (AGI), se dio cuenta de que primero debían resolver una cuestión clave. ¿Qué es exactamente, preguntaron, el AGI?

A menudo se la considera en general como un tipo de inteligencia artificial que posee la capacidad de comprender, aprender y aplicar conocimientos en una amplia gama de tareas, funcionando como el cerebro humano. Wikipedia amplía el alcance al sugerir que AGI es «un tipo hipotético de agente inteligente [que] podría aprender a realizar cualquier tarea intelectual que los seres humanos o los animales puedan realizar».

Los estatutos de OpenAI describen AGI como un conjunto de «sistemas altamente autónomos que superan a los humanos en la mayoría de los trabajos económicamente valiosos».

El experto en IA y fundador de la Inteligencia Geométrica, Gary Marcus, la definió como «cualquier inteligencia que sea flexible y general, con ingenio y confiabilidad comparables (o más allá) a la inteligencia humana».

Con tantas variaciones en las definiciones, el equipo de DeepMind adoptó una noción simple expresada hace siglos por Voltaire: «Si deseas conversar conmigo, define tus términos».

En un artículo publicado en el servidor de preimpresión arXiv, los investigadores describieron lo que denominaron «un marco para clasificar las capacidades y el comportamiento de los modelos AGI».

Al hacerlo, esperan establecer un lenguaje común para los investigadores a medida que miden el progreso, comparan enfoques y evalúan riesgos.

«Lograr ‘inteligencia’ a nivel humano es un objetivo implícito o explícito para muchos en nuestro campo», dijo Shane Legg, quien introdujo el término AGI hace 20 años.

En una entrevista con MIT Review, Legg explicó: «Veo muchas discusiones en las que la gente parece estar usando el término para significar cosas diferentes, y eso lleva a todo tipo de confusión. Ahora que AGI se está convirtiendo en un tema tan importante que necesitamos afinar lo que queremos decir.»

En el artículo de arXiv, titulado «Niveles de AGI: operacionalización del progreso en el camino hacia AGI», el equipo resumió varios principios requeridos de un modelo AGI. Incluyen un enfoque en las capacidades de un sistema, no en el proceso.

«Lograr AGI no implica que los sistemas ‘piensen’ o ‘entiendan’ [o] posean cualidades tales como conciencia o sensibilidad», enfatizó el equipo.

Un sistema AGI también debe tener la capacidad de aprender nuevas tareas y saber cuándo buscar aclaraciones o ayuda de los humanos para una tarea.

Otro parámetro es centrarse en la implementación potencial, y no necesariamente real, de un programa. «Requerir el despliegue como condición para medir el AGI introduce obstáculos no técnicos, como consideraciones legales y sociales, así como posibles preocupaciones éticas y de seguridad», explicaron los investigadores.

Luego, el equipo compiló una lista de umbrales de inteligencia que van desde «Nivel 0, sin AGI» hasta «Nivel 5, sobrehumano». Los niveles 1 a 4 incluían niveles de logro «emergentes», «competentes», «expertos» y «virtuosos».

Tres programas alcanzaron el umbral de la etiqueta AGI. Pero esos tres modelos de texto generativo (ChatGPT, Bard y Llama 2) alcanzaron sólo el «Nivel 1, Emergente». Ningún otro programa de IA actual cumplió con los criterios de AGI.

Otros programas enumerados como IA incluyeron SHRDLU, una de las primeras computadoras de comprensión del lenguaje natural desarrollada en el MIT, que figura en el «Nivel 1, IA emergente».

En el «Nivel 2, Competente» están Siri, Alexa y el Asistente de Google. El corrector gramatical Grammarly se ubica en el «Nivel 3, IA experta».

Más arriba en esta lista, en el «Nivel 4, Virtuoso», están Deep Blue y AlphaGo. Encabezando la lista, «Nivel 5, Sobrehumano», se encuentra AlphaFold de DeepMind, que predice la estructura 3D de una proteína a partir de su secuencia de aminoácidos; y StockFish, un potente programa de ajedrez de código abierto.

Sin embargo, no existe una definición única propuesta para el AGI y hay cambios constantes.

«A medida que adquirimos más conocimientos sobre estos procesos subyacentes, puede ser importante revisar nuestra definición de AGI», dice Meredith Ringel Morris, científica principal de Google DeepMind para la interacción entre humanos y IA.

«Es imposible enumerar el conjunto completo de tareas que se pueden realizar con una inteligencia suficientemente general», dijeron los investigadores. «Como tal, un punto de referencia AGI debería ser un punto de referencia vivo. Por lo tanto, dicho punto de referencia debería incluir un marco para generar y acordar nuevas tareas».

Mira también
Cerrar
Botón volver arriba