Glosario IA

IA estrecha general y super IA

IA ESTRECHA, IA GENERAL, SUPER IA

En su libro La Singularidad está cerca (2005), el empresario, inventor y escritor Raymond Kurzweil especula acerca de la existencia de tres niveles evolutivos de IA. En un primer nivel existe la IA estrecha [narrow AI, lo que tradicionalmente se denomina inteligencia artificial débil, y que en esta investigación asociamos a las escalas micro y meso de desarrollos e implementaciones], que se especializa en tareas limitadas según el modelo de los sistemas expertos: juegos, transacciones financieras, geolocalización, etcétera. Luego esta podría evolucionar a una IA general [general AI], que aspira a un desarrollo de muchas habilidades “inteligentes” en forma coordinada: sería ya un paso hacia lo que tradicionalmente se llamó inteligencia artificial fuerte. En nuestra investigación esto se sitúa ya en la escala macro. Finalmente, en un proceso recursivo de auto-mejoramiento, se llegaría a alcanzar una Super IA [Super AI o Singularity], que es una inteligencia que ya no tiene como referencia a la inteligencia humana sino que la supera tanto en velocidad de procesamiento como en cantidad de datos procesados. Se trataría de una inteligencia de la cual no conocemos sus rasgos fundamentales porque supera la escala antropométrica: estaría ubicada en una escala más allá de la escala macro que conocemos hoy.

Para el filósofo sueco con sede en la Universidad de Oxford Nick Böstrom, uno de los fundadores de la Asociación Transhumanista Mundial,​ la Superinteligencia es «cualquier intelecto que supera con creces el rendimiento cognitivo de los humanos en prácticamente todos los ámbitos de interés» (2014, 22). Pese a que las proyecciones de ambos difieren, Kurzweil y Bostrom comparten la idea de que es posible imaginar una creciente aceleración en el desarrollo de la IA. Señala Böstrom que “una IA seminal exitosa sería capaz de mejorarse repetidamente a sí misma: una versión temprana de la IA podría diseñar una versión mejorada de sí misma, y la versión mejorada —siendo más inteligente que la original— podría ser capaz de diseñar una versión aún más inteligente de sí misma, y así sucesivamente. Bajo estas circunstancias, tal proceso de auto-mejoramiento recursivo podría continuar lo suficiente como para resultar en una explosión de inteligencia —un evento en el que, en un breve período de tiempo, el nivel de inteligencia de un sistema aumentaría desde una dote modesta de capacidades cognitivas (quizás subhumanas en la mayoría de sentidos, pero con un talento específico en codificación y búsqueda de IA) hasta la superinteligencia radical” (2014, 32).

De acuerdo con este autor, la llegada de la superinteligencia en el marco únicamente competitivo podría ser peligrosa. “Ante la perspectiva de una explosión de inteligencia, los humanos somos como niños pequeños jugando con una bomba –señala–. Tal es el desajuste entre el poder de nuestro juguete y la inmadurez de nuestra conducta. La superinteligencia es un reto para el que no estamos listos ahora y para el que no estaremos preparados en un largo tiempo (2014, 260).

REFERENCIAS

Böstrom, Nick (2014). Superinteligencia. Caminos, peligros, estrategias. Madrid, Teell.

Coeckelbergh, Mark (2022). The Political Philosophy of IA. An introduction. Cambridge, Polity Press.

Kurzweil, Ray ([2005] 2012). La Singularidad está cerca. Cuando los humanos transcendamos la biología. Berlín, Lola Books.