En la perspectiva de un potencial desarrollo de una inteligencia artificial superinteligente se ha especulado con la posibilidad de que ese despliegue suponga un “riesgo existencial” para la humanidad; esto es, que pueda resultar en la extinción humana o en alguna otra catástrofe global irreversible. No se trata de una hipótesis de ciencia ficción, sino de una controversia científica que se está produciendo entre algunos de los principales investigadores de ciencias de la computación del mundo, a partir de los diferentes escenarios sobre el futuro de la informática que se plantean en sus investigaciones.
Científicos como Geoffrey Hinton, Yoshua Bengio o Sam Altman han expresado su preocupación por la superinteligencia. En 2022, una encuesta de investigadores de IA encontró que algunos investigadores creen que existe un 10 por ciento o más de posibilidades de que nuestra incapacidad para controlar la IA cause una catástrofe existencial (más de la mitad de los encuestados de la encuesta, con una tasa de respuesta del 17 % (Katja et al, 2022)).
Dos temas de preocupación son los desafíos del control y la alineación de la IA: controlar una máquina superinteligente o inculcarle valores compatibles con los humanos puede ser un problema más difícil de lo que se suele suponer. Otro autor que ha ponderado el riesgo existencial es el filósofo sueco Nick Böstrom: “la primera superinteligencia podría dar forma al futuro de la vida de origen terrestre, podría fácilmente tener objetivos finales no antropomórficos, y, probablemente, tendría razones instrumentales para perseguir la adquisición indefinida de recursos”, sostiene en su libro Superinteligencia. “Si reconocemos que los seres humanos constituyen recursos útiles (como átomos convenientemente ubicados) y que dependemos para nuestra supervivencia y nuestra realización de muchos más recursos locales, podemos ver que el resultado podría ser fácilmente uno en el que la humanidad fuera rápidamente extinguida” (2014, 171). De esta manera, para Böstrom, la lógica de la competencia podría tener como resultado final la no competencia: una vez que la lucha por la competitividad escala por fuera de nuestro control, la ventaja competitiva de esa primera superinteligencia podría ser el lograr que no haya ningún adversario.
Por el contrario, investigadores escépticos como el científico informático Yann LeCun argumentan que se está sobredimensionando el problema. En una conferencia de prensa brindada en el Reino Unido en junio de 2023, LeCun –quien en ese momento se desempeñaba como jefe científico de IA en la empresa Meta– señaló que la suposición de que “los científicos conseguirán algún día activar un sistema superinteligente que se apoderará del mundo en cuestión de minutos es absurdamente ridícula» (Vallance, 2023). En respuesta a una pregunta de la BBC, LeCun dijo que habría avances progresivos: la IA “se ejecutará en un centro de datos en algún lugar con un interruptor de apagado. Y si te das cuenta de que no es seguro, simplemente no lo construyes”.
REFERENCIAS
Kurzweil, Ray ([2005] 2012). La Singularidad está cerca. Cuando los humanos transcendamos la biología. Berlín, Lola Books.
Böstrom, Nick (2014). Superinteligencia. Caminos, peligros, estrategias. Madrid, Teell.
Coeckelbergh, Mark (2022). The Political Philosophy of IA. An introduction. Cambridge, Polity Press.
Katja Grace, Zach Stein-Perlman, Benjamin Weinstein-Raun y John Salvatier, “2022 Expert Survey on Progress in AI.” AI Impacts, 3 de agosto de 2022. En Internet: https://aiimpacts.org/2022-expert-survey-on-progress-in-ai/.
Vallance, Cris (2023). “Meta scientist Yann LeCun says AI won’t destroy jobs forever”, BBC News, 15/06/2023. En Internet: www.businessinsider.com/yann-lecun-artificial-intelligence-generative-ai-threaten-humanity-existential-risk-2023-6