Desde el inicio, para abordar el análisis de los riesgos y desafíos de las IA generativas, entendimos que debíamos tomar una serie de decisiones que, una vez asumidas, fueron parte relevante de la delimitación epistemológica y metodológica de esta investigación. Identificamos así cinco rasgos o aspectos de las IA.
En un intento por contribuir a la conversación pública acera de las IA, hemos propuesto provisionalmente que existen tres escalas de IA. La escala micro corresponde a la IA que ya usamos hace tiempo: la que está detrás de la posibilidad de navegación automática en los aviones, en los programas de geolocalización como Waze o Maps, en la optimización de los láseres como los que se usan para medir un edificio, en las aplicaciones para aprender idiomas como Duolingo, y que no suele ser estar en cuestión, porque fundamentalmente automatiza y optimiza funciones específicas.
En segundo lugar está la escala meso, en la que ya comienzan a sentirse los impactos políticos, económicos, sociales e incluso epistemológicos de las IA. Son sistemas de inteligencia artificial que se utilizan para la logística de muchos de los puertos del mundo, para regular el consumo de energía eléctrica en un país, para hacer transacciones en la bolsa financiera, para redactar dictámenes judiciales –como el software Prometea, que desde 2017 se usa en la fiscalía de la ciudad de Buenos Aires–, para automatizar la atención al público, para medir el riesgo crediticio, para recomendar consumos, para perfilizar a los pacientes de servicios de salud, para desarrollar predicciones sobre los comportamientos de la población. Como puede verse en estos ejemplos, las IA no son una tecnología, sino metatecnologías, capaces de acelerar muy diferentes procesos allí donde haya disponibilidad de datos, y también capaces de producir nuevos conocimientos. Capaces de multiplicar la productividad en muy diversas industrias, generando mucha riqueza, y capaces de transformar actividades enteras, creando al menos por un tiempo transiciones traumáticas si no se las contiene con eficacia.
Es esta escala meso la que, desde 2019 y en particular desde finales de 2022, está ocupando a buena parte de los países del mundo, que están haciendo esfuerzos por dictar marcos regulatorios y desarrollar normas de gestión del riesgo para ordenar la llegada de metatecnologías que prometen ser al menos tan disruptivas para la vida cotidiana como fueron la tecnologías digitales y la popularización de Internet, pero en menos tiempo.
En los Estados Unidos, el primero de enero de 2021 comenzó a funcionar la Iniciativa Nacional para la Inteligencia Artificial que coordina las acciones en torno a la IA de todas las agencias de gobierno, desde la NASA y DARPA hasta la National Science Foundation, pasando por departamentos de Defensa, Educación, Agricultura y Salud, entre otros. ¿Su primer objetivo? “Garantizar el liderazgo continuo de EE.UU, en la investigación y el desarrollo de IA”.
En Europa, en tanto, en junio de 2023 se votaron las últimas enmiendas a la Ley de Inteligencia Artificial, que tiene como eje central una pirámide del riesgo. Allí establecen que hay una serie de usos de IA que están definitivamente prohibidos: la calificación social, la vigilancia masiva, la manipulación maliciosa del comportamiento. A muchos otros usos se los califica “de alto riesgo”, por lo que crean toda una serie de instituciones o mediaciones para “frenar” la escalada de aceleración que las IA traen a la vida en común. También crean un sistema de monitoreo dentro de cada país y en la escala de la Unión, para auditar los sistemas de IA que se refieran a áreas críticas para la población: salud, educación, políticas públicas. Y dan a desarrolladores, comercializadores e intermediarios un plazo de 72 horas para notificar a las autoridades nacionales y europeas de los “incidentes de IA”: la investigación de accidentes aparece así, siguiendo a otras industrias de riesgo como la nuclear o la aeronáutica, como un campo de desarollo e investigación estratégico.
¿Por qué tanta preocupación? La Unesco advierte, en efecto, que entre los desafíos más significativos que plantean los sistemas de IA está el impacto que pueden tener en la toma de decisiones, en el empleo y el trabajo, en la interacción social, en la atención de la salud, en la educación. Advierte que puede afectar severamente la libertad de expresión, el acceso a la información, la privacidad y la calidad democrática.
Finalmente está la escala macro: es la escala de los grandes gigantes tecnológicos como Open IA, Amazon, Google, Baidu, Meta, que son empresas privadas y que, además, se inscriben en una economía de plataformas. Es en esa escala, muy superior en capacidad de cómputo y en acceso a datos que casi cualquier país, incluida la propia China –para darse una idea, Facebook tiene 3 mil millones de usuarios activos al mes, de diferentes lenguas y culturas–, que se discute si es posible que las IA puedan acelerar su propio crecimiento hasta niveles que estén más allá de nuestro control. Si es posible que planteen un “riesgo existencial” para la humanidad.
No es una frase conspirativa, ni de amantes apocalípticos de la ciencia ficción: es una controversia que se está dando en el más alto nivel del desarrollo de IA. Entre sus protagonistas están Geoffry Hinton, Yoshua Bengio y Yann LeCun, los tres expertos que obtuvieron en 2018 el Premio AM Turing, considerado el “Premio Nobel en Informática”. Los dos primeros se inclinan a pensar que las IA podrían ser una amenaza que no está aún del todo controlada. En mayo de 2023 Hinton brindó una conferencia en Cambridge sobre el tema donde señaló: «la computación digital a gran escala probablemente sea mucho mejor para adquirir conocimientos que la computación biológica y pronto será mucho más inteligente que nosotros”. En agosto del mismo año, Bengio escribió en su sitio web: «Mis preocupaciones aumentaron gradualmente durante el invierno y la primavera de 2023, y poco a poco cambié de opinión sobre las posibles consecuencias de mi investigación. Empecé a leer más sobre la seguridad de la IA y llegué a una conclusión de vital importancia: ¡todavía no sabemos cómo hacer que un agente de IA sea controlable y así garantizar la seguridad de la humanidad!». Por su parte, LeCun piensa diferente de sus colegas y sostiene que «la IA será cada vez más fiable y segura. Las preocupaciones sobre la IA son exageradas”.
Mientras la controversia científica sigue, y los centros de estudios sobre riesgos y seguridad de las IA se multiplican, nuestra región debe darse los debates y las instituciones necesarias en el nivel meso y desarrollar equipos de investigación interdisciplinaria para desarrollar, expandir y gobernar sistemas de IA seguros y confiables.
REFERENCIAS:
Hinton, Geoffrey (2023). Two Paths to Intelligence, 25 May 2023, Public Lecture, University of Cambridge. En Iternet: https://www.youtube.com/watch?v=rGgGOccMEiY
Bengio, Yoshua (2023). Personal and Psychological Dimensions of AI Researchers Confronting AI Catastrophic Risks, 12 August 2023. En Internet: https://yoshuabengio.org/2023/08/12/personal-and-psychological-dimensions-of-ai-researchers-confronting-ai-catastrophic-risks/
‘Nielsen, Michael (2023). Notes on Existential Risk from Artificial Superintelligence. En Internet: