Desafíos e impactos de la inteligencia artificial.
Marcos normativos, riesgos y retos para la calidad democrática en la Argentina

INTRODUCCIÓN

Como campo de investigación, la Inteligencia Artificial (IA) tiene más de 70 años. Pero ha sido especialmente desde la última década que los avances en este ámbito han generado tecnologías o integrado grandes conjuntos tecnológicos que se comparan o superan a los humanos en tareas que requieren gran capacidad de cómputo, creatividad, razonamiento complejo, e involucran incluso la toma de decisiones.

El creciente catálogo de aplicaciones y métodos de la IA, en particular la IA generativa, tiene el potencial de afectar profundamente las políticas públicas, así como a distintos sectores del trabajo y de la producción de conocimiento.

Hay diferentes proyecciones acerca del impacto económico positivo que puede tener para la Argentina y para la región la incorporación de IA en diferentes procesos productivos. Un estudio del Banco Interamericano de Desarrollo (BID) del año 2020 proyectaba que esta adopción podría representar para América Latina la oportunidad de elevar un 14% el Producto Bruto Interno. [1] Y un informe del Centro de Implementación de Políticas Públicas para la Equidad y el Crecimiento (CIPPEC) de 2018 señalaba que la adopción de IA podría duplicar la tasa de crecimiento inercial de la economía argentina. [2]

Asimismo, distintas fuentes señalan los desafíos y los efectos disruptivos que es necesario reconocer para mitigar en ese proceso de adopción. En marzo de 2023, un conjunto de expertos de nuestra región reunidos en Montevideo destacaron “el potencial productivo de los sistemas de inteligencia artificial, así como los riesgos que conlleva su crecimiento irreflexivo”. [3] Y señalaron la necesidad de “desarrollar criterios y estándares que permitan calificar estas tecnologías según sus riesgos de manera clara y transparente, para avanzar en políticas públicas que protejan el bien común sin obturar los beneficios del desarrollo tecnológico.”[4] Esto es así por el enorme poder de aceleración de procesos productivos y de toma de decisiones; porque la introducción de IA impacta en el mundo del trabajo y de la educación obligando a reescribir las reglas de industrias enteras; por su capacidad de crear instantáneamente contenidos y noticias que pueden ser falsas o erróneas; y debido a su capacidad de generar instancias en las que las regulaciones existentes ya no son adecuadas para enfrentar los problemas que aquejan a la sociedad, lo cual produce las llamadas brechas regulatorias.

En efecto, las características de las tecnologías de IA o que incluyen IA, como la opacidad (el efecto de caja negra), cierto grado de imprevisibilidad, la complejidad interactiva, su estructura de al menos ocho capas (Vercelli, 2023) y un comportamiento parcialmente autónomo pueden hacer difícil comprobar el cumplimiento de la normativa vigente –que protege derechos fundamentales y heterogéneos como la privacidad, los derechos de autor o los derechos laborales– o incluso impedir su cumplimiento.

A partir del desarrollo y la expansión de los modelos de lenguaje grandes (LLM, por sus siglas en inglés), como Chat GPT, LaMDA o PalM, se espera que en los próximos años las inteligencias artificiales generativas tengan un impacto profundo en diversos aspectos de la sociedad, la economía, la política y la cultura, tanto a nivel global como regional y nacional.

 

CONTEXTO INMEDIATO

En diciembre de 2022, el investigador en IA y profesor emérito de la Universidad de Nueva York Gary Marcus comentó: «Aún no está claro cuáles van a ser las aplicaciones de tecnologías como ChatGPT. La más inmediata es escribir trabajos escolares. Pero mi mayor preocupación es la desinformación, creo que va a acelerar de forma dramática la velocidad a la que se va a producir desinformación. Se va a usar para propaganda, para hacer páginas web fake y engañar a la gente. [5]

Poco después, en marzo de 2023, una carta abierta publicada por la organización no gubernamental Future of Life y firmada por investigadores, pensadores y empresarios de tecnología de la información como Steve Wozniak (co-fundador de Apple), Yuval Harari, Elon Musk y el inversor en IA Ian Hogart, autor desde

2018 del Informe sobre el estado de la IA, llamó a “poner en pausa” por “al menos 6 meses” el entrenamiento de aquellos sistemas de Inteligencia Artificial de potencia superior a la del sistema GPT-4. [6] La carta comienza advirtiendo:  

Los sistemas de IA con inteligencia humana competitiva
pueden plantear riesgos profundos para la sociedad y la humanidad, como lo demuestra
una extensa investigación y lo reconocen los principales laboratorios de IA.
Como se establece en los Principios de IA de Asilomar, ampliamente respaldados,
la IA avanzada podría representar un cambio profundo en la historia de la vida
en la Tierra y debe planificarse y gestionarse con el cuidado y los recursos
correspondientes. Desafortunadamente, este nivel de planificación y gestión no
está sucediendo, a pesar de que en los últimos meses los laboratorios de IA se
han visto atrapados en una carrera fuera de control para desarrollar e
implementar mentes digitales cada vez más poderosas que nadie –ni siquiera sus
creadores– puede entender, predecir o controlar de manera confiable.

Los sistemas de IA contemporáneos se están volviendo
competitivos desde el punto de vista humano en tareas generales y debemos
preguntarnos: ¿Deberíamos dejar que las máquinas inunden nuestros canales de
información con propaganda y falsedad? ¿Deberíamos automatizar todos los
trabajos, incluidos los satisfactorios? ¿Deberíamos  desarrollar mentes no humanas que
eventualmente puedan superarnos en número, ser más astutas, quedar obsoletas y
reemplazarnos? ¿Deberíamos arriesgarnos a perder el control de nuestra
civilización? Estas decisiones no deben delegarse en líderes tecnológicos no
electos. Sólo se deberían desarrollar potentes sistemas de IA una vez que
estemos seguros de que sus efectos serán positivos y sus riesgos manejables.

 

Poco después, en la semana del 2 de junio de 2023, se publicaron en el Boletín Oficial de la Nación las “Recomendaciones para una inteligencia artificial fiable” en las que se señala que “la irrupción de la

Inteligencia Artificial (IA) (…) empuja a los Estados a definir estrategias para encauzar el potencial transformador de esta tecnología en la resolución de problemas concretos y a favor del bien común”.[7]

El documento, emitido por la entonces Subsecretaría de Tecnologías de la Información, dependiente de la Secretaría de Innovación Pública, establece asimismo una serie de valores de alineamiento, a saber: Proporcionalidad e inocuidad, seguridad y protección; equidad, sostenibilidad, derecho a la intimidad y protección de datos, supervisión y decisión humanas, transparencia y explicabilidad, responsabilidad y rendición de cuentas, sensibilización y educación; y gobernanza y colaboración adaptativa y de múltiples partes interesadas. [8]

Esta misma dependencia –-entre cuyas competencias estaba la de “Entender en la ciberseguridad y protección de infraestructuras críticas de información y comunicaciones asociadas del Sector Público Nacional y de los servicios de información y comunicaciones definidos en el artículo 1° de la Ley N° 27.078” – emitió en julio del mismo año una Guía de Notificación y Gestión de Incidentes de Ciberseguridad, que si bien no remite principalmente a la IA, contempla algunas de las potenciales intervenciones de sistemas de IA.

Poco antes, el 12 de junio de 2023, se había publicado en las páginas del portal oficial del Estado argentino[9] que el Banco Interamericano de Desarrollo (BID) había aprobado un préstamo a cinco años por un valor de 35 millones de dólares destinado al Programa de Apoyo a las Exportaciones de la Economía del Conocimiento con el fin de apoyar el desarrollo del sector y su inserción internacional. Fueron designados como organismos ejecutores el Ministerio de Economía y el Ministerio de Ciencia, Tecnología e Innovación a través de la Agencia Nacional de Promoción de la Investigación, el Desarrollo Tecnológico y la Innovación (Agencia I+D+i).

Por su parte, en la Reforma Constitucional de la provincia de Jujuy, publicada en el Boletín Oficial provincial el 21 de junio de 2023, existe un artículo dedicado especialmente a la IA (número 76), donde se reconoce en dicha provincia “el derecho de toda persona a utilizar sistemas de inteligencia artificial o no humana, basados en métodos computarizados de algoritmos, datos y modelos que imitan el comportamiento humano y automatizan procesos complejos, así como otros futuros desarrollos que surjan en este campo”. Y se afirma que se sujetarán esos sistemas “a los principios de legalidad, transparencia, responsabilidad, privacidad y protección de datos, seguridad, no discriminación y rendición de cuentas, garantizando el acceso a la justicia en caso de vulneración de derechos y consagrando la acción de solicitud de revisión humana cuando sea necesario”.[10]

También en junio de 2023, la Unión Europea discutió y dio por terminado el proceso de enmiendas a la Ley de IA que regirá a la Unión por los próximos años. El 14 de ese mes, la plenaria del Parlamento Europeo aprobó un proyecto con enmiendas a la Ley de 2021 para regular el uso de la Inteligencia Artificial en la Unión Europea, dando inicio a una delicada negociación con los 27 países del bloque. La normativa sancionada (con 499 votos a favor, 28 en contra y 93 abstenciones) ratifica la regulación de la Inteligencia Artificial según el nivel de riesgo: cuanto mayor sea para los derechos o la salud de las personas, mayores serán las obligaciones de los sistemas tecnológicos. [11]

En este marco de estas transformaciones vertiginosas, la Argentina –como buena parte de los países de la región– se enfrentaba en 2023 con el desafío de diseñar estrategias de desarrollo, implementación y regulación de sistemas de IA.

 

SOBRE EL PROYECTO INICIAL

El estudio a partir del cual nace esta página ha sido una investigación exploratoria a la vez que intensiva realizada entre julio y noviembre de 2023 a solicitud de la Facultad de Ciencias Sociales de la Universidad de Buenos Aires (UBA), en virtud de un convenio entre dicha universidad y el Programa Argentina Futura de la Jefatura de Gabinete de Ministros, orientada a sistematizar la información existente sobre las iniciativas en materia de políticas y regulaciones de las Inteligencias Artificiales que se estaban desarrollando en la Argentina en ese período, y ponerla en relación con otras iniciativas internacionales de referencia. 

Cuatro de los integrantes del equipo veníamos trabajando juntos sistemáticamentes en diferentes proyectos de investigación sobre el ecosistema digital y lo que denominamos el sistema DAP: Datos, Algoritmos y Pataformas, además de ser profesores en dos diferentes cátedras de la materia Informática y Sociedad. Para la realización de este proyecto convocamos colaborar con nosotros a especialistas en aspectos puntuales del problema (el impacto de las IA en el mundo del trabajo, la institucionalización del Centro Argentino Multidisciplinario de IA, la perspectiva de los representantes de diferentes industrias culturales), y contamos con el aporte de dos investigadores experimentados en la investigación de accidentes y en el estudio y la gestión del  riesgo y la seguridad en sistemas sociotécnicos complejos, que a partir de esta experiencia se incorporaron al equipo principal de Laboratorio.

En la investigación, titulada «Desafíos e impactos de la inteligencia artificial. Marcos normativos, riesgos y retos para la calidad democrática en la Argentina», buscamos delimitar una perspectiva teórico-analítica adecuada para abordar este novedoso objeto de estudio (ver Perspectiva analítica); nos propusimos generar un conocimiento más acabado sobre sus alvcances, riesgos y desafíos, y favorecer las discusiones sobre qué estrategias nacionales, qué políticas y qué regulaciones convienen a la Argentina y a la región. Finalmente, propusimos una serie de recomendaciones para una iniciativa integral orientada al desarrollo, la adopción, la implementación, el monitoreo y la mitigación de riesgos para una IA confiable y segura.

A partir de esa experiencia intensa y fructífera en términos de aprendizaje, de desarrollo teórico, metodológico y analítico, de construcción de equipo; con la certeza de que los retos que esta metatecnología nos presentará están lejos de haber llegado siquiera a manifestarse claramente, resolvimos reunir el material y abrir este espacio de documentación como una manera de contribuir a una conversación pública sobre las IA –y en particular sobre las IA generativas– más y mejor informada, con evidencia a la vista, y con la posibilidad de construir conocimientos inter, multi y transdisciplinarios a la altura del desafío.


[1] Gómez Mont C., Del Pozo C.M., Martínez Pinto C., Martín del Campo Alcocer A.V. (2020): “La Inteligencia Artificial al
servicio del bien social en América Latina y el Caribe: panorámica regional e instantáneas de doce países”, Banco Interamericano de Desarrollo.

[2] Albrieu R., Rapetti M., Brest López C., Larroulet P., Sorrentino A. (2018): “Inteligencia artificial y crecimiento económico. Oportunidades y desafíos para Argentina”, CIPPEC.

[3] “Declaración de Montevideo sobre Inteligencia Artificial y su impacto en América Latina”, Montevideo, 10 de marzo de 2023. En: fundacionsadosky.org.ar/declaracion-de-montevideo-fun/

[4] Ídem. 

[5] «Este veterano de la inteligencia artificial explica por qué ChatGPT es ‘peligrosamente estúpido’». Gary Marcus entrevistado por Manuel Ángel Méndez para El Confidencial, 11 de diciembre de 2022. En Internet: www.elconfidencial.com/tecnologia/2022-12-11/chatgpt-openai-gary-marcus-ia-ai-inteligencia-artificial_3537495 

 

[6] En Internet: https://futureoflife.org/open-letter/pause-giant-ai-experiments/

 

[7]  Recomendaciones para una inteligencia artificial fiable, Subsecretaría de Tecnologías de la Información. Boletín Oficial: www.boletinoficial.gob.ar/detalleAviso/primera/287679/20230602

[8] Hubo una iniciativa nacional anterior, elaborada durante la presidencia de Mauricio Macri entre 2018 y 2019, el Plan Nacional de Inteligencia Artificial (ArgenIA, 2019), que señala la importancia de las IA, afirma la necesidad de formar recursos humanos, la relevancia de utilizar datos de calidad, pone el acento en la infraestructura computacional, y propone la creación de un Laboratorio de Innovación para “acelerar y canalizar el cumplimiento de objetivos propuestos en el Plan Nacional de IA”. Con el cambio de gobierno y la irrupción al año siguiente de la pandemia mundial del COVID-19, el Plan quedó sin efecto. Es posible consultarlo en Internet: https://ia-latam.com/wp-content/uploads/2020/09/Plan-Nacional-de-Inteligencia-Artificial.pdf

[9] En Internet: https://futureoflife.org/open-letter/pause-giant-ai-experiments/ “El BID aprueba destinar 35 millones de dólares al MINCYT en apoyo al desarrollo de la inteligencia artificial”, 12 de junio de 2023.  En internet: www.argentina.gob.ar/noticias/el-bid-aprueba-destinar-35-millones-de-dolares-al-mincyt-en-apoyo-al-desarrollo-de-la

[10] En Internet: https://futureoflife.org/open-letter/pause-giant-ai-experiments/El texto puede consultarse en Internet: http://www.saij.gob.ar/0-local-jujuy-constitucion-provincia-jujuy-lpy0000000-1986-10-22/123456789-0abc-defg-000-0000yvorpyel

[11] En Internet: https://futureoflife.org/open-letter/pause-giant-ai-experiments/Entre tanto, ya en septiembre de 2021 el Reino Unido había dado a conocer su Iniciativa Nacional sobre IA, basada en tres ideas-pilares con respecto al futuro: (1) los impulsores clave del progreso, el descubrimiento y la ventaja estratégica en la IA serán los accesos a personas, datos, computación y finanzas, todos los cuales enfrentan una enorme competencia global; (2) la IA se generalizará en gran parte de la economía y será necesario tomar medidas para garantizar que todos los sectores se beneficien de esta transición; y (3) los regímenes regulatorios y de gobernanza deberán seguir el ritmo de las demandas rápidamente cambiantes de la Inteligencia Artificial (IA), maximizando el crecimiento y la competencia, impulsando la excelencia en innovación y protegiendo la seguridad, las decisiones y los derechos de los ciudadanos.

Resumen
Ejecutivo

Presentación PPT

Recomendaciones

Informe final
completo

Equipo

Flavia Costa

Flavia
Costa

Pablo Manolo Rodriguez

Pablo
Manolo
Rodríguez

Julian Mónaco

Julián
Mónaco

Ximena
Zabala

Alejandro Covello

Alejandro
Covello

Iago
Novidelsky