Desafíos e impactos de la inteligencia artificial.
Marcos normativos, riesgos y retos para la calidad democrática en la Argentina

INTRODUCCIÓN

Como campo de investigación, la Inteligencia Artificial (IA) tiene más de 70 años. Pero ha sido especialmente desde la última década que los avances en este ámbito han generado tecnologías o integrado grandes conjuntos tecnológicos que se comparan o superan a los humanos en tareas que requieren gran capacidad de cómputo, creatividad, razonamiento complejo, e involucran incluso la toma de decisiones.

El creciente catálogo de aplicaciones y métodos de la IA, en particular la IA generativa, tiene el potencial de afectar profundamente las políticas públicas, así como a distintos sectores del trabajo y de la producción de conocimiento.

Hay diferentes proyecciones acerca del impacto económico positivo que puede tener para la Argentina y para la región la incorporación de IA en diferentes procesos productivos. Un estudio del Banco Interamericano de Desarrollo (BID) del año 2020 proyectaba que esta adopción podría representar para América Latina la oportunidad de elevar un 14% el Producto Bruto Interno. [1] Y un informe del Centro de Implementación de Políticas Públicas para la Equidad y el Crecimiento (CIPPEC) de 2018 señalaba que la adopción de IA podría duplicar la tasa de crecimiento inercial de la economía argentina. [2]

Asimismo, distintas fuentes señalan los desafíos y los efectos disruptivos que es necesario reconocer para mitigar en ese proceso de adopción. En marzo de 2023, un conjunto de expertos de nuestra región reunidos en Montevideo destacaron “el potencial productivo de los sistemas de inteligencia artificial, así como los riesgos que conlleva su crecimiento irreflexivo”. [3] Y señalaron la necesidad de “desarrollar criterios y estándares que permitan calificar estas tecnologías según sus riesgos de manera clara y transparente, para avanzar en políticas públicas que protejan el bien común sin obturar los beneficios del desarrollo tecnológico.”[4] Esto es así por el enorme poder de aceleración de procesos productivos y de toma de decisiones; porque la introducción de IA impacta en el mundo del trabajo y de la educación obligando a reescribir las reglas de industrias enteras; por su capacidad de crear instantáneamente contenidos y noticias que pueden ser falsas o erróneas; y debido a su capacidad de generar instancias en las que las regulaciones existentes ya no son adecuadas para enfrentar los problemas que aquejan a la sociedad, lo cual produce las llamadas brechas regulatorias.

En efecto, las características de las tecnologías de IA o que incluyen IA, como la opacidad (el efecto de caja negra), cierto grado de imprevisibilidad, la complejidad interactiva, su estructura de al menos ocho capas (Vercelli, 2023) y un comportamiento parcialmente autónomo pueden hacer difícil comprobar el cumplimiento de la normativa vigente –que protege derechos fundamentales y heterogéneos como la privacidad, los derechos de autor o los derechos laborales– o incluso impedir su cumplimiento.

A partir del desarrollo y la expansión de los modelos de lenguaje grandes (LLM, por sus siglas en inglés), como Chat GPT, LaMDA o PalM, se espera que en los próximos años las inteligencias artificiales generativas tengan un impacto profundo en diversos aspectos de la sociedad, la economía, la política y la cultura, tanto a nivel global como regional y nacional.

 

CONTEXTO INMEDIATO

En diciembre de 2022, el investigador en IA y profesor emérito de la Universidad de Nueva York Gary Marcus comentó: «Aún no está claro cuáles van a ser las aplicaciones de tecnologías como ChatGPT. La más inmediata es escribir trabajos escolares. Pero mi mayor preocupación es la desinformación, creo que va a acelerar de forma dramática la velocidad a la que se va a producir desinformación. Se va a usar para propaganda, para hacer páginas web fake y engañar a la gente. [5]

Poco después, en marzo de 2023, una carta abierta publicada por la organización no gubernamental Future of Life y firmada por investigadores, pensadores y empresarios de tecnología de la información como Steve Wozniak (co-fundador de Apple), Yuval Harari, Elon Musk y el inversor en IA Ian Hogart, autor desde

2018 del Informe sobre el estado de la IA, llamó a “poner en pausa” por “al menos 6 meses” el entrenamiento de aquellos sistemas de Inteligencia Artificial de potencia superior a la del sistema GPT-4. [6] La carta comienza advirtiendo:  

Los sistemas de IA con inteligencia humana competitiva
pueden plantear riesgos profundos para la sociedad y la humanidad, como lo demuestra
una extensa investigación y lo reconocen los principales laboratorios de IA.
Como se establece en los Principios de IA de Asilomar, ampliamente respaldados,
la IA avanzada podría representar un cambio profundo en la historia de la vida
en la Tierra y debe planificarse y gestionarse con el cuidado y los recursos
correspondientes. Desafortunadamente, este nivel de planificación y gestión no
está sucediendo, a pesar de que en los últimos meses los laboratorios de IA se
han visto atrapados en una carrera fuera de control para desarrollar e
implementar mentes digitales cada vez más poderosas que nadie –ni siquiera sus
creadores– puede entender, predecir o controlar de manera confiable.

Los sistemas de IA contemporáneos se están volviendo
competitivos desde el punto de vista humano en tareas generales y debemos
preguntarnos: ¿Deberíamos dejar que las máquinas inunden nuestros canales de
información con propaganda y falsedad? ¿Deberíamos automatizar todos los
trabajos, incluidos los satisfactorios? ¿Deberíamos  desarrollar mentes no humanas que
eventualmente puedan superarnos en número, ser más astutas, quedar obsoletas y
reemplazarnos? ¿Deberíamos arriesgarnos a perder el control de nuestra
civilización? Estas decisiones no deben delegarse en líderes tecnológicos no
electos. Sólo se deberían desarrollar potentes sistemas de IA una vez que
estemos seguros de que sus efectos serán positivos y sus riesgos manejables.

 

Poco después, en la semana del 2 de junio de 2023, se publicaron en el Boletín Oficial de la Nación las “Recomendaciones para una inteligencia artificial fiable” en las que se señala que “la irrupción de la

Inteligencia Artificial (IA) (…) empuja a los Estados a definir estrategias para encauzar el potencial transformador de esta tecnología en la resolución de problemas concretos y a favor del bien común”.[7]

El documento, emitido por la entonces Subsecretaría de Tecnologías de la Información, dependiente de la Secretaría de Innovación Pública, establece asimismo una serie de valores de alineamiento, a saber: Proporcionalidad e inocuidad, seguridad y protección; equidad, sostenibilidad, derecho a la intimidad y protección de datos, supervisión y decisión humanas, transparencia y explicabilidad, responsabilidad y rendición de cuentas, sensibilización y educación; y gobernanza y colaboración adaptativa y de múltiples partes interesadas. [8]

Esta misma dependencia –-entre cuyas competencias estaba la de “Entender en la ciberseguridad y protección de infraestructuras críticas de información y comunicaciones asociadas del Sector Público Nacional y de los servicios de información y comunicaciones definidos en el artículo 1° de la Ley N° 27.078” – emitió en julio del mismo año una Guía de Notificación y Gestión de Incidentes de Ciberseguridad, que si bien no remite principalmente a la IA, contempla algunas de las potenciales intervenciones de sistemas de IA.

Poco antes, el 12 de junio de 2023, se había publicado en las páginas del portal oficial del Estado argentino[9] que el Banco Interamericano de Desarrollo (BID) había aprobado un préstamo a cinco años por un valor de 35 millones de dólares destinado al Programa de Apoyo a las Exportaciones de la Economía del Conocimiento con el fin de apoyar el desarrollo del sector y su inserción internacional. Fueron designados como organismos ejecutores el Ministerio de Economía y el Ministerio de Ciencia, Tecnología e Innovación a través de la Agencia Nacional de Promoción de la Investigación, el Desarrollo Tecnológico y la Innovación (Agencia I+D+i).

Por su parte, en la Reforma Constitucional de la provincia de Jujuy, publicada en el Boletín Oficial provincial el 21 de junio de 2023, existe un artículo dedicado especialmente a la IA (número 76), donde se reconoce en dicha provincia “el derecho de toda persona a utilizar sistemas de inteligencia artificial o no humana, basados en métodos computarizados de algoritmos, datos y modelos que imitan el comportamiento humano y automatizan procesos complejos, así como otros futuros desarrollos que surjan en este campo”. Y se afirma que se sujetarán esos sistemas “a los principios de legalidad, transparencia, responsabilidad, privacidad y protección de datos, seguridad, no discriminación y rendición de cuentas, garantizando el acceso a la justicia en caso de vulneración de derechos y consagrando la acción de solicitud de revisión humana cuando sea necesario”.[10]

También en junio de 2023, la Unión Europea discutió y dio por terminado el proceso de enmiendas a la Ley de IA que regirá a la Unión por los próximos años. El 14 de ese mes, la plenaria del Parlamento Europeo aprobó un proyecto con enmiendas a la Ley de 2021 para regular el uso de la Inteligencia Artificial en la Unión Europea, dando inicio a una delicada negociación con los 27 países del bloque. La normativa sancionada (con 499 votos a favor, 28 en contra y 93 abstenciones) ratifica la regulación de la Inteligencia Artificial según el nivel de riesgo: cuanto mayor sea para los derechos o la salud de las personas, mayores serán las obligaciones de los sistemas tecnológicos. [11]

En este marco de estas transformaciones vertiginosas, la Argentina –como buena parte de los países de la región– se enfrentaba en 2023 con el desafío de diseñar estrategias de desarrollo, implementación y regulación de sistemas de IA.

 

SOBRE EL PROYECTO INICIAL

El estudio a partir del cual nace esta página ha sido una investigación exploratoria a la vez que intensiva realizada entre julio y noviembre de 2023 a solicitud de la Facultad de Ciencias Sociales de la Universidad de Buenos Aires (UBA), en virtud de un convenio entre dicha universidad y el Programa Argentina Futura de la Jefatura de Gabinete de Ministros, orientada a sistematizar la información existente sobre las iniciativas en materia de políticas y regulaciones de las Inteligencias Artificiales que se estaban desarrollando en la Argentina en ese período, y ponerla en relación con otras iniciativas internacionales de referencia. 

Cuatro de los integrantes del equipo veníamos trabajando juntos sistemáticamentes en diferentes proyectos de investigación sobre el ecosistema digital y lo que denominamos el sistema DAP: Datos, Algoritmos y Pataformas, además de ser profesores en dos diferentes cátedras de la materia Informática y Sociedad. Para la realización de este proyecto convocamos colaborar con nosotros a especialistas en aspectos puntuales del problema (el impacto de las IA en el mundo del trabajo, la institucionalización del Centro Argentino Multidisciplinario de IA, la perspectiva de los representantes de diferentes industrias culturales), y contamos con el aporte de dos investigadores experimentados en la investigación de accidentes y en el estudio y la gestión del  riesgo y la seguridad en sistemas sociotécnicos complejos, que a partir de esta experiencia se incorporaron al equipo principal de Laboratorio.

En la investigación, titulada «Desafíos e impactos de la inteligencia artificial. Marcos normativos, riesgos y retos para la calidad democrática en la Argentina», buscamos delimitar una perspectiva teórico-analítica adecuada para abordar este novedoso objeto de estudio (ver Perspectiva analítica); nos propusimos generar un conocimiento más acabado sobre sus alvcances, riesgos y desafíos, y favorecer las discusiones sobre qué estrategias nacionales, qué políticas y qué regulaciones convienen a la Argentina y a la región. Finalmente, propusimos una serie de recomendaciones para una iniciativa integral orientada al desarrollo, la adopción, la implementación, el monitoreo y la mitigación de riesgos para una IA confiable y segura.

A partir de esa experiencia intensa y fructífera en términos de aprendizaje, de desarrollo teórico, metodológico y analítico, de construcción de equipo; con la certeza de que los retos que esta metatecnología nos presentará están lejos de haber llegado siquiera a manifestarse claramente, resolvimos reunir el material y abrir este espacio de documentación como una manera de contribuir a una conversación pública sobre las IA –y en particular sobre las IA generativas– más y mejor informada, con evidencia a la vista, y con la posibilidad de construir conocimientos inter, multi y transdisciplinarios a la altura del desafío.


[1] Gómez Mont C., Del Pozo C.M., Martínez Pinto C., Martín del Campo Alcocer A.V. (2020): “La Inteligencia Artificial al
servicio del bien social en América Latina y el Caribe: panorámica regional e instantáneas de doce países”, Banco Interamericano de Desarrollo.

[2] Albrieu R., Rapetti M., Brest López C., Larroulet P., Sorrentino A. (2018): “Inteligencia artificial y crecimiento económico. Oportunidades y desafíos para Argentina”, CIPPEC.

[3] “Declaración de Montevideo sobre Inteligencia Artificial y su impacto en América Latina”, Montevideo, 10 de marzo de 2023. En: fundacionsadosky.org.ar/declaracion-de-montevideo-fun/

[4] Ídem. 

[5] «Este veterano de la inteligencia artificial explica por qué ChatGPT es ‘peligrosamente estúpido’». Gary Marcus entrevistado por Manuel Ángel Méndez para El Confidencial, 11 de diciembre de 2022. En Internet: www.elconfidencial.com/tecnologia/2022-12-11/chatgpt-openai-gary-marcus-ia-ai-inteligencia-artificial_3537495 

 

[6] En Internet: https://futureoflife.org/open-letter/pause-giant-ai-experiments/

 

[7]  Recomendaciones para una inteligencia artificial fiable, Subsecretaría de Tecnologías de la Información. Boletín Oficial: www.boletinoficial.gob.ar/detalleAviso/primera/287679/20230602

[8] Hubo una iniciativa nacional anterior, elaborada durante la presidencia de Mauricio Macri entre 2018 y 2019, el Plan Nacional de Inteligencia Artificial (ArgenIA, 2019), que señala la importancia de las IA, afirma la necesidad de formar recursos humanos, la relevancia de utilizar datos de calidad, pone el acento en la infraestructura computacional, y propone la creación de un Laboratorio de Innovación para “acelerar y canalizar el cumplimiento de objetivos propuestos en el Plan Nacional de IA”. Con el cambio de gobierno y la irrupción al año siguiente de la pandemia mundial del COVID-19, el Plan quedó sin efecto. Es posible consultarlo en Internet: https://ia-latam.com/wp-content/uploads/2020/09/Plan-Nacional-de-Inteligencia-Artificial.pdf

[9] En Internet: https://futureoflife.org/open-letter/pause-giant-ai-experiments/ “El BID aprueba destinar 35 millones de dólares al MINCYT en apoyo al desarrollo de la inteligencia artificial”, 12 de junio de 2023.  En internet: www.argentina.gob.ar/noticias/el-bid-aprueba-destinar-35-millones-de-dolares-al-mincyt-en-apoyo-al-desarrollo-de-la

[10] En Internet: https://futureoflife.org/open-letter/pause-giant-ai-experiments/El texto puede consultarse en Internet: http://www.saij.gob.ar/0-local-jujuy-constitucion-provincia-jujuy-lpy0000000-1986-10-22/123456789-0abc-defg-000-0000yvorpyel

[11] En Internet: https://futureoflife.org/open-letter/pause-giant-ai-experiments/Entre tanto, ya en septiembre de 2021 el Reino Unido había dado a conocer su Iniciativa Nacional sobre IA, basada en tres ideas-pilares con respecto al futuro: (1) los impulsores clave del progreso, el descubrimiento y la ventaja estratégica en la IA serán los accesos a personas, datos, computación y finanzas, todos los cuales enfrentan una enorme competencia global; (2) la IA se generalizará en gran parte de la economía y será necesario tomar medidas para garantizar que todos los sectores se beneficien de esta transición; y (3) los regímenes regulatorios y de gobernanza deberán seguir el ritmo de las demandas rápidamente cambiantes de la Inteligencia Artificial (IA), maximizando el crecimiento y la competencia, impulsando la excelencia en innovación y protegiendo la seguridad, las decisiones y los derechos de los ciudadanos.

Resumen
Ejecutivo

Presentación PPT

Recomendaciones

Informe final
completo

Equipo

Flavia Costa

Flavia
Costa

Pablo Manolo Rodriguez

Pablo
Manolo
Rodríguez

Julian Mónaco

Julián
Mónaco

Ximena
Zabala

Alejandro Covello

Alejandro
Covello

Iago
Novidelsky

Flavia Costa

Flavia
Costa

FLAVIA COSTA es Doctora en Ciencias Sociales por la Universidad de Buenos Aires (UBA) e investigadora del Consejo Nacional de Investigaciones Científicas y Técnicas (CONICET). Es Profesora Asociada del Seminario de Informática y Sociedad en la Carrera de Ciencias de la Comunicación de la UBA y Profesora Titular de las materias Arte, tecnología y políticas de lo viviente en el Doctorado en Artes y Tecnoestéticas de la Universidad Nacional de Tres de Febrero (UNTREF) y de Teorías de la cultura y el poder. Michel Foucault, en la Maestría de Sociología de la Cultura y Análisis Cultural de la Universidad Nacional de San Martín (UNSAM). Coordina junto con Paula Sibilia (UFF) y Fernanda Bruno (UFRJ) el Diploma Superior en Tecnología, Subjetividad y Política del Consejo Latinamericano de Ciencias Sociales (CLACSO).

Es autora de numerosas publicaciones sobre arte, tecnología y sociedad, así como sobre las derivas contemporáneas de la bio(tecno)política: desde la gubernamentalidad algorítmica y la vigilancia genética hasta el transhumanismo y la inteligencia artificial generativa. Ha participado como autora en el Glosario de filosofía de la técnica (La Cebra, 2022) y ha sido coeditora del volumen La salud inalcanzable. Biopolítica molecular y medicalización de la vida cotidiana (Eudeba, 2017) con Pablo M. Rodríguez. Su último libro se titula Tecnoceno. Algoritmos, biohackers y nuevas formas de vida (Taurus, 2021). 

Actualmente dirige junto con Pablo M. Rodríguez la investigación “Big Data, algoritmos y plataformas: las nuevas formas de gubernamentalidad a la luz de la teoría de lo transindividual de Gilbert Simondon”, y participa como investigadora extranjera en el equipo «Temporalidades de emergencia. Imaginarios, diagnósticos y ecologías»  que dirige el Dr. Daniel López del Rincón en la Universidad de Barcelona (España), acreditado por el Ministerio de Ciencia e Innovación de ese país.

Integra el grupo fundador de la revista Artefacto. Pensamientos sobre la técnica, y el colectivo Ludión. Exploratorio latinoamericano de poéticas/políticas tecnológicas. Es investigadora asociada del Colegio de Investigaciones Filosóficas (CIF). Ha traducido en colaboración buena parte de la obra del filósofo italiano Giorgio Agamben al castellano. En 2008 ha publicado la novela Las anfibias (Adriana Hidalgo).

Pablo Manolo Rodriguez

Pablo
Manolo
Rodríguez

PABLO MANOLO RODRÍGUEZ es Doctor en Ciencias Sociales, Profesor Adjunto de la Facultad de Ciencias Sociales de la Universidad de Buenos Aires, e Investigador del Conicet (Argentina). Ha obtenido un Master en Comunicación, Tecnologías y Poder de la Université de Paris I (Panthéon-Sorbonne).

Es autor de los libros Historia de la información (Capital Intelectual, 2012) y Las palabras en las cosas. Saber, poder y subjetivación entre algoritmos y biomoléculas (Cactus, 2019 y 2020); también coeditó Amar a las máquinas. Cultura y técnica en Gilbert Simondon (Prometeo, 2015) y La salud inalcanzable. Biopolítica molecular y medicalización de la vida cotidiana (Eudeba, 2017, con Flavia Costa). 

Publicó artículos en libros y revistas de Argentina, Brasil, Chile, Colombia, México, España, Francia, Inglaterra, Italia y Australia. Ha traducido libros de Lucien Sfez, François Zouravichvili, Maurizio Lazzarato, Michel Foucault y Gilbert Simondon. Se desempeñó como redactor y editor de la sección “El Mundo” del diario Página/12 entre 1998 y 2003. En el ámbito periodístico también colaboró con los suplementos culturales de Clarín, La Nación y Perfil entre 2004 y 2017.

Integra el colectivo Ludión. Exploratorio latinoamericano de poéticas/políticas tecnológicas y el grupo editor de la revista Artefacto. Pensamientos sobre la técnica. Es miembro del comité académico de Argumentos. Revista de Crítica Social (IIGG). En el ámbito académico, es miembro de la Red Federal de Filosofía de la Técnica y de la Red Latinoamericana de Estudios Simondonianos (Relés). En el ámbito institucional, fue responsable de la Oficina de Publicaciones de la Facultad de Ciencias Sociales (2010-2012), y es miembro del comité académico del IIGG. 

Actualmente dirige junto con Flavia Costa la investigación UBACyT “Big Data, algoritmos y plataformas: las nuevas formas de gubernamentalidad a la luz de la teoría de lo transindividual de G. Simondon”.

Julian Mónaco

Julián
Mónaco

JULIÁN MÓNACO es Magíster en Comunicación y Cultura y Licenciado y Profesor en Ciencias de la Comunicación por la Universidad de Buenos Aires (UBA). Actualmente, se desempeña como becario doctoral del Consejo Nacional de Investigaciones Científicas y Técnicas de la Argentina (CONICET) con sede de trabajo en la Escuela Interdisciplinaria de Altos Estudios Sociales de la Universidad Nacional de San Martín (Escuela IDAES-UNSAM) y como docente del Seminario de Informática y Sociedad en la Carrera de Comunicación de la UBA. Además, dicta cursos de posgrado en la Diplomatura en Humanidades Ambientales de la Universidad de Tres de Febrero (UNTREF), en el Programa de Actualización Tecnologías en el arte contemporáneo de la Facultad de Filosofía y Letras de la UBA y en la Maestría en Tecnología, Políticas y Culturas de la Universidad Nacional de Córdoba (UNC). 

Forma parte del equipo editorial de la revista Avatares de la Comunicación y la Cultura e integra el proyecto UBACyT “Big Data, algoritmos y plataformas: las nuevas formas de gubernamentalidad a la luz de la teoría de lo transindividual de G. Simondon”, dirigido por Pablo M. Rodríguez y Flavia Costa.

Es diplomado en Educación y Nuevas Tecnologías por la Facultad Latinoamericana de Ciencias Sociales (FLACSO) y en 2019 compiló junto a Alejandro Pisera el volumen Lo que puede una escuela. Una construcción sin modelos (UNSAM Edita-Miño y Dávila).

Conduce en FM La Tribu un espacio periodístico dedicado a pensar la intersección entre la política, la comunicación y la tecnología llamado “¿Para qué sirven nuestros clics?”.

Ximena
Zabala

XIMENA VICTORIA ZABALA es Magíster en Comunicación y Cultura y Licenciada en Ciencias de la Comunicación por la Universidad de Buenos Aires (UBA). Actualmente se desempeña como docente del Seminario de Informática y Sociedad en la Carrera de Comunicación de la UBA y en la Universidad Nacional de las Artes (UNA), donde dicta la materia Historia Sociocultural del Arte en la Licenciatura en Artes Multimediales. 

Como investigadora integra el proyecto UBACyT “Fenómenos subjetivos, políticos y estéticos vinculados con la imprevisibilidad de la técnica. Algunas hipótesis sobre las mutaciones actuales de lo humano”, dirigido por Christian Ferrer. Además, trabaja como periodista: escribe e indaga sobre cultura digital, arte, política y medios.

Alejandro Covello

Alejandro
Covello

ALEJANDRO COVELLO ha sido aviador militar de la Fuerza Aérea Argentina y piloto de línea aérea. Es también Licenciado en Higiene y Seguridad en el Trabajo por la Universidad de Morón (UM) y especialista en Factores Humanos y Organizacionales aplicados a sistemas de alto riesgo.

En la actualidad trabaja como asesor en la Junta de Seguridad en el Transporte (JST, Ministerio de Transporte), como instructor en la Asociación de Pilotos de Líneas Aéreas (APLA) y se encuentra implementando el sistema de gestión Well Operation Crew Resource Management en la empresa YPF.

Es profesor en la Universidad Tecnológica Nacional (UTN) y en la Universidad Nacional Autónoma de Honduras (UNAH), instructor internacional en la Air Transport Association (IATA) y director académico de la Certificación de Formación Profesional Continua “Gestión de la Seguridad Operacional en el Transporte Ferroviario” (DGCyE, Provincia de Buenos Aires).

Fundó la Asociación Civil Ateneo, dedicada al estudio de los factores humanos y organizacionales en el sector de la aviación. Coordinó y participó como autor de distintos libros sobre investigación de accidentes, sistemas de seguridad operacional y gestión de riesgos en industrias de alto riesgo. Sus últimas publicaciones son Análisis sistémico de la pandemia del coronavirus. Un accidente normal (2020, con el Dr. Marcelo Muro) e Investigación sistémica de accidentes. Modelo para el transporte y la gestión de riesgos en sistemas complejos (Ciccus, 2021).

Iago
Novidelsky

IAGO NICOLÁS NOVIDELSKY es estudiante avanzado de Ingeniería Ferroviaria en la Universidad Tecnológica Nacional (UTN). Se desempeña como Investigador a cargo en la Dirección Nacional de Investigación de la Junta de Seguridad en el Transporte (JST, Ministerio de Transporte). Trabajó como docente de Factores Humanos en la Diplomatura en Seguridad Operacional en el Transporte (UTN-JST).