Introducción a la seguridad de IA, ética y sociedad.
(Introduction to AI Safety, Ethics and Society)

Center for AI Safety

Desde el equipo de Tecnocenolab agradecemos a Oliver Zhang, Chief of Staff del Center for AI Safety por la oportunidad de poder traducir el libro «Introduction to AI Safety, Ethics and Society» de Dan Hendrycks, Director de dicho instituto.

Como campo de investigación, la Inteligencia Artificial (IA) tiene más de 70 años. Pero ha sido especialmente desde la última década que los avances en este ámbito han generado tecnologías o integrado grandes conjuntos tecnológicos que se comparan o superan a los humanos en tareas que requieren gran capacidad de cómputo, creatividad, razonamiento complejo, y que involucran incluso la toma de decisiones. Como toda tecnología proporciona beneficios y oportunidades para el bienestar humano y asimismo conlleva el desafío de su uso seguro y confiable. El creciente catálogo de aplicaciones y métodos de la IA, en particular la IA generativa (IAG), tiene el potencial de afectar profundamente a las políticas públicas, los sistemas económicos, las sociedades de gran escala y a otras tecnologías. En la actualidad se identificó el impacto de sistemas de IA en los sectores del trabajo, la producción del conocimiento, la asistencia social, la salud, la educación, entre otras.

Asimismo, distintas fuentes señalan los desafíos y los efectos disruptivos que es necesario reconocer para mitigar en el proceso de adopción de estas tecnologías. En marzo de 2023, un conjunto de expertos de nuestra región reunidos en Montevideo destacaron “el potencial productivo de los sistemas de inteligencia artificial, así como los riesgos que conlleva su crecimiento irreflexivo”. Y señalaron la necesidad de “desarrollar criterios y estándares que permitan calificar estas tecnologías según sus riesgos de manera clara y transparente, para avanzar en políticas públicas que protejan el bien común sin obturar los beneficios del desarrollo tecnológico.” Esto es así por el enorme poder de aceleración de procesos productivos y de toma de decisiones; porque la introducción de IA impacta en el mundo del trabajo y de la educación obligando a reescribir las reglas de industrias enteras; por su capacidad de crear instantáneamente contenidos y noticias que pueden ser falsas o erróneas; y debido a su capacidad de generar instancias en las que las regulaciones existentes ya no son adecuadas para enfrentar los problemas que aquejan a la sociedad, lo cual produce las llamadas brechas regulatorias.

En efecto, las características de las tecnologías de IA o que incluyen IA, como la opacidad (el efecto de caja negra), cierto grado de imprevisibilidad, la complejidad interactiva, su estructura de al menos ocho capas (Vercelli, 2023) y un comportamiento parcialmente autónomo pueden hacer difícil comprobar el cumplimiento de la normativa vigente –que protege derechos fundamentales y heterogéneos como la privacidad, los derechos de autor o los derechos laborales– o incluso impedir su cumplimiento.

A partir del desarrollo y la expansión de los modelos de lenguaje grandes (LLM, por sus siglas en inglés), como Chat GPT, LaMDA o PalM, se espera que en los próximos años las inteligencias artificiales generativas tengan un impacto profundo en diversos aspectos de la sociedad, la economía, la política y la cultura, tanto a nivel global como regional y nacional.

En marzo de 2023, una carta abierta publicada por la organización no gubernamental Future of Life y firmada por investigadores, pensadores y empresarios de tecnología de la información como Steve Wozniak (co-fundador de Apple), Yuval Harari, Elon Musk y el inversor en IA Ian Hogart, autor desde 2018 del Informe sobre el estado de la IA, llamó a “poner en pausa” por “al menos 6 meses” el entrenamiento de aquellos sistemas de Inteligencia Artificial de potencia superior a la del sistema GPT-4. La carta comienza advirtiendo:

Los sistemas de IA con inteligencia humana competitiva pueden plantear riesgos profundos para la sociedad y la humanidad, como lo demuestra una extensa investigación y lo reconocen los principales laboratorios de IA. Como se establece en los Principios de IA de Asilomar, ampliamente respaldados, la IA avanzada podría representar un cambio profundo en la historia de la vida en la Tierra y debe planificarse y gestionarse con el cuidado y los recursos correspondientes. Desafortunadamente, este nivel de planificación y gestión no está sucediendo, a pesar de que en los últimos meses los laboratorios de IA se han visto atrapados en una carrera fuera de control para desarrollar e implementar mentes digitales cada vez más poderosas que nadie –ni siquiera sus creadores– puede entender, predecir o controlar de manera confiable.

Los sistemas de IA contemporáneos se están volviendo competitivos desde el punto de vista humano en tareas generales y debemos preguntarnos: ¿Deberíamos dejar que las máquinas inunden nuestros canales de información con propaganda y falsedad? ¿Deberíamos automatizar todos los trabajos, incluidos los satisfactorios? ¿Deberíamos  desarrollar mentes no humanas que eventualmente puedan superarnos en número, ser más astutas, quedar obsoletas y reemplazarnos? ¿Deberíamos arriesgarnos a perder el control de nuestra civilización? Estas decisiones no deben delegarse en líderes tecnológicos no electos. Sólo se deberían desarrollar potentes sistemas de IA una vez que estemos seguros de que sus efectos serán positivos y sus riesgos manejables.

Este gesto de un sector relevante de la Investigación y el Desarrollo en IA terminó de instalar a la IAG como uno de los problemas clave del futuro próximo, en un momento en el que las presiones para adoptar IA para diferentes ramas de la actividad –salud, reconocimiento de imágenes, asistencia en redacción de muy diverso tipo de textos, bioinformática, logística– son importantes en todo el mundo.

Por otra parte, y en referencia a las consecuencias negativas que pueda provocar la IA, la Organización para la Cooperación y el Desarrollo Económicos OCDE creó un Monitoreo de incidentes de IA (AIM) desarrollado por su grupo de expertos en incidentes de IA que ha definido qué es un incidente de IA y qué es un peligro de IA: “Un evento en el que el desarrollo o el uso de un sistema de IA resulta en un daño real se denomina “incidente de IA”, mientras que un evento en el que el desarrollo o el uso de un sistema de IA es potencialmente dañino se denomina “peligro de IA”.

Un incidente de IA es un evento, circunstancia o serie de eventos en los que el desarrollo, uso o mal funcionamiento de uno o más sistemas de IA conduce directa o indirectamente a cualquiera de los siguientes daños: (a) lesión o daño a la salud de una persona o grupos de personas; (b) interrupción de la gestión y operación de infraestructura crítica; (c) violaciones de derechos humanos o incumplimiento de obligaciones derivadas de la legislación aplicable destinadas a proteger los derechos fundamentales, laborales y de propiedad intelectual; (d) daño a la propiedad, las comunidades o el medio ambiente.

Un peligro de IA es un evento, circunstancia o serie de eventos en los que el desarrollo, uso o mal funcionamiento de uno o más sistemas de IA podría conducir de manera plausible a un incidente de IA, es decir, cualquiera de los siguientes daños: (a) lesión o daño a la salud de una persona o grupos de personas; (b) interrupción de la gestión y operación de infraestructura crítica; (c) violaciones de los derechos humanos o incumplimiento de obligaciones derivadas de la legislación aplicable destinadas a proteger los derechos fundamentales, laborales y de propiedad intelectual; (d) daño a la propiedad, las comunidades o el medio ambiente.

En el mes de mayo del presente año, el Instituto de seguridad de IA (IA Safety Institute. IASI) dependiente del Departamento de Ciencia, Innovación y Tecnología del Reino Unido, publicó un informe científico internacional sobre seguridad de IA (International Scientific Report on the Safety of Advanced AI. Interim report), elaborado por un grupo de 75 expertos en IA, un Panel Asesor de Expertos internacionales de 30 países, la Unión Europea (UE) y las Naciones Unidas (ONU). Entre sus aspectos destacados se identifica que: 

  • Si se gobierna adecuadamente, la IA de propósito general se puede aplicar para promover el interés público, lo que podría conducir a un mayor bienestar, más prosperidad y nuevos descubrimientos científicos. Sin embargo, una IA de propósito general que funcione mal o se utilice maliciosamente también puede causar daño, por ejemplo, a través de decisiones sesgadas en entornos de alto riesgo o mediante estafas, medios falsos o violaciones de la privacidad.

 

  • A medida que las capacidades de IA de propósito general continúan avanzando, riesgos como el mercado laboral a gran escala podrían generar impactos negativos, piratería informática o ataques biológicos habilitados por la IA y que la sociedad pierda el control sobre la IA de propósito general, aunque los investigadores debaten la probabilidad de que se produzcan estos escenarios. Las diferentes opiniones sobre estos riesgos a menudo surgen de diferentes expectativas sobre las medidas que tomará la sociedad para limitarlos, la efectividad de esas medidas y la rapidez con la que se avanzarán las capacidades de IA de propósito general.

 

  • Existe una incertidumbre considerable sobre el ritmo del progreso futuro en la IA de propósito general. Algunos expertos creen que lo más probable es, con diferencia, una desaceleración del progreso, mientras que otros creen que es posible o probable un progreso extremadamente rápido.

 

  • Existen varios métodos técnicos para evaluar y reducir los riesgos de la IA de propósito general que los desarrolladores pueden emplear y los reguladores pueden exigir, pero todos tienen limitaciones. Por ejemplo, las técnicas actuales para explicar por qué los modelos de IA de propósito general producen un resultado determinado son muy limitadas.

 

  • El futuro de la tecnología de IA de uso general es incierto, y parece posible una amplia gama de trayectorias incluso en el futuro cercano, incluidos resultados tanto muy positivos como muy negativos. Pero nada sobre el futuro de la IA es inevitable. Serán las decisiones de las sociedades y los gobiernos las que determinarán el futuro de la IA. Este informe provisional tiene como objetivo facilitar un debate constructivo sobre estas decisiones.

De esta manera comenzaron a definirse la terminología, los desafíos y las bases de las estrategias de seguridad de la IA: Monitoreo, notificación de incidentes, identificación de peligros, gestión de riesgos e investigación de incidentes de IA, entre otras.

En este marco, el equipo de TecnocenoLab considera que esta Introducción es un elemento fundante para abordar los desafíos de la Inteligencia Artificial y sus riesgos incorporando el análisis de los factores humanos y organizacionales, desde una perspectiva sistémica.