Glosario IA

explicabilidad y transparencia

EXPLICABILIDAD Y TRANSPARENCIA

La explicabilidad y la transparencia forman parte del conjunto de principios que los organismos internacionales definen como condición necesaria para un desarrollo responsable de los sistemas de IA. La explicabilidad consiste, en principio, en la capacidad de un sistema de IA –que, por definición, es complejo y puede ser de gran tamaño– de comunicar a las personas afectadas por sus resultados los factores y la lógica que condujeron a ellos de manera comprensible y acorde al contexto de uso. Esto ocurre, muy especialmente, en aquellos casos en los que los riesgos asociados son grandes (por ejemplo, en el diagnóstico de enfermedades). Desde el punto de vista de la implementación, en tanto, “la explicabilidad debe hacer a un modelo más predecible y controlable […] y esto debe ayudar a aumentar las capacidades humanas a la hora de tomar decisiones” (Solanet y Marti 2021: 81).

En cuanto a la transparencia, esta es opuesta a la opacidad (o cajanegrización o hipercodificación) e indica la medida en que una persona puede reconstruir y comprender lo que un sistema de IA está haciendo. Cuando un sistema es transparente, además, se pueden derivar responsabilidades hacia los actores involucrados en su ciclo de vida en forma más eficiente.  

Ya en 2017, entre los 23 principios compilados luego de la Conferencia de Asilomar sobre IA organizada por el instituto Future of Life, se afirma que, cuando un sistema de IA causa daño, siempre debería ser posible determinar por qué lo hizo (“transparencia de fallas”).

Más adelante, en 2019, en los Principios de la OCDE sobre IA, se señala que los actores de la IA deben comprometerse con los principios de transparencia y explicabilidad para hacer posible, entre otros puntos, “que los afectados por un sistema de inteligencia artificial entiendan el resultado” y “que aquellos afectados negativamente por un sistema de IA desafíen su resultado basado en información clara y fácil de entender sobre los factores, y la lógica que sirvió de base para la predicción, recomendación o decisión”.

Específicamente en el ámbito local, las Recomendaciones para una Inteligencia Artificial Fiable emitidas por la Subsecretaría de Tecnologías de la Información en junio de 2023 indican que “las personas deberían tener la oportunidad de solicitar explicaciones e información al responsable de la IA o a las instituciones del sector público correspondientes. Dichos responsables deberían informar a los usuarios cuando un producto o servicio se proporcione directamente o con la ayuda de sistemas de IA de manera adecuada y oportuna” (2023: 11).

REFERENCIAS

Future of Life (2017). Principios de Asilomar. En Internet: https://futureoflife.org/open-letter/ai-principles/

Jefatura de Gabinete de Ministros, Secretaría de Innovación Pública, Subsecretaría de Tecnologías de la Información (2023). “Recomendaciones para una inteligencia artificial fiable” y “Ciclo de vida de la IA”, anexos a la Disposición 2/2023, 01/06/2023.

OCDE (2019). Principios de la OCDE sobre IA. En Internet: https://oecd.ai/en/ai-principles

Solanet Manuel y Marti Manuel, eds. (2021). Inteligencia artificial: una mirada multidisciplinaria, Buenos Aires, Academia Nacional de Ciencias Morales y Políticas.

Unesco (2021). Recomendación sobre la Ética de la Inteligencia Artificial.