Desde el inicio, para abordar el análisis de los riesgos y desafíos de las IA generativas, entendimos que debíamos tomar una serie de decisiones que, una vez asumidas, fueron parte relevante de la delimitación epistemológica y metodológica de esta investigación. Identificamos así cinco rasgos o aspectos de las IA.
Para afrontar las IA generativas desde las ciencias sociales y humanas, para pensar eficazmente su gobernanza, no es suficiente la perspectiva de la ética de la IA, que es la forma más habitual en la que los saberes de las ciencias humanas se presentan en la discusión (por ejemplo, en la Recomendación sobre la ética de la inteligencia artificial, de 2021). Si de lo que estamos hablando es de metatecnologías que constituyen un mundoambiente, que aceleran el procesamiento y la gestión de lo social, y que pueden ser de alto riesgo en áreas de experiencia críticas para la población como el acceso a la salud, al empleo, a la educación, nos encontramos ante sistemas sociotécnicos complejos. Y por ende, la perspectiva que necesitamos va más allá de las recomendaciones voluntarias, que ofician como “códigos de buenas prácticas”.
Es muy posible que como dice Brent Mittelstadt en su artículo “Principles alone cannot guarantee ethical AI” (2019), un enfoque de ética profesional –sostenido en una dudosa similitud entre la práctica de la A y la práctica de la medicina– sea insuficiente. No alcanza con establecer principios: “Se necesitan estructuras de rendición de cuentas vinculantes y altamente visibles, así como procesos claros de implementación y revisión a nivel sectorial y organizacional” (2019: 4).
Las iniciativas de ética de la IA hasta ahora han producido principios y declaraciones de valores que prometen guiar la acción, pero en la práctica brindan pocas recomendaciones específicas y no abordan normas y políticas fundamentales. Siempre según Mittelstadt, ente las tareas necesarias una de ellas es licenciar a los desarrolladores de IA de alto riesgo, definiendo requisitos claros de confiabilidad y reputación. “Puede ser necesario establecer el desarrollo de la IA como una profesión con una categoría equivalente a otras profesiones de alto riesgo –asegura–. Es una rareza regulatoria que otorguemos licencias a profesiones que brindan un servicio público, pero no a la profesión responsable de desarrollar sistemas técnicos para aumentar o reemplazar la experiencia humana y la toma de decisiones dentro de ellos. Los riesgos de las profesiones autorizadas no se han disipado, sino que han sido desplazados a la IA. Para analizar los importantes desafíos que enfrentan, las iniciativas podrían dirigirse inicialmente a los desarrolladores de diseño inclusivo, revisión ética transparente, documentación de modelos y conjuntos de datos, y auditoría ética independiente” (2019, 9-10).
De manera afín, Ariel Vercelli (2023) señala la necesidad de no confundir “los problemas éticos de las IA con las políticas y las regulaciones”, ya que “¿qué poder jurídico-político tienen las recomendaciones sobre ética de la IA de la UNESCO? Siempre son útiles, pero se tratan sólo de meras recomendaciones”. Para este investigador argentino, “es necesario comprender que estas posiciones éticas podrían no ser el mejor enfoque para avanzar sobre políticas públicas y regulaciones nacionales”. En cambio, sugiere “superar los comités de ética y ofrecer a la sociedad una discusión más amplia, abierta y democrática sobre IA”. Desde su perspectiva, el peligro de las IA es que “es que profundicen las injusticias del mundo real: desigualdades sociales, económicas, jurídico-políticas y ambientales”. De allí que se requieren procesos de co-construcción entre tecnologías y regulaciones; esto es, “desarrollar tecnologías (incluso para fines regulativos: control y gestión del tiempo, el espacio y las conductas)” (Vercelli, 2023: 213-214)
Sintéticamente, para afrontar las IA generativas desde las ciencias sociales y humanas, para que su gobernanza sea eficaz, no es suficiente con un enfoque desde la ética profesional de la IA sino que es preciso promover un enfoque desde la ética organizacional de la IA y desde el pensamiento sistémico, que busca establecer procedimientos de revisión transparentes, estructuras de rendición de cuentas vinculantes, documentación de modelos y conjuntos de datos, auditoría independiente. En suma: defensas en profundidad a lo largo del sistema para que este sea más seguro y confiable.
BIBLIOGRAFÍA:
Mittelstadt, Brent (2019). “Principles alone cannot guarantee ethical AI”. Nat Mach Intell, 1, 501–507.
Vercelli Ariel (2023). “Las inteligencias artificiales y sus regulaciones: Pasos iniciales en Argentina, aspectos analíticos y defensa de los intereses nacionales”, en Revista de la Escuela del Cuerpo de Abogados y Abogadas del Estado, mayo 2023, Año 7 Nº 9, Buenos Aires, Argentina (ISSN 2796-8642), pp. 195-21. En internet: revistaecae.ptn.gob.ar/index.php/revistaecae/article/download/232/213/548