Desde el inicio, para abordar el análisis de los riesgos y desafíos de las IA generativas, entendimos que debíamos tomar una serie de decisiones que, una vez asumidas, fueron parte relevante de la delimitación epistemológica y metodológica de esta investigación. Identificamos así cinco rasgos o aspectos de las IA.
Para ciertos usos, las IA pueden ser tecnologías de alto riesgo, y por lo tanto requieren un tratamiento acorde a lo largo de todo su ciclo de vida. Es preciso identificar cuando es así e incorporar este enfoque, abordando las inteligencias artificiales generativas desde una perspectiva de la seguridad y la gestión de riesgos.
Esto es lo que hace la Ley de Inteligencia Artificial de la Unión Europea, que distingue diferentes tipos de usos y prácticas en los que puedan participar sistemas de IA y establece tres categorías de riesgo. La primera es la de los riesgos inaceptables, lo que significa que hay usos de las Inteligencias Artificiales (IA) que están prohibidos. Por ejemplo, la manipulación maliciosa del comportamiento, la calificación social y la vigilancia masiva. Otros riesgos se consideran altos y deben ser obligatoriamente gestionados; esto implica un complejo circuito de gestión de calidad y riesgo, documentación, certificaciones y notificaciones. Ejemplos de esta segunda categoría son la identificación biométrica y la categorización de personas; la gestión y el funcionamiento de infraestructuras esenciales; la educación y la formación profesional; el empleo, la gestión de los trabajadores y el acceso al autoempleo; el acceso a servicios esenciales; y la aplicación de la ley. Una tercera categoría es la de los riesgos mínimos, en los que la UE exige transparencia para con el usuario: desarrolladores e implementadores deben informar al usuario que está interactuando con un sistema de IA.
La ley europea es exhaustiva al describir la red institucional a cargo de la gestión de esos riesgos, e incluye la obligación de informar accidentes o incidentes de IA en no más de 72 horas desde su ocurrencia a las autoridades nacionales y a las autoridades de la UE.
Por su parte, la Organización para la Cooperación y el Desarrollo Económico (OCDE) lanzó en noviembre de 2023 el Monitor de Incidentes de IA (AIM), desarrollado por el grupo de expertos en incidentes de IA que, en paralelo, está trabajando en un marco de notificación de incidentes de IA. El objetivo deL AIM es realizar un seguimiento de los incidentes de IA en tiempo real y proporcionar la base de evidencia para informar el marco de notificación de incidentes de IA y los debates sobre políticas de IA relacionados.
SITIOS DE INTERÉS:
https://oecd.ai/en/incidents-methodology
https://partnershiponai.org/workstream/ai-incidents-database/