El problema de la alineación o el alineamiento (en inglés, AI alignment) en sistemas de inteligencia artificial se refiere a la necesidad de dirigir el desarrollo de dichos sistemas para que –desde su diseño, en su desarrollo y en su implementación– funcionen de acuerdo con los objetivos e intereses de sus diseñadores. Si un sistema es eficiente pero persigue objetivos que no han sido previstos por los desarrolladores se dice que no está alineado.
De acuerdo con autores como Stuart Russel (2019) o Iason Gabriel (2020), el objetivo de la alineación de valores de la IA es garantizar que una IA potente esté adecuadamente alineada con los valores humanos (Russell 2019, 137; Gabriel 2020, 1). Tal como señala Gabriel, la tarea de dotar a los agentes artificiales de valores morales se vuelve importante a medida que los sistemas informáticos operan con mayor autonomía y a una velocidad que “prohíbe cada vez más a los humanos evaluar si cada acción se realiza de manera responsable o ética” (Allen et al., 2005, 149; la cita es del propio Gabriel).
Desde esta perspectiva, el desafío de la alineación tiene dos partes: una técnica que se centra en cómo codificar formalmente valores o principios en agentes artificiales para que hagan de manera confiable lo que deben hacer, y una normativa, que se pregunta qué valores o principios, si los hay, deberían codificarse en agentes artificiales. En cuanto a la cuestión técnica, a los desafíos de alineación más habituales (por ejemplo, que un chatbot termine desarrollando contenidos agresivos) se suman otros desafíos que surgen en agentes artificiales más potentes; por ejemplo, cómo evaluar el desempeño de agentes cuyas capacidades cognitivas potencialmente exceden significativamente las humanas (Gabriel 2020, Christiano 2018).
La alineación de sistemas es parte de un campo de estudio más amplio, el de la seguridad de la inteligencia artificial (AI safety), es decir, el estudio de cómo construir sistemas de inteligencia artificial que sean seguros. En efecto, el desarrollador e investigador Paul Christiano sostiene que investigar los temas de seguridad de la IA es una buena manera de avanzar en la alineación, ya que muchos problemas de alineación se manifiestan primero como problemas de seguridad (Christiano 2018).
La comunidad de investigadores de la inteligencia artificial, a través de los Principios de Asilomar, de 2017, así como las Naciones Unidas (2021) han exigido tanto soluciones basadas en la investigación técnica como soluciones políticas para garantizar que los sistemas estén alineados con los valores humanos.
REFERENCIAS
Allen, C., Smit, I., & Wallach, W. (2005). “Artificial morality: Top-down, bottom-up, and hybrid approaches”. Ethics and Information Technology, 7(3), 149–155.
Boletín Oficial (2023). “Recomendaciones para una inteligencia artificial fiable”. En Internet: https://www.boletinoficial.gob.ar/detalleAviso/primera/287679/20230602
Christiano, Paul (2018). “How OpenAI is developing real solutions to the ‘AI alignment problem”. En Internet: https://80000hours.org/podcast/episodes/paul-christiano-ai-alignment-solutions/
Gabriel, Iason (2020). “Artificial Intelligence, Values, and Alignment”. Minds & Machines 30, 411–437. En Internet: https://doi.org/10.1007/s11023-020-09539-2
Naciones Unidas (2021). Nuestra agenda común: Informe del secretario general, Nueva York, Naciones Unidas.
Russell, Simon (2019). Human Compatible: AI and the Problem of Control. Bristol: Allen Lane.