El concepto IA generativa o inteligencia artificial generativa se refiere a un tipo de inteligencia artificial que puede crear diversos contenidos como conversaciones, historias, imágenes, videos y música. Mediante la aplicación de IA generativa también se pueden desarrollar otro tipo de contenidos en base a un mismo modelo de funcionamiento. El Machine Learning aprende los patrones y relaciones de grandes conjuntos de datos tomados de Internet y en base a ellos desarrolla contenido original.
La IA generativa sirve además para mejorar la calidad de las imágenes digitales, editar videos, crear prototipos, traducir documentos o audio, resumir información, y aumentar los datos con conjuntos de datos sintéticos. A partir de estas capacidades se puede implementar el uso de IA generativa para resolver problemas complejos y tomar decisiones estratégicas a nivel empresarial o gubernamental, para desarrollar nuevos descubrimientos científicos o soluciones en el campo industrial, y también se la puede aplicar en entornos privados para escribir un poema o planificar unas vacaciones.
Asimismo, la pregunta por la IA generativa está inherentemente vinculada con otras: cuáles son los alcances de estas tecnologías, hasta dónde pueden hacer estos sistemas, cómo lo hacen, cuál es la injerencia humana en sus despliegues y cuáles son los beneficios y las desventajas o los peligros de su aplicación. Esto será abordado en otros términos de glosario, como el de “ética en la IA”.
El salto cualitativo de la última década dado por la IA generativa se explica a partir del descubrimiento de los Modelos Transformadores. Un modelo transformador es una red neuronal que aprende el contexto y, por tanto, el significado mediante el seguimiento de relaciones en datos secuenciales. Los modelos de transformadores “aplican un conjunto en evolución de técnicas matemáticas, llamadas atención o autoatención, para detectar formas sutiles en que incluso los elementos de datos distantes en una serie influyen y dependen unos de otros”. Su primera descripción aparece en un artículo publicado por Google en 2017 (“AttentionisAllYouNeed”) y, en 2021, otra publicación, en este caso de un grupo de expertos de la Universidad de Stanford, pasó a denominar a los modelos transformadores como “modelos básicos” o “modelos fundacionales”. Para los especialistas firmantes del documento los Modelos Fundacionales impulsan un cambio de paradigma en la IA. Allí manifiestan que la “gran escala y alcance de los Modelos Fundacionales de los últimos años han ampliado nuestra imaginación sobre lo que es posible”.
La aplicación de los Modelos Transformadores o Fundacionales se ha expandido y masificado porque no requieren el entrenamiento de los datos mediante el etiquetado que implicaba la supervisión humana, en lo que se conoce como aprendizaje no supervisado. Los Transformadores calculan automáticamente los patrones entre elementos y se autoentrenan, operan de manera no supervisada y autorregresiva.
El Modelo Fundacional más conocido actualmente es el Chat GPT (GenerativePretrainedTransformer, Transformador Generativo Preentrenado), que es una extensión del Modelo de Lenguaje Grande GPT-3 entrenado para responder preguntas y generar respuestas coherentes en lenguaje natural. La clave del Chat GPT fue la incorporación de un tipo de entrenamiento llamado “aprendizaje reforzado” que optimiza la calidad de sus respuestas. “El aprendizaje reforzado incorpora retroalimentación durante el proceso de entrenamiento. Esta retroalimentación fue usada para producir la primera versión de Chat GPT, basada en GPT 3.5. También incorpora este mecanismo de refuerzo en producción, lo cual le permite mejorar sus respuestas. Otra característica fundamental de Chat GPT es que es multilingüe. El hecho de que requiriera un “reentrenamiento” para incorporar información actualizada, lo cual era señalado como una limitación por sus propios desarrolladores, llevó al desarrollo del GPT-4, cuyo lanzamiento en marzo de 2023 generó controversias acerca de los alcances de la IA en términos éticos, coincidiendo con la publicación de la carta, firmadas por figuras relevantes del campo de la IA, que aboga por una detención temporaria de la investigación en IA.
REFERENCIAS
Arenas, Marcelo; Arriagada, Gabriela; Mendoza, Marcelo; Prieto, Claudia (2020). Una breve mirada al estado actual de la Inteligencia Artificial, Pontificia Universidad Católica de Chile, 2020. https://desarrollodocente.uc.cl/wp-content/uploads/2020/09/Una-breve-mirada-al-estado-actual-de-la-Inteligencia-Artificial.pdf
Crawford, Kate (2022). Atlas de inteligencia artificial. Poder, política y costos planetarios. Buenos Aires, Fondo de Cultura Económica.
OCDE (2019).“Artificial Intelligence in Society”.https://www.oecd.org/digital/, Recommendation of the Council on Artificial Intelligence. https://legalinstruments.oecd.org/en/instruments/OECD-LEGAL-0449
Pasquinelli, Matteo; Joler, Vladan (2021). “El nooscopio de manifiesto. La inteligencia artificial como instrumento del extractivismo cognitivo”, en revista La Fuga.https://lafuga.cl/el-nooscopio-de-manifiesto/1053.
Solanet, Manuel (ed). Inteligencia artificial: una mirada multidisciplinaria. Buenos Aires, Academia Nacional de Ciencias Morales y Políticas.