El Machine Learning(ML), traducido al castellano como aprendizaje maquínico, aprendizaje de máquina o aprendizaje automático (AA), es una subdisciplina de la IA y las ciencias de la computación que se centra en el uso de datos y algoritmos para imitar la forma en que los humanos aprenden, mejorando gradualmente su precisión. El primer antecedente de este desarrollo fue creado por Frank Rosenblatt, en 1958, quien inventó el primer algoritmo de aprendizaje supervisado, llamado Perceptrón. Son modelos computacionales que aprenden a identificar patrones complejos a través del análisis y procesamiento de datos y predecir comportamientos futuros por sí mismas. En el caso del ML profundo, pueden incluso mejorar sus habilidades “de forma autónoma con el tiempo sin la intervención humana”.
Según la Escuela de Datos de la Universidad de Berkeley, el concepto básico del aprendizaje automático en la ciencia de datos implica el uso de métodos de optimización y aprendizaje estadístico que permiten a las computadoras analizar conjuntos de datos e identificar patrones. Las técnicas de aprendizaje automático aprovechan la minería de datos para identificar tendencias históricas e informar modelos futuros. Un algoritmo típico de aprendizaje automático supervisado consta aproximadamente de tres componentes: (1) Un proceso de decisión: una receta de cálculos u otros pasos que toma los datos y «adivina» qué tipo de patrón busca encontrar su algoritmo. (2) Una función de error: un método para medir qué tan buena fue la suposición comparándola con ejemplos conocidos (cuando estén disponibles). Se pregunta si el proceso de decisión fue correcto, y, de no serlo, cuantifica “qué tan grave” fue el error. Y (3) Un proceso de optimización del modelo: un método en el que el algoritmo analiza el error y luego actualiza cómo el proceso de decisión llega a la decisión final, de modo que la próxima vez el error no sea tan grande.
Hay en la actualidad varias subdisciplinas de la Inteligencia Artificial (IA) que se explican por su escala de alcance. La Inteligencia Artificial (IA) es el sistema global, el Machine Learning (ML) es un subcampo de la misma, las redes neuronales son a su vez un subcampo de ML y el Deep Learning (DP) es un subcampo de las redes neuronales. Es la cantidad de capas de nodos, o profundidad, de las redes neuronales lo que distingue una sola red neuronal de un algoritmo de DL, que debe tener más de tres.
El Machine Learning (ML) utiliza una variedad de algoritmos que aprenden de los datos, a medida que aumentan sus bases, o sea su caudal de entrenamiento, que son justamente esos datos, mejoran sus capacidades predictivas y se vuelven más precisos, “más inteligentes”. Así, sus componentes esenciales son:
- los datos de entrenamiento utilizados por los algoritmos de aprendizaje para construir modelos;
- los algoritmos de aprendizaje, que son métodos matemáticos utilizados para entrenar y mejorar los modelos;
- los modelos, que son representaciones matemáticas de las relaciones entre los datos utilizados para hacer predicciones;
- los métodos de evaluación y validación, que implican el uso de datos de prueba para medir el desempeño del modelo y su capacidad de generalización; y
- los métodos de optimización y ajuste, que permiten la mejora continua de los modelos.
Hay muchos tipos de modelos de ML definidos por la presencia o ausencia de influencia humana en todo el proceso, ya sea que se ofrezca una recompensa, se brinde retroalimentación específica o se utilicen etiquetas. Según Nvidia.com, existen diferentes modelos de aprendizaje automático:
⦁ el aprendizaje supervisado, donde el conjunto de datos que se utiliza ha sido preetiquetado y clasificado por los usuarios para permitir que el algoritmo vea qué tan preciso es su rendimiento;
⦁ el aprendizaje no supervisado, donde el conjunto de datos sin procesar que se utiliza no está etiquetado y un algoritmo identifica patrones y relaciones dentro de los datos sin la ayuda de los usuarios;
⦁ el aprendizaje semisupervisado, donde el conjunto de datos contiene datos estructurados y no estructurados, que guían al algoritmo en su camino hacia conclusiones independientes, y donde la combinación de los dos tipos de datos en un conjunto de datos de entrenamiento permite que los algoritmos de aprendizaje automático aprendan a etiquetar datos sin etiquetar; y
⦁ el aprendizaje por refuerzo, donde el conjunto de datos utiliza un sistema de “recompensas”, que ofrece retroalimentación al algoritmo para aprender de sus propias experiencias mediante prueba y error.
REFERENCIAS
Solanet, Manuel (ed). Inteligencia artificial: una mirada multidisciplinaria. Buenos Aires, Academia Nacional de Ciencias Morales y Políticas.
Documentos oficiales y páginas web
OCDE (2019).“Artificial Intelligence in Society”.https://www.oecd.org/digital/, Recommendation of the Council on Artificial Intelligence. https://legalinstruments.oecd.org/en/instruments/OECD-LEGAL-0449
https://ischoolonline.berkeley.edu/blog/what-is-machine-learning/
https://www.ibm.com/blog/ai-vs-machine-learning-vs-deep-learning-vs-neural-networks/
https://ischoolonline.berkeley.edu/blog/what-is-machine-learning/
https://www.ibm.com/mx-es/topics/machine-learning