Algoritmo de Descenso de Gradiente

Es un procedimiento matemático iterativo utilizado para optimizar funciones y encontrar los valores óptimos de los parámetros en modelos de aprendizaje automático.
Se basa en calcular el gradiente de la función de pérdida respecto a los parámetros del modelo, indicando la dirección del cambio que reduce la pérdida más rápidamente.
A través de pequeños ajustes en los parámetros, que dependen de un factor de aprendizaje, busca minimizar el error de predicción del modelo.
Es ampliamente empleado debido a su efectividad en entrenar redes neuronales y otros modelos de machine learning.