Gradiente Estocástico
Técnica de optimización utilizada ampliamente en el entrenamiento de modelos de aprendizaje automático e inteligencia artificial para ajustar los pesos de manera más eficiente.
Se basa en el cálculo iterativo de los gradientes de una función de pérdida respecto a los parámetros del modelo con el objetivo de minimizarlos.
A diferencia del gradiente estándar, utiliza subconjuntos aleatorios de los datos de entrenamiento, llamados mini-lotes, para estimar el gradiente en cada iteración.
Esta aproximación reduce el costo computacional en comparación con calcular el gradiente exacto en todo el conjunto de datos.
Introduciendo aleatoriedad, contribuye a escapar de mínimos locales y favorece la convergencia en problemas de alta dimensionalidad.
Es una técnica clave en el aprendizaje profundo, aplicada en arquitecturas como redes neuronales y otros algoritmos complejos.
Entradas Relacionadas