Descenso de Gradiente Estocástico

Descenso de Gradiente Estocástico

Método de optimización utilizado en inteligencia artificial y machine learning para ajustar los parámetros de un modelo minimizando la función de pérdida.

Se basa en la idea de actualizar iterativamente los parámetros utilizando el gradiente de la función de pérdida calculado en un subconjunto aleatorio de los datos, en lugar de hacerlo con el conjunto completo.

Esta técnica reduce el costo computacional por iteración y es especialmente útil cuando se trabaja con grandes volúmenes de datos.

Introduce aleatoriedad en el proceso de entrenamiento, lo que puede ayudar a evitar caer en mínimos locales y mejorar la capacidad del modelo para generalizar.

Entradas Relacionadas

Subir