Batch Gradient Descent (Descenso de Gradiente por Lote)

Método de optimización utilizado en machine learning para ajustar los pesos o parámetros de un modelo con base en la dirección opuesta al gradiente de la función de pérdida.
Realiza la actualización de los parámetros después de calcular el gradiente de la función de pérdida en todo el conjunto de datos de entrenamiento, lo que garantiza una dirección de descenso más precisa.
Puede ser computacionalmente costoso para conjuntos de datos muy grandes, ya que involucra el análisis completo del dataset en cada iteración.
Es eficiente en términos de estabilidad, ya que la dirección del descenso no fluctúa con las actualizaciones, lo que facilita la convergencia hacia un mínimo global en superficies de pérdida bien definidas.
No es ideal para modelos que requieren rápida retroalimentación y actualización debido a la latencia inherente a procesar todos los datos en cada paso de optimización.
Se utiliza principalmente en problemas donde el costo computacional no es una limitante y la precisión en el descenso del gradiente es prioritaria.