Normalización Batch (Batch Normalization)

Normalización Batch (Batch Normalization)

Técnica utilizada para acelerar el entrenamiento de redes neuronales profundas y estabilizar el proceso de aprendizaje.

Se basa en normalizar las entradas de cada capa de la red, calculando la media y desviación estándar en un mini-lote de datos durante el entrenamiento.

Ayuda a reducir el problema de desvanecimiento o explosión del gradiente, mejorando la eficiencia en redes complejas.

Introduce parámetros escalables y de desplazamiento que permiten a la red aprender la distribución óptima para cada capa.

Contribuye a hacer el modelo más robusto frente a diferentes inicializaciones y velocidades de aprendizaje, aumentando su rendimiento.

Entradas Relacionadas

Subir