Normalización Batch (Batch Normalization)
Técnica utilizada para acelerar el entrenamiento de redes neuronales profundas y estabilizar el proceso de aprendizaje.
Se basa en normalizar las entradas de cada capa de la red, calculando la media y desviación estándar en un mini-lote de datos durante el entrenamiento.
Ayuda a reducir el problema de desvanecimiento o explosión del gradiente, mejorando la eficiencia en redes complejas.
Introduce parámetros escalables y de desplazamiento que permiten a la red aprender la distribución óptima para cada capa.
Contribuye a hacer el modelo más robusto frente a diferentes inicializaciones y velocidades de aprendizaje, aumentando su rendimiento.
Entradas Relacionadas