Layer Freezing (Congelación de Capas)

Layer Freezing (Congelación de Capas)

Técnica utilizada en el ámbito del entrenamiento de modelos de aprendizaje profundo que bloquea los parámetros de ciertas capas de una red neuronal para que no se actualicen durante el proceso de optimización.

Permite reutilizar conocimientos previamente entrenados en modelos existentes, preservando la efectividad de las capas congeladas mientras se ajustan únicamente las capas no congeladas.

Es particularmente útil en escenarios de transferencia de aprendizaje, donde una red previamente entrenada en una tarea se adapta a una tarea diferente utilizando nuevas capas.

Ayuda a reducir el riesgo de sobreajuste en modelos con datos de entrenamiento limitados, ya que mantiene los parámetros sólidos de las capas bloqueadas sin someterlos a cambios innecesarios.

Optimiza el uso de recursos computacionales al evitar cálculos en las capas congeladas, acelerando potencialmente el proceso de entrenamiento.

Se configura ajustando el optimizador del modelo para que no actualice los pesos de las capas designadas como congeladas.

Subir