Regularización

En el ámbito de la inteligencia artificial y el aprendizaje automático, se refiere a un conjunto de técnicas diseñadas para prevenir el sobreajuste (overfitting) de los modelos.
El sobreajuste ocurre cuando un modelo se adapta excesivamente a los datos de entrenamiento, lo que afecta su capacidad para generalizar y desempeñarse bien con datos nuevos.
La regularización introduce penalizaciones a los parámetros del modelo, limitando su complejidad.
Las técnicas más comunes incluyen L1 (Lasso) y L2 (Ridge), que agregan términos de penalización basados en las normas de los coeficientes del modelo a la función de pérdida.
También existe Dropout, una técnica especialmente útil en redes neuronales, que desactiva aleatoriamente ciertas conexiones durante el entrenamiento para reducir la dependencia excesiva en características específicas.