Factor de corrección

En el ámbito de la inteligencia artificial y el machine learning, se refiere a un valor o parámetro aplicado para ajustar o modificar un modelo a fin de minimizar errores o mejorar su precisión en tareas específicas.
Se utiliza en algoritmos de aprendizaje supervisado y no supervisado para optimizar el rendimiento del modelo frente a datos reales.
Es comúnmente empleado en la calibración de pesos, tasas de aprendizaje o regularización durante el entrenamiento de redes neuronales u otros modelos estadísticos.
Permite reducir el sesgo o la varianza, asegurando una generalización adecuada del sistema al enfrentarse a nuevos conjuntos de datos.
Su correcta implementación es clave para lograr un equilibrio entre la capacidad predictiva y la estabilidad del modelo.