Boosting
Técnica de ensamble que combina múltiples modelos débiles, generalmente árboles de decisión, para crear un modelo fuerte y más preciso.
Se basa en entrenar modelos de manera secuencial, donde cada modelo intenta corregir los errores del anterior optimizando su rendimiento sobre los datos mal clasificados o con mayores errores.
Asigna pesos mayores a las observaciones incorrectamente predichas en cada iteración, permitiendo que el modelo se enfoque en resolver estos casos complicados.
Algoritmos populares que emplean este enfoque incluyen AdaBoost, Gradient Boosting y XGBoost, utilizados en tareas de clasificación y regresión.
El objetivo es reducir sesgo y varianza en el modelo final, mejorando la precisión y efectividad de las predicciones.
Entradas Relacionadas