Boosting

File0.6766316948743794.png

Técnica de ensamble que combina múltiples modelos débiles, generalmente árboles de decisión, para crear un modelo fuerte y más preciso.

Se basa en entrenar modelos de manera secuencial, donde cada modelo intenta corregir los errores del anterior optimizando su rendimiento sobre los datos mal clasificados o con mayores errores.

Asigna pesos mayores a las observaciones incorrectamente predichas en cada iteración, permitiendo que el modelo se enfoque en resolver estos casos complicados.

Algoritmos populares que emplean este enfoque incluyen AdaBoost, Gradient Boosting y XGBoost, utilizados en tareas de clasificación y regresión.

El objetivo es reducir sesgo y varianza en el modelo final, mejorando la precisión y efectividad de las predicciones.

Entradas Relacionadas

Subir