Bias-Variance Tradeoff (Compensación Sesgo-Varianza)

File0.8351108543528212.png

Es un principio fundamental en el aprendizaje automático que describe el equilibrio entre dos fuentes de error que afectan la capacidad predictiva de un modelo: el sesgo y la varianza.

El sesgo se refiere a los errores debidos a suposiciones excesivamente simples en el modelo, que generan una subadaptación. Este tipo de error ocurre cuando el modelo no capta correctamente los patrones de los datos, resultando en predicciones poco precisas.

Por otro lado, la varianza denota la sensibilidad del modelo a las fluctuaciones en los datos de entrenamiento, lo que puede llevar a una sobreadaptación. Esto significa que el modelo se ajusta demasiado a los detalles y ruido de los datos de entrenamiento, comprometiendo su capacidad para generalizar.

El objetivo es encontrar un balance óptimo entre ambos extremos. Reducir el sesgo puede aumentar la varianza y viceversa, por lo que gestionar esta compensación es clave para mejorar el rendimiento del modelo tanto en los datos de entrenamiento como en los datos no vistos.

Entradas Relacionadas

Subir