Hiperparámetro
Parámetro configurable que define ajustes específicos del modelo o del proceso de aprendizaje, pero que no se actualiza de manera automática durante el entrenamiento.
Se establece antes de iniciar el entrenamiento de la inteligencia artificial y debe ser ajustado manualmente de manera experimental para optimizar el rendimiento del modelo.
Algunos ejemplos incluyen la tasa de aprendizaje, el número de neuronas en una capa, el número de capas de una red, o el número de árboles en un modelo de bosque aleatorio.
Una selección adecuada y eficiente puede mejorar significativamente la precisión y generalización del modelo, pero su ajuste puede ser un proceso complejo y, a menudo, implica técnicas como búsqueda aleatoria o búsqueda en cuadrícula.
Juega un rol clave en la prevención del sobreajuste o el subajuste, obteniendo un equilibrio óptimo entre la capacidad del modelo y su rendimiento en datos no vistos.
Por su naturaleza, su ajuste forma parte esencial en la experimentación dentro del flujo de trabajo del machine learning.
Entradas Relacionadas