Gradient-Free Optimization (Optimización sin Gradiente)

Es un enfoque de optimización que no depende del cálculo explícito de gradientes de la función objetivo.
Se utiliza comúnmente en problemas donde los gradientes no están disponibles, son costosos de calcular o la función objetivo es no diferenciable o estocástica.
Este método es especialmente útil en contextos como la optimización de hiperparámetros o en sistemas complejos donde las derivadas son difíciles de obtener.
Los algoritmos más destacados de este enfoque incluyen técnicas como la búsqueda aleatoria, evolución diferencial, optimización de enjambre de partículas (PSO) y algoritmos genéticos.
Su uso permite explorar espacios de solución de manera más generalizada, evitando quedarse atrapado en mínimos locales en problemas con superficies altamente irregulares o de alta dimensionalidad.