Local Outlier Factor (Factor Local de Anomalías)

Es un algoritmo comúnmente utilizado en tareas de detección de anomalías dentro del campo del machine learning.
Su funcionamiento se basa en analizar la densidad local de los puntos en un espacio multidimensional para identificar comportamientos atípicos o anomalías.
Los puntos cuya densidad local es significativamente menor en comparación con sus vecinos son etiquetados como anomalías.
Para cada punto, calcula un factor que indica su grado de desviación.
Los valores cercanos a 1 sugieren que el punto es similar a su entorno, mientras que valores mayores a 1 indican posibles anomalías.
Es particularmente útil en situaciones donde los datos se distribuyen de manera no uniforme, ya que hace uso de relaciones locales en lugar de promedios globales.
Se aplica en una amplia variedad de escenarios, como la detección de fraudes, el monitoreo de redes y el análisis de datos financieros.