Jensen-Shannon Divergence

También conocida como JSD, es una métrica utilizada para medir la similitud entre dos distribuciones de probabilidad en el ámbito de la inteligencia artificial y machine learning.
Se basa en el principio de la entropía y es una versión suavizada y simétrica de la divergencia de Kullback-Leibler (KL), lo que la hace más adecuada para ciertos contextos prácticos.
A diferencia de la divergencia KL, la JSD es siempre finita y está acotada entre 0 y 1, facilitando la interpretación de los resultados.
Se define como el promedio ponderado de las divergencias KL de las distribuciones originales con respecto a su distribución promedio.
Es ampliamente aplicada en tareas como el análisis de diferencias entre modelos, la evaluación de distribuciones generadas por redes generativas adversariales (GANs) y el procesamiento de texto en análisis de tema.
Su capacidad para comparar distribuciones de manera equilibrada y sin sesgo la convierte en una herramienta valiosa en diversos campos de la inteligencia artificial.