Autoencoders Variacionales (VAE)
Son un tipo de modelo generativo basado en redes neuronales utilizado dentro del ámbito del aprendizaje profundo.
Están diseñados para aprender representaciones latentes compactas y continuas a partir de datos de entrada de alta dimensionalidad.
Incorporan una estructura probabilística que permite modelar la distribución de los datos de forma más robusta en comparación con modelos deterministas.
Consisten en dos componentes principales: un codificador que transforma los datos de entrada en una representación latente y un decodificador encargado de reconstruir los datos originales a partir de esa representación.
Se caracterizan por el uso de una función de pérdida que combina la reconstrucción de los datos y la regularización de la distribución latente mediante la divergencia Kullback-Leibler (KL).
Resultan útiles para tareas como generación de datos sintéticos, reducción de dimensionalidad y análisis de datos en dominios como imágenes, texto y audio.
Entradas Relacionadas