XAI (Inteligencia Artificial Explicable)

Es un enfoque dentro del ámbito de la inteligencia artificial que busca garantizar que los modelos y sistemas sean interpretables y comprensibles para los humanos.
Permite que tanto desarrolladores como usuarios puedan entender cómo y por qué se toman ciertas decisiones o se generan resultados en un sistema de IA.
Contribuye a aumentar la confianza en los sistemas de IA, al proporcionar explicaciones claras de su funcionamiento interno.
Facilita el cumplimiento de normativas legales y éticas, al ofrecer transparencia y justificabilidad en los procesos de toma de decisiones automatizados.
Es especialmente relevante en sectores sensibles como la medicina, las finanzas o el derecho, donde las decisiones deben ser auditables y verificables.
Incorpora técnicas visuales, estadísticas y lingüísticas para representar de manera accesible las decisiones de los modelos de aprendizaje automático.
Promueve un balance entre la complejidad del modelo y la claridad de las explicaciones ofrecidas, evitando generar soluciones tipo "caja negra".
Es fundamental para garantizar el uso responsable y ético de las tecnologías de inteligencia artificial en la sociedad.