La Universidad de Granada ha coordinado la elaboración de un manual que busca reforzar la confianza, la responsabilidad y la equidad en aplicaciones de IA en sectores como la salud, las finanzas y el ámbito legal. Este recurso ofrece una forma de verificar y certificar los resultados de modelos complejos y contribuye al desarrollo de sistemas de IA que no solo sean efectivos, sino también comprensibles y justos.
En los últimos años, el uso de sistemas automáticos de apoyo a la toma de decisiones, como las Redes Neuronales Profundas (DNNs), ha crecido de manera significativa. Estos modelos destacan por su capacidad de predicción, pero su naturaleza opaca dificulta la interpretación detallada de su comportamiento, lo que plantea riesgos éticos y de legitimidad en decisiones de alto impacto. Para abordar la problemática, el reciente artículo publicado en ACM Digital Library, titulado 'A Practical tutorial on Explainable AI Techniques', presenta un manual exhaustivo de técnicas de inteligencia artificial explicable (XAI).
Este recurso busca convertirse en una guía esencial para profesionales de la informática que busquen comprender y explicar los resultados de modelos de Machine Learning. Cada capítulo describe técnicas XAI aplicables en situaciones cotidianas, con ejemplos y cuadernos de trabajo en Python que pueden adaptarse fácilmente a diversas aplicaciones específicas. Además de proporcionar métodos prácticos, el manual ayuda a los usuarios a conocer los requisitos necesarios para cada técnica y los beneficios que pueden obtener, promoviendo así un uso ético y responsable de la IA.
La directora de esta guía es Natalia Díaz Rodríguez, profesora del Departamento de Ciencias de la Computación e Inteligencia Artificial de la UGR, y una de las integrantes del Instituto Andaluz Interuniversitario en Ciencia de Datos e Inteligencia Computacional (Instituto DaSCI). Natalia Díaz también es beneficiaria de una de las becas de Talento Leonardo de la Fundación BBVA. "Es importante que seamos conscientes de las capacidades y limitaciones, tanto de los modelos avanzados de IA como de las técnicas de explicabilidad que tratan de argumentar y validar los primeros. En ocasiones, las explicaciones no son satisfactorias o fácilmente validables: por ejemplo, no coinciden con el idioma que habla el experto del dominio en cada caso, exhibiendo dificultades a la hora de resolver el entendimiento entre público técnico y de calle. ¿No sería genial pedirle a chat GPT que nos traduzca que ha aprendido realmente un modelo y lo exprese con palabras? Aunque esto es algo a lo que aspiramos, y queda mucha investigación por realizar, este tutorial intenta dar un paso adelante en esta dirección, mostrando el catálogo de técnicas básicas para los distintos tipos de datos que los modelos suelen ingerir más frecuentemente".
El trabajo ha sido realizado durante la estancia de la profesora Díaz en el Instituto Politécnico de París y es una colaboración internacional con expertos de Reino Unido, Francia y Austria, entre otros países.
El Instituto Andaluz Interuniversitario en Ciencia de Datos e Inteligencia Computacional es una entidad de colaboración entre las universidades de Granada, Jaén y Córdoba. Se dedica a la investigación avanzada y la formación en el ámbito de la inteligencia artificial, con un enfoque particular en la ciencia de datos e inteligencia computacional. Reúne a un destacado grupo de investigadores e investigadoras que trabajan en proyectos conjuntos, promoviendo el desarrollo y la aplicación de tecnologías innovadoras en diversos sectores, con el objetivo de convertirse en un referente en su campo. El DaSCI impulsa la transferencia de conocimiento científico al entorno socioeconómico, contribuyendo así al progreso tecnológico y a la digitalización de la industria.