“La IA interpretable resulta imprescindible en decisiones críticas donde está en juego la confianza, la seguridad o la equidad”

Concha Bielza, catedrática de la Universidad Politécnica de Madrid y Premio Nacional de Estadística 2024, impartió la lección inaugural titulada “Inteligencia Artificial interpretable” en el acto de apertura de curso.

29.09.25

La Universidad Politécnica de Madrid celebró su apertura de curso en un acto presidido por el rector de la UPM. Óscar García Suárez. Durante el evento, Concha Bielza, catedrática de la UPM y Premio Nacional de Estadística 2024, impartió la lección inaugural titulada “Inteligencia Artificial interpretable”.

Por este motivo, la profesora de la UPM, Concha Bielza, a través de una entrevista cuenta el funcionamiento de la Inteligencia Artificial interpretable, sus aplicaciones y su impacto social, además de otras líneas de investigación y el impacto de la IA en la docencia.

¿Qué es y cómo funciona la Inteligencia Artificial interpretable?

La IA interpretable es un concepto que va un paso más allá de la IA explicable. La explicabilidad surge primero, como respuesta a la necesidad de que las personas entendamos las decisiones de los modelos de caja negra —como las redes profundas o ChatGPT—, cuya complejidad (con miles de millones de parámetros y capas de neuronas artificiales) hace imposible seguir cómo se generan sus salidas. 

En 2016, la agencia DARPA lanzó el programa XAI (eXplainable Artificial Intelligence), que popularizó el término y causó que a lo largo de los años siguientes se propusieran diversas técnicas de explicabilidad en forma de visualizaciones, narrativas, mapas de atención, rankings de variables o modelos sustitutos. Todas ellas buscan dar explicaciones a posteriori, que en ámbitos críticos como justicia, salud o finanzas pueden resultar poco fiables, incompletas o incluso engañosas. Saber, por ejemplo, cuáles son las cinco variables más "importantes" no implica comprender cómo se utilizaron para formar la decisión. La IA interpretable, en cambio, defiende que los modelos sean inherentemente comprensibles desde su diseño, de modo que el usuario pueda seguir su lógica interna de manera directa. Existe un debate abierto sobre un supuesto dilema entre interpretabilidad y precisión: se asume que los modelos más comprensibles son menos precisos. Sin embargo, la evidencia muestra que entender el modelo facilita detectar y corregir errores, lo que en muchos casos mejora también su rendimiento.

¿Qué aplicaciones tiene este tipo de Inteligencia Artificial?

La IA está presente en casi todos los ámbitos de nuestra vida. La IA interpretable siempre es deseable, pero resulta imprescindible en decisiones críticas, donde está en juego la confianza, la seguridad o la equidad.

No es lo mismo distinguir entre imágenes de un perro y un gato —donde la explicabilidad puede bastar— que tomar decisiones en ámbitos de alto riesgo. Por eso el AI Act europeo exige transparencia ya desde el segundo de sus cuatro niveles de riesgo. Algunos ejemplos clave que se pueden nombrar son los siguientes. En salud, diagnóstico asistido, medicina personalizada, justificación de tratamientos. En finanzas, concesión de créditos, detección de fraudes. En derecho y administración, procesos judiciales y legales; acceso a becas, ayudas o subvenciones. En industria, mantenimiento predictivo, optimización de procesos, gestión energética. En psicología, apoyo en decisiones clínicas sensibles, como pautas anti-suicidio.

En todos estos campos necesitamos entender cómo decide el sistema para poder confiar en él. De hecho, en Estados Unidos la FDA ha aprobado numerosos sistemas de IA en medicina, pero apenas se utilizan unos pocos porque los médicos no confían en lo que no se explica con claridad.

¿Qué impacto social y humano tiene la IA ahora y en el futuro?

El impacto de la inteligencia artificial ya es una realidad en muchos ámbitos. Tiene una doble cara: beneficios muy prometedores, pero también riesgos que debemos gestionar.
Entre los aspectos positivos, además de la eficiencia y la comodidad, me gustaría destacar su capacidad para generar nuevo conocimiento. Hoy la IA ya está ayudando a descubrir moléculas para nuevos fármacos —un ejemplo muy conocido es AlphaFold, que revolucionó la predicción de la estructura de las proteínas—, al mismo tiempo que contribuye al hallazgo de nuevos materiales en física y química, como superconductores, aleaciones o baterías, e incluso a demostrar teoremas y resolver conjeturas matemáticas. Por otra parte, los riesgos son claros: puede acentuar desigualdades, reproducir sesgos, transformar el empleo de manera abrupta o consumir cantidades insostenibles de energía.

El reto está en maximizar ese potencial transformador sin perder de vista las responsabilidades sociales, humanas y medioambientales.

Una de sus líneas de investigación son las redes bayesianas, ¿en qué consisten y qué relación tienen con la IA?

Las redes bayesianas son modelos gráficos probabilísticos que representan el conocimiento bajo incertidumbre de una forma inherentemente interpretable. En un grafo se muestran las relaciones de dependencia probabilística entre variables, y cada nodo se acompaña de probabilidades condicionadas que, en conjunto, definen la distribución de todo el sistema. Se pueden aprender de los datos, aunque también es posible incorporar el conocimiento de expertos en su construcción. Una vez entrenadas, permiten responder a todo tipo de preguntas probabilísticas —desde predicciones hasta diagnósticos, razonamientos intercausales o incluso contrafácticos—, lo que las convierte en auténticos motores de inferencia. La evidencia, es decir, las observaciones de algunas variables, puede interpretarse apoyándose en otras variables no observadas que ayudan a explicarla. Además, es posible cuantificar la confianza en las decisiones tomadas, algo fundamental en aplicaciones críticas.

Esta capacidad de explicar el modelo, el razonamiento, la evidencia y las decisiones sitúa a las redes bayesianas en un nivel de interpretabilidad muy superior al de la mayoría de modelos de IA. Y no son solo mapas de relaciones: se aplican en clustering, clasificación, regresión, detección de anomalías, selección de variables y otras tareas estándar de aprendizaje automático, con el valor añadido de que sus resultados son comprensibles.

¿Qué aplicaciones tiene la IA en la docencia tanto desde el punto de vista del profesor y del estudiante?

En docencia, la IA ofrece oportunidades tanto para el profesor como para el estudiante.
Para el profesor puede facilitar tareas repetitivas, como la corrección de tests o ejercicios de programación, y también analizar trabajos más abiertos desde el punto de vista de la coherencia. Además, puede ayudar a detectar el riesgo de fracaso escolar combinando notas, participación u otros indicadores, e incluso apoyar en la preparación de materiales o en la búsqueda de ejemplos y explicaciones más accesibles.

Para el estudiante, la IA puede actuar como un profesor virtual siempre disponible, que ofrece aprendizaje adaptativo y recursos personalizados. Herramientas como traductores en tiempo real o el resumen de textos complejos facilitan el aprendizaje a cualquier estudiante. Y otras, como los subtítulos automáticos o la lectura en voz alta, son clave para la inclusión de alumnos con necesidades especiales. También es útil en la corrección con feedback inmediato y, lo que me parece más inspirador, en fomentar la creatividad, ayudando a los alumnos a crear proyectos, ensayar ideas o simular situaciones que no habían imaginado.

Se habla del fraude en la Universidad y ahora con la IA mucho más. ¿Se puede evitar?

El fraude en la universidad no se puede evitar del todo —ya existía antes de la IA en forma de plagio, copia o suplantación—, pero con estas nuevas herramientas puede amplificarse, porque la producción automática de texto, imágenes o código es un hecho. Más que prohibir, lo que debemos hacer es gestionar y reducir el problema. Una vía es la detección, incluso con métodos de IA, aunque sabemos que no son infalibles. La otra, quizá más sensata, es cambiar la forma de evaluar: dar más peso a pruebas orales, a casos muy locales donde la IA no pueda ayudar, y a tareas que exijan un razonamiento personal. Esto es algo que al menos las universidades deberían debatir de forma abierta.

Y lo más importante: formar a los estudiantes como ciudadanos responsables. La IA ha llegado para quedarse, y el objetivo de la universidad no es solo aprobar exámenes, sino aprender a pensar. Usar estas herramientas sin criterio puede debilitar el pensamiento crítico, favorecer la desinformación y generar una dependencia excesiva.