Interpretabilidad con redes bayesianas
Fecha: diciembre 2024
Pedro Larrañaga
Interpretabilidad, redes bayesianas, neurociencia computacional
La inteligencia artificial hoy y sus aplicaciones con Big Data
La creciente difusión y popularidad de los sistemas inteligentes basados en aprendizaje automático plantea la disyuntiva de su uso indiscriminado frente a la necesidad de comprender su funcionamiento interno. La explicación post hoc, a la que habitualmente recurren los modelos de caja negra, no resulta suficiente en el ámbito científico ni tampoco en situaciones de alto riesgo. En tales casos se requiere que el humano sea capaz de interpretar tanto la salida del sistema como el proceso interno seguido por el mismo hasta alcanzar dicho resultado. En este capítulo analizaremos las potencialidades en interpretabilidad del paradigma conocido como red bayesiana enfatizando su transparencia y versatilidad para llevar a cabo distintos tipos de razonamiento, como por ejemplo el predictivo, diagnóstico, intercausal, contrafáctico, o abductivo. Se mostrará un caso de uso real en neurociencia computacional.