Interpretabilidad con redes bayesianas

Interpretabilidad con redes bayesianas

Fecha: diciembre 2024

Pedro Larrañaga

Interpretabilidad, redes bayesianas, neurociencia computacional

La inteligencia artificial hoy y sus aplicaciones con Big Data

La creciente difusión y popularidad de los sistemas inteligentes basados en aprendizaje automático plantea la disyuntiva de su uso indiscriminado frente a la necesidad de comprender su funcionamiento interno. La explicación post hoc, a la que habitualmente recurren los modelos de caja negra, no resulta suficiente en el ámbito científico ni tampoco en situaciones de alto riesgo. En tales casos se requiere que el humano sea capaz de interpretar tanto la salida del sistema como el proceso interno seguido por el mismo hasta alcanzar dicho resultado. En este capítulo analizaremos las potencialidades en interpretabilidad del paradigma conocido como red bayesiana enfatizando su transparencia y versatilidad para llevar a cabo distintos tipos de razonamiento, como por ejemplo el predictivo, diagnóstico, intercausal, contrafáctico, o abductivo. Se mostrará un caso de uso real en neurociencia computacional.

Descargar artículo (formato PDF)

Funcas

Think tank dedicado a la investigación económica y social

Contacto
C/ Caballero de Gracia, 28 | 28013 Madrid, España
+34 91 596 57 18 | funcas@funcas.es
Síguenos
Share via
Send this to a friend