Máquinas que saben lo que importa: ingeniería de la conciencia de valores sociales

Máquinas que saben lo que importa: ingeniería de la conciencia de valores sociales

Fecha: marzo 2026

Carles Sierra

Conciencia de valores, sistemas value-aware, RGNW, inteligencia artificial

Ingeniería de la inteligencia artificial responsable

La integración ética de la inteligencia artificial (IA) en la sociedad requiere superar tanto el catastrofismo apocalíptico como las limitaciones de los enfoques éticos puramente normativos. Este capítulo argumenta que el camino viable no reside en dotar a las máquinas de conciencia fenomenológica (consciousness), sino de capacidad operativa (awareness) para reconocer y actuar conforme a los valores humanos. Partiendo de la distinción filosófica crítica entre ambos conceptos, se defiende que es posible y necesario construir agentes value-aware (conscientes de valores) sin atribuirles un estatus moral inherente. Para ello, se presenta un marco de ingeniería centrado en la Incrustación de Valores (Value Embedding), que supera la rigidez del Diseño Sensible a Valores al internalizar representaciones computacionales de los valores, permitiendo una adaptación autónoma y contextual.

El núcleo de la propuesta es la arquitectura Reflective Global Neuronal Workspace (RGNW), inspirada en la neurociencia cognitiva y estructurada en tres niveles (reactivo, deliberativo y reflectivo). Este modelo no solo ejecuta comportamientos, sino que reflexiona sobre ellos a la luz de un sistema de valores, gestionando la coherencia entre preferencias axiológicas, normas derivadas y acciones. La RGNW dota al agente de una teoría de la mente artificial que le permite inferir los valores y estados mentales de sus interlocutores, y lo posiciona como un participante activo en la negociación social de valores. Así, el capítulo trasciende la visión de la IA como mero ejecutor de reglas, presentándola como un ente capaz de comprender, adaptarse y contribuir al dinámico ecosistema moral humano. La viabilidad del enfoque se demuestra con aplicaciones prácticas en análisis de redes sociales, robótica asistencial y herramientas de apoyo a la decisión clínica, señalando un camino pragmático y urgente hacia una IA socialmente responsable.

Descargar artículo (formato PDF)

Funcas

Think tank dedicado a la investigación económica y social

Contacto
C/ Caballero de Gracia, 28 | 28013 Madrid, España
+34 91 596 57 18 | funcas@funcas.es
Síguenos
Share via
Send this to a friend