¿De qué está hecha la inteligencia artificial? La transición a la sociedad digital desde una perspectiva sociológica

¿De qué está hecha la inteligencia artificial? La transición a la sociedad digital desde una perspectiva sociológica

Fecha: junio 2024

Alba Taboada Villamarín*

Inteligencia artificial, Sociedad digital, Perspectiva sociotécnica

Panorama Social, N.º 39 (junio 2024)

El presente artículo evalúa críticamente la noción monolítica de la inteligencia artificial (IA) y su rol en la transición de la sociedad de la información a la sociedad digital. Se analizan las principales dimensiones que atraviesan estas tecnologías, como el mercado de la información (datos), la interpretación de la cognición y la inteligencia aplicada a la toma de decisiones (software), las estructuras materiales invisibilizadas (hardware y centros de datos) y el poder y la agencia que intervienen en su consolidación (trabajo humano). Los principales hallazgos incluyen la redefinición de los modelos de automatización como sistemas sociotécnicos de alta dependencia, destacando los componentes sociales en su conformación y el papel del ser humano para desafiar la ilusión de autonomía..

1. INTRODUCCIÓN

Recientemente, las habilidades creativas y comunicativas exhibidas por los modelos computacionales inteligentes han captado un considerable interés en el debate público. Esta atención ha generado tanto la difusión como la confusión en torno al significado y las habilidades atribuibles a estas máquinas. En su definición formal, la inteligencia artificial (IA) es el nombre que recibe la disciplina científica encargada de desarrollar máquinas capaces de llevar a cabo tareas que, históricamente, han precisado de elementos cognitivos propios de la inteligencia humana (Mitchel, 2024; RAE, 2024; Schmidt y Huttenlocher, 2023). Estas tareas suelen incluir la resolución de problemas complejos, el reconocimiento de patrones, la toma de decisiones o el aprendizaje a partir de datos. Sus orígenes se remontan a la década de 1950 cuando se estableció como una subdisciplina de las ciencias computacionales y desde entonces, ha transitado por múltiples etapas de éxito y descrédito conocidos ampliamente como los “inviernos de la IA” (Toosi et al., 2021).

El último hito que ha consolidado a la disciplina y reactivado su uso en circuitos académicos y comerciales, se produjo a finales de 2022 con la publicación en acceso abierto de un chat interactivo que emplea el modelo de aprendizaje generativo Generative Pre-trained Transformer 3 (GPT-3), el cual exhibe la capacidad de interactuar de manera conversacional (Koubaa et al., 2023). La disponibilidad de esta aplicación se comunicó exclusivamente a través de un tuit publicado desde la cuenta oficial de la empresa OpenAI, instando a cualquier usuario a “intentar hablar con ChatGPT”. El enlace de acceso advertía de que el programa podría “responder a preguntas de seguimiento, reconocer sus propios errores, cuestionar premisas incorrectas y rechazar solicitudes inapropiadas” (Openai, 2024).

El surgimiento de los modelos generativos representa un avance significativo en la interacción entre humanos y máquinas. La participación activa de estas tecnologías en la vida cotidiana resuena con el poder transformador que en su momento tuvo la adopción generalizada de Internet en los hogares. De forma análoga, la IA parece señalar el camino hacia un nuevo estadio social. La centralidad que ocupó el binomio tecnocientífico en la conformación de la sociedad de la información, y la importancia que progresivamente adquirieron las redes de información y comunicación en la economía y la cultura global (Castells et al., 2005) encuentran hoy su consolidación en el proyecto totalizador de los sistemas digitales aparentemente autónomos, que no solo gestionan y distribuyen la información a una escala sin precedentes, sino que también la procesan y generan contenido original a través de complejas inferencias.

La progresiva especialización y complejidad de los sistemas tecnológicos en la era digital tiene como contrapartida la opacidad e inescrutabilidad de las herramientas que desarrollan en pos de su propia eficiencia, lo que afecta de forma directa a la percepción pública de la IA. A menudo, esta es concebida como una tecnología monolítica, de la que se tiende a destacar unas propiedades u otras según el grado de especialización de los sectores involucrados. El público general suele asociarla con asistentes virtuales como Siri o Alexa (Arcila Calderón et al., 2023); los expertos se enfocan en aspectos técnicos del análisis de datos como el aprendizaje automático, los algoritmos o las redes neurales; mientras que los gurús y líderes tecnológicos destacan la racionalidad, la eficiencia en la toma de decisiones o la superioridad cognitiva. Como propone Crawford, “(cada una de estas formas de definirla cumple con un cometido y establece un marco de referencia para entenderla, medirla, valorarla y gobernarla” (2023: 28).

Bajo esta premisa, el presente trabajo tiene como objetivo llevar a cabo una evaluación crítica y teórica de la noción de la IA como un concepto monolítico. Utilizando un enfoque de adición que prescinde de la síntesis, se rastrea el proceso histórico que ha dado forma a las tecnologías de automatización desde mediados del siglo XX. En las siguientes páginas, se presenta un marco conceptual compuesto por cuatro dimensiones fundamentales que estructuran la IA: el mercado de la información (datos), la interpretación de la cognición y la inteligencia aplicada a la toma de decisiones (software), las estructuras materiales invisibilizadas (hardware y centros de datos) y el poder y la agencia involucrados en su consolidación (trabajo humano).

Cada uno de estos elementos será examinado en profundidad en los epígrafes correspondientes, proporcionando una respuesta integral de la pregunta: “¿de qué está hecha la inteligencia artificial?” y explorando cómo cada uno de los aspectos de la IA incluye en su desarrollo desafíos y conflictos sociales que deben afrontarse. Asimismo, a lo largo del ensayo se sostiene como hipótesis que la IA constituye el proyecto sociotécnico que consolida los rasgos fundamentales de la sociedad de la información, teorizados a finales del siglo XX (Torres, 2013), y que da continuidad a los procesos de racionalización, “datificación” social y virtualización, facilitando la transición hacia sociedades completamente digitales. En última instancia, este análisis busca redefinir la IA desde una perspectiva que resalta los componentes sociales en su conformación y destaca el papel del ser humano y su agencia para desafiar la ilusión de autonomía.

2. Historia de la IA y el tránsito hacia una sociedad digital

El término “inteligencia artificial” fue empleado por primera vez en la conferencia “Dartmouth Summer Research Project on Artificial Intelligence” celebrada en el Dartmouth College en el verano de 1956, en la que, durante ocho semanas, jóvenes investigadores trabajaron en la definición y delimitación disciplinaria de los hallazgos producidos hasta ese momento por los estudios sobre cibernética y teoría de autómatas (Kline, 2011). Ambas ramas experimentales, basaban sus preceptos en la posible convergencia entre los últimos avances científicos en el campo de la neurociencia y la creación de los primeros ordenadores electrónicos, explotando la posible analogía entre los sistemas de control y comunicación de organismos y animales con los de las recientes máquinas electrónicas (Wiener, 1948). Esta fusión interdisciplinar entre elementos biológicos y técnicos, aumentada por las ciencias del comportamiento y la información, constituyó la génesis para la consolidación de la definición formal de la IA como disciplina científica.

En las primeras etapas, los sistemas catalogados como inteligentes generaban respuestas automatizadas mediante reglas establecidas por humanos. La “ilusión” de razonamiento se basaba en tipos de sistemas expertos como el “MYCIN” desarrollado en los años setenta por Edward Shortliffe (1976). MYCIN fue pionero en diagnosticar enfermedades infecciosas y sugerir tratamientos antibióticos, interpretando síntomas y aplicando reglas lógicas para identificar la causa probable de una enfermedad. Estos sistemas expertos funcionaban con un patrón de reglas predefinidas, asociando los síntomas con etiquetas de enfermedades y tratamientos, actuando como una memoria electrónica organizada en archivos donde al introducir palabras clave, se obtenían resultados etiquetados.

La regla lógica fundamental if-else (si-entonces) y el procesamiento manual de símbolos sentaron las bases de los sistemas expertos, contribuyendo de manera progresiva e indirecta a la conformación de los imaginarios que hoy definen la IA como “máquinas capaces de imitar la inteligencia humana”. La conjunción entre intelecto y artificialidad se traduce en un pragmatismo ingenuo (Campolo y Crawford, 2020) que resuelve problemas de carácter lógico, permitiendo así la imitación y el reemplazo de la asistencia humana. Este tipo de lógica persigue una forma lineal de racionalidad, replicando la secuencialidad del lenguaje escrito y la manipulación de símbolos conforme a las reglas de inferencia deductiva. El trasfondo de esta cuestión se encuentra en el debate que surgió entre la corriente cibernética y la escuela Gestalt en los años cuarenta sobre si la cognición humana es un acto que puede representarse analíticamente y, por ende, mecanizarse (Pasquinelli, 2023).

Hasta finales del siglo XX, las computadoras emergentes tenían el propósito de gestionar de manera eficiente información y conocimiento estructurado a través de los sistemas expertos y los motores de inferencia que operaban bajo estas premisas lógicas. No obstante, la consolidación de algoritmos para el aprendizaje automático (machine learning) y el aprendizaje profundo (deep learning) a través de redes neuronales se produjo gracias a la introducción de principios estadísticos clásicos en estos gestores de información. La analogía con los descubrimientos en neurociencia impulsó la evolución hacia la IA probabilística, marcando la transición de enfoques deductivos a nuevas formas inductivas basadas en el análisis de las partes para comprender el todo. Pasquinelli (2023) ha argumentado que esta lógica de la IA conexionista estaba ya implícita en la base teórica de la economía liberal propuesta por Hayek, sosteniendo que el conocimiento está distribuido y que los sistemas complejos emergen de interacciones locales sin necesidad de un control centralizado.

En esta segunda etapa, la conceptualización de la inteligencia asociada a las máquinas impulsó un nuevo paradigma en torno al tratamiento de la información. Mientras que en fases anteriores las máquinas dependían de una base de datos estructurada, en la que diversas características se asociaban manualmente con etiquetas específicas funcionando como una memoria extremadamente eficiente pero intrínsecamente dependiente de la programación humana, la IA basada en aprendizaje automático ostentaba la capacidad de aprender e inferir de programaciones ya establecidas. En lugar de limitarse a almacenar y recuperar datos etiquetados por humanos, los algoritmos de aprendizaje automático (machine learning) habilitaban a las máquinas para analizar grandes volúmenes de datos, identificar patrones intrincados y realizar predicciones con alta precisión, lo que en última instancia permite sintetizar información a partir de conjunto de datos más amplios.

La consolidación de las tecnologías de la información y la comunicación (TIC) durante la primera década del siglo XXI propició un sistema de comunicación completamente virtualizado e interconectado a nivel global. El volumen de información aumentó radicalmente, al tiempo que se transformaba la manera en que esta información era recopilada, almacenada y analizada. Como veremos en el siguiente apartado, los algoritmos de machine learning se beneficiaron enormemente de la disponibilidad de grandes volúmenes de datos, lo que permitió un análisis más profundo y detallado de patrones y tendencias. En el ámbito de la publicidad, por ejemplo, la personalización se convirtió en una práctica común, dado que los sistemas podían analizar el comportamiento del usuario y ofrecer contenido altamente individualizado. Estos sistemas aprenden de cada interacción, ajustando sus modelos predictivos para mejorar continuamente la precisión de sus recomendaciones (Airoldi, 2022). El proceso de aprendizaje refleja la transición desde una sociedad de la información, enfocada en la gestión de datos, hacia una sociedad digital que, mediante sistemas automatizados "interpreta1" y filtra la información para ofrecerla en virtud de intereses específicos con mínima supervisión humana.

En su fase más reciente, caracterizada por el desarrollo de algoritmos generativos multimodales, la IA ya no solo es capaz de gestionar grandes volúmenes de información o interpretarla para seleccionar la información que mejor se adecue a preferencias concretas, sino que, además, alcanza la capacidad de generar contenido original e integrar múltiples modalidades de información no estructurada, como texto, imagen y audio. Estos sistemas no solo analizan y procesan información existente, sino que también son capaces de crear nuevos datos, sintetizar conocimiento y realizar inferencias complejas. La IA generativa multimodal representa un paso significativo hacia la consolidación de una sociedad centrada en la generación y consumo de información, que ahora también delega la interpretación y la inferencia de la información que procesa a las máquinas. Los software y algoritmos que constituyen la IA asumen un rol activo en la producción de conocimiento, comunicando, creando, infiriendo e incluso “cuestionando premisas incorrectas”.

Este estadio sugiere una revisión de los preceptos teóricos que delinearon la sociedad de la información y el debate sobre la sociedad del conocimiento (Castells, 2023; Torres, 2014). Ahora se observa una transferencia de las tareas de reflexión y creación, que anteriormente recaía en la interpretación humana de la información proporcionada y amplificada por las TIC. Estas máquinas no solo realizan esta tarea, sino que permanecen dentro del circuito integrado de datos, gestión, información, conocimiento y responsabilidad en el ecosistema virtual. En este contexto, las capacidades autónomas de las máquinas para gestionar y generar conocimiento redefinen el paisaje digital, otorgándoles una agencia superior no prevista inicialmente por los teóricos de la sociedad de la información.

3. Los datos y el mercado de la información

Incluso antes de la sofisticación de modelos y técnicas de análisis, los datos representan el eslabón más importante en la compleja red tecnológica en la que se insertan las máquinas inteligentes. Previo a la implosión del big data, un dato era “aquello que se ofrecía antes del argumento” (Puschmann y Burgess, 2014), representando elaboraciones sintéticas de información como unidad neutra. Históricamente, los datos han desempeñado un papel crucial en la ordenación y clasificación de poblaciones, actuando como unidades fundamentales que almacenan información fáctica para guiar nuestras acciones. Tanto la información como los datos han sido siempre recursos valiosos, pero escasos. Antes de la llegada de las tecnologías de la información y la comunicación, el ciclo de vida de un dato era largo y costoso, la información que se transmitía y preservaba, ya fuera mediante tecnologías orales o escritas, era seleccionada cuidadosamente por su valor, por lo que cada dato se creaba con un propósito específico. Así mismo, la capacidad de crear, preservar y recuperar datos estaba socialmente distribuida y restringida a personas con roles concretos, quienes tenían la legitimidad para llevar a cabo estas tareas.

En las sociedades digitales, no obstante, el dato ha sufrido una metamorfosis conceptual que hunde sus raíces en la revolución comunicacional cibernética. Más allá de consolidar la hiperconexión global e instantaneidad que se venía fraguando en la galaxia Marconi de las telecomunicaciones (telégrafo, teléfono, etc.) (Torres, 2021), los sistemas computacionales van a sentar un nuevo precedente. La propia naturaleza de las estructuras comunicativas (Internet) requiere la traducción de cualquier tipo de interacción en una señal, es decir, en un código simbólico de carácter numérico, haciendo que cualquier tipo de interacción mediada por un ordenador se convierta en dígitos binarios de valores 0 y 1. Esta cualidad se amplía hasta la posibilidad de transcribir archivos textuales y audiovisuales de forma cuantitativa.

Al inicio de Internet, las señales desaparecían tras la comunicación entre dispositivos, dificultando el reconocimiento de usuarios y el posicionamiento de páginas web en buscadores como Google. La creación de las cookies a finales de los años noventa permitió el almacenamiento de estos datos, acumulando las huellas digitales dejadas por los usuarios en los itinerarios virtuales (Srnicek y Giacometti, 2018). Tal y como propone Castells (2005), la crisis del petróleo y el agotamiento del modelo industrial impulsaron un giro hacia el valor informacional, convirtiendo la comunicación mediada por Internet en una fuente de beneficio económico emergente. La famosa “crisis de las .com” a principios del año 2000, forzó un cambio de enfoque hacia el valor de los datos digitales, produciendo su primera capitalización en el sector de la mercadotecnia digital, dando lugar a la creación de perfiles detallados de usuarios y originando el paso de la publicidad orientada a la personalizada.

De esta forma, el dato pasa de ser una unidad de información previamente elaborada, solicitada y con un propósito específico, a interpretarse como materia prima que brota del espacio virtual como un excedente conductual (Zuboff, 2022). Este fenómeno marcó el inicio del paradigmático auge que, a partir de 2012, se asoció con el fenómeno del big data. Con escasa transparencia, este excedente es utilizado para predecir comportamientos, ofertándose en mercados de “futuros conductuales”, donde el comportamiento humano se convierte en una mercancía comercializable. Actualmente se estima que cada día se generan alrededor de 2,5 quintillones de bytes de datos, de los cuales, un 60 por ciento son usados con fines comerciales (DataReportal, 2023).

Bajo esta premisa, no es arriesgado señalar que la historia de la IA está intrínsecamente ligada a la historia de Internet. Ambas tecnologías han evolucionado de manera interdependiente, alimentándose mutuamente y transformando el espacio digital contemporáneo. Los desarrolladores han aprovechado la vasta cantidad de datos generados y compartidos a través de Internet para perfeccionar sus algoritmos. Hay que destacar que previamente a los modelos generativos y desde 2016, el 90 por ciento de la actividad en Internet está mediada por el perfilado algorítmico que aplica IA (Srnicek y Giacometti, 2018). Esta realidad contrasta con el último informe oficial publicado hasta la fecha sobre “Percepción social de la Inteligencia Artificial en España” (2023), en el cual los encuestados consideran a las redes sociales como las plataformas con menor presencia de IA. No obstante, una larga tradición de investigaciones empíricas confirma que las redes sociales han sido un campo de experimentación crucial para la IA, y uno de los motores que demuestran el éxito de aplicar modelos estadísticos avanzados al análisis y a la predicción del comportamiento humano (Van Dijck et al., 2018).

Al problema de la capitalización de los datos no solicitados, se añade el desafío de su clasificación indirecta. Uno de los mayores retos lo presentan los datos en forma de imagen. La mayoría de los algoritmos de reconocimiento visual que se aplican en la actualidad están entrenados con la popular base de datos ImageNet (Quartz, 2017). Esta representa uno de los proyectos más ambiciosos de digitalización y aprendizaje automático; en concreto, expresa el deseo de transferir todos los elementos que componen el mundo real al mundo virtual. ImageNet contiene millones de imágenes etiquetadas de forma manual que, además de categorías de objetos, alberga categorías humanas del tipo “hermano” o “alcohólico”. Abundan las implicaciones éticas de asociar características físicas humanas con categorías relacionales e interactivas que no pueden ser retratadas por especificidades visuales. Además, gran parte de estas imágenes se obtienen sin el consentimiento de los sujetos, sin que falten modelos entrenados con prontuarios policiales cuyo objetivo consiste en encontrar índices fisionómicos de delincuencia (Crawford y Paglen, 2021).

Aunque la cognición y los aspectos relacionados con la inteligencia puedan parecer ajenos a la sociología, la realidad es que la modelización del mundo basada en datos y en reglas lógicas de recuento y correlación, se asienta sobre los mismos preceptos que esta disciplina. Los marcos epistemológicos que sustentan la comprensión de la inteligencia en el ámbito de las ciencias computacionales y en el mercado de la digitalización están estrechamente relacionados con investigaciones de amplia trayectoria en las ciencias sociales. La “datificación” social descansa sobre la racionalización de las sociedades y su consecuente burocratización, tal y como teorizó Max Weber a comienzos del siglo XX (Cetina y Martínez, 2024). Los datos son el núcleo de las sociedades sociotécnicas, alcanzando su apogeo en la actualidad. Esta relación subraya cómo la capacidad de traducir aspectos complejos de la vida social en datos cuantificables es fundamental para entender y desarrollar la IA, lo que puede interpretarse como una manifestación de “ingeniería social” y el triunfo de una hipertaxonomía social.

4. Softwares para la toma de decisiones

En el ser humano, la cognición es un proceso complejo que involucra no solo la capacidad de gestionar información y tomar decisiones basadas en datos, sino también la influencia de factores emocionales, contextuales y experienciales (Ruhela, 2019). La toma de decisiones humanas es, por tanto, un acto profundamente enraizado en la subjetividad y la intuición. Por otro lado, los algoritmos de decisión en la IA operan sobre principios de lógica y probabilidad, eliminando las variables emocionales y contextuales que son inherentes a la cognición humana. El avance en el desarrollo de IA ha permitido que las máquinas no solo procesen grandes volúmenes de datos, sino que también aprendan de estos datos para mejorar su precisión y eficiencia en la toma de decisiones. Sin embargo, esta capacidad de aprendizaje y adaptación se basa en la disponibilidad de datos y en la programación de los algoritmos para interpretar estos datos de manera efectiva. A medida que los modelos de IA se vuelven más sofisticados, se presenta una ilusión de cognición similar a la humana, aunque, en esencia, se trate de procesos puramente probabilísticos.

Estos enfoques estadístico-cognitivos quedan ampliamente contenidos en los programas informáticos actuales que, bajo el estandarte de la IA, han encontrado una considerable aceptación en mercados de todo tipo. Múltiples experiencias corroboran que la aplicación de modelos predictivos en sectores manufactureros, son altamente útiles en la optimización de procesos (Jayal et al., 2010). En el caso de España, el porcentaje de industrias que adoptan estos modelos es tan solo del 9,9 por ciento, encontrándose por debajo de otros sectores que automatizan flujos de trabajo o aplican modelos para alcanzar mejores cuotas de ventas, como las actividades administrativas (10,5 por ciento), la industria hotelera (11,8 por ciento) o el sector inmobiliario (14,7 por ciento) según el último informe sobre el Uso de Inteligencia Artificial y Big Data en las Empresas Españolas, elaborado en 2023 por el Observatorio Nacional de Tecnología y Sociedad. Esta tendencia a aplicar modelos predictivos o de aprendizaje automático en sectores orientados al sector servicio por encima de otras industrias, consolida una tendencia que comenzó a dibujarse en los mercados estadounidenses en la primera década de nuestro siglo.

El empleo de machine learning para la clasificación y puntuación de seres humanos ha sido ampliamente investigado por la matemática e investigadora Cathy O’Neil en su libro Armas de destrucción matemáticas (2017). Su obra constituye un esfuerzo significativo por divulgar al público general los riesgos asociados al uso indiscriminado de algoritmos y modelos matemáticos en la gestión de individuos, demostrando cómo estos modelos, lejos de ser neutrales, pueden perpetuar y amplificar las desigualdades existentes. En procesos de selección de personal, por ejemplo, los sistemas de evaluación algorítmica sesgan en contra de ciertos candidatos al priorizar características que no necesariamente reflejan el potencial del individuo para el puesto, perpetuando así los prejuicios presentes en los datos históricos utilizados (Fazelpour et al., 2022). En el sector financiero, los algoritmos de concesión de créditos tienden a denegar préstamos a individuos basándose en criterios que desfavorecen a minorías y comunidades de bajos ingresos, creando barreras adicionales para su progreso económico (Gilman, 2020).

Estas prácticas afectan a individuos particulares al mismo tiempo que erosionan la equidad y la justicia social en una escala más amplia. Desde diversas regiones geográficas y a través de un amplio corpus de investigaciones, surge una comprensión cada vez más clara sobre los problemas derivados de la sustitución de las decisiones humanas por la IA. En un estudio pionero, aunque lamentablemente poco conocido, Virginia Eubanks (2021) examina cómo las entidades gubernamentales han empleado algoritmos para la toma de decisiones que impactan en las poblaciones más vulnerables, evidenciando que estos sistemas, implementados bajo la premisa de la eficiencia y la reducción de costos, han desencadenado consecuencias devastadoras como la exclusión de individuos necesitados de servicios sociales esenciales. Estos análisis arrojan luz sobre la constante adopción de modelos predictivos, aparentemente sofisticados, como soluciones ante recortes presupuestarios en instituciones públicas y empresas de menor envergadura.

La principal interacción que tenemos los humanos con herramientas de automatización se da a través de los software informáticos. Estos programas se implementan en entornos de trabajo con la promesa de mejorar la eficiencia y la productividad, delegando progresivamente la responsabilidad de tomar decisiones. En este tipo de programas se consolida una definición particular de inteligencia, basada en el reconocimiento de patrones de una gran cantidad de variables, muchas de las cuales no están incluidas con propósitos específicos y, en numerosos casos, no están validadas para medir aptitudes o acciones futuras de un sujeto.

Uno de los elementos centrales del debate actual es el rechazo a la valoración subjetiva basada en criterios informados. Cabe preguntarse por qué se sustituye el criterio subjetivo de trabajadores informados y con experiencia por programas que, en muchas ocasiones, no son auditables por los propios trabajadores. Esto genera confusión tanto para los usuarios como para quienes aplican estos algoritmos en torno a la responsabilidad asociada a ciertas decisiones.

5. Hardware y centros de datos como estructuras invisibles

Mientras que las posibilidades que ofrecen los modelos algorítmicos y los retos que plantea el big data han sido centrales en los discursos en torno a la IA, a menudo la representación de estas tecnologías parece prescindir de la compleja infraestructura que sustenta su funcionalidad. La digitalización supone la conversión de experiencias físicas producidas en el mundo fuera de línea (offline) en unidades mínimas de información conocidas como bit, para posteriormente recomponerse en el espacio de lo virtual y hacerse inteligibles para el humano a través de diseños de interfaces. El despliegue de las tecnologías de la información y la comunicación, traducible en la llegada de Internet, supuso un cambio en la base material de las sociedades contemporáneas, dando prevalencia a estructuras reticulares, interconectadas y globalizadas, flexibles e intangibles, frente a la realidad física de límites locales y rígidos que caracterizaba a las sociedades analógicas (Lupton, 2015).

Hacia la segunda mitad del siglo XX, la centralidad de la tecnociencia, junto con su principio heurístico, esto es, la innovación y el cambio como rutina y orden social (Lamo de Espinosa, 2018), condujeron a los teóricos de la sociedad de la información a reconocer la distancia del emergente modelo societal con relación a las características que originalmente guiaban a la sociedad industrial. El andamiaje de máquinas y conocimientos sistematizados, que en su momento facilitó la producción en serie de bienes materiales y la optimización de la fuerza de trabajo mediante ingeniería electromecánica capaz de aumentar la productividad con menor esfuerzo físico, ahora se orientaba hacia la gestión del principal recurso de la sociedad contemporánea: la información.

Sin embargo, junto al cambio en la orientación de la producción y las herramientas empleadas, se ha establecido, no necesariamente como consecuencia directa de ello, una reconfiguración de los modos en que los humanos se relacionan con la tecnología. Así, basándonos en las representaciones sociales que han configurado reflexivamente las teorías sociales, hemos transitado de un entorno altamente físico, sustentado por teorías fuertemente materialistas y estructuralistas (Lessig, 2009), hacia nuevos paradigmas emergentes de tendencia constructivista, enfocados en intersubjetividades. Dichos marcos teóricos se consolidaron en los años noventa produciendo sociedades alegóricamente líquidas, reflexivas, especulativas, simuladas y del simulacro, del riesgo o del conocimiento, pero que siguen teniendo como eje principal el determinismo tecnológico.

Este juego estético ha tenido un papel fundamental en la forma en la que percibimos los artefactos técnicos cuando estos se incorporan en la vida cotidiana. Las imágenes que simbolizan las estructuras que median en la creación de los mundos virtuales suelen estar plagadas de alusiones antropomórficas e inspiraciones naturalistas. Así, la imagen de la nube, las redes neuronales, los sistemas nerviosos como sistemas eléctricos, los cerebros paralelos a la computación, las huellas digitales y las múltiples analogías de las posibles acciones que son llevadas a cabo en ellas –navegar, surfear, picar datos, etc. (Carbonell et al., 2016)– provoca una resistencia a concebir la materialidad de la tecnología. Esta lógica también queda solidificada en las representaciones de la IA, donde términos como “aprendizaje automático” configuran nuestra comprensión del aprendizaje y de la generación de conocimiento. Imitando el acertijo de metáforas que proponen Lakoff y Johnson (2018), la sociedad transita de industrias grises y pesadas que rompen con la lógica de los paisajes, a la calidez de redes digitales azules y verdes que se extienden sin interrupción del humano al mundo natural.

La apariencia de procesos tecnológicos en perfecta simbiosis con la naturaleza ha sido frecuentemente explotada por los acreedores de la IA que encumbran este mercado como símbolo de la transición ecológica. Guiados por este objetivo, la Unión Europea se ha comprometido a aumentar el gasto en IA en un 70 por ciento (Brevini, 2020). En España, el Programa Nacional de Algoritmos Verdes plantea un presupuesto de gasto en esta infraestructura de más de 200 millones de euros para el año 2026 (PANV, 2022). Si bien, como expone Tucho (2024) los sistemas computacionales automatizados ayudan a la optimización del uso de la energía y a reducir el impacto de los residuos y las emisiones de algunas industrias, estas estrategias olvidan el impacto medioambiental que supone la implantación de las propias tecnologías.

En los últimos años, se ha señalado la falta de cálculos reales sobre el costo medioambiental de los modelos de aprendizaje automático, criticando que el uso de las metáforas que promueven la inmaterialidad de la IA impide que la ciudadanía sea consciente de los problemas medioambientales futuros y socava el activismo de resistencia (Brevini, 2021). Algunas estimaciones indican que una consulta en ChatGPT produce tres veces más emisiones que una búsqueda en Google. El entrenamiento de modelos generadores de texto tiene una huella de carbono comparable a un viaje en coche de ida y vuelta a la luna. Sin embargo, no solo las emisiones de CO2 son preocupantes. El consumo de agua limpia para la refrigeración de los centros de datos utilizados por Google, Microsoft y Meta en 2022 se estimó en 2,2 millones de litros, equivalente al consumo de dos países como Dinamarca. Experiencias reales en Países Bajos revelaron que el consumo de agua fue mucho mayor de lo estimado inicialmente por Google (De Vries, 2023).

En el caso español, las infraestructuras digitales también enfrentan desafíos significativos, especialmente en regiones rurales como Extremadura y Castilla-La Mancha. Estas áreas, ricas en recursos naturales como litio y agua, están atrayendo el interés de empresas tecnológicas para establecer centros de datos y operaciones. En Extremadura, proyectos como la mina de litio de Infinity Lithium prometen un futuro sostenible y digital, pero encuentran oposición de activistas preocupados por el impacto ambiental negativo para las especies protegidas que habitan la zona (González, 2023). De manera similar, en Castilla-La Mancha, el plan de Meta para construir un gran centro de datos plantea desafíos significativos en términos de consumo de agua y energía, exacerbando las preocupaciones en una región ya afectada por sequías (Valdivia, 2023).

Estos casos ejemplifican la tensión entre la promesa de crecimiento económico a través de la digitalización y las preocupaciones sobre su verdadera sostenibilidad y efectos a largo plazo. Con la expansión del uso de la IA, comienza una nueva era de extractivismo y ocupación de zonas rurales donde se despliegan centros de datos que se expanden por millones de hectáreas. Asimismo, los compuestos materiales que conforman los microchips y las memorias esenciales para la ejecución de algoritmos probabilísticos se insertan dentro de complejas cadenas de suministro de materias primas y minerales que quedan deslocalizadas, incompletas y con importantes dificultades en su fiscalización. La invisibilidad de estas infraestructuras no solo elimina la capacidad crítica y la toma de decisiones democráticas, sino que también impide visualizar el mapa global y la capacidad de agencia de los actores, convirtiéndolos en redes difusas donde se hace difícil ubicar responsabilidades.

6. Agencia y humanos

Tal como se ha argumentado en los apartados anteriores, la IA no es reducible a un conjunto de algoritmos y procesos computacionales aislados; como conjunto de sistemas tecnológicos, se inserta en las estructuras de poder y participa activamente en la relación dialéctica entre economía y política. Su representación cultural a menudo invisibiliza elementos que enfatizan su independencia para reforzar su idea de éxito, como las cadenas de producción y la infraestructura industrial, ya comentadas, o el trabajo humano que la sustenta. Al promover los avances en automatización, se proclama una autosuficiencia que tiende a deshumanizar el proceso, eliminando al ser humano de la ecuación. Esto se debe en gran medida a la narrativa dominante sobre la eficiencia y la innovación tecnológica, que opta por ocultar las condiciones laborales y la mano de obra que posibilitan el funcionamiento de estos sistemas.

Algunos autores han realizado un gran trabajo investigando la vasta cantidad de mano de obra implicada en la producción de la “ilusión” de máquinas inteligentes (Gray y Suri, 2019; Irani, 2016). Estos trabajos destacan el concepto de “trabajo fantasma”, que se refiere a las tareas realizadas por trabajadores humanos para entrenar, mantener y corregir los sistemas de IA. A menudo invisibilizados, estos trabajadores desempeñan roles cruciales que permiten que los algoritmos funcionen aparentemente de manera autónoma. Como ejemplo, en Google, trabajadores en India filtran anuncios inapropiados, o en Amazon, trabajadores de Mechanical Turk realizan tareas como la moderación de contenido y la transcripción de audios. Su fundador Jeff Bezos, se refirió a este fenómeno como “inteligencia artificial artificial” (Hansell, 2007), subrayando la paradoja de que lo que se presenta como automatización avanzada, en realidad, depende intensamente del esfuerzo humano.

En su única obra dedicada a las máquinas inteligentes, el sociólogo francés Bruno Latour, cuya obra fue revisada por Venturini (2023), compara a las “máquinas futuristas” con una excavadora. Latour argumenta que es sencillo distinguir entre el hombre y la máquina a su lado: el primero tiene la capacidad de mover kilos de tierra, mientras que la segunda puede mover toneladas. Nadie diseñaría una máquina menos poderosa que el ser humano; por lo tanto, ¿por qué crear máquinas con menor capacidad de cálculo o capacidad lingüística? La IA generativa y multimodal que hoy interactúa con los usuarios en sus hogares está constituida, esencialmente, por máquinas de gestión y clasificación de “toneladas” de información, una tarea que sería prácticamente imposible para una persona. Sin embargo, en este caso, la comparación visual del hombre y su máquina de remover información no es tan evidente.

Tradicionalmente, la dialéctica entre humano y naturaleza ostenta una secuencia claramente definida. En la configuración histórica que nos ha llevado a reconstruir la IA como una tecnología interactiva y omnipresente, observamos cómo la idea de herramienta en el contexto de tecnologías digitales asume características muy alejadas de otros artefactos rudimentarios (Werthner et al., 2022). La aparente invisibilidad que otorgamos a los humanos en los sistemas computacionales tiene, a su vez, un fuerte impacto en el poder que delegamos en ella. El humano, a través del uso de herramientas, podía modificar, transfigurar y controlar su entorno natural. Las herramientas tradicionales eran extensiones de la capacidad humana, permitiendo la manipulación directa y tangible del mundo físico. Sin embargo, en los entornos digitales modernos, esta relación de control se desdibuja. La IA, en su capacidad para procesar y gestionar grandes volúmenes de información, opera de manera menos visible y más abstracta, complicando la identificación del sujeto que ejerce el control.

Una aplicación práctica de este problema ha sido reproducida en un experimento que simula un proceso de decisión automatizado en el que los participantes evalúan la culpabilidad de varios acusados con el apoyo de un sistema de IA. La investigación incluye dos grupos: uno que emite su juicio antes de recibir el apoyo del sistema, y otro que lo recibe después. Los resultados muestran que la incorporación de humanos en la supervisión de los modelos no es tan exitosa como se podría esperar, ya que existe una alta dependencia en las recomendaciones del algoritmo. En el grupo que manifiesta su juicio antes de recibir la recomendación incorrecta por parte del modelo, el 66,2 por ciento de los participantes (49 de 74) proporciona juicios precisos. En contraste, en el grupo que recibe el apoyo del sistema antes de emitir su juicio, solo el 36,8 por ciento de los participantes (28 de 76) manifiestan juicios correctos (Agudo y Matute, 2024).

Este problema de dilución de la responsabilidad y motivación para la acción remite a una de las cuestiones clásicas abordadas por la sociología con relación a la agencia humana y refuerza la concepción de la tecnología como actor social (Rammert, 2011) dotándola de una capacidad de agencia que a menudo es ignorada por los propios usuarios. Tecnologías como la IA no solo ejecutan tareas, sino que también integran los deseos y demandas de sus creadores, imponiendo exigencias específicas al usuario. Este fenómeno ha sido ampliamente estudiado en el contexto de las redes sociales (Fisher, 2023), donde los algoritmos dictan patrones de consumo y comportamiento, pero se extiende gradualmente a otras aplicaciones de la IA. La agencia de estas tecnologías, por lo tanto, no reside únicamente en su capacidad operativa, sino en su capacidad para canalizar las acciones humanas y estructurar las relaciones sociales.

7. Conclusiones

A lo largo de este trabajo se han analizado las múltiples dimensiones que conforman la IA desde una perspectiva sociotécnica. Esta última orienta la mirada y la reflexión hacia la interrelación entre los datos, los programas para la toma de decisiones, las infraestructuras y el trabajo humano, formando un complejo entramado que no solo impulsa la automatización, sino que también redefine las dinámicas sociales y económicas contemporáneas. La revisión crítica de los preceptos teóricos y la incorporación de estudios empíricos ha permitido mostrar cómo la IA se inserta en el continuo de la sociedad de la información, consolidando procesos de racionalización y “datificación” que afianzan el espacio virtual como terreno primordial para la organización social y facilitan la transición hacia sociedades completamente digitales.

De esta forma, la IA puede considerarse un proyecto sociotécninco profundamente interconectado con la sociedad y la naturaleza que continúa los rasgos fundamentales de la sociedad de la información. Ahora bien, a diferencia de las primeras teorías que enfocaban la agencia para la gestión e interpretación de la información principalmente en los seres humanos, la IA moderna delega una parte significativa de esta agencia a las máquinas. Estas no solo gestionan, organizan e interpretan datos, sino que también crean conocimiento, intensificando la hibridación entre tecnología y humano. Los datos y programas reflejan aspectos inmateriales y culturales de la tecnología, al tiempo que integran dimensiones económicas e ideológicas. Por otro lado, las infraestructuras y la agencia humana representan la base material interconectada con la naturaleza y el trabajo.

El concepto de “determinismo encantado”, propuesto por Campolo y Crawford (2020), resulta particularmente relevante en este contexto. Este determinismo se refiere a la creencia según la cual la tecnología, en este caso la IA, posee un poder pseudomágico para transformar la sociedad por sí sola, sin considerar los vínculos materiales y humanos que la sustentan; una visión que fomenta una percepción distorsionada de las capacidades de la IA y oscurece la complejidad que entrañan su funcionamiento y éxito.

Por último, en la definición modular expuesta, es crucial señalar que la automatización de tareas no equivale a la creación de máquinas autónomas. Las comparaciones entre sistemas de comunicación biologicistas y tecnológicos fueron esenciales para atribuir la capacidad de inteligencia a las máquinas en las primeras décadas del siglo XX. Siguiendo esta analogía, los giros epistémicos actuales (Haraway, 2019) refuerzan la idea de que los organismos más complejos e inteligentes son los más interdependientes. A mayor complejidad e inteligencia de nuestros sistemas tecnológicos, mayor será la interdependencia entre sus componentes, y mayor su dependencia de la naturaleza y el trabajo humano. Por lo tanto, la composición de la IA se basa en gran medida en su necesidad de dependencia, contrariamente a la percepción común de los modelos generativos multimodales como entes autónomos.

Bibliografía

Agudo, U., Liberal, K. G., Arrese, M. et al. (2024). The impact of AI errors in a human-in-the-loop process. Cognitive Research, 9(1).

Airoldi, M. (2022). Machine habitus: Toward a sociology of algorithms. Polity Press.

Alonso, A. (2024, marzo 6). Inteligencia Artificial verde y responsable. Un nuevo paradigma para un futuro más sostenible. Conferencia en la Real Academia De Ciencias Exactas Físicas y Naturales. https://www.youtube.com/watch?v=q6NuWbyY2RE, consultado 8 de marzo de 2024.

Arcila Calderón, C., Igartua Perosanz, J. J., Sánchez Holgado, P., Jiménez Amores, J., Marcos Ramos, M., González de Garay, B., Piñeiro Naval, V., Rodríguez Contreras, L., Blanco Herrero, D. (2023). Informe público de percepción social de la inteligencia artificial en España. Observatorio de los Contenidos Audiovisuales, Universidad de Salamanca. https://www.ocausal.es/investigacion/proyectos/percepcion-ia/percepcion-ia/

Brevini, B. (2020). Black boxes, not green: Mythologizing artificial intelligence and omitting the environment. Big Data & Society, 7(2), 205395172093514.

Brevini, B. (2021). Creating the technological saviour: Discourses on AI in Europe and the legitimation of Super Capitalism. En P. Verdegem (Ed.), AI for Everyone? Critical perspectives (pp. 145-159). University of Westminster Press.

Carbonell, J., Sánchez-Esguevillas, A., y Carro, B. (2016). The role of metaphors in the development of technologies. The case of the artificial intelligence. Futures, 84, pp. 145-153.

Castells, M. (2023). The Network Society revisited. American Behavioral Scientist, 67(7), pp. 940-946.

Castells, M., Castells, M., y Castells, M. (2005). La sociedad red (3a ed.). Alianza Editorial.

Cetina Presuel, R., y Martínez Sierra, J. M. (2024). The adoption of Artificial Intelligence in bureaucratic decision-making: A Weberian perspective. Digital Government: Research and Practice, 5(1), pp. 1-20.

Chollet, F. (2022, November 28). AI is cognitive automation, not cognitive intelligence. Sparks in the Windhttps://fchollet.substack.com/p/ai-is-cognitive-automation-not-cognitive

Crawford, K. (2023). Atlas de IA: Poder, política y costes planetarios de la Inteligencia Artificial. NED, Nuevos Emprendimientos Editoriales.

Crawford, K., Campolo, A. (2020). Enchanted determinism: Power without responsibility in artificial intelligence. Engaging Science, Technology, and Society, 6, pp. 1-19.

Crawford, K., y Paglen, T. (2021). Excavating AI: The politics of images in machine learning training sets. AI & Society.

DataReportal. (2023). Digital 2023 Global Overview Report. https://datareportal.com/reports/digital-2023-global-overview-report

De Vries, A. (2023). The growing energy footprint of artificial intelligence. Joule, 7(10), pp. 2191-2194.

Eubanks, V. (2021). La automatización de la desigualdad: Herramientas de tecnología avanzada para supervisar y castigar a los pobres. Capitán Swing.

Fazelpour, S., Lipton, Z. C., y Danks, D. (2022). Algorithmic fairness and the situated dynamics of justice. Canadian Journal of Philosophy, 52(1), pp. 44-60.

Fisher, M. (2023). Las redes del caos. Traficantes de Sueños.

Gilman, M. E. (2020). Poverty Lawgorithms: A poverty lawyer’s guide to fighting automated decision-making harms on low-income communities. Data & Society. University of Baltimore School of Law Legal Studies Research.  https://ssrn.com/abstract=3699650

González, D. (2023, mayo 29). Emergencia climática: inteligencia artificial y el impacto en la España rural. El Salto Diariohttps://www.elsaltodiario.com/paradoja-jevons-ciencia-poder/emergencia-climatica-inteligencia-artificial

Gray, M. L., y Suri, S. (2019). Ghost work: How to stop Silicon Valley from building a new global underclass. Houghton Mifflin Harcourt.

Hansell, S. (2007, marzo 25). Data, data everywhere. The New York Timeshttps://www.nytimes.com/2007/03/25/business/yourmoney/25Stream.html

Haraway, D. (2019). Seguir con el problema: Generar parentesco en el Chthuluceno. Consonni.

Irani, L. (2016). The hidden faces of automation. XRDS: Crossroads. The ACM Magazine for Students, 23(2), pp. 34-37.

Jayal, A. D., Badurdeen, F., Dillon, O. W., Jawahir, I. S. (2010). Sustainable manufacturing: Modeling and optimization challenges at the product, process and system levels. CIRP Journal of Manufacturing Science and Technology, 2(3), pp. 144-152.

Kline, R. R. (2011). Cybernetics, automata studies, and the Dartmouth conference on artificial intelligence. IEEE Annals of the History of Computing, 33(3), pp. 5-16.

Koubaa, A., Boulila, W., Ghouti, L., Alzahem, A., y Latif, S. (2023). Exploring ChatGPT Capabilities and limitations: A survey. IEEE Access, 11, pp. 118698-118721.

Lakoff, G., y Johnson, M. (2019). Metáforas de la vida cotidiana. Cátedra.

Lamo de Espinosa, E. (2018). De nuevo sobre la sociedad reflexiva: Escritos de teoría y estructura sociales. Centro de Investigaciones Sociológicas.

Lessig, L. (2009). El código 2.0. Traficantes de Sueños.

Lupton, D. (2015). Digital sociology. Routledge, Taylor & Francis Group.

Ministerio de Asuntos Económicos y Transformación Digital. (2022). Plan Nacional de Algoritmos Verdeshttps://portal.mineco.gob.es/RecursosNoticia/mineco/prensa/noticias/2022/20221213_plan_algoritmos_verdes.pdf

Mitchel, M. (2024). Inteligencia artificial: Guía para seres pensantes. Capitán Swing.

O’Neil, C. (2018). Armas de destrucción matemática: Cómo el Big Data aumenta la desigualdad y amenaza la democracia. Capitán Swing.

Observatorio Nacional de Tecnología y Sociedad. (2023). Uso de inteligencia artificial y big data en las empresas españolas. Secretaría de Estado de Digitalización e Inteligencia Artificial, Ministerio de Asuntos Económicos y Transformación Digital. https://datareportal.com/reports/digital-2023-global-overview-report

OpenAI. (2024). Página principal de OpenAI. OpenAI. https://openai.com/es-ES/

Pasquinelli, M. (2023). The Eye of the Master: A Social History of Artificial Intelligence. Verso Books.

Puschmann, C., y Burgess, J. (2014). Metaphors of Big Data. International Journal of Communication, 8, pp. 1690–1709.

Quartz. (2017). The data that changed the direction of AI research—and possibly the world. https://qz.com/1034972/the-data-that-changed-the-direction-of-ai-research-and-possibly-the-world

Rammert, W. (2011). Paradoxes of interactivity: Distributed agency between humans, machines, and programs. En J. Beckert, P. Aspers y M. Duxbury (Eds.), Paradoxes of Interactivity (pp. 62-91).

Real Academia Española. (2024). Inteligencia artificial. En Diccionario de la lengua española (23.ª ed.). https://dle.rae.es/inteligencia artificial

Ruhela, S. (2019). Thematic correlation of human cognition and Artificial Intelligence. 2019 Amity International Conference on Artificial Intelligence (AICAI), 367-370.

Schmidt, E., y Huttenlocher, D. P. (2023). La era de la Inteligencia Artificial y nuestro futuro humano. Anaya Multimedia.

Shortliffe, E. H. (1976). MYCIN: Computer-based medical consultations. Elsevier.

Srnicek, N., y Giacometti, A. (2018). Capitalismo de plataformas (1a ed.). Caja Negra.

Stahl, B. C., y Eke, D. (2024). The ethics of ChatGPT – Exploring the ethical issues of an emerging technology. International Journal of Information Management, 74, 102700.

Toosi, A., Bottino, A. G., Saboury, B., Siegel, E., y Rahmim, A. (2021). A brief history of AI: How to prevent another winter (A critical review). PET Clinics, 16(4), pp. 449-469.

Torres Albero, C. (2013). La sociedad de la información y del conocimiento. Panorama Social, 18, pp. 9-18.

Torres Albero, C. (2021). La comunicación en tiempos de pandemia. En O. Salido y M. Massó (Eds.), Sociología en tiempos de pandemia: Impactos y desafíos sociales de la crisis del COVID-19. Marcial Pons, Ediciones Jurídicas y Sociales.

Tucho, F., y García de Madariaga, J. M. (2024). El impacto de la inteligencia artificial en el medio ambiente: Innovación más cuestionable que sostenible. En IX Congreso Internacional de la AE-IC. Comunicación e Innovación Sostenible, Murcia, 28-31 de mayo de 2024.

Tyagi, A. K., y Rekha, G. (2019). Machine learning with Big Data). Proceedings of International Conference on Sustainable Computing in Science, Technology and Management (SUSCOM), Amity University Rajasthan, Jaipur – India, 26-28 de febrero, SSRN Electronic Journal.

Valdivia, A. (2023, mayo 26). El coste medioambiental de construir minas y centros de datos para la IA en la España rural. The Conversation. https://theconversation.com/el-coste-medioambiental-de-construir-minas-y-centros-de-datos-para-la-ia-en-la-espana-rural-208385

Van Dijck, J., Poell, T., De Waal, M. (2018). The Platform Society (Vol. 1). Oxford University Press.

Venturini, T. (2024). Bruno Latour and Artificial Intelligence. Tecnoscienza – Italian Journal of Science & Technology Studies, pp. 101-114.

Werthner, H., Prem, E., Lee, E. A., y Ghezzi, C. (Eds.). (2022). Perspectives on Digital Humanism. Springer International Publishing.

Wiener, N. (1948). Cybernetics: Or control and communication in the animal and the machine. MIT Press.

Zuboff, S. (2022). La era del capitalismo de la vigilancia: La lucha por un futuro humano frente a las nuevas fronteras del poder (2a ed.). Paidós.

NOTAS

* Universidad Autónoma de Madrid (alba.taboada@uam.es).

 Este trabajo es parte del proyecto del Plan Nacional I+D+i “Confianza, sistemas científicos y negacionismo. Factores sociales de la vacunación en contextos epidémicos. CONCERN” (PID2020-115095RB-I00). Cuenta asimismo con la ayuda pública PRE2021-097610.

1 Cabe aclarar que utilizo aquí la palabra 'interpretar' en relación a la acción de 'traducir' más que a la acción de 'comprender'. La interpretación de la información por parte de los algoritmos de recomendación o perfilado establece similitudes entre contenidos. Por ejemplo, si un anuncio contiene la palabra 'perro' y un usuario previamente ha buscado 'mascotas', el algoritmo hará un ejercicio de asociación, asimilando que ambas entradas podrían estar relacionadas, similar a cómo se busca la palabra adecuada en un idioma que se correlacione con otra en un ejercicio de traducción.

Descargar artículo (formato PDF)

Funcas

Think tank dedicado a la investigación económica y social

Contacto
C/ Caballero de Gracia, 28 | 28013 Madrid, España
+34 91 596 57 18 | funcas@funcas.es
Síguenos
Send this to a friend