Análisis financiero y big data

Análisis financiero y big data

Fecha: mayo 2023
Santiago Carbó, Juan José Ganuza, Daniel Peña y Pilar Poncela (editores)

Sumario

Presentación

La disponibilidad de datos masivos, el llamado big data, y de métodos de cálculo y procesamiento cada vez más potentes está afectando profundamente a los sistemas financieros en todo el mundo. Por ejemplo, la negociación de acciones ya no se realiza en los antiguos edificios de las bolsas, construidos en los centros financieros de las grandes ciudades en el siglo XIX, el de Madrid data de 1831. Las amplias salas, los parqués, donde se realizaba la compra y venta de las acciones por los agentes de bolsa, están siendo sustituidos por conjuntos de ordenadores que, con métodos de inteligencia artificial, negocian automáticamente las operaciones bursátiles. Las monedas ya no son exclusivamente controladas por los bancos centrales y han aparecido las criptomonedas, que se escapan del control de las herramientas financieras tradicionales. Las mayores empresas del mundo ya no son las propietarias de grandes activos físicos donde trabajan miles de empleados, sino aquellas basadas en utilizar los datos para crear productos de alta tecnología y plataformas informáticas que conectan a los clientes con los proveedores de servicios.

Este libro presenta nueve trabajos sobre distintos aspectos de los cambios que están transformando el mundo financiero como consecuencia de la revolución en el procesamiento y la disponibilidad de grandes masas de datos. Estos trabajos fueron presentados en las jornadas sobre “Análisis financiero y Big Data” celebradas en Funcas el 26 de octubre de 2022, organizadas por los editores de este libro. El lector interesado puede consultar las presentaciones realizadas en el canal de Funcas en Youtube. Esta monografía se añade a las tres ya publicadas en esta colección de Funcas sobre el efecto del big data en determinados aspectos de la actividad económica. Las anteriores se centraron en los métodos de predicción, los procedimientos de análisis económico cuantitativo o econométrico y el marketing digital.

El primer trabajo incluido en este volumen aborda el problema de la identificación de variables para prever la digitalización de las entidades financieras, y ha sido realizado por Santiago Carbó-Valverde, Pedro J. Cuadros-Solas, y Francisco Rodríguez-Fernández. Esta investigación analiza una encuesta realizada a usuarios online de entidades bancarias y concluye que los principales factores que predicen el grado de digitalización financiera son la utilidad percibida de los consumidores sobre la banca digital para consultar saldos, transferir dinero y relacionarse con el banco.

En el capítulo II, Roberto Pascual evalúa cómo los cambios en los datos disponibles y en la computación facilitan la rápida comunicación entre máquinas ofreciendo oportunidades de beneficio de duración muy corta, inferiores al segundo, lo que se conoce como negociación de alta frecuencia o high frequency trading (HFT). Se concluye que el efecto neto del HFT ha sido positivo, aunque puede tener externalidades negativas tanto sobre los proveedores de liquidez como sobre la negociación informada.

La concesión de créditos mediante algoritmos de aprendizaje automático se ha extendido por las entidades financieras y Andrés Alonso-Robisco y José Manuel Carbó analizan las consecuencias de su implantación estudiando distintas técnicas de interpretabilidad de los algoritmos tipo “caja negra” frecuentemente utilizados. Concluyen en la necesidad de avanzar en la interpretación de estos métodos automáticos para lograr una satisfactoria explicación de los mismos, como condición necesaria para dar confianza a los usuarios y a los reguladores del buen funcionamiento de estos sistemas automatizados de concesión.

El análisis de los mercados de valores desde la nueva perspectiva de datos masivos se analiza en los capítulos IV y V. En el capítulo IV, Javier Nogales presenta una panorámica de los modelos utilizados para prever el mercado de valores y cómo la aparición de los métodos automáticos basados en la rapidez de computación y los datos masivos suponen un cambio de paradigma en el funcionamiento de dicho mercado. En particular, los modelos de machine learning y de aprendizaje estadístico están permitiendo obtener rendimientos superiores al mercado de forma consistente aprovechando las no linealidades y los efectos inmediatos que pueden captarse con las tecnologías actuales. Este trabajo se complementa con el capítulo V escrito por Iván Blanco, Sergio J. García y Álvaro Remesal. En él, los autores presentan un interesante ejemplo, con datos del mercado de EE. UU., de cómo aprovechar el efecto momentum o inercia frecuente en los valores cotizados para mejorar su predictibilidad utilizando las redes neuronales profundas recurrentes con efectos dinámicos. Ambos trabajos ilustran de forma muy clara la revolución que se está desarrollando actualmente en el funcionamiento del mercado de valores.

Los nuevos sistemas de divisas, las criptomonedas, se analizan en el capítulo VI de Gian Pietro Enzo Belloca, que está relacionado con los dos anteriores al considerar también el momentum o efecto de inercia en la evolución de un activo para la predicción del precio de una criptomoneda. Este trabajo proporciona una visión general de la tecnología blockchain y cómo ha llevado al nacimiento de una nueva moneda digital. Posteriormente, se centra en la predicción y explotación del efecto momentum en tres de las principales criptomonedas bitcóin (BTC), ethereum (ETH) y litecoin (LTC), en los dos últimos años. Se comprueba de nuevo que, como en la predicción de los precios de las acciones, los modelos de aprendizaje automático pueden predecir, mediante el análisis de grandes bases de datos, la volatilidad de los precios a corto plazo, aumentando el rendimiento de la inversión en comparación con los enfoques tradicionales.

La posibilidad de explotar la información de las transacciones financieras para mejorar la contabilidad nacional se aborda por Alvaro Ortiz Vidal-Abarca y Tomasa Rodrigo en el capítulo VII. Los autores ilustran cómo las transacciones financieras de la vida diaria constituyen una rica fuente de información para aproximar el comportamiento de una economía en tiempo real. En concreto, nos permite aproximar las cuentas nacionales tanto por el lado de la demanda, como por el de la oferta y de la renta a una frecuencia mucho más elevada y con un grado de detalle muy superior al incluido normalmente en las encuestas. Esta propiedad se ilustra con el análisis del consumo español.

José Penalva analiza en el capítulo VIII cómo la inteligencia artificial (IA) se aplica para fijar precios en muchos sectores como préstamos, seguros, billetes de hotel y avión, alquileres, etcétera. En este trabajo se estudia el posible impacto de este uso de la IA, y la necesidad de que las políticas de competencia adapten sus planteamientos a este nuevo contexto.

Finalmente, en el último capítulo, J. Ignacio Conde-Ruiz, Juan José Ganuza, Manu García y Luis A. Puch abordan las diferencias de género en la investigación económica desde el aprendizaje automático, utilizando una base de datos de resúmenes de artículos publicados en las mejores revistas de economía para demostrar que existen diferencias significativas en el enfoque y elección de temas en la investigación de hombres y mujeres. El trabajo incluye un estudio específico sobre el análisis de estas diferencias en el campo de finanzas.

Confiamos en que este conjunto de trabajos será de utilidad a una audiencia amplia de lectores que quiera introducirse en los grandes cambios que los datos masivos están produciendo en las estrategias financieras. Agradecemos a todos los autores su esfuerzo y generosidad para difundir su experiencia en beneficio de todos los lectores.

Como editores de este libro queremos agradecer el apoyo de Funcas a esta iniciativa y, especialmente a su director general, Carlos Ocaña, que ha impulsado el área de big data dentro de la Fundación. Agrademos a todo su equipo las facilidades para la realización de las jornadas y a la responsable de publicaciones en Funcas, Myriam González, su eficaz trabajo en la publicación de esta monografía.

Leer más

Capítulo I. Digitalización financiera pospandemia: una aproximación basada en aprendizaje automático

Este trabajo examina cuáles son los factores que predicen el grado de digitalización financiera en un contexto pospandémico. Usando una encuesta realizada en España a 2.121 usuarios online –entre 18 y 70 años– se emplea el random forest y extreme gradient boosting para predecir el proceso de digitalización financiera. El estudio muestra que las técnicas de aprendizaje automático predicen con un elevado grado de precisión el grado de digitalización financiera. Los principales predictores son la necesidad/utilidad percibida sobre la banca digital para consultar saldos, transferir dinero y relacionarse con el banco.

Leer más

Capítulo II. Negociación de alta frecuencia y calidad del mercado: revisión de una década de investigación

Revisamos una década de investigación académica sobre el HFT para evaluar su impacto sobre la calidad de los mercados financieros. Además de caracterizar el HFT y sus estrategias canónicas, examinamos cómo cada una de ellas afecta a la liquidez y a la eficiencia en precios. Concluimos que el efecto neto del HFT ha sido positivo. No obstante, el HFT oportunista podría tener externalidades negativas, tanto sobre los proveedores de liquidez como sobre la negociación informada. Además, el HFT podría aumentar el riesgo sistemático y reducir la eficiencia en precios a largo plazo al desincentivar la adquisición de nueva información.

Leer más

Capítulo III. Aprendizaje automático en modelos de concesión de crédito: oportunidades y riesgos

En el presente capítulo analizamos las oportunidades y riesgos que supone la aplicación de modelos de aprendizaje automático (ML, por sus siglas en inglés) en la concesión de crédito. Para ello realizamos una revisión guiada de la literatura, y acompañamos la discusión con la realización de un ejercicio empírico con una base de datos de libre acceso. Por un lado, la mayor capacidad de predicción de ML puede suponer un impacto económico, tanto por la provisión de nuevo negocio, como por el ahorro en capital regulatorio que una entidad financiera podría obtener si adoptara ML en sus modelos internos. El mayor rendimiento predictivo de ML también puede conllevar efectos positivos en la inclusión financiera, aunque estos resultados deben ser valorados junto con nuevos riesgos que vendrían de la mano de esta tecnología, como son especialmente la discriminación (sesgos) entre clases sociales, o la explicabilidad de los resultados, la cual analizaremos usando nuevas técnicas de interpretabilidad. Concluimos con una reflexión sobre la necesidad de lograr una satisfactoria explicabilidad de los modelos como condición necesaria para la puesta en producción de esta tecnología financiera, dando confianza a los usuarios de sistemas automatizados de concesión de crédito.

Leer más

Capítulo IV. ¿Es posible batir a los mercados financieros usando herramientas de big data y de machine learning?

Una de las premisas de la teoría económica financiera es la hipótesis del mercado eficiente: los precios de los activos financieros incorporan toda la información pública disponible. El consenso actual es que los mercados financieros no son 100 % eficientes en todo momento, por lo que siempre existen pequeñas anomalías que pueden ser explotadas para generar rentabilidades por encima del mercado.

En este trabajo se revisarán las herramientas de machine learning propuestas en los últimos años, en el contexto del big data financiero, para explotar las mencionadas anomalías, y desarrollar estrategias automáticas de inversión para tratar de batir a los mercados.

Leer más

Capítulo V. Aprendizaje profundo para series temporales en finanzas: aplicación al factor momentum

Este trabajo demuestra la capacidad predictiva de las redes neuronales recurrentes Long Short-Term Memory (LSTM) para predecir series temporales financieras. Las arquitecturas LSTM son herramientas de predicción de secuencias de datos con escasa implantación hasta ahora en el ámbito académico de las finanzas. Nuestra aplicación de las redes LSTM al factor momentum genera predicciones con R2 fuera de la muestra y ganancias en términos económicos que son superiores al 2 %. Los resultados demuestran el poder predictivo de los modelos LSTM y sirven como punto de partida para analizar de manera más exhaustiva series temporales financieras mediante estas arquitecturas.

Leer más

Capítulo VI. Aprendizaje automático aplicado a la compraventa de criptomonedas

En los últimos años, las criptomonedas se han convertido en un nuevo activo financiero, atrayendo el interés especialmente de los pequeños inversores privados. Estudios recientes muestran que este nuevo mercado es particularmente inestable y propenso a anomalías de precio como el efecto momentum. Este trabajo tiene como objetivo proporcionar una visión general de la tecnología blockchain y cómo ha llevado al nacimiento de una nueva moneda digital. Posteriormente, se centra en la predicción y explotación del efecto momentum durante la actividad de inversión, centrándose en los períodos recientes de mercado alcista (2021) y de crisis (2022). En concreto, los modelos de aprendizaje automático pueden predecir, mediante el análisis de grandes bases de datos, la volatilidad de los precios a corto plazo, aumentando el rendimiento de la inversión en comparación con los enfoques tradicionales.

Leer más

Capítulo VII. Transacciones financieras y economía en tiempo real y alta definición: el consumo español

Las transacciones financieras que ocurren de manera natural en la vida diaria constituyen una rica fuente de información para aproximar el comportamiento de una economía en tiempo real y en alta definición. La información anonimizada, procesada y agregada adecuadamente nos permite aproximar las cuentas nacionales tanto por el lado de la demanda, de la oferta y de las rentas a una frecuencia mucho más elevada a la oficial y con un grado de detalle muy superior al incluido normalmente en las encuestas. En este capítulo presentamos cómo utilizar los datos de transacciones financieras para el análisis del consumo español. El uso del big data nos ayuda a complementar a las estadísticas oficiales y abre una ventana de oportunidades en el diseño y ejecución de políticas inteligentes.

Leer más

Capítulo VIII. ¿Sueña la inteligencia artificial con cárteles virtuales?

La inteligencia artificial (IA) se aplica como instrumento para fijar precios en muchos sectores más allá del comercio electrónico. Se utiliza para fijar tipos de interés de préstamos, seguros, billetes de hotel y avión, alquileres, etc. En este capítulo discutimos, en el contexto de nuevos resultados que analizan el comportamiento de algoritmos en el marco de la fijación de precios, el posible impacto de este uso de la IA, y hasta qué punto las políticas de competencia pueden seguir aplicando recetas antiguas o han de adaptar sus planteamientos a este nuevo contexto.

Leer más

Capítulo IX. Diferencias de género en la investigación económica. Un enfoque de aprendizaje automático

Utilizando técnicas de aprendizaje automático no supervisado y una nueva base de datos compuesta por los resúmenes de todos los artículos publicados en revistas Top5 (T5) de economía para el periodo (2002-2019), se demuestra que existen diferencias horizontales persistentes y significativas en la forma en que hombres y mujeres abordan la investigación en economía. Utilizando el modelo temático estructural (STM) se estiman los temas de investigación de los artículos, y se asignan los artículos (y los autores) a dichos temas. La distribución resultante de temas de investigación por sexo demuestra que hay diferencias horizontales significativas de género en la elección de temas de investigación. Estos resultados son importantes por varias razones: i) las publicaciones de T5 son clave para la carrera investigadora y también para determinar la trayectoria de la investigación económica; ii) los resultados son robustos en el sentido de que se generan automáticamente con un modelo probabilístico sin ninguna asignación arbitraria de los trabajos a categorías o campos de investigación preestablecidos; iii) por último, los recientes resultados teóricos de Conde-Ruiz y Ganuza (2017); Conde-Ruiz et al. (2022) y Siniscalchi y Veronesi (2020) muestran que las diferencias “horizontales” de género en la elección del tema de investigación pueden conducir a una brecha de género permanente.

Leer más

Funcas

Think tank dedicado a la investigación económica y social

Contacto
C/ Caballero de Gracia, 28 | 28013 Madrid, España
+34 91 596 57 18 | funcas@funcas.es
Síguenos
Send this to a friend