El riesgo de un uso inadecuado de la inteligencia artificial en la actividad bancaria

El riesgo de un uso inadecuado de la inteligencia artificial en la actividad bancaria

ODF – Funcas 49 / 2023

Fecha: 11 julio 2023

La reciente popularidad de la inteligencia artificial, sobre todo a partir del lanzamiento de ChatGPT, no puede obviar los riesgos que pueden surgir por un uso inadecuado de esta tecnología. Por ejemplo, existe la posibilidad de que la IA genere sesgos, o una cierta discriminación, en el caso de que el sistema no esté entrenado adecuadamente.

Los ingenieros encargados del desarrollo de la IA han recalcado que el potencial de esta tecnología depende en gran medida de los datos que recibe. El material de origen – datos estructurados, texto, imágenes, etc. – utilizado para entrenarla es determinante. Usar conjuntos de datos incompletos o no representativos puede limitar su objetividad. Además, si existen sesgos en los datos utilizados para el entrenamiento, IA no hará sino perpetuar estos sesgos. En este sentido, ya se ha visto que algunos sistemas de identificación biométrica basados en IA  identifican erróneamente en mayor grado los rostros de las personas de raza negra o pertenecientes a minorías étnicas. Además, algunas aplicaciones de reconocimiento de voz no son capaces de distinguir las voces con distintos acentos regionales. Este tipo de problemas surgen cuando los datos que sirven de alimentación de la inteligencia artificial no representan a determinados grupos sociales.

En el ámbito financiero, para evitar estos comportamientos es fundamental que las entidades financieras desarrollen sistemas de gestión de datos modernos. Especialmente, en el ámbito de la concesión de préstamos, que es donde más preocupa la existencia de elecciones que perjudiquen a determinados individuos o grupos sociales.  Cuando los sistemas de inteligencia artificial se usan específicamente para tomar decisiones de aprobación de préstamos, existe el riesgo de replicar las discriminaciones presentes en los datos históricos. Si en el pasado algunos segmentos de población han recibido menos crédito, simplemente por sus menores niveles de solvencia, existe el riesgo de que la inteligencia artificial interprete que el rechazo se debe a una cuestión identitaria – género, condición sexual, raza, religión, etc. – obviando lo realmente importante: el nivel actual de solvencia del solicitante.

Estos riesgos en el uso de la IA no justificaría tampoco que las entidades financieras no implementen esta tecnología. En un entorno competitivo más digital es cada vez más necesario. No implementar esta tecnología disruptiva  puede suponer un considerable error estratégico, pero implementarla sin las debidas cautelas también puede ser una fuente de riesgos. Las entidades financieras, como el resto de las empresas de otras industrias, deben ser conscientes que el uso de la IA debe ir acompañado de un sistema de garantías o de calidad.

Descarga Newsletter (formato PDF)

Funcas

Think tank dedicado a la investigación económica y social

Contacto
C/ Caballero de Gracia, 28 | 28013 Madrid, España
+34 91 596 57 18 | funcas@funcas.es
Síguenos
Send this to a friend