The past two decades have witnessed the rapid development of machine learning
techniques, which have proven to be powerful tools for the construction of predictive
models, such as those used in credit risk management. A considerable volume of
published work has looked at the utility of machine learning for this purpose, the
increased predictive capacities delivered and how new types of data can be
exploited. However, these benefits come at the cost of increased complexity, which
may render the models uninterpretable. To overcome this issue a new field has
emerged under the name of explainable artificial intelligence, with numerous tools
being proposed to gain an insight into the inner workings of these models. This type
of understanding is fundamental in credit risk in order to ensure compliance with the
existing regulatory requirements and to comprehend the factors driving the
predictions and their macro-economic implications. This paper studies the
effectiveness of some of the most widely-used interpretability techniques on a neural
network trained on real data. These techniques are found to be useful for
understanding the model, even though some limitations have been encountered.En las dos últimas décadas se ha observado un rápido desarrollo de las técnicas
de aprendizaje automático, que han demostrado ser herramientas muy potentes
para elaborar modelos de predicción, como los utilizados en la gestión del riesgo de
crédito. En un volumen considerable de trabajos publicados se analizan la utilidad del
aprendizaje automático para este fin, las mayores capacidades predictivas que
ofrece y la forma en la que se pueden explotar nuevos tipos de datos. Sin embargo,
estas ventajas llevan aparejada una mayor complejidad, que puede imposibilitar la
interpretación de los modelos. Para solventar este punto ha surgido un nuevo campo
de investigación, denominado «inteligencia artificial explicable» (del inglés explicable
artificial intelligence), en el que se proponen numerosas herramientas para obtener
información relativa al funcionamiento interno de estos modelos. Este tipo de
conocimiento es fundamental en materia de riesgo de crédito para garantizar que se
cumplen los requerimientos regulatorios existentes y para comprender los factores
determinantes de las predicciones y sus implicaciones macroeconómicas. En este
artículo se estudia la eficacia de algunas de las técnicas de interpretabilidad más
utilizadas en una red neuronal entrenada con datos reales. Estas técnicas se
consideran útiles para la comprensión del modelo, pese a que se han detectado
algunas limitaciones