La información sobre la lógica aplicada en el credit scoring automatizado: fácil, concisa y sin tecnicismos

Abstract

On 27 February 2025, the CJEU delivered its judgment in Dun & Bradstreet (Case C-203/2022), interpreting for the first time the scope of the data subject’s right to obtain “meaningful information about the logic involved” in automated individual decision-making [Art. 15(1)(h) GDPR], such as a credit score. This information must be comprehensible, accessible, and free of technical jargon, enabling the data subject to understand which personal data were used and how they influenced the outcome. The Court also held that data controllers cannot invoke trade secrecy to refuse access to such information. Although the judgment focuses on transparency obligations, it indirectly brings to light one of the most pressing risks of automated credit scoring: algorithmic discrimination. This article warns that sociodemographic data—such as place of residence—though statistically correlated with default risk, may not reflect an applicant’s actual creditworthiness and may lead to discriminatory outcomes. To prevent this, the article argues that automated credit scoring systems should rely exclusively on data that directly reflects the individual’s financial capacity to perform the contract.La STJUE de 27 de febrero de 2025, asunto C-203/2022, Dun & Bradstreet, interpreta por primera vez el alcance del derecho del interesado a obtener “información significativa sobre la lógica aplicada” a decisiones individuales automatizadas [art. 15.1 h) RGPD], como un score de solvencia. Esta información debe ser comprensible, accesible y libre de tecnicismos, permitiendo al interesado entender qué datos se usaron y cómo influyeron en el resultado. Además, el Tribunal rechaza que el responsable del tratamiento pueda escudarse en el secreto comercial para denegar esa información. Aunque la sentencia se centra en la transparencia de la información, indirectamente saca a la luz uno de los mayores problemas derivados del credit scoring automatizado, esto es, la discriminación algorítmica. Así, el presente artículo alerta de que los datos sociodemográficos, como el domicilio, aunque estadísticamente correlacionados con el riesgo de impago, pueden no reflejar la solvencia real del solicitante y dar lugar a decisiones discriminatorias. Para evitarlo, se defiende que los procesos de credit socring automatizado deberían basarse exclusivamente en datos que reflejen la capacidad financiera individual del interesado para cumplir el contrato

Similar works

Full text

thumbnail-image

Universidad de Castilla-La Mancha: Open Journal Systems

redirect
Last time updated on 22/06/2025

Having an issue?

Is data on this page outdated, violates copyrights or anything else? Report the problem now and we will take corresponding actions after reviewing your request.

Licence: https://creativecommons.org/licenses/by-nc-nd/4.0