181 research outputs found

    LA PREVENTION DU RISQUE DE DEFAUT DANS LES BANQUES TUNISIENNES. Analyse comparative entre les méthodes linéaires classiques et les méthodes de l'intelligence artificielle : les réseaux de neurones artificiels

    Get PDF
    Ce papier porte sur le risque de non remboursement des crédits de gestion par une banque commerciale tunisienne. Ainsi, la maîtrise du risque de défaut des crédits est devenue l'un des axes stratégiques majeurs de la gestion des organismes bancaires. Ce papier se fixe pour objectif de comparer le pouvoir prédictif de trois méthodes de prévision du risque à savoir : le scoring, la régression logistique et les réseaux de neurones artificiels. Nous avons utilisé une base de données composée de 1435 dossiers de crédit octroyés aux entreprises industrielles tunisiennes en 2003,2004,2005 et 2006. Les résultats montrent la supériorité des réseaux de neurones artificiels par rapport aux autres méthodes classiques en matière de détresse financière des firmes emprunteuses. Dans ce sens nous avons obtenu un taux de bon classement global de 97% pour l‟échantillon d‟apprentissage et 89.9% pour l‟échantillon testSecteur bancaire scoring ; régression logistique, panel, réseaux de neurones, la prévision du risque de défaut

    Prédiction du risque de crédit : étude comparative des techniques de Scoring

    Get PDF
    Good control and management of credit risk has become the main concern of financial institutions, which are constantly developing models for analyzing, assessing and predicting this risk, particularly with the prudential standards required by central banks. Credit risk assessment and prediction methods are represented in the form of scoring models which aim to predict the potential vulnerability of a business using financial information and computable. The objective of our work is to study the different techniques of credit scoring, their interest as a powerful tool allowing to predict the solvency of the borrowers.Une bonne maîtrise et gestion du risque de crédit est devenue la principale préoccupation des établissements financiers qui ne cessent de développer des modèles d’analyse, d’évaluation et de prédiction de ce risque, notamment avec les normes prudentielles exigées par les banques centrales. Les méthodes d’évaluation et de prédiction du risque de crédit sont représentées sous la forme de modèles de scoring qui ont pour but la prédiction de la défaillance d’une entreprise grâce à des informations financières et comptables. L’objectif de notre travail est d'analyserles différentes techniques de crédit scoring en tant qu’un outil puissant permettant de prévoir la solvabilité des emprunteurs

    Evaluation de Techniques de Traitement des Refusés pour l'Octroi de Crédit

    No full text
    We present the problem of "Reject Inference" for credit acceptance. Because of the current legal framework (Basel II), credit institutions need to industrialize their processes for credit acceptance, including Reject Inference. We present here a methodology to compare various techniques of Reject Inference and show that it is necessary, in the absence of real theoretical results, to be able to produce and compare models adapted to available data (selection of "best" model conditionnaly on data). We describe some simulations run on a small data set to illustrate the approach and some strategies for choosing the control group, which is the only valid approach to Reject Inference

    Formalisation et étude de problématiques de scoring en risque de crédit: Inférence de rejet, discrétisation de variables et interactions, arbres de régression logistique

    Get PDF
    This manuscript deals with model-based statistical learning in the binary classification setting. As an application, credit scoring is widely examined with a special attention on its specificities. Proposed and existing approaches are illustrated on real data from Crédit Agricole Consumer Finance, a financial institute specialized in consumer loans which financed this PhD through a CIFRE funding.First, we consider the so-called reject inference problem, which aims at taking advantage of the information collected on rejected credit applicants for which no repayment performance can be observed (i.e. unlabelled observations). This industrial problem led to a research one by reinterpreting unlabelled observations as an information loss that can be compensated by modelling missing data. This interpretation sheds light on existing reject inference methods and allows to conclude that none of them should be recommended since they lack proper modelling assumptions that make them suitable for classical statistical model selection tools.Next, yet another industrial problem, corresponding to the discretization of continuous features or grouping of levels of categorical features before any modelling step, was tackled. This is motivated by practical (interpretability) and theoretical reasons (predictive power). To perform these quantizations, ad hoc heuristics are often used, which are empirical and time-consuming for practitioners. They are seen here as a latent variable problem, setting us back to a model selection problem. The high combinatorics of this model space necessitated a new cost-effective and automatic exploration strategy which involves either a particular neural network architecture or a Stochastic-EM algorithm and gives precise statistical guarantees.Third, as an extension to the preceding problem, interactions of covariates may be introduced in the problem in order to improve the predictive performance. This task, up to now again manually processed by practitioners and highly combinatorial, presents an accrued risk of misselecting a ``good'' model. It is performed here with a Metropolis-Hastings sampling procedure which finds the best interactions in an automatic fashion while ensuring its standard convergence properties, thus good predictive performance is guaranteed.Finally, contrary to the preceding problems which tackled a particular scorecard, we look at the scoring system as a whole. It generally consists of a tree-like structure composed of many scorecards (each relative to a particular population segment), which is often not optimized but rather imposed by the company's culture and / or history. Again, ad hoc industrial procedures are used, which lead to suboptimal performance. We propose some lines of approach to optimize this logistic regression tree which result in good empirical performance and new research directions illustrating the predictive strength and interpretability of a mix of parametric and non-parametric models.This manuscript is concluded by a discussion on potential scientific obstacles, among which the high dimensionality (in the number of features). The financial industry is indeed investing massively in unstructured data storage, which remains to this day largely unused for Credit Scoring applications. Doing so will need statistical guarantees to achieve the additional predictive performance that was hoped for.Cette thèse se place dans le cadre des modèles d’apprentissage automatique de classification binaire. Le cas d’application est le scoring de risque de crédit. En particulier, les méthodes proposées ainsi que les approches existantes sont illustrées par des données réelles de Crédit Agricole Consumer Finance, acteur majeur en Europe du crédit à la consommation, à l’origine de cette thèse grâce à un financement CIFRE.Premièrement, on s’intéresse à la problématique dite de ``réintégration des refusés''. L’objectif est de tirer parti des informations collectées sur les clients refusés, donc par définition sans étiquette connue, quant à leur remboursement de crédit. L’enjeu a été de reformuler cette problématique industrielle classique dans un cadre rigoureux, celui de la modélisation pour données manquantes. Cette approche a permis de donner tout d’abord un nouvel éclairage aux méthodes standards de réintégration, et ensuite de conclure qu’aucune d’entre elles n’était réellement à recommander tant que leur modélisation, lacunaire en l’état, interdisait l’emploi de méthodes de choix de modèles statistiques.Une autre problématique industrielle classique correspond à la discrétisation des variables continues et le regroupement des modalités de variables catégorielles avant toute étape de modélisation. La motivation sous-jacente correspond à des raisons à la fois pratiques (interprétabilité) et théoriques (performance de prédiction). Pour effectuer ces quantifications, des heuristiques, souvent manuelles et chronophages, sont cependant utilisées. Nous avons alors reformulé cette pratique courante de perte d’information comme un problème de modélisation à variables latentes, revenant ainsi à une sélection de modèle. Par ailleurs, la combinatoire associé à cet espace de modèles nous a conduit à proposer des stratégies d’exploration, soit basées sur un réseau de neurone avec un gradient stochastique, soit basées sur un algorithme de type EM stochastique.Comme extension du problème précédent, il est également courant d’introduire des interactions entre variables afin, comme toujours, d’améliorer la performance prédictive des modèles. La pratique classiquement répandue est de nouveau manuelle et chronophage, avec des risques accrus étant donnée la surcouche combinatoire que cela engendre. Nous avons alors proposé un algorithme de Metropolis-Hastings permettant de rechercher les meilleures interactions de façon quasi-automatique tout en garantissant de bonnes performances grâce à ses propriétés de convergence standards.La dernière problématique abordée vise de nouveau à formaliser une pratique répandue, consistant à définir le système d’acceptation non pas comme un unique score mais plutôt comme un arbre de scores. Chaque branche de l’arbre est alors relatif à un segment de population particulier. Pour lever la sous-optimalité des méthodes classiques utilisées dans les entreprises, nous proposons une approche globale optimisant le système d’acceptation dans son ensemble. Les résultats empiriques qui en découlent sont particulièrement prometteurs, illustrant ainsi la flexibilité d’un mélange de modélisation paramétrique et non paramétrique.Enfin, nous anticipons sur les futurs verrous qui vont apparaître en Credit Scoring et qui sont pour beaucoup liés la grande dimension (en termes de prédicteurs). En effet, l’industrie financière investit actuellement dans le stockage de données massives et non structurées, dont la prochaine utilisation dans les règles de prédiction devra s’appuyer sur un minimum de garanties théoriques pour espérer atteindre les espoirs de performance prédictive qui ont présidé à cette collecte

    Réintégration des refusés en Credit Scoring

    Get PDF
    International audienceThe granting process of all credit institutions rejects applicants who seem risky regarding the repayment of their debt. A credit score is calculated and associated with a cutoff value beneath which an applicant is rejected. Developing a new score implies having a learning dataset in which the response variable good/bad borrower is known, so that rejects are de facto excluded from the learning process. We first introduce the context and some useful notations. Then we formalize if this particular sampling has consequences on the score's relevance. Finally, we elaborate on methods that use not-financed clients' characteristics and conclude that none of these methods are satisfactory in practice using data from Crédit Agricole Consumer Finance.Un système d'octroi de crédit peut refuser des demandes de prêt jugées trop risquées. Au sein de ce système, le score de crédit fournit une valeur mesurant un risque de défaut, valeur qui est comparéè a un seuil d'acceptabilité. Ce score est construit exclusivement sur des données de clients financés, contenant en particulier l'information " bon ou mauvais payeur " , alors qu'il est par la suite appliquéappliqué`appliquéà l'ensemble des deman-des. Un tel score est-il statistiquement pertinent ? Dans cette note, nous précisons et formalisons cette question etétudionsetétudions l'effet de l'absence des non-financés sur les scoresélaborés scoresélaborés. Nous présentons ensuite des méthodes pour réintégrer les non-financés et con-cluons sur leur inefficacité en pratique, ` a partir de données issues de Crédit Agricole Consumer Financ

    Etude de la Cohérence des Ratings de Banques avec la Probabiliies de Dfaillance Bancaire dans les Pays Emergents

    Get PDF
    Cet article propose d’appliquer la méthodologie de scoring et de calibrage afin d’étudier la cohérence des ratings de banques avec un modèle de défaut des banques dans les pays émergents. En effet, le rôle du rating en temps que vecteur de discipline de marché, via la véhiculation d’informations sur le risque de défaut, devrait croître dans le cadre du 3e Pilier de la Réforme de Bâle II. Pour que ce rôle soit efficace, il est crucial que le rating soit ffectivement cohérent avec la probabilité de défaut de l'émetteur. D’après les résultats obtenus, l’utilisation du scoring pour quantifier les classes de rating interne donne des estimations cohérentes avec les taux de d´efaut observés. Par contre, une tendance à l’agrégation de l’information par les rating Moody’s et Fitch est mise en évidence.Enfin, la cohérence s’avère plus importante en terme de répartition des probabilités de défaut estimées par classe de rating Moody’s et Fitch.probabilité de défaut et rating de banque, scoring et mapping, pays émergents

    Proposition d’un modèle de prédiction de la défaillance des entreprises marocaines

    Get PDF
    Toute entreprise risque de se confronter au cours de sa vie à des difficultés. Celles-ci nesurviennent pas brusquement, elles peuvent être liées à des facteurs micro oumacroéconomiques et qui risquent de la conduire à une défaillance financière puis juridique.Le nombre de défaillance des entreprises marocaines a connu une évolution inquiétantedepuis l’année 2007. Cet accroissement confirme la nécessité de prévoir la défaillance afin deveiller à la protection des créanciers, notamment les banques qui demeurent la principalesource de financement externe des entreprises marocaines.La problématique de notre recherche se propose de mettre en évidence les variables les plusdiscriminantes entre les entreprises saines et celles défaillantes, à travers un échantillon de200 entreprises marocaines. L’objectif de notre contribution sera de proposer un modèle deprédiction de la défaillance des entreprises marocaines, qui constituera à la fois un moyen dediagnostic et un outil de prévention des difficultés. Ainsi, le choix de notre sujet s’inscrit dansla perspective de maîtrise du risque de défaillance de la clientèle entreprise des banques.Mots clés : La défaillance, entreprises défaillantes, entreprises saines, variablesdiscriminantes, prédiction du risque
    • …
    corecore