72 research outputs found

    Modelo preditivo de capacidade de pagamento para prospecção PF : atraindo e fidelizando clientes no cenário de Open Finance

    Get PDF
    Dissertação (mestrado) — Universidade de Brasília, Faculdade de Economia, Administração, Contabilidade e Gestão de Políticas Públicas, Programa de Pós-graduação em Economia, 2022.As grandes instituições financeiras tradicionais estão direcionando suas estratégias para a expansão dos serviços financeiros no mundo digital, passando a concorrer nesse mercado com as fintechs e bancos digitais, empresas inovadoras, com menor custo operacional e que fazem uso intenso de tecnologia. A pandemia do coronavírus acelerou os hábitos digitais da população e aumentou a busca por créditos nos canais digitais, aumentando a concorrência entre as instituições, principalmente após a implantação do compartilhamento de dados através do Open Finance. Este trabalho teve como objetivo construir um modelo preditivo de capacidade de pagamento nos produtos comerciais para prospecção de pessoa física, com o uso de algoritmos supervisionados de aprendizagem de máquina para regressão. Para isso, utilizamos um conjunto de dados anonimizado proveniente de uma grande instituição financeira brasileira do segmento S1, contendo 350.953 registros e 61 variáveis, sendo que a variável dependente é o valor que a instituição deseja ofertar estrategicamente para esses clientes. Aplicamos quatro ferramentas para a seleção de variáveis (Boruta, FeatureWiz, SelectKBest e RFE) com diferentes parâmetros que resultaram em 39 variáveis únicas (Selecionadas), além de filtrar as 10 mais comuns entre todos os modelos (Top 10) e realizamos a otimização de hiperparâmetros com o RandomizedSearchCV e Optuna integrado com Neptuno para 18 estimadores (Linear Regression, Ridge, Lasso, ElasticNet, Huber Regressor, Passive Aggressive Regressor, Linear SVR, Nu SVR, K-Neighbors Regressor, PLS Regression, Decision Tree Regressor, Extra Trees Regressor, Random Florest Regressor, Gradient Boosting Regressor, Histogram Gradient Boosting Regressor, LightGBM Regressor, XGBoost Regressor e CatBoost Regressor ). Comparamos o resultado de 162 modelos construídos pela combinação do estimador (18 opções), seleção de variáveis (Todas variáveis, Selecionadas e Top 10) e otimização de hiperparâmetros (Sem otimização (Default), RandomizedSearchCV e Optuna), sendo escolhidos os melhores modelos na avaliação por diferentes métricas (MAE, MSE, MAPE, RMSE, MedAE, R2 , Variância Explicada e Erro Residual Máximo) aplicadas na base de Teste, Out-of-Time e Out-ofSample. Os que apresentaram melhor resultado foram o Gradiente Boosting Regressor Optuna e o LightGBM Regressor Optuna, ambos modelos considerados ”caixas preta” com complexa interpretação e explicação. Para extrair as regras do modelo de previsão, tornando-as interpretáveis utilizamos o LIME. Esse trabalho mostrou que diferentes técnicas de aprendizado de máquina, com excelente performance em relação aos modelos lineares tradicionais, podem ser aplicadas para a predição da capacidade de pagamento do cliente no ambiente bancário, altamente regulamentado.The large traditional financial institutions are directing their strategies towards the expansion of financial services in the digital world, starting to compete in this market with fintechs and digital banks, innovative companies, with lower operating costs and that make intense use of technology. The coronavirus pandemic accelerated the population’s digital habits and increased the search for credit on digital channels, increasing competition between institutions, especially after the implementation of data sharing through Open Finance. This work aimed to build a predictive model of ability to pay (affordability) in commercial products for prospecting individuals, using supervised machine learning algorithms for regression. For this, we used an anonymized dataset from a large Brazilian financial institution in the S1 segment, containing 350,953 records and 61 variables, with the dependent variable being the value that the institution wants to offer strategically to these customers. We applied four tools for the selection of variables (Boruta, FeatureWiz, SelectKBest and RFE) with different parameters that resulted in 39 unique (”selected”) variables, in addition to filtering the 10 most common among all models (”Top 10”) and we performed hyperparameter optimization with RandomizedSearchCV and Optuna integrated with Neptune for 18 estimators (Linear Regression, Ridge, Lasso, ElasticNet, Huber Regressor, Passive Aggressive Regressor, Linear SVR, Nu SVR, K-Neighbors Regressor, PLS Regression, Decision Tree Regressor, Extra Trees Regressor, Random Forest Regressor, Gradient Boosting Regressor, Histogram Gradient Boosting Regressor, LightGBM Regressor, XGBoost Regressor, and CatBoost Regressor). We compared the results of 162 models built by combining the estimator (18 options), variable selection (all variables, ”selected” and ”top 10”) and hyperparameter optimization (without optimization, RandomizedSearchCV and Optuna), and the best models were chosen. in the evaluation by different metrics (MAE, MSE, MAPE, RMSE, MedAE, R2 , Explained Variance and Maximum Residual Error) applied to the Test, Out-of-Time and Out-of-Sample basis. The ones that presented the best results were the Gradient Boosting Regressor (Optuna) and the LightGBM Regressor (Optuna), both models considered ”black boxes” with complex interpretation and explanation. To extract the rules from the prediction model, making them interpretable, we use LIME. This work showed that different machine learning techniques, with excellent performance compared to traditional linear models, can be applied to predict the customer’s ability to pay in the highly regulated banking environment

    Exploiting immunological metaphors in the development of serial, parallel and distributed learning algorithms

    Get PDF
    This thesis examines the use of immunological metaphors in building serial, parallel, and distributed learning algorithms. It offers a basic study in the development of biologically-inspired algorithms which merge inspiration from biology with known, standard computing technology to examine robust methods of computing. This thesis begins by detailing key interactions found within the immune system that provide inspiration for the development of a learning system. It then exploits the use of more processing power for the development of faster algorithms. This leads to the exploration of distributed computing resources for the examination of more biologically plausible systems. This thesis offers the following main contributions. The components of the immune system that exhibit the capacity for learning are detailed. A framework for discussing learning algorithms is proposed. Three properties of every learning algorithm-memory, adaptation, and decision-making-are identified for this framework, and traditional learning algorithms are placed in the context of this framework. An investigation into the use of immunological components for learning is provided. This leads to an understanding of these components in terms of the learning framework. A simplification of the Artificial Immune Recognition System (AIRS) immune-inspired learning algorithm is provided by employing affinity-dependent somatic hypermutation. A parallel version of the Clonal Selection Algorithm (CLONALG) immune learning algorithm is developed. It is shown that basic parallel computing techniques can provide computational benefits for this algorithm. Exploring this technology further, a parallel version of AIRS is offered. It is shown that applying these same parallel computing techniques to AIRS, while less scalable than when applied to CLONALG, still provides computational gains. A distributed approach to AIRS is offered, and it is argued that this approach provides a more biologically appealing model. The simple distributed approach is proposed in terms of an initial step toward a more complex, distributed system. Biological immune systems exhibit complex cellular interactions. The mechanisms of these interactions, while often poorly understood, hint at an extremely powerful information processing/problem solving system. This thesis demonstrates how the use of immunological principles coupled with standard computing technology can lead to the development of robust, biologically inspired learning algorithms

    Гібридна згорткова мережа для обробки зображень та медичної діагностики

    Get PDF
    Метою дісертаційного дослідження є розробити нову архітектуру гібридної згорткових мережі і модель класифікації для підвищення якості розпізнавання раку молочної залози і зниження часу на її навчання. Дослідження обумовлена потребою в розробці нових і вдосконаленні існуючих моделей і методів для обробки зображень і медичної діагностики. Гібридна згорткова мережа повинна забезпечувати виділення інформативних ознак, що дозволяє підвищити критерій якості моделі для задач діагностування рак молочної залози. На сьогодні прогрес в напрямку підвищення якості та розширення можливостей сучасних моделей, оптимального оцінювання станів, а також діагностування раку молочної залози на основі мамографічних сканів неможливо без застосування сучасних методів і моделей для попередньої обробки і виділення інформативних ознак. Розроблена гібридна згорткова мережа на основі енкодера, яка дозволяє підвищити якість класифікації раку молочної залози і зокрема досягти мінімального відсотка помилково негативної помилки (англ. False negative, FN), що і є одним з ключових завдань поточного етапу розвитку методів. Для навчання моделі згорткового енкодера можна використовувати зображення, які не мають мітки, що зменшує розмірність зображення і видаляє шуми, в результаті чого залишаються важливі інформативні ознаки в меншій розмірності. Також, згорткова мережа з меншою кількістю навчальних параметрів, відповідно менш схильна до явища перенавчання. З цих причин у запропонованій моделі було використано згортковий автоенкодер для підвищення критерій якості моделі при меншому часі навчання. У запропонованій гібридній згортковій моделі, згортковий автокодер було використано для пошуку інформативних ознак, а згорткова нейронна мережа DenseNet – для класифікації. Для навчання запропонованого моделі, необхідно виконати: – Попередню обробку вхідних даних. Для попередньої обробки медичних зображень було застосовано: нормалізацію, скорочення розмірів зображенні і аугментацію даних. В аугментації даних застосовувались такі параметри, як обертання, розмір зображення та горизонтальний зсув. – Оптимізацію згорткової мережі автокодера шляхом мінімізації функції втрат. – відрегулювати гіперпараметри за допомогою експериментального аналізу для підвищення продуктивності моделі. – Шляхом трансферного навчання, навчити згорткові мережі DenseNet. – Підключити вихід енкодера до навченої згорткової мережі DenseNet для завдання класифікації. – На останньому етапі необхідно оптимізувати гібридну згорткову мережу за допомогою мінімізації критерія Перехресна ентропія: Hp = –1/N ∑N i=1 yi . log (P(yi)) + (1 – yi) . log(1 – P(yi)), де, N - кількість спостережень; y - бінарний індикатор (0 або 1) того, чи є мітка класу правильної класифікації для спостереження; p - прогнозована ймовірність моделі. Виконано експериментальні дослідження розробленої моделі розпізнавання раку молочної залози, отримані показники: чутливість, точність (precision), F1-Score і точність (accuracy) моделі при цьому становить 93,5%, 93,2%, 93,3% і 93%, відповідно, що значно більше ніж у відомих згорткових мереж, які були застосовані для цієї задачі. Наукова новизна дисертаційної роботи полягає: ⎯ Запропоновано модель, яка на відміну від існуючих моделей, дозволяє діагностування раку молочної залози за мінімальний час в порівнянні з відомими методами. ⎯ Розроблена гібридна згорткова мережа на основі енкодера, яка дозволяє підвищити якість класифікації раку молочної залози і зокрема досягти мінімального відсотка помилково негативної помилки (англ. False negative, FN) в порівнянні з відомими роботами в задачах класифікації раку молочної залози. Даний показник є одним з основних критеріїв для діагностики ракових захворювань. ⎯ Проведена модифікація архітектури моделі Inception V3 шляхом розширення числа повнозв’язаних шарів. Запропоновані в дисертаційній роботі модели забезпечують розпізнавання раку молочної залози з найкращою ефективністю в порівнянні з відомими методами. Загальний час навчання моделі становить приблизно 13 годин, що є найменшим часом навчання порівняно з іншими згортковими мережами.The aim of the dissertation research is to develop a new architecture of a hybrid convolutional network and a classification model to improve the quality of breast cancer recognition and reduce the time for its training. The study is driven by the need to develop new and improve existing models and methods for image processing and medical diagnostics. The hybrid convolutional network provides the selection of informative features, which allows to increase the productivity of the model for the tasks of diagnosing breast cancer. Nowadays, progress towards improving the quality and capabilities of modern models, optimal assessment of conditions, as well as the diagnosis of breast cancer based on mammography scans is impossible without the use of modern methods and models for pre-processing input data and selection of informative features. Development of a hybrid convolutional network based on an encoder, which allows to improve the quality of classification of breast cancer and to achieve a minimum percentage of false negative error (FN), which is one of the key steps of the current stage of development. For training the model of the convolutional encoder, images that have no label can be used. It reduces the dimensionality of the image and removes noise, which leaves important informative attributes in a smaller dimensionality. Also, concolutioanl autoencoder has less learning parameters, respectively, less sensitive to be overtraining. For these reasons convolutional autoencoder were used in the proposed model to increase performance model with less training time. In the proposed hybrid convolutional model, the convolutional autocoder was used as informative features extraction, and the convolutional neural network was used as a classifier. To learn the proposed model – First is needed to pre-process the input data. As pre-processing medical images, normalization, image reduction and data augmentation were used. In the date of augmentation, parameters like rotation, image resizing, and horizontal shift were applied. – Optimize the convolutional network of the autoencoder by minimizing the loss function. – Adjust the hyperparameters by experimental analysis to increase the performance of the model. – Fine tune the DenseNet convolutional networks through transfer training. – Connect the output of the encoder to the trained convolutional network DenseNet for the classification task. The last step is necessary to optimize the hybrid convolutional network by minimizing cross entropy: Hp = –1/N ∑N i=1 yi . log (P(yi)) + (1 – yi) . log(1 – P(yi)), Where, N - number of observations. Y - is a binary indicator (0 or 1) of whether there is a class label of the correct classification for observation. P - is the predicted probability of the model. Experimental studies of the developed model of breast cancer recognition were performed, the following indicators were obtained: sensitivity, precision, F1-Score and accuracy of the model are 93.5%, 93.2%, 93.3% and 93%, respectively. The scientific novelty of the dissertation is: – Proposed a model that, unlike existing models, allows diagnosing breast cancer in the shortest time compared to known methods. – Developed a hybrid convolutional network based on an encoder, which improves the quality of breast cancer classification and in particular to achieve a minimum percentage of false negative error (False negative, FN) compared to known works in the classification of breast cancer. This indicator is one of the main criteria for the diagnosis of cancer. – Modified the architecture of the Inception V3 model by expanding the number of fully connected layers. The models proposed in the dissertation provide recognition of breast cancer with the best efficiency in comparison with known methods. The total training time of the model is approximately 13 hours, which is the shortest training time compared to other convolutional networks

    Unsupervised Intrusion Detection with Cross-Domain Artificial Intelligence Methods

    Get PDF
    Cybercrime is a major concern for corporations, business owners, governments and citizens, and it continues to grow in spite of increasing investments in security and fraud prevention. The main challenges in this research field are: being able to detect unknown attacks, and reducing the false positive ratio. The aim of this research work was to target both problems by leveraging four artificial intelligence techniques. The first technique is a novel unsupervised learning method based on skip-gram modeling. It was designed, developed and tested against a public dataset with popular intrusion patterns. A high accuracy and a low false positive rate were achieved without prior knowledge of attack patterns. The second technique is a novel unsupervised learning method based on topic modeling. It was applied to three related domains (network attacks, payments fraud, IoT malware traffic). A high accuracy was achieved in the three scenarios, even though the malicious activity significantly differs from one domain to the other. The third technique is a novel unsupervised learning method based on deep autoencoders, with feature selection performed by a supervised method, random forest. Obtained results showed that this technique can outperform other similar techniques. The fourth technique is based on an MLP neural network, and is applied to alert reduction in fraud prevention. This method automates manual reviews previously done by human experts, without significantly impacting accuracy

    Implementing decision tree-based algorithms in medical diagnostic decision support systems

    Get PDF
    As a branch of healthcare, medical diagnosis can be defined as finding the disease based on the signs and symptoms of the patient. To this end, the required information is gathered from different sources like physical examination, medical history and general information of the patient. Development of smart classification models for medical diagnosis is of great interest amongst the researchers. This is mainly owing to the fact that the machine learning and data mining algorithms are capable of detecting the hidden trends between features of a database. Hence, classifying the medical datasets using smart techniques paves the way to design more efficient medical diagnostic decision support systems. Several databases have been provided in the literature to investigate different aspects of diseases. As an alternative to the available diagnosis tools/methods, this research involves machine learning algorithms called Classification and Regression Tree (CART), Random Forest (RF) and Extremely Randomized Trees or Extra Trees (ET) for the development of classification models that can be implemented in computer-aided diagnosis systems. As a decision tree (DT), CART is fast to create, and it applies to both the quantitative and qualitative data. For classification problems, RF and ET employ a number of weak learners like CART to develop models for classification tasks. We employed Wisconsin Breast Cancer Database (WBCD), Z-Alizadeh Sani dataset for coronary artery disease (CAD) and the databanks gathered in Ghaem Hospital’s dermatology clinic for the response of patients having common and/or plantar warts to the cryotherapy and/or immunotherapy methods. To classify the breast cancer type based on the WBCD, the RF and ET methods were employed. It was found that the developed RF and ET models forecast the WBCD type with 100% accuracy in all cases. To choose the proper treatment approach for warts as well as the CAD diagnosis, the CART methodology was employed. The findings of the error analysis revealed that the proposed CART models for the applications of interest attain the highest precision and no literature model can rival it. The outcome of this study supports the idea that methods like CART, RF and ET not only improve the diagnosis precision, but also reduce the time and expense needed to reach a diagnosis. However, since these strategies are highly sensitive to the quality and quantity of the introduced data, more extensive databases with a greater number of independent parameters might be required for further practical implications of the developed models

    Explainable AI for Interpretable Credit Scoring

    Full text link
    With the ever-growing achievements in Artificial Intelligence (AI) and the recent boosted enthusiasm in Financial Technology (FinTech), applications such as credit scoring have gained substantial academic interest. Credit scoring helps financial experts make better decisions regarding whether or not to accept a loan application, such that loans with a high probability of default are not accepted. Apart from the noisy and highly imbalanced data challenges faced by such credit scoring models, recent regulations such as the `right to explanation' introduced by the General Data Protection Regulation (GDPR) and the Equal Credit Opportunity Act (ECOA) have added the need for model interpretability to ensure that algorithmic decisions are understandable and coherent. An interesting concept that has been recently introduced is eXplainable AI (XAI), which focuses on making black-box models more interpretable. In this work, we present a credit scoring model that is both accurate and interpretable. For classification, state-of-the-art performance on the Home Equity Line of Credit (HELOC) and Lending Club (LC) Datasets is achieved using the Extreme Gradient Boosting (XGBoost) model. The model is then further enhanced with a 360-degree explanation framework, which provides different explanations (i.e. global, local feature-based and local instance-based) that are required by different people in different situations. Evaluation through the use of functionallygrounded, application-grounded and human-grounded analysis show that the explanations provided are simple, consistent as well as satisfy the six predetermined hypotheses testing for correctness, effectiveness, easy understanding, detail sufficiency and trustworthiness.Comment: 19 pages, David C. Wyld et al. (Eds): ACITY, DPPR, VLSI, WeST, DSA, CNDC, IoTE, AIAA, NLPTA - 202

    Obtención de reglas de clasificación difusas utilizando técnicas de optimización : Caso de estudio Riesgo Crediticio

    Get PDF
    El aporte central de esta tesis es la definición de un nuevo método capaz de generar un conjunto de reglas de clasificación difusas de fácil interpretación, baja cardinalidad y una buena precisión. Estas características ayudan a identificar y comprender las relaciones presentes en los datos facilitando de esta forma la toma de decisiones. El nuevo método propuesto se denomina FRvarPSO (Fuzzy Rules variable Particle Swarm Oprmization) y combina una red neuronal competitiva con una técnica de optimización basada en cúmulo de partículas de población variable para la obtención de reglas de clasificación difusas, capaces de operar sobre atributos nominales y numéricos. Los antecedentes de las reglas están formados por atributos nominales y/o condiciones difusas. La conformación de estas últimas requiere conocer el grado de pertenencia a los conjuntos difusos que definen a cada variable lingüística. Esta tesis propone tres alternativas distintas para resolver este punto. Uno de los aportes de esta tesis radica en la definición de la función de aptitud o fitness de cada partícula basada en un ”Criterio de Votación” que pondera de manera difusa la participación de las condiciones difusas en la conformación del antecedente. Su valor se obtiene a partir de los grados de pertenencia de los ejemplos que cumplen con la regla y se utiliza para reforzar el movimiento de la partícula en la dirección donde se encuentra el valor más alto. Con la utilización de PSO las partículas compiten entre ellas para encontrar a la mejor regla de la clase seleccionada. La medición se realizó sobre doce bases de datos del repositorio UCI (Machine Learning Repository) y tres casos reales en el área de crédito del Sistema Financiero del Ecuador asociadas al riesgo crediticio considerando un conjunto de variables micro y macroeconómicas. Otro de los aportes de esta tesis fue haber realizado una consideración especial en la morosidad del cliente teniendo en cuenta los días de vencimiento de la cartera otorgada; esto fue posible debido a que se tenía información del cliente en un horizonte de tiempo, una vez que el crédito se había concedido Se verificó que con este análisis las reglas difusas obtenidas a través de FRvarPSO permiten que el oficial de crédito de respuesta al cliente en menor tiempo, y principalmente disminuya el riesgo que representa el otorgamiento de crédito para las instituciones financieras. Lo anterior fue posible, debido a que al aplicar una regla difusa se toma el menor grado de pertenencia promedio de las condiciones difusas que forman el antecedente de la regla, con lo que se tiene una métrica proporcional al riesgo de su aplicación.Tesis en cotutela con la Universitat Rovira i Virgili (URV) (España).Facultad de InformáticaUniversitat Rovira i Virgil

    Методи і моделі інтелектуального аналізу даних для оцінювання фінансових ризиків

    Get PDF
    Економічний успіх країн забезпечується застосуванням наукових підходів при управлінні процесами у будь-якій галузі практичної діяльності. Використання сучасних методів математичного моделювання, зокрема, методів інтелектуального аналізу даних до розв’язання проблем прогнозування і моделювання на сьогодні є актуальним завданням. Ризики притаманні будь-якій фінансовій установі або підприємству, а тому належне управління ризиками є важливим аспектом. Керівництво банку або компанії має різний рівень контролю за ризиками, тож внаслідок цього деякими з них можна безпосередньо керувати, а деякі інші ризики знаходяться значною мірою поза контролем управлінців. Найкраще, що можна зробити для запобігання ризиків, – це передбачити їх, оцінити потенційний вплив та бути готовим до реалізації плану реагування на несприятливі події. Також важливим є оцінювання станів в умовах невизначеностей та за відсутністю методик аналізу розвитку нелінійних нестаціонарних процесів. Даний підхід дозволяє розв’язати велику кількість складних завдань, які відносяться до різних видів людської діяльності. Перш за все це застосовується у завданнях, які характеризується великою кількістю чинників або мають при постанові фактори невизначеності. Фінансові ризики відносяться до специфічної сфери кредитно- та ринково-фінансових взаємовідношень банку, фізичних та юридичних осіб, кінцевою метою яких, з точки зору організації, є отримання прибутку. Такі відносини чутливі до впливу великої кількості різноманітних, часом невизначених ризиків, які у повсякденній роботі фінансової установи мають бути мінімізовані. Основною метою є розробка та вдосконалення математичних методів інтелектуального аналізу даних, які базуються на регресійних моделях, нейронних мережах, мережі Байєса та деревах рішень та відрізняються попередньою обробкою та згладженими початковими даними, що веде до підвищення точності задач фінансових ризиків. Практична цінність роботи полягає у тому, що: розроблено методи і моделі інтелектуального аналізу даних для оцінювання фінансових ризиків. Всі результати роботи доведено до практичного інженерного рівня і впроваджено у навчальний процес інституту прикладного системного аналізу НТУУ «КПІ імені Ігоря Сікорського» та у фінансових організаціях з метою автоматизованого розв’язання задач моделювання, оцінювання і прогнозування втрат у фінансовій компанії як стохастичного багатовимірного процесу. Створено системну методику та систему підтримки прийняття рішень для моделювання, оцінювання і прогнозування ринкового та кредитного фінансових ризиків. Всі теоретичні і практичні результати дисертаційної роботи у повній мірі опубліковано у фахових вітчизняних та закордонних наукових виданнях, що входять до відповідного встановленого переліку, а також виконано їх належну апробацію на міжнародних наукових конференціях і семінарах. У дисертаційній роботі проаналізовано основні фінансові ризики, управління якими є ключовим фактором, що визначає ефективність фінансової діяльності. Виконано аналіз діяльності банків та інших фінансових організацій, робота яких здійснюється під впливом невизначеностей зовнішнього середовища (ринку, економіки, політики тощо), великої кількості змінних, контрагентів, осіб, поведінка яких не завжди може бути передбачена з прийнятною точністю. Розглянуто можливість мінімізації фінансових ризиків на двох рівнях – на рівні кожної окремої позики та на рівні кредитного портфеля в цілому. В результаті виконання попереднього аналізу встановлено, що найпоширенішими методами оцінювання ризиків для поставленої задачі є лінійна і логістична регресії, дерева класифікації, нейронні мережі, мережа Байєса. Показано, що для підвищення ефективності прийняття об'єктивних рішень при аналізі кредитного та ринкового ризиків доцільно використовувати мережі Байєса та нечіткі нейронні мережі, які дають можливість враховувати невизначеності ймовірнісного та амплітудного типів. Ці підходи характеризуються швидкими алгоритмами навчання та нескладною інтерпретацією накопичених знань. Такі особливості обраних підходів роблять їх одними з найбільш перспективних і ефективних інструментів моделювання і оцінювання фінансових ризиків. Розроблено метод оцінювання кредитоспроможності фізичних осіб та запропоновано підхід для вибору підмножини ознак, який характеризується оцінкою значущості результатів за сукупністю підходів та дозволяє підвищити відсоток вірних класифікацій на 3-4% що підтверджується його практичним застосуванням і отриманими результатами експериментальних досліджень. Показано, що процес аналізу кредитоспроможності позичальників кредитів включає в себе розробку методів та критеріїв аналізу процесу кредитування; оцінку потенційного клієнта, а також супровід позики після видачі кредиту. Визначено, що банкам та організаціям для оптимізації кредитного процесу необхідно знаходити компроміс між якістю та ефективністю всього процесу кредитування, а оцінка кредитного ризику здійснюється за допомогою оцінки кредитоспроможності позичальника. Для обчислення нечіткого висновку побудовано нечітку базу знань та використано ННМ в яких результат отримуються на основі нечітких логічних висновків, а параметри функцій належності налаштовуються за допомогою алгоритмів нейронних мереж. Пріоритетною являється задача мінімізації ризику, через що відразу відкидаються ненадійні позичальники, а для всіх інших розв’язується задача максимізації доходу портфеля позик. Удосконалено метод оцінювання кредитоспроможності позичальника з використанням Байєсівської мережі з урахуванням підвищення якості ймовірнісної моделі та зменшенням величини кредитного ризику. Розроблено метод оцінювання ринкового ризику на основі інтегрованого застосування ймовірнісної, оптимальної та цифрової фільтрації і регресійної моделі, який відрізняється високою якістю попередньої обробки даних і забезпечує підвищення якості оцінок прогнозів. Запропоновано підхід із використанням попередньої обробки даних у вигляді фільтрації із застосуванням ймовірнісного, оптимального та цифрового фільтрів та регресійної моделі, за результатами якого забезпечено підвищення якості оцінок прогнозів. Виконано експериментальні дослідження із використанням попередньої обробки даних, які показали, що даний підхід в середньому в 2-3 рази ефективніший ніж робота з даними без використання фільтрації. Показано, що процес попередньої обробки даних за допомогою фільтрації є дуже важливим етапом аналізу даних. Застосування методів на цьому етапі, дає можливість значно покращити результати досліджень. Інколи відсутність методів попередньої обробки ставить під загрозу всі подальші кроки по обробці даних. Це може призводити до низької якості результатів, наприклад, оцінки прогнозів характеризуються великими похибками. Проаналізовано та виконано адаптивне прогнозування нелінійних нестаціонарних процесів, яке є також однією з ключових задач сучасності, у зв’язку з тим, що більшість процесів в економіці, фінансах, екології та технологічних процесах дуже швидко змінюються та не мають єдиного підходу. Запропоновано підхід із використанням адаптації математичної моделі фінансового процесу до початкових даних ринкових ризиків із застосуванням триконтурної процедури адаптації та побудови моделі нелінійного процесу у вигляді лінійної та нелінійної компонент. Ефективність усіх розроблених систем керування підтверджена результатами проведених імітаційних моделювань.Economic growth of countries has provided by scientific approaches to process management in any field of practice. Using of modern methods of mathematical modeling, such as methods of data mining to solve problems with forecasting and modeling today is one of the relevant tasks. The risks are always by any institution or business that's why proper management is an important aspect. The management of a bank or company has different levels of risk control, so as a result, some of them can be directly managed, and some other risks are largely beyond the control of managers. The best thing to prevent risks is to anticipate them, assess the potential impact and be prepared to implement an adverse response plan. It is also important to assess the states for conditions of uncertainty and in the absence of methods for analyzing the development of nonlinear non-stationary processes. This approach allows you to solve a large number of complex problems related to various human activities. First of all, it is used in tasks that are characterized by a large number of reasons or have uncertainty factors. Financial risks relate to a specific area of credit - and market-financial relations of the bank, individuals and legal entities, the ultimate goal of which, from the point of view of the organization, is to make a profit. Such relationships are sensitive to the impact of a large number of different risks, which should be minimized in the daily work of a financial institution. The main aim of the thesis is to develop and improve mathematical methods of data mining based on regression models, neural networks, Bayesian networks and decision trees and characterized by pre-processing and smoothed initial data, which leads to increased accuracy of financial risks. In the work the following scientific results were obtained: The method of market risk assessment based on the integrated application of probabilistic, optimal and digital filtering and regression model has been developed, which is characterized by high quality data pre-processing and improves the quality of forecast estimates. An adaptation method of the mathematical model of the financial process to the data has been developed, which differs in the applying of the three-loop adaptation procedure and provides construction of the nonlinear process model in the form of linear and nonlinear components. Method of enhancing the quality of forecasting borrowers' solvency has been improved, which differs with the combined approach to the selection of repressors and the use of alternative forecasting methods, which provides optimization of weighting coefficient estimates for individual forecasts. The method of assessing the borrowers’ solvency using an adaptive Bayesian network has been improved, which is characterized by increased adequacy of the probabilistic model and provides a reduction in the amount of credit risk. The practical significance of the thesis results is in the developed methods and models of data analysis for financial risk assessment. The results of the thesis fulfillment were used in educational process of the MMSA Department of Institute for Applied System Analysis (IASA) at the National Technical University of Ukraine "Igor Sikorsky Kyiv Polytechnic Institute", and in the financial organizations in order to automatically solve the problems of modeling, estimating and forecasting losses in a financial company as a stochastic multidimensional process. A systematic methodology and decision support system for modeling, assessing, forecasting market and credit financial risks has been created. All theoretical and practical results of the dissertation published in professional domestic and foreign scientific journals included in the relevant list, as well as their proper approbation at international scientific conferences and seminars. In the work analyzed the main financial risks, the management of which is a key factor that determines the effectiveness of financial activities. Implemented an analysis of the activities of banks and other financial organizations, whose work is carried out under the influence of environmental uncertainties (market, economy, politics, etc.), a large number of variables, counterparties, individuals whose behavior can not always be predicted with acceptable accuracy. The possibility of minimizing financial risks at two levels has been considered - at the level of each individual loan and at the level of the loan portfolio as a whole. As a result of preliminary analysis, it was found that the most common methods of risk assessment for the task are linear and logistic regressions, classification trees, neural networks, Bayesian network. It is shown that to increase the efficiency of making objective decisions in the analysis of credit and market risks, it is advisable to use Bayesian networks and fuzzy neural networks, which make it possible to take into account uncertainties of probabilistic and amplitude types. These approaches are characterized by fast learning algorithms and simple interpretation of accumulated knowledge. Such features of the chosen approaches make them one of the most promising and effective tools for modeling and assessing financial risks. In the dissertation work the comparative analysis of efficiency for using statistical methods, logit and probit models, Bayesian networks, decision trees, the neural network with the indistinct logical conclusion of Mamdani and Sugeno which showed the efficiency of fuzzy neural networks credit analysis for individual borrowers. The estimation method of solvency for individual borrowers has been developed. An approach is proposed for selecting a subset of features, which is characterized by assessing the significance of the results on a set of approaches and allows increase substantially the level of correct classifications by 4-5%, which is confirmed by its practical use and the results of experimental studies. It is shown that the process of credit analysis of borrowers includes the development of methods and criteria for analyzing the lending process; assessment of a potential client, as well as support of the loan after the credit. It is determined that banks and organizations need to find a compromise between the quality and efficiency of the entire lending process to optimize the credit process, and credit risk is assessed by assessing the borrower's creditworthiness. To calculate the fuzzy inference, a fuzzy knowledge base is constructed and FNN are used in which the result is obtained on the basis of fuzzy logical inferences and the parameters of membership function are configured using neural network algorithms. 9 The priority task is to minimize the risk, which immediately rejects unreliable borrowers, and for all others, the task of maximizing the income of the loan portfolio. The improved method was proposed for assessing the solvency of a credit borrower using the Bayesian network, and taking into account improving the quality of the probabilistic model and reducing the amount of credit risk. The method of market risk assessment based on the integrated application of probabilistic, optimal, and digital filtering and regression model has been developed, which is characterized by the high quality of data pre-processing, and improved quality of the forecast estimates. An approach using pre-processing of data in the form of filtering with the use of probabilistic, optimal, and digital filters and a regression model is proposed, as a result of which the quality of forecast estimates is improved. An approach using pre-processing of data in the form of filtering using probabilistic, optimal and digital filters and a regression model is proposed, as a result of which the quality of forecast estimates is improved. Experimental studies were performed using pre-processing of data, which showed that this approach is on average 2-3 times more efficient than working with data without the use of filtering. It is shown that the process of pre-processing data by filtering is a very important step in data analysis. The use of methods at this stage makes it possible to significantly improve the results of research. Sometimes the lack of pre-processing methods jeopardizes all further steps in data processing. This can lead to poor quality results, for example, estimates of forecasts are characterized by large errors. Adaptive forecasting of nonlinear non-stationary processes is analyzed and performed, which is also one of the key tasks of today, due to the fact that most processes in economics, finance, ecology and technological processes change very quickly and do not have a single approach. The efficiency of all the developed control systems is confirmed by the results of the simulations

    Підсистема прийняття рішень на базі нечітких нейронних мереж

    Get PDF
    Робота публікується згідно наказу ректора від 29.12.2020 р. №580/од "Про розміщення кваліфікаційних робіт здобувачів вищої освіти в репозиторії НАУ".Керівник дипломної роботи: д.т.н., проф., завідувач кафедри авіаційних комп’ютерно-інтегрованих комплексів, Синєглазов Віктор МихайловичThe purpose of scientific work: development of a subsystem for decision-making on the basis of fuzzy neural networks, improvement of existing algorithms. The thesis considers theoretical and software part of the development of the decision-making subsystem for solving the classification problem. The author substantiates the relevance of using fuzzy neural networks to solve the problem of classification, analyzes the existing topologies of fuzzy neural networks and fuzzy classifiers, basic algorithms to improve results and combine them into a single structure, identified their shortcomings and proposed a solution to eliminate them An optimization and improvement algorithm for solving the classification problem based on the creation of an ensemble of fuzzy neural networks, namely, a fuzzy TSK classifier, is proposed. This software architecture allows you to create a neural classifier that improves the results of an existing solution. And expands the range of calculations performed to classify the input data.Мета наукової роботи: розробка підсистеми для прийняття рішень на базі нечітких нейронних мереж, покращення існуючих алгоритмів. В дипломній роботі розглядається теоретична та програмна частина розробки підсистеми прийняття рішень для розв’язання задачі класифікації. Автором обґрунтовано актуальність використання нечітких нейронних мереж для вирішення задачі класифікації, проведено аналіз існуючих топологій нечітких нейронних мереж та нечітких класифікаторів, основних алгоритмів для покращення результатів та поєднання їх в єдину структуру, виявлено їх недоліки та запропоноване рішення, що дозволяє їх усунути Запропоновано алгоритм оптимізації та покращення для вирішення задачі класифікації на основі створення ансамблю з нечітких нейронних мереж а саме, нечіткого класифікатора TSK. Дана програмна архітектура дозволяє створити нейронний класифікатор який покращує результати уже існуючого рішення. Та розширює спектр виконуваних обчислювань для класифікації вхідних даних
    corecore