144 research outputs found

    Evidence accumulation in a Laplace domain decision space

    Full text link
    Evidence accumulation models of simple decision-making have long assumed that the brain estimates a scalar decision variable corresponding to the log-likelihood ratio of the two alternatives. Typical neural implementations of this algorithmic cognitive model assume that large numbers of neurons are each noisy exemplars of the scalar decision variable. Here we propose a neural implementation of the diffusion model in which many neurons construct and maintain the Laplace transform of the distance to each of the decision bounds. As in classic findings from brain regions including LIP, the firing rate of neurons coding for the Laplace transform of net accumulated evidence grows to a bound during random dot motion tasks. However, rather than noisy exemplars of a single mean value, this approach makes the novel prediction that firing rates grow to the bound exponentially, across neurons there should be a distribution of different rates. A second set of neurons records an approximate inversion of the Laplace transform, these neurons directly estimate net accumulated evidence. In analogy to time cells and place cells observed in the hippocampus and other brain regions, the neurons in this second set have receptive fields along a "decision axis." This finding is consistent with recent findings from rodent recordings. This theoretical approach places simple evidence accumulation models in the same mathematical language as recent proposals for representing time and space in cognitive models for memory.Comment: Revised for CB

    Fuzzy Data Envelopment Analysis Approach for Ranking of Stocks with an Application to Tehran Stock Exchange

    Get PDF
    The main goal of this paper is to propose a new approach for efficiency measurement and ranking of stocks. Data envelopment analysis (DEA) is one of the popular and applicable techniques that can be used to reach this goal. However, there are always concerns about negative data and uncertainty in financial markets. Since the classical DEA models cannot deal with negative and imprecise values, in this paper, possibilistic range directional measure (PRDM) model is proposed to measure the efficiencies of stocks in the presence of negative data and uncertainty with input/output parameters. Using the data from insurance industry, this model is also implemented for a real case study of Tehran stock exchange (TSE) in order to analyse the performance of the proposed method

    Influence of Tissue Conductivity Inhomogeneity and Anisotropy on EEG/MEG based Source Localization in the Human Brain

    Get PDF
    The inverse problem in Electro- and Magneto-EncephaloGraphy (EEG/MEG) aims at reconstructing the underlying current distribution in the human brain using potential differences and/or magnetic fluxes that are measured non-invasively directly, or at a close distance, from the head surface. The solution requires repeated computation of the forward problem, i.e., the simulation of EEG and MEG fields for a given dipolar source in the brain using a volume-conduction model of the head. The associated differential equations are derived from the Maxwell equations. Not only do various head tissues exhibit different conductivities, some of them are also anisotropic conductors as, e.g., skull and brain white matter. To our knowledge, previous work has not extensively investigated the impact of modeling tissue anisotropy on source reconstruction. Currently, there are no readily available methods that allow direct conductivity measurements. Furthermore, there is still a lack of sufficiently powerful software packages that would yield significant reduction of the computation time involved in such complex models hence satisfying the time-restrictions for the solution of the inverse problem. In this dissertation, techniques of multimodal Magnetic Resonance Imaging (MRI) are presented in order to generate high-resolution realistically shaped anisotropic volume conductor models. One focus is the presentation of an improved segmentation of the skull by means of a bimodal T1/PD-MRI approach. The eigenvectors of the conductivity tensors in anisotropic white matter are determined using whole head Diffusion-Tensor-MRI. The Finite Element (FE) method in combination with a parallel algebraic multigrid solver yields a highly efficient solution of the forward problem. After giving an overview of state-of-the-art inverse methods, new regularization concepts are presented. Next, the sensitivity of inverse methods to tissue anisotropy is tested. The results show that skull anisotropy affects significantly EEG source reconstruction whereas white matter anisotropy affects both EEG and MEG source reconstructions. Therefore, high-resolution FE forward modeling is crucial for an accurate solution of the inverse problem in EEG and MEG.Motivation und Einordnung: Seit nun fast drei Jahrzehnten werden im Bereich der Kognitionswissenschaften und in klinischer Forschung und Routine die Quellen elektrischer Aktivitaet im menschlichen Gehirn anhand ihrer ueber das Elektroenzephalogramm (EEG) an der Kopfoberflaeche gemessenen Potentialverteilung bzw. ihres ueber das Magnetoenzephalogramm (MEG) in einigen Zentimetern Entfernung davon gemessenen magnetischen Flusses rekonstruiert. Im Vergleich zu anderen funktionellen Bildgebungsmethoden wie z.B. die Positronen-Emissions-Tomographie (PET) oder die funktionelle Magnetresonanztomographie (fMRT) hat die EEG/MEG-Quellrekonstruktion den Vorteil einer sehr hohen zeitlichen Aufloesung. Die gemessene Aktivitaet ist das Resultat von Ionenbewegungen in aktivierten kortikalen Regionen des Gehirns, den sog. Primaerstroemen. Schon im Jahr 1949 wurden erstmals die Primaerstroeme ueber Stromdipole mathematisch modelliert. Der Primaerstrom erzeugt R\'uckstr\'ome im leitf\'ahigen Gewebe des Kopfes, die sog. {\em Sekund\'arstr\'ome}. Die Rekonstruktion der Dipolquellen wird das {\em EEG/MEG inverse Problem} genannt. Dessen L\'osung erfordert die wiederholte Berechnung des {\em Vorw\'arts\-problems}, d.h. der Simulation der EEG/MEG-Feldverteilung f\'ur eine gegebene Dipolquelle im Gehirn. Ein erstes Anwendungsgebiet f\/indet sich in der Diagnose und Therapie von pharma-resistenten Epilepsien, von denen ca. 0,25\% der Weltbev\'olkerung betroffen sind und f\'ur die sich in den letzten Jahrzehnten eine systematische chirurgische Behandlung ent\-wickelt hat. Voraussetzung f\'ur einen die restlichen Gehirnregionen schonenden chirurgischen Eingrif\/f ist die Kenntnis der Lage und Ausdehnung der epileptischen Zentren. Bisher wurden diese Charakteristika in den Patienten stark belastenden invasiven Untersuchungen wie zum Beispiel Subdural- oder Tiefen-Elektroden gewonnen. Die bioelektrischen Signale von Epilepsiekranken weisen zwischen den Anfallsereignissen sog. interiktale Spikes auf. Die nicht-invasive Messung des EEG/MEG dieser interiktalen Spikes und die anschlie{\ss}ende Berechnung des epileptischen Zentrums belastet den Patienten nicht. Ein weiteres Anwendungsfeld ist die pr\'aoperative Ermittlung der Lage wichtiger funk\-tio\-nell-zu\-sam\-men\-h\'angender Zentren im Gehirn, z.B.~des prim\'ar-mo\-to\-ri\-schen, des prim\'ar-au\-di\-to\-rischen oder prim\'ar-somatosensorischen Cortex. Bei Operationen in diesen Bereichen (z.B.~Tumoroperationen) k\'onnten L\'ahmungen, H\'or- und Sensibilit\'atsst\'orungen vermieden werden. Dazu werden \'uber akustische oder sensorische Reize charakteristische Signale evoziert und \'uber Summationstechniken sichtbar gemacht. Durch das L\'osen des inversen Problems wird versucht, die zugrunde liegende Quellstruktur zu ermitteln. Neben den aufgef\'uhrten klinischen Anwendungen ergeben sich auch zahlreiche Anwendungsfelder in der Kognitionswissenschaft. Von Interesse sind z.B.~funktionelle Zusammenh\'ange im Gehirn und die Aufdeckung der aktivierten Areale w\'ahrend der Verarbeitung eines Reizes, wie z.B. der Sprachverarbeitung im Gehirn. Die L\'osung des Vorw\'artsproblems impliziert die Mo\-del\-lierung des Kopfes als Volumenleiter. Es ist bekannt, dass in makroskopischer Hinsicht Gewebe wie die Kopfhaut, der Sch\'adel, die Zerebrospinalfl\'ussigkeit (engl.: CSF) und die Hirngewebe graue und wei{\ss}e Substanz (engl.: GM und WM) verschiedene Leitf\'ahigkeiten besitzen. Der menschliche Sch\'adel ist aus drei Schichten aufgebaut, eine relativ gut leitf\'ahige spongi\'ose Schicht wird von zwei stark isolierenden Schichten, den \'au{\ss}eren und inneren Kompakta, eingeschlossen. In radialer Richtung durch den Sch\'adel handelt es sich also um eine Reihenschaltung von hohem, niedrigem und hohem Widerstand, wohingegen in den tangentialen Richtungen die Leiter parallel geschaltet sind. Als Ganzes gesehen besitzt der Sch\'adel demnach eine richtungsabh\'angige oder {\em anisotrope} Leitf\'ahigkeit mit einem gemessenen Verh\'altnis von bis zu 1 zu 10. F\'ur die faserige WM wurde ebenfalls eine Anisotropie mit einem \'ahnlichen Verh\'altnis (senkrecht zu parallel zu den Fasern) nachgewiesen. Leider existiert bis heute keine direkte Methode, die Leitf\'ahigkeit der WM nicht-invasiv in gen\'ugender Aufl\'osung zu ermittelt. Seit einigen Jahren werden aller\-dings Formalismen diskutiert, die den gesuchten Leitf\'ahigkeitstensor in Bezug setzen zum Wasserdiffusionstensor, der in WM nicht-invasiv \'uber die Diffusionstensor-MRT (DT-MRT) gemessen werden kann. Nat\'urlich wird keine fundamentale Beziehung zwischen der freien Beweglichkeit von Ionen und Wasserteilchen angenommen, sondern lediglich, dass die eingeschr\'ankte Mobilit\'at \'uber die Fasergeometrie der WM in Beziehung steht. Heutzutage werden verschiedene Ans\'atze f\'ur die L\'osung des Vor\-w\'arts\-pro\-blems genutzt und mit steigender Genauigkeit der Modellierung des Kopfvolumenleiters erh\'oht sich die Komplexit\'at der numerischen Feldberechnungen. Einfache Modelle, die immer noch am h\'aufigsten Gebrauchten, beschreiben den Kopf als Mehrschalenkugel-Leiter mit \'ublicherweise drei Schichten, die die Kopfhaut, den Sch\'adel und das Gehirn repr\'asentieren. Um besser auf die Geometrie der drei modellierten Oberfl\'achen einzugehen, wurden sog. BE-Modelle (von engl.: Boundary Element) entwickelt, die sich f\'ur isotrop leitf\'ahige Schichten eignen. Um sowohl auf realistische Geometrien als auch auf Anisotropien und Inhomogenit\'aten eingehen zu k\'onnen, wurden Finite-Elemente (FE) Modelle des Kopfes ent\-wi\-ckelt. Zwei wichtige Fragen stellen sich nun: Ist eine exakte Modellierung der vorgestellten Gewebeleitf\'ahigkeits-Anisotropien n\'otig und in welchen F\'allen reichen weniger berechnungsaufwendige Verfahren aus? Wie k\'onnen komplexe FE-Vorw\'artsmodelle hinreichend beschleunigt werden, um den Zeitrestriktionen f\'ur inverse Quellrekonstruktionen in den Anwendungen zu gen\'ugen? Es existieren zahlreiche Arbeiten, die, basierend auf FE-Modellen des Kopfes, gezeigt haben, dass \'Offnungen im Sch\'adel wie z.B. diejenige, durch die der optische Nerv eintritt oder das okzipitale Loch des Hirnstamms, oder Inhomogenit\'aten wie L\'asionen im Gehirn oder die Sutura des Sch\'adels (insbesondere bei Kleinkindern, wo die Sutura noch nicht geschlossen sind) einen nicht vernachl\'assigbaren Einfluss auf das EEG/MEG-Vorw\'arts\-problem haben. Eine erste Studie bzgl. der Sensitivit\'at zweier ausgew\'ahlter EEG-Rekonstruktionsverfahren wies teils gro{\ss}e Fehler im Falle der Nichtbeachtung von Sch\'adel-Anisotropie nach. Insbesondere f\'ur diverse klinische Anwendungen wird der sog. {\em single dipole fit} im kontinuierlichen Parameterraum verwendet. Aufgrund des hohen Berechnungsaufwands wurden solche Verfahren bisher noch nicht auf ihre Sensitivit\'at auf Sch\'adel\-anisotropie getestet. Obwohl bereits eine Studie einen nicht-vernachl\'assigbaren Einfluss auf die EEG/MEG-Vorw\'artssimulation zeigte, gibt es noch keinerlei Ergebnis zur Aus\-wir\-kung der WM-Anisotropie auf inverse Rekonstruktionsverfahren. Die L\'osung des inversen Problems ist im allgemeinen nicht eindeutig. Viele Dipol-Quell\-konfi\-gura\-tionen k\'onnen ein und dieselbe EEG und MEG Feldverteilung erzeugen. Zus\'atz\-liche Annahmen \'uber die Quellen sind dementsprechend unerl\'asslich. Bei den sog. {\em fokalen Rekonstruktionsmethoden} wird die Annahme gemacht, dass einige wenige Dipole den gemessenen Daten zugrunde liegen. Diese Dipole (Anzahl, Ort, Richtung, St\'arke) sollen innerhalb des anatomisch und physiologisch sinnvollen Suchgebiets so ermittelt werden, dass die Messwerte m\'oglichst genau erkl\'art werden, gleichzeitig aber das Rauschen keinen zu starken Einfluss auf die L\'osung nimmt und die Algorithmen stabil in Bezug auf eine \'Ubersch\'atzung der Anzahl aktiver Quellen bleiben. Bei diesen, wie auch bei den sog. {\em Stromdichterekonstruktionsverfahren}, wird sich das Konzept der Regularisierung als eine wichtige Methode herausstellen. Wissenschaftliche Ergebnisse der Dissertation: Die Ergebnisse der vorgelegten Dissertation k\'onnen in vier Teilbereiche aufgeteilt werden. Im ersten Teilbereich wurden Methoden zur Registrierung und Segmentierung multimodaler MR-Bilder vorgestellt mit dem Ziel, ein {\bf realistisches anisotropes Multigewebe Kopfmodell} zu generieren. In der Literatur wurde von gr\'o{\ss}eren EEG- und MEG-Quell\-rekonstruktions\-fehlern aufgrund mangelhafter Modellierung insbesondere der inneren Sch\'a\-del\-kante berichtet. Ein erster Fokus dieser Arbeit lag dementsprechend auf einer verbesserten Segmentierung dieser Kante, die \'uber ein auf dem T1-gewichteten MRT (T1-MRT) registrierten Protonendichte-ge\-wich\-teten MRT (PD-MRT) gewonnen wurde. Die innere Sch\'a\-del\-kante zeichnet sich im PD-MRT im Gegensatz zum T1-MRT durch einen hohen Kontrast zwischen CSF (protonenreich) und Knochen (protonenarm) aus. Das T1-MRT wurde hingegen f\'ur die Segmentierung der Kopfhaut, der GM und der WM verwendet. Die Standardtechnik im Bereich der EEG/MEG-Quellrekonstruktion nutzt lediglich ein T1-MRT und gewinnt die gesuchte innere Sch\'adelkante \'uber ein Gl\'atten und Aufblasen der segmentierten Hirnoberfl\'ache. Im Vergleich beider Methoden konnte eine Verbesserung der Segmentierung von bis zu 8,5mm in Gebieten erzielt werden, in denen die Standardmethode die Dicke der CSF-Schicht untersch\'atzte. \'Uber die vorgestellten Methoden, insbesondere der Segmentierung unter Ber\'ucksichtigung der MR-Inhomogenit\'aten, konnte zudem eine sehr exakte Modellierung der GM erzielt werden, welche dann als anatomische und auch physiologische Nebenbedingung in die Quellrekonstruktion eingebettet werden kann. Zur realistischen Modellierung der An\-iso\-tropie der Sch\'adelschicht wurde ein deformierbares Modell eingesetzt, welches eine gegl\'attete Spongiosaoberfl\'ache darstellt und somit ein Abgreifen der Leitf\'ahigkeitstensor-Eigenvektoren in radialer Knochenrichtung erm\'oglicht. Die Eigenvektoren der WM-Tensoren wurden \'uber Ganzkopf-DT-MRT gemessen. Sch\'adel- und WM-Tensor-Eigen\-werte wurden entweder unter Ausnutzung publizierter Werte simuliert oder gem\'a{\ss} einem differentialen EMA (von engl.: Effective Medium Approach) ermittelt. Der zweite Teilbereich betraf die {\bf schnelle hochaufgel\'oste FE-Modellierung} des EEG/ MEG-Vorw\'artsproblems. Zun\'achst wurde ein \'Uberblick \'uber die Theorie gegeben und die praktische Realisierung der sp\'ater eingesetzten hochaufgel\'osten anisotropen FE-Volumen\-leiter\-modelle vorgestellt. In numerischen Genauigkeitsstudien konnte nachgewiesen werden, dass Hexaeder-FE-Netze, welche ein Verschieben der St\'utzpunkte zur Gl\'attung an Gewebekanten nutzen, vorteilhaft sind zu herk\'ommlichen Hexaeder-Netzen. Dazu wurden die Reihenentwicklungsformeln f\'ur das Mehrschalenkugel-Modell eingesetzt. Ein wei\-terer Fokus dieser Arbeit lag auf dem Einsatz schneller FE-L\'osungsmethoden, welche die praktische Anwendbarkeit von hochaufgel\'osten anisotropen FE-Kopfmodellen in den verschiedenen Anwendungsgebieten erm\'oglichen sollte. In einem Zeitvergleich zwischen dem neu in die Software integrierten parallelen (12 Prozessoren) algebraischen Mehrgitter- und dem Standard-Einprozessor-Jacobi-Vor\-kon\-di\-tio\-nierer f\'ur das Verfahren der konjugierten Gradienten konnte f\'ur hochaufgel\'oste anisotrope FE-Kopfmodelle ein Beschleunigungsfaktor von mehr als 100 erzielt werden. Im dritten Teilbereich, den {\bf Methoden zum inversen Problem}, wurden neben einem \'Uber\-blick \'uber fokale Rekonstruktions\-verfahren und Stromdichte\-rekon\-struk\-tions\-verfahren algorithmische Neuentwicklungen pr\'asentiert. Es wurde zun\'achst die Methode des {\em single dipole fit} in die FE-Modellierung eingef\'uhrt. F\'ur multiple dipolare Quellen wurde ein {\em Si\-mu\-lated Annealing} Algorithmus in Kombination mit einer abgeschnittenen Singul\'arwertzerlegung im diskreten Parameterraum entwickelt. Im Vergleich zu Standardmethoden zeigte der Algorithmus in verschiedenen Si\-mu\-lations\-studien eine ver\-bes\-serte F\'ahigkeit der Unterscheidung zwischen realen und sog. {\em ghost} Quellen. Des Weiteren wurde eine k\'urzlich in der Literatur vorgestellte raum-zeitliche Regularisierungsme\-thode auf die Stromdichterekonstruktion und, als zweite Anwendung, auf die dynamische Impedanztomographie angewandt. Der raum-zeitliche Ansatz konnte dabei eine stabilisierende Wirkung auf die Rekonstruktionsergebnisse erzielen und zeigte im Hinblick auf seine Genauigkeit und den Speicher- und Rechenzeitbedarf Vorteile gegen\'uber einem sog. {\em Kal\-man-Gl\'atter}. Im letzten Teilbereich der Dissertation wurden Untersuchungen zur {\bf An\-iso\-tro\-pie-Sensi\-tivi\-t\'at} durchgef\'uhrt. Der erste Teil bezog sich dabei auf das Vorw\'arts\-problem, wo die Resultate im Einklang mit der verf\'ugbaren Literatur waren. Es kann festgehalten werden, dass Sch\'adelanisotropie einen nicht-vernachl\'assigbaren Einfluss auf die EEG-Simulation hatte, wohingegen das MEG unbeeinflusst blieb. Je mehr eine Quelle von WM umgeben war, desto gr\'o{\ss}er war der Einfluss der WM-Anisotropie auf sowohl EEG als auch MEG. F\'ur das MEG wirkte sich WM-Anisotropie insbesondere auf Quellen mit starken radialen Anteilen aus. Lokale Leitf\'ahigkeits\'anderungen im Bereich der Quelle sollten sowohl im Hinblick auf das EEG als auch auf das MEG modelliert werden. Im zweiten Teil wurden die Einfl\'usse auf die inverse Quellrekonstruktion untersucht. Mit 18mm maximalem Fehler des EEG basierten {\em single dipole fit} war die Lokalisation einer haupts\'achlich tangential orientierten oberfl\'achennahen Quelle besonders sensitiv gegen\'uber einer 1 zu 10 Sch\'adelanisotropie. Da die tangentialen Quellen im temporalen Bereich (Sch\'adel re\-la\-tiv d\'unn) zu tief und im parietalen und okzipitalen Bereich (Sch\'adel relativ dick) zu oberfl\'achennah lokalisiert wurden, scheint eine Approximation der Sch\'adelanisotropie in BE-Modellen \'uber eine Anpassung des skalaren Sch\'adelleitf\'ahigkeitswertes nicht m\'oglich zu sein. Obwohl bei Vernachl\'assigung der WM-Anisotropie der maximale EEG-Lokalisierungsfehler mit 6,2mm f\'ur eine tiefe Quelle wesentlich geringer ausfiel, kann aufgrund eines maximalen Orientierungsfehlers von 24^{\circ} und einer mehr als zweifach untersch\'atzten Quellst\'arke eine Missinterpretation des Ergebnisses nicht ausgeschlossen werden. F\'ur die Rekonstruktion der vier tangentialen oberfl\'achennahen Dipole, welche als Aktivit\'atszentren der sog. {\em Early Left Anterior Negativity} (ELAN) Komponente bei der Syntaxanalyse von Sprache betrachtet werden, stellte sich WM und Sch\'adel\-anisotropie als vernachl\'assigbar im Hinblick auf eine MEG-Rekonstruk\-tion heraus. Im Gegensatz dazu wurde das EEG-Rekonstruktionsergebnis f\'ur alle getesteten inversen Verfahren stark verf\'alscht. Anisotropie verschob das Aktivit\'ats\-zentrum von L1L_1 und L2L_2 Norm Stromdichterekonstruktionsverfahren entlang der Sylvischen Furche in anteriore Richtung

    Evidence accumulation in a Laplace domain decision space

    Full text link
    Evidence accumulation models of simple decision-making have long assumed that the brain estimates a scalar decision variable corresponding to the log likelihood ratio of the two alternatives. Typical neural implementations of this algorithmic cognitive model assume that large numbers of neurons are each noisy exemplars of the scalar decision variable. Here, we propose a neural implementation of the diffusion model in which many neurons construct and maintain the Laplace transform of the distance to each of the decision bounds. As in classic findings from brain regions including LIP, the firing rate of neurons coding for the Laplace transform of net accumulated evidence grows to a bound during random dot motion tasks. However, rather than noisy exemplars of a single mean value, this approach makes the novel prediction that firing rates grow to the bound exponentially; across neurons, there should be a distribution of different rates. A second set of neurons records an approximate inversion of the Laplace transform; these neurons directly estimate net accumulated evidence. In analogy to time cells and place cells observed in the hippocampus and other brain regions, the neurons in this second set have receptive fields along a “decision axis.” This finding is consistent with recent findings from rodent recordings. This theoretical approach places simple evidence accumulation models in the same mathematical language as recent proposals for representing time and space in cognitive models for memory.Accepted manuscrip

    Airfoil Optimization Through Differential Evolution

    Get PDF
    This thesis presents the development of a numerical optimization algorithm for airfoils, and how it can be used in design of wind turbine blades. It was found that the developed algorithm successfully improves the goal parameters under given conditions and constraints. This research was conducted on behalf of Winfoor AB who has developed a conceptually new blade design, in which every single blade is made up of three individual blades, kept together by rods in a truss like manner. Their wish was to develop a new airfoil for their turbine, with higher performance and a more docile stall, and yet remaining a high airfoil thickness in order to not alter structural stability. The task was conducted by describing the airfoils with B-splines and writing an optimization algorithm in MATLAB in which the flow characteristics of the airfoils were determined by the external software XFOIL. This thesis shows how to characterize numerical optimization problems, what differential evolution is and how it can be implemented in a MATLAB-code, how airfoils can be described with B-splines, the usage of XFOIL and how penalty functions can be imposed for constrained optimization problems, to mention some of the wisdoms this work has brought. This research is important as numerical optimization of airfoils is not yet the standard method for airfoil design, and thus it can possibly contribute with valuable insights and results to further development of airfoil optimization

    Fuzzy Sets, Fuzzy Logic and Their Applications 2020

    Get PDF
    The present book contains the 24 total articles accepted and published in the Special Issue “Fuzzy Sets, Fuzzy Logic and Their Applications, 2020” of the MDPI Mathematics journal, which covers a wide range of topics connected to the theory and applications of fuzzy sets and systems of fuzzy logic and their extensions/generalizations. These topics include, among others, elements from fuzzy graphs; fuzzy numbers; fuzzy equations; fuzzy linear spaces; intuitionistic fuzzy sets; soft sets; type-2 fuzzy sets, bipolar fuzzy sets, plithogenic sets, fuzzy decision making, fuzzy governance, fuzzy models in mathematics of finance, a philosophical treatise on the connection of the scientific reasoning with fuzzy logic, etc. It is hoped that the book will be interesting and useful for those working in the area of fuzzy sets, fuzzy systems and fuzzy logic, as well as for those with the proper mathematical background and willing to become familiar with recent advances in fuzzy mathematics, which has become prevalent in almost all sectors of the human life and activity

    Effects of discrete wavelet compression on automated mammographic shape recognition

    Full text link
    At present early detection is critical for the cure of breast cancer. Mammography is a breast screening technique which can detect breast cancer at the earliest possible stage. Mammographic lesions are typically classified into three shape classes, namely round, nodular and stellate. Presently this classification is done by experienced radiologists. In order to increase the speed and decrease the cost of diagnosis, automated recognition systems are being developed. This study analyses an automated classification procedure and its sensitivity to wavelet based image compression; In this study, the mammographic shape images are compressed using discrete wavelet compression and then classified using statistical classification methods. First, one dimensional compression is done on the radial distance measure and the shape features are extracted. Second, linear discriminant analysis is used to compute the weightings of the features. Third, a minimum distance Euclidean classifier and the leave-one-out test method is used for classification. Lastly, a two dimensional compression is performed on the images, and the above process of feature extraction and classification is repeated. The results are compared with those obtained with uncompressed mammographic images

    Mathematical Fuzzy Logic in the Emerging Fields of Engineering, Finance, and Computer Sciences

    Get PDF
    Mathematical fuzzy logic (MFL) specifically targets many-valued logic and has significantly contributed to the logical foundations of fuzzy set theory (FST). It explores the computational and philosophical rationale behind the uncertainty due to imprecision in the backdrop of traditional mathematical logic. Since uncertainty is present in almost every real-world application, it is essential to develop novel approaches and tools for efficient processing. This book is the collection of the publications in the Special Issue “Mathematical Fuzzy Logic in the Emerging Fields of Engineering, Finance, and Computer Sciences”, which aims to cover theoretical and practical aspects of MFL and FST. Specifically, this book addresses several problems, such as:- Industrial optimization problems- Multi-criteria decision-making- Financial forecasting problems- Image processing- Educational data mining- Explainable artificial intelligence, etc

    Short-circuit calculation with considered production and consumption uncertainties

    Get PDF
    U disertaciji je predložen algoritam za proračun kratkih spojeva zasnovan na korelisanim intervalima. U savremenim distributivnim mrežama postoje različiti tipovi generatora koji proizvode električnu energiju iz energije obnovljivih izvora. Za takve generatore, kao i za potrošače, karakteristično je to što je njihova proizvodnja i potrošnja neizvesna. Predloženi algoritam u disertaciji uvažava te neizvesnosti, kao i korelacije između navedenih elemenata. Neizvesnosti su modelovane intervalima i direktno su uvažene u predloženom algoritmu za proračun kratkih spojeva. Algoritam je prvenstveno razvijen za proračun kratkih spojeva savremenih distributivnih mreža sa velikim brojem distribuiranih generatora i potrošača. NJime je moguće proračunavati režime sa kratkim spojevima distributivnih mreža velikih dimenzija, što je numerički verifikovano u disertaciji. Predloženim algoritmom se dobija režim distributivne mreže sa kratkim spojem koji je realističniji od režima dobijenih algoritmima sa determinističkim pristupom. Proračuni kao što su: koordinacija, podešenje i provera osetljivosti relejne zaštite, provera kapaciteta prekidača i osigurača, lokacija kvara itd. mogu na osnovu realističnijeg režima, dobijenog predloženim algoritmom, da daju kvalitetnije rezultate, što je numerički potvrđeno na primeru koordinacije prekostrujne zaštiteIn this dissertation an algorithm for correlated intervals-based short-circuit calculation is proposed. In modern distribution networks there are various types of generators that produce electric energy from renewable energy resources. For these generators, as well as loads, uncertain production and consumption is characteristic. The proposed algorithm in the dissertation deals with above-mentioned uncertainties, as well as correlations among them. The uncertainties are modeled with intervals and directly taken into account in the proposed algorithm for short-circuit calculation. The algorithm is primarily developed for short-circuit calculation in modern distribution networks with a great number of distributed generators and consumers. The proposed algorithm enables calculation of short circuits states of large-scale distribution networks, which is numerically verified in the dissertation. The proposed algorithm provides short circuit state of distribution network which is more realistic than the one obtained with algorithms with deterministic approach. Calculations such as: coordination, settings and sensitivity check of relay protection, breaker and fuse capacity check, fault location, etc. can give better results, on the basis of the more realistic state obtained by the proposed algorithm for short circuit calculation, which is numerically confirmed by the example of coordination of overcurrent protection
    corecore