49 research outputs found

    Vollautomatische Gehirnvolumensegmentierung auf Grundlage T1-gewichteter MRT-Bilder mithilfe tiefer neuronaler Faltungsnetze

    Get PDF
    Künstliche Intelligenz in Form tiefer neuronaler Netze findet aktuell immer häufiger Anwendung im alltäglichen Leben, beispielsweise in Form von intelligenten Smartphone- Applikationen. Als besonders erfolgreich hinsichtlich lernfähiger, intelligenter Software hat sich die Anwendung neuronaler Faltungsnetze (Convolutional Neuronal Networks), einer Art von künstlichen neuronalen Netzen, herausgestellt. In diesem Zusammenhang ist auch die Entwicklung derartiger Software im medizinisch-apparativen Bereich naheliegend. Die diagnostische Neuroradiologie eignet sich aufgrund ihrer elektronischen Bilddatenverarbeitung besonders zur Implementierung neuronaler Netze in die klinische Routine. Ein möglicher Ansatzpunkt für die Einbettung dieser Software ist die neuroradiologische MRTGehirnvolumensegmentierung. Diese Segmentierung stellt in der Neuroradiologie ein wichtiges diagnostisches Mittel zur Definition anatomischer Areale in einer Gehirn-Bildgebung dar. Das hier bislang verfügbare Standardprogramm FreeSurfer benötigt für eine Gehirnsegmentierung allerdings wenigstens acht Stunden. Infolgedessen blieb die Segmentierung bislang hinter den Möglichkeiten einer klinischen Anwendung zurück. Die vorliegende Arbeit beschäftigte sich daher mit einer schnellen vollautomatischen Gehirnvolumensegmentierung mittels tiefer neuronaler Faltungsnetze auf Grundlage von T1- gewichteten MRT-Bildgebungen. Für die Netzwerk-Entwicklung bedurfte es einer Bilddatenbank zum Training der Netzwerkstruktur. Bisherige Forschungsansätze wählten bislang vor allem bereits bestehende, extern zusammengestellte Datenbanken, die oft über deutlich weniger als 100 Trainingsbilddatensätze verfügten. In der vorliegenden Arbeit hingegen wurde eine weitaus umfangreiche Datenbank aus eigenen klinischen kraniellen MRTs generiert. Es erfolgte die Entwicklung verschiedener neuronaler Netze, deren Aufbau sich durch eine steigende Anzahl der Schichten, sowie Komplexität der Verbindungen zwischen den Schichten unterschied. Als optimal zu erreichendes Segmentierungsergebnis galten die Segmentierungen der Bildgebungen durch die Referenzsoftware FreeSurfer. Das Training dieser neuronalen Netze erfolgte iterativ anhand des korrigierenden Vergleichs zwischen den eigenen Segmentierungsergebnissen und dem jeweiligen FreeSurfer-Ergebnis. So erfolgte eine schrittweise Adaptation der Netz-Architekturen. Grundsätzlich zeigten die Ergebnisse, dass ein neuronales Faltungsnetz eine vollständige Segmentierung von T1-gewichteten Schnittbildern des Gehirns über alle klinisch relevanten Altersgruppierungen erlernen und ausführen kann. Mit zunehmender Komplexität der Netzwerkarchitekturen wurden die Segmentierungsergebnisse immer genauer. Besonders ConvNet5 lernte erstaunlich schnell und innerhalb weniger Iterations- bzw. Verbesserungsschritten seine Netzarchitektur zielgerichtet zu adaptieren. Abweichungen hierbei waren zumeist auf ungünstige anatomisch-strukturelle Gegebenheiten für eine Segmentierung zurückzuführen. Jedem Bildpunkt in einer MRT konnte das Faltungsnetz eine anatomische Funktionseinheit des Gehirns zuordnen, sodass neben der Volumensegmentierung auch die Erstellung eines bildbasierten Koordinatensystems ermöglicht wurde. Im Rahmen der radiologischen Befunderhebung könnte dieses Koordinatensystem der objektiveren, genaueren Pathologieverortung durch den befundenden Arzt dienen. Aufgrund der insgesamt positiven Resultate dieses Forschungsprojekts ergeben sich zahlreiche vielversprechende Anschlussarbeiten. Das große Potenzial neuronaler Faltungsnetze im radiologischen, sowie gesamten medizinischen Bereich wird gerade erst entdeckt, sodass diese Forschung für Patient und Arzt zukünftig von noch größerem Nutzen sein könnte. Das Verständnis der effektiven Konstruktion, Anwendung und Überarbeitung neuronaler Faltungsnetze ist daher ein wichtiger Schritt zur erfolgreichen Einbettung in die klinischen Arbeitsabläufe. Eine dominante künstliche Intelligenz, die den Menschen ersetzt, soll hierbei nicht das Ziel sein. Vielmehr wird die Entlastung und effizientere Nutzung ärztlicher Ressourcen durch die Übergabe redundanter, zeitaufwendiger Arbeitstätigkeiten an ein neuronales Netz angestrebt

    Evaluierung verschiedener Ansätze zur Indexierung im inhaltsbasierten Image Retrieval

    Get PDF
    In dieser Arbeit werden drei verschiedene Ansätze zur Indexierung beim inhaltsbasierten Image Retrieval evaluiert werden. Als Basis werden dafür Farben und Formen mit Hilfe von annularen Histogrammen extrahiert. Eine Ähnlichkeitsmetrik für diese Histogramme wird über das Produkt der Eulerschen Distanz und der Histogramm Distanz gebildet, der sogenannten Distanzmetrik. Unter Verwendung dieser Metrik werden folgende drei Verfahren der inhaltsbasierten N-Nearest- Neighbor Suche nach Bildern in dieser Arbeit vorgestellt: 1. Einfache, sequentielle Suche in den Histogrammen der Bilder 2. Verwendung des Evolving Tree, einer Art SOM, als Indexstruktur 3. Nutzung des Vantage Point Trees als Indexstruktur Abschließend sollen die drei beschriebenen Verfahren miteinander verglichen und ausgewertet werden. Im Hinblick auf das inhaltsbasierte Image Retrieval zeigen sich die Vorteile und Nachteile der Anwendung dieser Verfahren

    Methods of automatic weed detection for process control of herbicide treatments

    Get PDF
    Eine teilflächenspezifische Unkrautbekämpfung ermöglicht die Anwendung von Herbiziden zu reduzieren. Kenntnisse über die Unkrautarten und -dichte, sowie deren lokales Vorkommen werden benötigt. Eine manuelle Unkrauterfassung zeigt sich unwirtschaftlich, so dass automatisierte Systeme zur Erfassung in der landwirtschaftlichen Praxis benötigt werden. Ein Bilderkennungssystem ist für diese Aufgabe am besten geeignet. Zu dessen Entwicklung wurden Bilddaten von Unkrautarten über mehrere Jahre, auf Ackerschlägen und in Gewächshausversuchen, erfasst. Aus den Daten wurden Parameter zur Unkrauterkennung abgeleitet. Ein Teil der Arbeit befasst sich mit der Segmentierung der Unkrautpflanzen, die im Keimblattstadium vorliegen sollten. Vermehrt in fortgeschrittenen Entwicklungsstadien wurden Höheninformationen zur Trennung von überlappenden Pflanzen benötigt. Gängigen Verfahren waren im Sonnenlicht nicht praktikabel. Mit der Stereotriangulation wurde eine erfolgreiche Segmentierung gefunden. Danach wurden von Einzelpflanzen charakteristische Merkmale gewonnen. Mit Hilfe von Berechnung verschiedener Momente wurde die Lage der Pflanzen bestimmt. Pflanzen, die sich nicht ähnlich waren, ließen sich mit geometrischen Merkmalen bei Erkennungsraten von 70 – 80 % unterscheiden. Mit einem Verfahren, welches die Keimblätter in Sektionen einteilt, dann Winkel berechnet und diese Folge von einen Künstlichen Neuronalen Netz beurteilen lässt, lassen sich auch Keimblätter von Pflanzen, die sich sehr ähneln, differenzieren und es wurden Erkennungsraten von bis zu 92 % erzielt. Im weiter entwickelten Zustand der Pflanzen ließen sich die Pflanzen an Hand weiterer charakteristischer Merkmale (Graphenvergleich für Matricaria-Arten, Template Matchings für Galium aparine) erkennen. Die Anwendung des geeigneten Verfahrens wird durch ein wissensbasiertes System gesteuert. Die Auswirkungen verschiedener Erkennungsraten wurden an Hand von Raum-Zeit-Simulationen zur Populationsdynamik untersucht.Side-specific weed management make it possible to reduce herbicide application. Knowledge about weed species, -density and local occurrence is necessary. Manual capture of weed coverage is non-economical, automatic weed detection is required for agricultural usage. A system of image recognition is highly acceptable for this function. For the development images of weeds on agricultural area and in green house were collected over several years. Parameters for weed recognition were derived. One part of work was to segment plants in cotyledon stage. At more developed growth stages information about highness was used to segment overlapping plants. Standard procedures were not practicable at sunlight, so a triangulation method was used. After this, special characteristics of plants were extracted. By computing of moments positions of plants were extracted. Not very similar plants were differentiated by geometric features at a level between 70 to 80 percent. Dividing seed leafs into parts, calculating their angles and rating the results by an artificial neural network, differentiation of very similar plants could be done at a level of 92 percent. Plants in a more developed growth stage could be distinguished by other characteristics (comparison of graphs for Matricaria-species, Template Matching for Galium aparine). The choice of the right method is regulated by a knowledge-based system. The impact of different detection rates was proved by a space-time simulation about population dynamics in weeds

    Methoden zur automatischen Unkrauterkennung für die Prozesssteuerung von Herbizidmaßnahmen

    Get PDF
      -kein Abstract-  -no abstract

    Entwicklung einer Radiomics-Signatur sowie eines Deep Learning Algorithmus für die Prädiktion von signifikanten Prostatakarzinomen

    Get PDF
    Das Prostatakarzinom (PCa) ist weltweit die häufigste maligne Tumorerkrankung und die zweithäufigste tumorbezogene Todesursache des Mannes. Die Diskrepanz zwischen hoher Inzidenz und Prävalenz und niedriger Mortalität begründet die Notwendigkeit, sicher zwischen klinisch signifikanten und indolenten PCa zu differenzieren. Bisherige Diagnosemethoden gewährleisten nicht in ausreichendem Maße die präzise Charakterisierung. Durch die Anwendung von Radiomics zusammen mit künstlicher Intelligenz (KI), i.e. Machine Learning, an multiparametrischen MRT (mpMRT) sollen Prädiktionen zur klinischen Signifikanz von PCa möglich werden. Hierzu wurden die Schritte einer Radiomics- bzw. Machine Learning-Pipeline an mpMRT von 297 Patienten durchgeführt. Die Support Vector Machine (SVM) erbrachte bei der Klassifikation in „benigne Läsion“ oder „PCa“ eine AUC = 0,86. Es wurden zusätzlich ein zonaler Radiomics- und ein Deep Learning-Ansatz exploriert. Der zonale Ansatz erbrachte im Vergleich zum nicht-zonalen Ansatz schlechtere Ergebnisse (AUC = 0,75). Beim Deep Learning-Klassifikationssystem wurde ein Sequence-Model angewandt (AUC = 0,81, vs. PI-RADS: AUC = 0,77). Diese Studie zeigt, dass aus mpMRT prädiktive Radiomics Features abgeleitet werden können, und kann dazu beitragen, eine zuverlässige Radiomics-Signatur und einen Machine Learning- bzw. Deep Learning-Algorithmus zur Prädiktion signifikanter PCa für den klinischen Alltag zu entwickeln

    AI based segmentation of the prostate

    Get PDF
    Magnetic resonance imaging (MRI) provides increasingly reliable imaging of prostate cancer (PCa) and can improve the detection of lesions and the performance of targeted biopsies. In this regard, segmentation of the prostate in the MRI dataset is critical for several tasks, including the creation of three-dimensional models, e.g., for navigational purposes when planning biopsies or interventional therapies, for planning radiotherapy, for improved volume estimation to assess disease progression, and for automated detection of prostate zones and PCa. However, segmentation by hand is very time-consuming, making an automated machine-based solution desirable. Methods: For this project, a data set of 158 MRI examinations of the prostate was compiled, which meet the technical requirements of the PIRADS V2.1 standard. These included 102 patients with histologically confirmed prostate carcinoma and an image morphological finding of PIRADS 4 or higher. The examinations were then divided into a training data set and a test data set. Both datasets were manually segmented by two subject matter experts with several years of experience in uroradiological imaging, firstly annotating the anatomy and zonal divisions and secondly annotating the tumor regions. Furthermore, a deep learning model was developed and trained on the segmentation of anatomy and tumor region using the training dataset. Subsequently, the agreement of the segmentations of the experts among themselves and the agreement of the segmentations of the model with those of the experts were compared on the test data set. Results: The agreement between the segmentations of the two experts was highest for the central zone, followed by the peripheral zone and lowest for the tumor region. A similar picture was seen for the segmentations of the model. There was no significant difference in the agreement between the model and the respective experts 1 and 2. However, a worse agreement between the model to the experts compared to the interrater agreement between the experts could be observed. Conclusion: Although the deep learning model used for this Thesis for prostate anatomy segmentation and tumor region detection and segmentation could not quite reach the human expert standard, a perspective and great potential for further research and progress in this area of medical image analysis can still be seen. Automated segmentations and tumor detection may facilitate and accelerate clinical workflow and improve future diagnostics and therapies. In the context of further technical advances, a similar quality and safety as long-time trained human experts can be expected.Die Magnetresonanztomographie (MRT) ermöglicht eine zuverlässige Darstellung von Prostatakrebs (PCa) und kann die Erkennung von Läsionen und die Durchführung gezielter Biopsie verbessern. Die Segmentierung der Prostata im MRT Datensatz ist dabei für viele Aufgaben von entscheidender Bedeutung, u. a. für die Erstellung dreidimensionaler Modelle, z. B. zu Navigationszwecken bei der Planung von Biopsien oder interventionellen Therapien, für die Planung einer Strahlentherapie, für eine verbesserte Volumenschätzung zur Beurteilung des Krankheitsverlaufs und für die automatisierte Erkennung der Anatomie und von PCa. Eine Segmentierung von Hand ist jedoch zeitaufwändig, weshalb eine automatisierte maschinelle Lösung erstrebenswert ist. Methoden Es wurde ein Datensatz von insgesamt 158 MRT Untersuchungen der Prostata zusammengestellt, welche den technischen Anforderungen des PI-RADS V2.1 Standards entsprechen. Hierunter befanden sich 102 Patienten mit histologisch gesicherten Prostatakarzinomen und einem bildmoprhologischen Befund von PI-RADS 4 oder höher. Die Untersuchungen wurden daraufhin auf einen Trainingsdatensatz und einen Testdatensatz aufgeteilt. Beide Datensätze wurden händisch durch zwei Experten mit mehrjähriger Erfahrung in uroradiologischer Bildgebung segmentiert, wobei zum einen die zonale Anatomie und zum anderen die Tumorregionen annotiert wurden. Des Weiteren wurde ein Deep Learning Modell entwickelt und mit Hilfe des Trainingsdatensatzes auf die Segmentierung der Anatomie und der Tumorregion trainiert. Anschließend wurde am Testdatensatz die Übereinstimmung der Segmentierungen der Experten untereinander sowie die Übereinstimmung der Segmentierungen des Modells mit denen der Experten verglichen. Ergebnisse Die Übereinstimmung zwischen den Segmentierungen der beiden Experten war am höchsten für die zentrale Drüse, gefolgt von der peripheren Zone und am niedrigsten für die Tumorregion. Ein ähnliches Bild zeigte sich auch für die Segmentierungen desModells. Es bestand kein signifikanter Unterschied in der Übereinstimmung zwischen dem Modell und den jeweiligen Experten 1 und 2. Es konnte jedoch eine schlechtere Übereinstimmung zwischen dem Modell zu den Experten gegenüber der Interrater Übereinstimmung zwischen den Experten festgestellt werden. Schlussfolgerung Obgleich das verwendete Deep Learning Modells für die Segmentierung der Prostataanatomie sowie der Segmentierung der Tumorregion nicht ganz den menschlichen Expertenstandard erreichen konnte, lässt sich dennoch eine Perspektive und großes Potential für weitere Forschung und Fortschritte in diesem Bereich der medizinischen Bildanalyse erkennen. Automatisierte Segmentierungen und Tumordetektionen können den klinischen Arbeitsfluss erleichtern und beschleunigen sowie zukünftige Diagnostik und Therapien verbessern. Im Rahmen weiterer technischer Fortschritte ist eine ähnliche Qualität und Sicherheit wie langjährig antrainierte menschliche Experten erwartbar

    Anwendung von intelligenten Technologien in der online-Qualitätskontrolle von Druckprodukten

    Get PDF
    Die vorliegende Arbeit befasst sich mit der Anwendung von intelligenten Technologien in der online-Kontrolle von Druckprodukten. Ausgehend von der Qualität der Druckprodukte und den Möglichkeiten der Kontrolle von Druckqualität direkt im Herstellungsprozess werden Lösungen der Druckbildkontrolle diskutiert. Den Kern der Arbeit bildet die Anwendung intelligenter Technologien, wie Fuzzy Logic oder Neuronale Netze, in der Kontrolle von Druckbildern. Aufgrund der Generalisierungsmöglichkeiten und der Modularität der untersuchten Algorithmen eignen sich die beschriebenen Ansätze zur Implementierung in ein Druckkontrollsystem oder in andere zeitkritische Bildverarbeitungssysteme
    corecore