163 research outputs found

    Studies on machine learning-based aid for residency training and time difficulty in ophthalmology

    Get PDF
    ć…”ćș«çœŒç«‹ć€§ć­Šć€§ć­Šé™ąć·„ć­Š(ćšćŁ«)2023doctoral thesi

    Generation of Artificial Image and Video Data for Medical Deep Learning Applications

    Get PDF
    Neuronale Netze haben in den letzten Jahren erstaunliche Ergebnisse bei der Erkennung von Ereignissen im Bereich der medizinischen Bild- und Videoanalyse erzielt. Dabei stellte sich jedoch immer wieder heraus, dass ein genereller Mangel an Daten besteht. Dieser Mangel bezieht sich nicht nur auf die Anzahl an verfĂŒgbaren DatensĂ€tzen, sondern auch auf die Anzahl an individuellen Stichproben, das heißt an unabhĂ€ngigen Bildern und Videos, in bestehenden DatensĂ€tzen. Das fĂŒhrt wiederum zu einer schlechteren Erkennungsgenauigkeit von Ereignissen durch das neuronale Netz. Gerade im medizinischen Bereich ist es nicht einfach möglich die DatensĂ€tze zu erweitern oder neue DatensĂ€tze zu erfassen. Die GrĂŒnde hierfĂŒr sind vielfĂ€ltig. Einerseits können rechtliche Belange die Datenveröffentlichung verhindern. Andererseits kann es sein, dass eine Krankheit nur sehr selten Auftritt und sich so keine Gelegenheit bietet die Daten zu erfassen. Ein zusĂ€tzliches Problem ist, dass es sich bei den Daten meist um eine sehr spezifische DomĂ€ne handelt, wodurch die Daten meist nur von Experten annotiert werden können. Die Annotation ist aber zeitaufwendig und somit teuer. Existierende Datenaugmentierungsmethoden können oft nur sinnvoll auf Bilddaten angewendet werden und erzeugen z.B. bei Videos nicht ausreichend zeitlich unabhĂ€ngige Daten. Deswegen ist es notwendig, dass neue Methoden entwickelt werden, mit denen im Nachhinein auch VideodatensĂ€tze erweitert oder auch synthetische Daten generiert werden können. Im Rahmen dieser Dissertation werden zwei neu entwickelte Methoden vorgestellt und beispielhaft auf drei medizinische Beispiele aus dem Bereich der Chirurgie angewendet. Die erste Methode ist die sogenannte Workflow-Augmentierungsmethode, mit deren Hilfe semantischen Information, z.B. Ereignissen eines chirurgischen Arbeitsablaufs, in einem Video augmentiert werden können. Die Methode ermöglicht zusĂ€tzlich auch eine Balancierung zum Beispiel von chirurgischen Phasen oder chirurgischen Instrumenten, die im Videodatensatz vorkommen. Bei der Anwendung der Methode auf die zwei verschiedenen DatensĂ€tzen, von Kataraktoperationen und laparoskopischen Cholezystektomieoperationen, konnte die LeistungsfĂ€higkeit der Methode gezeigt werden. Dabei wurde Genauigkeit der Instrumentenerkennung bei der Kataraktoperation durch ein Neuronales Netz wĂ€hrend Kataraktoperation um 2,8% auf 93,5% im Vergleich zu etablierten Methoden gesteigert. Bei der chirurgischen Phasenerkennung im Fall bei der Cholezystektomie konnte sogar eine Steigerung der Genauigkeit um 8,7% auf 96,96% im Verglich zu einer frĂŒheren Studie erreicht werden. Beide Studien zeigen eindrucksvoll das Potential der Workflow-Augmentierungsmethode. Die zweite vorgestellte Methode basiert auf einem erzeugenden gegnerischen Netzwerk (engl. generative adversarial network (GAN)). Dieser Ansatz ist sehr vielversprechend, wenn nur sehr wenige Daten oder DatensĂ€tze vorhanden sind. Dabei werden mit Hilfe eines neuronalen Netzes neue fotorealistische Bilder generiert. Im Rahmen dieser Dissertation wird ein sogenanntes zyklisches erzeugendes gegnerisches Netzwerk (engl. cycle generative adversarial network (CycleGAN)) verwendet. CycleGANs fĂŒhren meiste eine Bild zu Bild Transformation durch. ZusĂ€tzlich ist es möglich weitere Bedingungen an die Transformation zu knĂŒpfen. Das CycleGAN wurde im dritten Beispiel dazu verwendet, ein Passbild von einem Patienten nach einem Kranio-Maxillofazialen chirurgischen Korrektur, mit Hilfe eines prĂ€operativen PortrĂ€tfotos und der operativen 3D Planungsmaske, zu schĂ€tzen. Dabei konnten realistisch, lebendig aussehende Bilder generiert werden, ohne dass fĂŒr das Training des GANs medizinische Daten verwendeten wurden. Stattdessen wurden fĂŒr das Training synthetisch erzeugte Daten verwendet. Abschließend lĂ€sst sich sagen, dass die in dieser Arbeit entwickelten Methoden in der Lage sind, den Mangel an Stichproben und DatensĂ€tzen teilweise zu ĂŒberwinden und dadurch eine bessere Erkennungsleistung von neuronalen Netzen erreicht werden konnte. Die entwickelten Methoden können in Zukunft dazu verwendet werden, bessere medizinische UnterstĂŒtzungssysteme basierende auf kĂŒnstlicher Intelligenz zu entwerfen, die den Arzt in der klinischen Routine weiter unterstĂŒtzen, z.B. bei der Diagnose, der Therapie oder bei bildgesteuerten Eingriffen, was zu einer Verringerung der klinischen Arbeitsbelastung und damit zu einer Verbesserung der Patientensicherheit fĂŒhrt

    Pixel-level semantic understanding of ophthalmic images and beyond

    Get PDF
    Computer-assisted semantic image understanding constitutes the substrate of applications that range from biomarker detection to intraoperative guidance or street scene understanding for self-driving systems. This PhD thesis is on the development of deep learning-based, pixel-level, semantic segmentation methods for medical and natural images. For vessel segmentation in OCT-A, a method comprising iterative refinement of the extracted vessel maps and an auxiliary loss function that penalizes structural inaccuracies, is proposed and tested on data captured from real clinical conditions comprising various pathological cases. Ultimately, the presented method enables the extraction of a detailed vessel map of the retina with potential applications to diagnostics or intraoperative localization. Furthermore, for scene segmentation in cataract surgery, the major challenge of class imbalance is identified among several factors. Subsequently, a method addressing it is proposed, achieving state-of-the-art performance on a challenging public dataset. Accurate semantic segmentation in this domain can be used to monitor interactions between tools and anatomical parts for intraoperative guidance and safety. Finally, this thesis proposes a novel contrastive learning framework for supervised semantic segmentation, that aims to improve the discriminative power of features in deep neural networks. The proposed approach leverages contrastive loss function applied both at multiple model layers and across them. Importantly, the proposed framework is easy to combine with various model architectures and is experimentally shown to significantly improve performance on both natural and medical domain

    Improving cataract surgery procedure using machine learning and thick data analysis

    Get PDF
    Cataract surgery is one of the most frequent and safe Surgical operations are done globally, with approximately 16 million surgeries conducted each year. The entire operation is carried out under microscopical supervision. Even though ophthalmic surgeries are similar in some ways to endoscopic surgeries, the way they are set up is very different. Endoscopic surgery operations were shown on a big screen so that a trainee surgeon could see them. Cataract surgery, on the other hand, was done under a microscope so that only the operating surgeon and one more trainee could see them through additional oculars. Since surgery video is recorded for future reference, the trainee surgeon watches the full video again for learning purposes. My proposed framework could be helpful for trainee surgeons to better understand the cataract surgery workflow. The framework is made up of three assistive parts: figuring out how serious cataract surgery is; if surgery is needed, what phases are needed to be done to perform surgery; and what are the problems that could happen during the surgery. In this framework, three training models has been used with different datasets to answer all these questions. The training models include models that help to learn technical skills as well as thick data heuristics to provide non-technical training skills. For video analysis, big data and deep learning are used in many studies of cataract surgery. Deep learning requires lots of data to train a model, while thick data requires a small amount of data to find a result. We have used thick data and expert heuristics to develop our proposed framework.Thick data analysis reduced the use of lots of data and also allowed us to understand the qualitative nature of data in order to shape a proposed cataract surgery workflow framework

    Spatial-temporal attention for video-based assessment of intraoperative surgical skill

    Get PDF
    Surgical skill assessment using videos from operating room is a crucial aspect in surgeon evaluations. In this thesis, we first present an analysis of attention mechanism for video-based assessment of intraoperative surgical skills. We propose a novel method that uses spatio-temporal attention, where the spatial attention module is supervised by instrument tip trajectories. It is now unequivocal that instrument tip trajectories are most informative of surgical skill. We hypothesize that supervising attention with instrument motion will improve performance by regularizing the network to use the most relevant information. We compare our method against a network in our previous work that uses unsupervised spatio-temporal attention and a network using a multi-task learning framework as baseline. Our ablation studies show supervising the spatial attention help improve model's performance and generalizability in internal and external validations. Next, we present a two-stage approach to extract temporal attention for the whole video instead of short clips. Our approach first extract features of each frame of a given video. Then, we train a simple temporal network with temporal attention on top of the extracted features. With the trained temporal network, we can extract temporal attention that is normalized across the video. Finally, we describe three semi-supervised domain adaptation (SSDA) methods for improving our models' performance on external validation. We explored the Vanilla SSDA method that simply include target domain samples to source domain. The next method is the Group Distributionally Robust Supervised Learning (Group-DRSL) method, which groups data according to their domain. This method assign weights to samples according to the group and adversarially optimize the weights. The third approach adds class weighting to the second approach. Experiments result show Group-DRSL performs the best and consistently improves models' performance in external validations

    KontextsensitivitĂ€t fĂŒr den Operationssaal der Zukunft

    Get PDF
    The operating room of the future is a topic of high interest. In this thesis, which is among the first in the recently defined field of Surgical Data Science, three major topics for automated context awareness in the OR of the future will be examined: improved surgical workflow analysis, the newly developed event impact factors, and as application combining these and other concepts the unified surgical display.Der Operationssaal der Zukunft ist ein Forschungsfeld von großer Bedeutung. In dieser Dissertation, die eine der ersten im kĂŒrzlich definierten Bereich „Surgical Data Science“ ist, werden drei Themen fĂŒr die automatisierte KontextsensitivitĂ€t im OP der Zukunft untersucht: verbesserte chirurgische Worflowanalyse, die neuentwickelten „Event Impact Factors“ und als Anwendungsfall, der diese Konzepte mit anderen kombiniert, das vereinheitlichte chirurgische Display

    KontextsensitivitĂ€t fĂŒr den Operationssaal der Zukunft

    Get PDF
    The operating room of the future is a topic of high interest. In this thesis, which is among the first in the recently defined field of Surgical Data Science, three major topics for automated context awareness in the OR of the future will be examined: improved surgical workflow analysis, the newly developed event impact factors, and as application combining these and other concepts the unified surgical display.Der Operationssaal der Zukunft ist ein Forschungsfeld von großer Bedeutung. In dieser Dissertation, die eine der ersten im kĂŒrzlich definierten Bereich „Surgical Data Science“ ist, werden drei Themen fĂŒr die automatisierte KontextsensitivitĂ€t im OP der Zukunft untersucht: verbesserte chirurgische Worflowanalyse, die neuentwickelten „Event Impact Factors“ und als Anwendungsfall, der diese Konzepte mit anderen kombiniert, das vereinheitlichte chirurgische Display
    • 

    corecore