3,519 research outputs found

    Deformation equivariant cross-modality image synthesis with paired non-aligned training data

    Full text link
    Cross-modality image synthesis is an active research topic with multiple medical clinically relevant applications. Recently, methods allowing training with paired but misaligned data have started to emerge. However, no robust and well-performing methods applicable to a wide range of real world data sets exist. In this work, we propose a generic solution to the problem of cross-modality image synthesis with paired but non-aligned data by introducing new deformation equivariance encouraging loss functions. The method consists of joint training of an image synthesis network together with separate registration networks and allows adversarial training conditioned on the input even with misaligned data. The work lowers the bar for new clinical applications by allowing effortless training of cross-modality image synthesis networks for more difficult data sets

    Advanced Algorithms for 3D Medical Image Data Fusion in Specific Medical Problems

    Get PDF
    FĂșze obrazu je dnes jednou z nejbÄ›ĆŸnějĆĄĂ­ch avĆĄak stĂĄle velmi diskutovanou oblastĂ­ v lĂ©kaƙskĂ©m zobrazovĂĄnĂ­ a hraje dĆŻleĆŸitou roli ve vĆĄech oblastech lĂ©kaƙskĂ© pĂ©Äe jako je diagnĂłza, lĂ©Äba a chirurgie. V tĂ©to dizertačnĂ­ prĂĄci jsou pƙedstaveny tƙi projekty, kterĂ© jsou velmi Ășzce spojeny s oblastĂ­ fĂșze medicĂ­nskĂœch dat. PrvnĂ­ projekt pojednĂĄvĂĄ o 3D CT subtrakčnĂ­ angiografii dolnĂ­ch končetin. V prĂĄci je vyuĆŸito kombinace kontrastnĂ­ch a nekontrastnĂ­ch dat pro zĂ­skĂĄnĂ­ kompletnĂ­ho cĂ©vnĂ­ho stromu. DruhĂœ projekt se zabĂœvĂĄ fĂșzĂ­ DTI a T1 vĂĄhovanĂœch MRI dat mozku. CĂ­lem tohoto projektu je zkombinovat stukturĂĄlnĂ­ a funkčnĂ­ informace, kterĂ© umoĆŸĆˆujĂ­ zlepĆĄit znalosti konektivity v mozkovĂ© tkĂĄni. TƙetĂ­ projekt se zabĂœvĂĄ metastĂĄzemi v CT časovĂœch datech pĂĄteƙe. Tento projekt je zaměƙen na studium vĂœvoje metastĂĄz uvnitƙ obratlĆŻ ve fĂșzovanĂ© časovĂ© ƙadě snĂ­mkĆŻ. Tato dizertačnĂ­ prĂĄce pƙedstavuje novou metodologii pro klasifikaci těchto metastĂĄz. VĆĄechny projekty zmĂ­něnĂ© v tĂ©to dizertačnĂ­ prĂĄci byly ƙeĆĄeny v rĂĄmci pracovnĂ­ skupiny zabĂœvajĂ­cĂ­ se analĂœzou lĂ©kaƙskĂœch dat, kterou vedl pan Prof. Jiƙí Jan. Tato dizertačnĂ­ prĂĄce obsahuje registračnĂ­ část prvnĂ­ho a klasifikačnĂ­ část tƙetĂ­ho projektu. DruhĂœ projekt je pƙedstaven kompletně. DalĆĄĂ­ část prvnĂ­ho a tƙetĂ­ho projektu, obsahujĂ­cĂ­ specifickĂ© pƙedzpracovĂĄnĂ­ dat, jsou obsaĆŸeny v disertačnĂ­ prĂĄci mĂ©ho kolegy Ing. Romana Petera.Image fusion is one of todayÂŽs most common and still challenging tasks in medical imaging and it plays crucial role in all areas of medical care such as diagnosis, treatment and surgery. Three projects crucially dependent on image fusion are introduced in this thesis. The first project deals with the 3D CT subtraction angiography of lower limbs. It combines pre-contrast and contrast enhanced data to extract the blood vessel tree. The second project fuses the DTI and T1-weighted MRI brain data. The aim of this project is to combine the brain structural and functional information that purvey improved knowledge about intrinsic brain connectivity. The third project deals with the time series of CT spine data where the metastases occur. In this project the progression of metastases within the vertebrae is studied based on fusion of the successive elements of the image series. This thesis introduces new methodology of classifying metastatic tissue. All the projects mentioned in this thesis have been solved by the medical image analysis group led by Prof. Jiƙí Jan. This dissertation concerns primarily the registration part of the first project and the classification part of the third project. The second project is described completely. The other parts of the first and third project, including the specific preprocessing of the data, are introduced in detail in the dissertation thesis of my colleague Roman Peter, M.Sc.

    Registration and Fusion of the Autofluorescent and Infrared Retinal Images

    Get PDF
    This article deals with registration and fusion of multimodal opththalmologic images obtained by means of a laser scanning device (Heidelberg retina angiograph). The registration framework has been designed and tested for combination of autofluorescent and infrared images. This process is a necessary step for consecutive pixel level fusion and analysis utilizing information from both modalities. Two fusion methods are presented and compared

    Deep Multimodality Image-Guided System for Assisting Neurosurgery

    Get PDF
    Intrakranielle Hirntumoren gehören zu den zehn hĂ€ufigsten bösartigen Krebsarten und sind fĂŒr eine erhebliche MorbiditĂ€t und MortalitĂ€t verantwortlich. Die grĂ¶ĂŸte histologische Kategorie der primĂ€ren Hirntumoren sind die Gliome, die ein Ă€ußerst heterogenes Erschei-nungsbild aufweisen und radiologisch schwer von anderen HirnlĂ€sionen zu unterscheiden sind. Die Neurochirurgie ist meist die Standardbehandlung fĂŒr neu diagnostizierte Gliom-Patienten und kann von einer Strahlentherapie und einer adjuvanten Temozolomid-Chemotherapie gefolgt werden. Die Hirntumorchirurgie steht jedoch vor großen Herausforderungen, wenn es darum geht, eine maximale Tumorentfernung zu erreichen und gleichzeitig postoperative neurologische Defizite zu vermeiden. Zwei dieser neurochirurgischen Herausforderungen werden im Folgenden vorgestellt. Erstens ist die manuelle Abgrenzung des Glioms einschließlich seiner Unterregionen aufgrund seines infiltrativen Charakters und des Vorhandenseins einer heterogenen KontrastverstĂ€rkung schwierig. Zweitens verformt das Gehirn seine Form ̶ die so genannte "Hirnverschiebung" ̶ als Reaktion auf chirurgische Manipulationen, Schwellungen durch osmotische Medikamente und AnĂ€sthesie, was den Nutzen prĂ€opera-tiver Bilddaten fĂŒr die Steuerung des Eingriffs einschrĂ€nkt. Bildgesteuerte Systeme bieten Ärzten einen unschĂ€tzbaren Einblick in anatomische oder pathologische Ziele auf der Grundlage moderner BildgebungsmodalitĂ€ten wie Magnetreso-nanztomographie (MRT) und Ultraschall (US). Bei den bildgesteuerten Instrumenten handelt es sich hauptsĂ€chlich um computergestĂŒtzte Systeme, die mit Hilfe von Computer-Vision-Methoden die DurchfĂŒhrung perioperativer chirurgischer Eingriffe erleichtern. Die Chirurgen mĂŒssen jedoch immer noch den Operationsplan aus prĂ€operativen Bildern gedanklich mit Echtzeitinformationen zusammenfĂŒhren, wĂ€hrend sie die chirurgischen Instrumente im Körper manipulieren und die Zielerreichung ĂŒberwachen. Daher war die Notwendigkeit einer BildfĂŒhrung wĂ€hrend neurochirurgischer Eingriffe schon immer ein wichtiges Anliegen der Ärzte. Ziel dieser Forschungsarbeit ist die Entwicklung eines neuartigen Systems fĂŒr die peri-operative bildgefĂŒhrte Neurochirurgie (IGN), nĂ€mlich DeepIGN, mit dem die erwarteten Ergebnisse der Hirntumorchirurgie erzielt werden können, wodurch die GesamtĂŒberle-bensrate maximiert und die postoperative neurologische MorbiditĂ€t minimiert wird. Im Rahmen dieser Arbeit werden zunĂ€chst neuartige Methoden fĂŒr die Kernbestandteile des DeepIGN-Systems der Hirntumor-Segmentierung im MRT und der multimodalen prĂ€ope-rativen MRT zur intraoperativen US-Bildregistrierung (iUS) unter Verwendung der jĂŒngs-ten Entwicklungen im Deep Learning vorgeschlagen. Anschließend wird die Ergebnisvor-hersage der verwendeten Deep-Learning-Netze weiter interpretiert und untersucht, indem fĂŒr den Menschen verstĂ€ndliche, erklĂ€rbare Karten erstellt werden. Schließlich wurden Open-Source-Pakete entwickelt und in weithin anerkannte Software integriert, die fĂŒr die Integration von Informationen aus Tracking-Systemen, die Bildvisualisierung und -fusion sowie die Anzeige von Echtzeit-Updates der Instrumente in Bezug auf den Patientenbe-reich zustĂ€ndig ist. Die Komponenten von DeepIGN wurden im Labor validiert und in einem simulierten Operationssaal evaluiert. FĂŒr das Segmentierungsmodul erreichte DeepSeg, ein generisches entkoppeltes Deep-Learning-Framework fĂŒr die automatische Abgrenzung von Gliomen in der MRT des Gehirns, eine Genauigkeit von 0,84 in Bezug auf den WĂŒrfelkoeffizienten fĂŒr das Bruttotumorvolumen. Leistungsverbesserungen wurden bei der Anwendung fort-schrittlicher Deep-Learning-AnsĂ€tze wie 3D-Faltungen ĂŒber alle Schichten, regionenbasier-tes Training, fliegende Datenerweiterungstechniken und Ensemble-Methoden beobachtet. Um Hirnverschiebungen zu kompensieren, wird ein automatisierter, schneller und genauer deformierbarer Ansatz, iRegNet, fĂŒr die Registrierung prĂ€operativer MRT zu iUS-Volumen als Teil des multimodalen Registrierungsmoduls vorgeschlagen. Es wurden umfangreiche Experimente mit zwei Multi-Location-Datenbanken durchgefĂŒhrt: BITE und RESECT. Zwei erfahrene Neurochirurgen fĂŒhrten eine zusĂ€tzliche qualitative Validierung dieser Studie durch, indem sie MRT-iUS-Paare vor und nach der deformierbaren Registrierung ĂŒberlagerten. Die experimentellen Ergebnisse zeigen, dass das vorgeschlagene iRegNet schnell ist und die besten Genauigkeiten erreicht. DarĂŒber hinaus kann das vorgeschlagene iRegNet selbst bei nicht trainierten Bildern konkurrenzfĂ€hige Ergebnisse liefern, was seine AllgemeingĂŒltigkeit unter Beweis stellt und daher fĂŒr die intraoperative neurochirurgische FĂŒhrung von Nutzen sein kann. FĂŒr das Modul "ErklĂ€rbarkeit" wird das NeuroXAI-Framework vorgeschlagen, um das Vertrauen medizinischer Experten in die Anwendung von KI-Techniken und tiefen neuro-nalen Netzen zu erhöhen. Die NeuroXAI umfasst sieben ErklĂ€rungsmethoden, die Visuali-sierungskarten bereitstellen, um tiefe Lernmodelle transparent zu machen. Die experimen-tellen Ergebnisse zeigen, dass der vorgeschlagene XAI-Rahmen eine gute Leistung bei der Extraktion lokaler und globaler Kontexte sowie bei der Erstellung erklĂ€rbarer Salienzkar-ten erzielt, um die Vorhersage des tiefen Netzwerks zu verstehen. DarĂŒber hinaus werden Visualisierungskarten erstellt, um den Informationsfluss in den internen Schichten des Encoder-Decoder-Netzwerks zu erkennen und den Beitrag der MRI-ModalitĂ€ten zur end-gĂŒltigen Vorhersage zu verstehen. Der ErklĂ€rungsprozess könnte medizinischen Fachleu-ten zusĂ€tzliche Informationen ĂŒber die Ergebnisse der Tumorsegmentierung liefern und somit helfen zu verstehen, wie das Deep-Learning-Modell MRT-Daten erfolgreich verar-beiten kann. Außerdem wurde ein interaktives neurochirurgisches Display fĂŒr die EingriffsfĂŒhrung entwickelt, das die verfĂŒgbare kommerzielle Hardware wie iUS-NavigationsgerĂ€te und Instrumentenverfolgungssysteme unterstĂŒtzt. Das klinische Umfeld und die technischen Anforderungen des integrierten multimodalen DeepIGN-Systems wurden mit der FĂ€higkeit zur Integration von (1) prĂ€operativen MRT-Daten und zugehörigen 3D-Volumenrekonstruktionen, (2) Echtzeit-iUS-Daten und (3) positioneller Instrumentenver-folgung geschaffen. Die Genauigkeit dieses Systems wurde anhand eines benutzerdefi-nierten Agar-Phantom-Modells getestet, und sein Einsatz in einem vorklinischen Operati-onssaal wurde simuliert. Die Ergebnisse der klinischen Simulation bestĂ€tigten, dass die Montage des Systems einfach ist, in einer klinisch akzeptablen Zeit von 15 Minuten durchgefĂŒhrt werden kann und mit einer klinisch akzeptablen Genauigkeit erfolgt. In dieser Arbeit wurde ein multimodales IGN-System entwickelt, das die jĂŒngsten Fort-schritte im Bereich des Deep Learning nutzt, um Neurochirurgen prĂ€zise zu fĂŒhren und prĂ€- und intraoperative Patientenbilddaten sowie interventionelle GerĂ€te in das chirurgi-sche Verfahren einzubeziehen. DeepIGN wurde als Open-Source-Forschungssoftware entwickelt, um die Forschung auf diesem Gebiet zu beschleunigen, die gemeinsame Nut-zung durch mehrere Forschungsgruppen zu erleichtern und eine kontinuierliche Weiter-entwicklung durch die Gemeinschaft zu ermöglichen. Die experimentellen Ergebnisse sind sehr vielversprechend fĂŒr die Anwendung von Deep-Learning-Modellen zur UnterstĂŒtzung interventioneller Verfahren - ein entscheidender Schritt zur Verbesserung der chirurgi-schen Behandlung von Hirntumoren und der entsprechenden langfristigen postoperativen Ergebnisse

    Nonrigid Registration of Brain Tumor Resection MR Images Based on Joint Saliency Map and Keypoint Clustering

    Get PDF
    This paper proposes a novel global-to-local nonrigid brain MR image registration to compensate for the brain shift and the unmatchable outliers caused by the tumor resection. The mutual information between the corresponding salient structures, which are enhanced by the joint saliency map (JSM), is maximized to achieve a global rigid registration of the two images. Being detected and clustered at the paired contiguous matching areas in the globally registered images, the paired pools of DoG keypoints in combination with the JSM provide a useful cluster-to-cluster correspondence to guide the local control-point correspondence detection and the outlier keypoint rejection. Lastly, a quasi-inverse consistent deformation is smoothly approximated to locally register brain images through the mapping the clustered control points by compact support radial basis functions. The 2D implementation of the method can model the brain shift in brain tumor resection MR images, though the theory holds for the 3D case
    • 

    corecore