121 research outputs found
Deep Learning in Breast Cancer Imaging: A Decade of Progress and Future Directions
Breast cancer has reached the highest incidence rate worldwide among all
malignancies since 2020. Breast imaging plays a significant role in early
diagnosis and intervention to improve the outcome of breast cancer patients. In
the past decade, deep learning has shown remarkable progress in breast cancer
imaging analysis, holding great promise in interpreting the rich information
and complex context of breast imaging modalities. Considering the rapid
improvement in the deep learning technology and the increasing severity of
breast cancer, it is critical to summarize past progress and identify future
challenges to be addressed. In this paper, we provide an extensive survey of
deep learning-based breast cancer imaging research, covering studies on
mammogram, ultrasound, magnetic resonance imaging, and digital pathology images
over the past decade. The major deep learning methods, publicly available
datasets, and applications on imaging-based screening, diagnosis, treatment
response prediction, and prognosis are described in detail. Drawn from the
findings of this survey, we present a comprehensive discussion of the
challenges and potential avenues for future research in deep learning-based
breast cancer imaging.Comment: Survey, 41 page
Classifying Breast Tumors using Medical Microwave Radar Imaging
Medical Microwave Imaging (MMI) has been studied in the past years to develop techniques to detect breast cancer at the earliest stages of development. Particularly, ultra-wideband (UWB) micro-wave radar imaging systems can detect and classify tumors as benign or malignant since this technique yields information about the size and shape of tumors. In this study we used this technology to classify tumors.
The primary goal of this dissertation is two-folded. First, producing breast tumor numerical mod-els and using them in 2D MMI simulations that recreate the conditions of a UWB microwave radar imaging system. The breast tumor numerical produced resemble real tumor morphologies since they are made from breast MRI exams segmentations. Second, the data of the backscattered UWB microwave signals produced by the MMI simulations was used to classify tumors according to their size and histol-ogy, which is relevant to assess potential of UWB microwave radar imaging systems as a reliable alter-native method for the classification of breast tumors in the field of Medical Microwave Imaging. The Classification Algorithms used in this work were Pseudo Linear Discriminant Analysis (Pseudo-LDA), Pseudo Quadratic Discriminant Analysis (pseudo-QDA), and k-Nearest Neighbors (KNN), alongside with a feature extraction algorithm – Principal Component Analysis (PCA).A Imagem Médica por Microondas (do inglês, MMI) tem sido estudada nos últimos anos de forma a desenvolver técnicas de deteção do cancro da mama nas primeiras fases de desenvolvimento. Em particular, os sistemas de imagem de radar por microondas em banda ultralarga (do inglês UWB) podem detetar e classificar os tumores como benignos ou malignos, uma vez que esta técnica produz informação sobre o tamanho e a forma dos tumores. Neste estudo, utilizámos esta tecnologia para classificar os tumores.
A dissertação tem dois objetivos principais. Primeiro, produzir fantomas de tumores mamários e utilizá-los em simulações de MMI em 2D que recriam as condições de um sistema de imagem de radar por microondas UWB. Os fantomas numéricos de tumores mamários produzidos possuem morfologias semelhantes a tumores reais, uma vez que são feitos a partir de segmentações de exames de ressonância magnética da mama. Em segundo lugar, as reflexões dos sinais de microondas UWB produzidos pelas simulações de MMI foram utilizados para classificar tumores de acordo com o seu tamanho e histologia, o que é relevante para avaliar o potencial dos sistemas de imagem de radar por microondas UWB como um método alternativo e fiável para a classificação de tumores mamários no campo da MMI. Os Algo-ritmos de Classificação utilizados neste trabalho foram a Pseudo Linear Discriminant Analysis (Pseudo-LDA), Pseudo Quadratic Discriminant Analysis (pseudo-QDA), e a K-Nearest Neighbors (KNN), jun-tamente com um algoritmo de extração de features - Análise de Componentes Principais (do inglês PCA)
Challenges and Opportunities of End-to-End Learning in Medical Image Classification
Das Paradigma des End-to-End Lernens hat in den letzten Jahren die Bilderkennung revolutioniert, aber die klinische Anwendung hinkt hinterher. Bildbasierte computergestützte Diagnosesysteme basieren immer noch weitgehend auf hochtechnischen und domänen-spezifischen Pipelines, die aus unabhängigen regelbasierten Modellen bestehen, welche die Teilaufgaben der Bildklassifikation wiederspiegeln: Lokalisation von auffälligen Regionen, Merkmalsextraktion und Entscheidungsfindung. Das Versprechen einer überlegenen Entscheidungsfindung beim End-to-End Lernen ergibt sich daraus, dass domänenspezifische Zwangsbedingungen von begrenzter Komplexität entfernt werden und stattdessen alle Systemkomponenten gleichzeitig, direkt anhand der Rohdaten, und im Hinblick auf die letztendliche Aufgabe optimiert werden. Die Gründe dafür, dass diese Vorteile noch nicht den Weg in die Klinik gefunden haben, d.h. die Herausforderungen, die sich bei der Entwicklung Deep Learning-basierter Diagnosesysteme stellen, sind vielfältig: Die Tatsache, dass die Generalisierungsfähigkeit von Lernalgorithmen davon abhängt, wie gut die verfügbaren Trainingsdaten die tatsächliche zugrundeliegende Datenverteilung abbilden, erweist sich in medizinische Anwendungen als tiefgreifendes Problem. Annotierte Datensätze in diesem Bereich sind notorisch klein, da für die Annotation eine kostspielige Beurteilung durch Experten erforderlich ist und die Zusammenlegung kleinerer Datensätze oft durch Datenschutzauflagen und Patientenrechte erschwert wird. Darüber hinaus weisen medizinische Datensätze drastisch unterschiedliche Eigenschaften im Bezug auf Bildmodalitäten, Bildgebungsprotokolle oder Anisotropien auf, und die oft mehrdeutige Evidenz in medizinischen Bildern kann sich auf inkonsistente oder fehlerhafte Trainingsannotationen übertragen. Während die Verschiebung von Datenverteilungen zwischen Forschungsumgebung und Realität zu einer verminderten Modellrobustheit führt und deshalb gegenwärtig als das Haupthindernis für die klinische Anwendung von Lernalgorithmen angesehen wird, wird dieser Graben oft noch durch Störfaktoren wie Hardwarelimitationen oder Granularität von gegebenen Annotation erweitert, die zu Diskrepanzen zwischen der modellierten Aufgabe und der zugrunde liegenden klinischen Fragestellung führen.
Diese Arbeit untersucht das Potenzial des End-to-End-Lernens in klinischen Diagnosesystemen und präsentiert Beiträge zu einigen der wichtigsten Herausforderungen, die derzeit eine breite klinische Anwendung verhindern.
Zunächst wird der letzten Teil der Klassifikations-Pipeline untersucht, die Kategorisierung in klinische Pathologien. Wir demonstrieren, wie das Ersetzen des gegenwärtigen klinischen Standards regelbasierter Entscheidungen durch eine groß angelegte Merkmalsextraktion gefolgt von lernbasierten Klassifikatoren die Brustkrebsklassifikation im MRT signifikant verbessert und eine Leistung auf menschlichem Level erzielt. Dieser Ansatz wird weiter anhand von kardiologischer Diagnose gezeigt. Zweitens ersetzen wir, dem Paradigma des End-to-End Lernens folgend, das biophysikalische Modell, das für die Bildnormalisierung in der MRT angewandt wird, sowie die Extraktion handgefertigter Merkmale, durch eine designierte CNN-Architektur und liefern eine eingehende Analyse, die das verborgene Potenzial der gelernten Bildnormalisierung und einen Komplementärwert der gelernten Merkmale gegenüber den handgefertigten Merkmalen aufdeckt. Während dieser Ansatz auf markierten Regionen arbeitet und daher auf manuelle Annotation angewiesen ist, beziehen wir im dritten Teil die Aufgabe der Lokalisierung dieser Regionen in den Lernprozess ein, um eine echte End-to-End-Diagnose baserend auf den Rohbildern zu ermöglichen. Dabei identifizieren wir eine weitgehend vernachlässigte Zwangslage zwischen dem Streben nach der Auswertung von Modellen auf klinisch relevanten Skalen auf der einen Seite, und der Optimierung für effizientes Training unter Datenknappheit auf der anderen Seite. Wir präsentieren ein Deep Learning Modell, das zur Auflösung dieses Kompromisses beiträgt, liefern umfangreiche Experimente auf drei medizinischen Datensätzen sowie eine Serie von Toy-Experimenten, die das Verhalten bei begrenzten Trainingsdaten im Detail untersuchen, und publiziren ein umfassendes Framework, das unter anderem die ersten 3D-Implementierungen gängiger Objekterkennungsmodelle umfasst.
Wir identifizieren weitere Hebelpunkte in bestehenden End-to-End-Lernsystemen, bei denen Domänenwissen als Zwangsbedingung dienen kann, um die Robustheit von Modellen in der medizinischen Bildanalyse zu erhöhen, die letztendlich dazu beitragen sollen, den Weg für die Anwendung in der klinischen Praxis zu ebnen. Zu diesem Zweck gehen wir die Herausforderung fehlerhafter Trainingsannotationen an, indem wir die Klassifizierungskompnente in der End-to-End-Objekterkennung durch Regression ersetzen, was es ermöglicht, Modelle direkt auf der kontinuierlichen Skala der zugrunde liegenden pathologischen Prozesse zu trainieren und so die Robustheit der Modelle gegenüber fehlerhaften Trainingsannotationen zu erhöhen. Weiter adressieren wir die Herausforderung der Input-Heterogenitäten, mit denen trainierte Modelle konfrontiert sind, wenn sie an verschiedenen klinischen Orten eingesetzt werden, indem wir eine modellbasierte Domänenanpassung vorschlagen, die es ermöglicht, die ursprüngliche Trainingsdomäne aus veränderten Inputs wiederherzustellen und damit eine robuste Generalisierung zu gewährleisten. Schließlich befassen wir uns mit dem höchst unsystematischen, aufwendigen und subjektiven Trial-and-Error-Prozess zum Finden von robusten Hyperparametern für einen gegebene Aufgabe, indem wir Domänenwissen in ein Set systematischer Regeln überführen, die eine automatisierte und robuste Konfiguration von Deep Learning Modellen auf einer Vielzahl von medizinischen Datensetzen ermöglichen.
Zusammenfassend zeigt die hier vorgestellte Arbeit das enorme Potenzial von End-to-End Lernalgorithmen im Vergleich zum klinischen Standard mehrteiliger und hochtechnisierter Diagnose-Pipelines auf, und präsentiert Lösungsansätze zu einigen der wichtigsten Herausforderungen für eine breite Anwendung unter realen Bedienungen wie Datenknappheit, Diskrepanz zwischen der vom Modell behandelten Aufgabe und der zugrunde liegenden klinischen Fragestellung, Mehrdeutigkeiten in Trainingsannotationen, oder Verschiebung von Datendomänen zwischen klinischen Standorten. Diese Beiträge können als Teil des übergreifende Zieles der Automatisierung von medizinischer Bildklassifikation gesehen werden - ein integraler Bestandteil des Wandels, der erforderlich ist, um die Zukunft des Gesundheitswesens zu gestalten
A Survey on Deep Learning in Medical Image Analysis
Deep learning algorithms, in particular convolutional networks, have rapidly
become a methodology of choice for analyzing medical images. This paper reviews
the major deep learning concepts pertinent to medical image analysis and
summarizes over 300 contributions to the field, most of which appeared in the
last year. We survey the use of deep learning for image classification, object
detection, segmentation, registration, and other tasks and provide concise
overviews of studies per application area. Open challenges and directions for
future research are discussed.Comment: Revised survey includes expanded discussion section and reworked
introductory section on common deep architectures. Added missed papers from
before Feb 1st 201
Mammography Techniques and Review
Mammography remains at the backbone of medical tools to examine the human breast. The early detection of breast cancer typically uses adjunct tests to mammogram such as ultrasound, positron emission mammography, electrical impedance, Computer-aided detection systems and others. In the present digital era it is even more important to use the best new techniques and systems available to improve the correct diagnosis and to prevent mortality from breast cancer. The first part of this book deals with the electrical impedance mammographic scheme, ultrasound axillary imaging, position emission mammography and digital mammogram enhancement. A detailed consideration of CBR CAD System and the availability of mammographs in Brazil forms the second part of this book. With the up-to-date papers from world experts, this book will be invaluable to anyone who studies the field of mammography
End-to-end Prostate Cancer Detection in bpMRI via 3D CNNs: Effects of Attention Mechanisms, Clinical Priori and Decoupled False Positive Reduction
We present a multi-stage 3D computer-aided detection and diagnosis (CAD)
model for automated localization of clinically significant prostate cancer
(csPCa) in bi-parametric MR imaging (bpMRI). Deep attention mechanisms drive
its detection network, targeting salient structures and highly discriminative
feature dimensions across multiple resolutions. Its goal is to accurately
identify csPCa lesions from indolent cancer and the wide range of benign
pathology that can afflict the prostate gland. Simultaneously, a decoupled
residual classifier is used to achieve consistent false positive reduction,
without sacrificing high sensitivity or computational efficiency. In order to
guide model generalization with domain-specific clinical knowledge, a
probabilistic anatomical prior is used to encode the spatial prevalence and
zonal distinction of csPCa. Using a large dataset of 1950 prostate bpMRI paired
with radiologically-estimated annotations, we hypothesize that such CNN-based
models can be trained to detect biopsy-confirmed malignancies in an independent
cohort.
For 486 institutional testing scans, the 3D CAD system achieves
83.695.22% and 93.192.96% detection sensitivity at 0.50 and 1.46
false positive(s) per patient, respectively, with 0.8820.030 AUROC in
patient-based diagnosis significantly outperforming four state-of-the-art
baseline architectures (U-SEResNet, UNet++, nnU-Net, Attention U-Net) from
recent literature. For 296 external biopsy-confirmed testing scans, the
ensembled CAD system shares moderate agreement with a consensus of expert
radiologists (76.69%; 0.510.04) and independent pathologists
(81.08%; 0.560.06); demonstrating strong generalization to
histologically-confirmed csPCa diagnosis.Comment: Accepted to MedIA: Medical Image Analysis. This manuscript
incorporates and expands upon our 2020 Medical Imaging Meets NeurIPS Workshop
paper (arXiv:2011.00263
Automatic BIRAD scoring of breast cancer mammograms
A computer aided diagnosis system (CAD) is developed to fully characterize and
classify mass to benign and malignancy and to predict BIRAD (Breast Imaging
Reporting and Data system) scores using mammographic image data. The CAD
includes a preprocessing step to de-noise mammograms. This is followed by an
active counter segmentation to deforms an initial curve, annotated by a
radiologist, to separate and define the boundary of a mass from background. A
feature extraction scheme wasthen used to fully characterize a mass by extraction
of the most relevant features that have a large impact on the outcome of a patient
biopsy. For this thirty-five medical and mathematical features based on intensity,
shape and texture associated to the mass were extracted. Several feature selection
schemes were then applied to select the most dominant features for use in next
step, classification. Finally, a hierarchical classification schemes were applied on
those subset of features to firstly classify mass to benign (mass with BIRAD score
2) and malignant mass (mass with BIRAD score over 4), and secondly to sub classify
mass with BIRAD score over 4 to three classes (BIRAD with score 4a,4b,4c).
Accuracy of segmentation performance were evaluated by calculating the degree
of overlapping between the active counter segmentation and the manual
segmentation, and the result was 98.5%. Also reproducibility of active counter
3
using different manual initialization of algorithm by three radiologists were
assessed and result was 99.5%.
Classification performance was evaluated using one hundred sixty masses (80
masses with BRAD score 2 and 80 mass with BIRAD score over4). The best result
for classification of data to benign and malignance was found using a combination
of sequential forward floating feature (SFFS) selection and a boosted tree hybrid
classifier with Ada boost ensemble method, decision tree learner type and 100
learners’ regression tree classifier, achieving 100% sensitivity and specificity in
hold out method, 99.4% in cross validation method and 98.62 % average accuracy
in cross validation method.
For further sub classification of eighty malignance data with BIRAD score of over
4 (30 mass with BIRAD score 4a,30 masses with BIRAD score 4b and 20 masses with
BIRAD score 4c), the best result achieved using the boosted tree with ensemble
method bag, decision tree learner type with 200 learners Classification, achieving
100% sensitivity and specificity in hold out method, 98.8% accuracy and 98.41%
average accuracy for ten times run in cross validation method.
Beside those 160 masses (BIRAD score 2 and over 4) 13 masses with BIRAD score
3 were gathered. Which means patient is recommended to be tested in another
medical imaging technique and also is recommended to do follow-up in six
months. The CAD system was trained with mass with BIRAD score 2 and over 4 also
4
it was further tested using 13 masses with a BIRAD score of 3 and the CAD results
are shown to agree with the radiologist’s classification after confirming in six
months follow up.
The present results demonstrate high sensitivity and specificity of the proposed
CAD system compared to prior research. The present research is therefore
intended to make contributions to the field by proposing a novel CAD system,
consists of series of well-selected image processing algorithms, to firstly classify
mass to benign or malignancy, secondly sub classify BIRAD 4 to three groups and
finally to interpret BIRAD 3 to BIRAD 2 without a need of follow up study
- …