6 research outputs found

    Prédiction de l'âge cérébral chez le sujet sain en IRM anatomique par le <i>deep learning</i>

    No full text
    Objectives: to define a clinically usable preprocessing pipeline for MRI data, to verify by interpretability methods whether knowledge is learned by algorithms are those that are related to the mechanism of cerebral aging, test the validity of the model on an independent cohort.Data and methods: we used 1597 open-access T1 weighted MRI from 24 hospitals. Preprocessing consisted in applying: N4 bias field correction, registration to MNI152 space, white and grey stripe intensity normalization, skull stripping and brain tissue segmentation. Prediction of brain age was done with growing complexity of data input (histograms, grey matter from segmented MRI, raw data) and models for training (linear models, non linear model such as gradient boosting over decision trees, and 2D and 3D convolutional neural networks). Work on the interpretability of models involved (i) visualizing, displaying maps, maps to corrode, displaying values, and (ii) generating heat maps which permitted to identify regions of interest used by the algorithm in its learning. Finally, we tested the validity of this biomarker on an independent cohort of healthy subjects and Alzheimer's patients.Results: processing time seemed feasible in a radiological workflow : 5 min for one 3D T1 MRI. We found a significant correlation between age and gray matter volume with a correlation r = -0.74. Our best model obtained a mean absolute error (MAE) of 3.60 years, with fine tuned convolution neural network (CNN) pretrained on ImageNet. The MAE was of 5.5 years with a method correcting the center effect. Our work on interpretability on simpler models permitted to observe heterogeneity of prediction depending on brain regions known for being involved in ageing (grey matter, ventricles). Occlusion method of CNN showed the importance of Insula and deep grey matter (thalami, caudate nuclei) in predictions.Conclusions: predicting the brain age using deep learning could define a biomarker of cerebral aging, usable in daily neuroradiological practice. Our work on interpretability shows that models learn the most in brain regions known to be affected by aging. (grey matter, seat of atrophy, white matter, affected by leukoaraiosis, and ventricles, which tend to dilate with ageing). This methods give more confidence in their applicability of CNN in clinical practice, previously considered as a " Black Box ". Finally, the use of the model on another cohort of patients showed (i) its ability to generalize on independent data, and on the other hand its application in diseases to which it was not trained: the estimated age by the algorithm is higher in Alzheimer's patients. This constitutes a pathway for earlier detection of this disease, via imaging methods. The use of similar methods in multimodal MRI, including functional MRI, could be an interesting avenue. This biomarker could be used as a surrogate for Grey matter volumetry in studies aimed at improving the performance of morphological imaging in the diagnosis of degenerative diseases and in the clinical trials of treatments for these diseases.Objectifs : définir un processus explicite de prétraitement utilisable en clinique pour les données IRM, prédire l’âge du cerveau à l’aide de divers algorithmes d’apprentissage automatique et d’apprentissage en profondeur, définir les pièges courants inhérent à la méthodologie du Machine learning, vérifier par des méthodes d’interprétabilité si les connaissances apprises par les algorithmes sont celles en rapport avec le mécanisme du vieillissement cérébral, tester la validité du modèle entraîné sur une cohorte indépendante.Matériel et méthodes : nous avons utilisé 1597 IRM pondérées en T1 en accès libre issues de 24 hôpitaux. Le prétraitement a consisté à appliquer : la correction du champ de biais N4, l’enregistrement dans l’espace MNI152, la normalisation de l’intensité de la matière grise et blanche, le stripping du crâne et la segmentation du tissu cérébral. La prédiction de l’âge du cerveau a été réalisée avec la complexité croissante des données saisies (histogrammes, données) et des modèles pour l’entraînement (modèles linéaires, modèles non linéaires tels que Gradient Boosting over decision tree, et enfin des réseaux de neurones convolutionnels (Convolutional Neuronal networks, CNN) 2D et 3D). Les travaux sur l'interprétabilité des modèles consistaient (i) à procéder à la visualisation de données, telles que des cartes de corrélation entre l’âge et la valeur des voxels, et à générer (ii) des cartes montrant les régions cérébrales d’intérêt pour l’apprentissage. Enfin, nous avons testé l’applicabilité de ce biomarqueur sur une cohorte indépendante de sujets sains et Alzheimer.Résultats : le temps de prétraitement des images était de 5 min pour une IRM 3D T1. Nous avons trouvé une corrélation significative entre l’âge connu et le volume de matière grise avec une corrélation r = -0,74. Notre meilleur modèle prédisait l’âge cérébral avec une erreur absolue moyenne (EAM) de 3,60 ans, avec un réseau de neurones à convolutions (CNN) fine-tuned et pré-entraîné sur ImageNet (méthode de Transfer learning). L’EAM était à 5.5 ans en corrigeant notre modèle de l’effet centre. Nos travaux sur l’interprétabilité ont révélé comme importantes pour les prédictions des régions cérébrales connues pour être impliquées dans le vieillissement (substance grise, en particulier l’insulta et les thalami, les ventricules, la substance blanche périventriculaires).Conclusions : la prédiction de l'âge cérébral via le deep learning pourrait définir un biomarqueur du vieillissement cérébral, utilisable dans la pratique neuroradiologique quotidienne. Notre travail sur l’interprétabilité montre que les modèles apprennent le plus dans des régions cérébrales connues pour être affectées par le vieillissement (substance grise, siège de l’atrophie, substance blanche, affectée par la leucoaraiose, et la dilatation des ventricules avec l’âge), ce qui permet d’avoir plus confiance dans leur applicabilité par rapport à un modèle jusque là considéré comme une « boîte noire ». Enfin, l’utilisation du modèle sur une autre cohorte de patients a montré (i) sa capacité de généralisation sur des données indépendantes, et d’autre part son application dans des maladies auxquelles il n’a pas été entraîné : l’âge estimé par l’algorithme est plus élevé chez des patients Alzheimer. Ce qui constitue une piste pour le dépistage plus précoce de cette maladie, via des méthodes d’imagerie. L’utilisation de méthodes similaires en IRM multimodale, incluant notamment l’IRM fonctionnelle, pourrait constituer une piste intéressante. Ce biomarqueur pourrait être utilisé en substitution de la volumétrie dans des études visant à améliorer les performances de l’imagerie morphologique dans le diagnostic des pathologies dégénératives et dans les essais cliniques de traitements de ces maladies

    Abdominal musculature segmentation and surface prediction from CT using deep learning for sarcopenia assessment

    No full text
    International audiencePurpose :The purpose of this study was to build and train a deep convolutional neural networks (CNN) algorithm to segment muscular body mass (MBM) to predict muscular surface from a two-dimensional axial computed tomography (CT) slice through L3 vertebra.Materials and methods :An ensemble of 15 deep learning models with a two-dimensional U-net architecture with a 4-level depth and 18 initial filters were trained to segment MBM. The muscular surface values were computed from the predicted masks and corrected with the algorithm's estimated bias. Resulting mask prediction and surface prediction were assessed using Dice similarity coefficient (DSC) and root mean squared error (RMSE) scores respectively using ground truth masks as standards of reference.Results :A total of 1025 individual CT slices were used for training and validation and 500 additional axial CT slices were used for testing. The obtained mean DSC and RMSE on the test set were 0.97 and 3.7 cm2 respectively.Conclusion :Deep learning methods using convolutional neural networks algorithm enable a robust and automated extraction of CT derived MBM for sarcopenia assessment, which could be implemented in a clinical workflow

    Integrating deep learning CT-scan model, biological and clinical variables to predict severity of COVID-19 patients

    Get PDF
    International audienceThe SARS-COV-2 pandemic has put pressure on intensive care units, so that identifying predictors of disease severity is a priority. We collect 58 clinical and biological variables, and chest CT scan data, from 1003 coronavirus-infected patients from two French hospitals. We train a deep learning model based on CT scans to predict severity. We then construct the multimodal AI-severity score that includes 5 clinical and biological variables (age, sex, oxygenation, urea, platelet) in addition to the deep learning model. We show that neural network analysis of CT-scans brings unique prognosis information, although it is correlated with other markers of severity (oxygenation, LDH, and CRP) explaining the measurable but limited 0.03 increase of AUC obtained when adding CT-scan information to clinical variables. Here, we show that when comparing AI-severity with 11 existing severity scores, we find significantly improved prognosis performance; AI-severity can therefore rapidly become a reference scoring approach

    AI-based multi-modal integration (ScanCov scores) of clinical characteristics, lab tests and chest CTs improves COVID-19 outcome prediction of hospitalized patients

    Get PDF
    The SARS-COV-2 pandemic has put pressure on Intensive Care Units, and made theidentification of early predictors of disease severity a priority. We collected clinical,biological, chest CT scan data, and radiology reports from 1,003 coronavirus-infectedpatients from two French hospitals. Among 58 variables measured at admission, 11clinical and 3 radiological variables were associated with severity. Next, using 506,341chest CT images, we trained and evaluated deep learning models to segment thescans and reproduce radiologists' annotations. We also built CT image-based deeplearning models that predicted severity better than models based on the radiologists'reports. Finally, we showed that adding CT scan information—either throughradiologist lesion quantification or through deep learning—to clinical and biologicaldata, improves prediction of severity. These findings show that CT scans containnovel and unique prognostic information, which we included in a 6-variable ScanCovseverity score
    corecore