478 research outputs found

    A Colour Wheel to Rule them All: Analysing Colour & Geometry in Medical Microscopy

    Get PDF
    Personalized medicine is a rapidly growing field in healthcare that aims to customize medical treatments and preventive measures based on each patient’s unique characteristics, such as their genes, environment, and lifestyle factors. This approach acknowledges that people with the same medical condition may respond differently to therapies and seeks to optimize patient outcomes while minimizing the risk of adverse effects. To achieve these goals, personalized medicine relies on advanced technologies, such as genomics, proteomics, metabolomics, and medical imaging. Digital histopathology, a crucial aspect of medical imaging, provides clinicians with valuable insights into tissue structure and function at the cellular and molecular levels. By analyzing small tissue samples obtained through minimally invasive techniques, such as biopsy or aspirate, doctors can gather extensive data to evaluate potential diagnoses and clinical decisions. However, digital analysis of histology images presents unique challenges, including the loss of 3D information and stain variability, which is further complicated by sample variability. Limited access to data exacerbates these challenges, making it difficult to develop accurate computational models for research and clinical use in digital histology. Deep learning (DL) algorithms have shown significant potential for improving the accuracy of Computer-Aided Diagnosis (CAD) and personalized treatment models, particularly in medical microscopy. However, factors such as limited generability, lack of interpretability, and bias sometimes hinder their clinical impact. Furthermore, the inherent variability of histology images complicates the development of robust DL methods. Thus, this thesis focuses on developing new tools to address these issues. Our essential objective is to create transparent, accessible, and efficient methods based on classical principles from various disciplines, including histology, medical imaging, mathematics, and art, to tackle microscopy image registration and colour analysis successfully. These methods can contribute significantly to the advancement of personalized medicine, particularly in studying the tumour microenvironment for diagnosis and therapy research. First, we introduce a novel automatic method for colour analysis and non-rigid histology registration, enabling the study of heterogeneity morphology in tumour biopsies. This method achieves accurate tissue cut registration, drastically reducing landmark distance and excellent border overlap. Second, we introduce ABANICCO, a novel colour analysis method that combines geometric analysis, colour theory, fuzzy colour spaces, and multi-label systems for automatically classifying pixels into a set of conventional colour categories. ABANICCO outperforms benchmark methods in accuracy and simplicity. It is computationally straightforward, making it useful in scenarios involving changing objects, limited data, unclear boundaries, or when users lack prior knowledge of the image or colour theory. Moreover, results can be modified to match each particular task. Third, we apply the acquired knowledge to create a novel pipeline of rigid histology registration and ABANICCO colour analysis for the in-depth study of triple-negative breast cancer biopsies. The resulting heterogeneity map and tumour score provide valuable insights into the composition and behaviour of the tumour, informing clinical decision-making and guiding treatment strategies. Finally, we consolidate the developed ideas into an efficient pipeline for tissue reconstruction and multi-modality data integration on Tuberculosis infection data. This enables accurate element distribution analysis to understand better interactions between bacteria, host cells, and the immune system during the course of infection. The methods proposed in this thesis represent a transparent approach to computational pathology, addressing the needs of medical microscopy registration and colour analysis while bridging the gap between clinical practice and computational research. Moreover, our contributions can help develop and train better, more robust DL methods.En una época en la que la medicina personalizada está revolucionando la asistencia sanitaria, cada vez es más importante adaptar los tratamientos y las medidas preventivas a la composición genética, el entorno y el estilo de vida de cada paciente. Mediante el empleo de tecnologías avanzadas, como la genómica, la proteómica, la metabolómica y la imagen médica, la medicina personalizada se esfuerza por racionalizar el tratamiento para mejorar los resultados y reducir los efectos secundarios. La microscopía médica, un aspecto crucial de la medicina personalizada, permite a los médicos recopilar y analizar grandes cantidades de datos a partir de pequeñas muestras de tejido. Esto es especialmente relevante en oncología, donde las terapias contra el cáncer se pueden optimizar en función de la apariencia tisular específica de cada tumor. La patología computacional, un subcampo de la visión por ordenador, trata de crear algoritmos para el análisis digital de biopsias. Sin embargo, antes de que un ordenador pueda analizar imágenes de microscopía médica, hay que seguir varios pasos para conseguir las imágenes de las muestras. La primera etapa consiste en recoger y preparar una muestra de tejido del paciente. Para que esta pueda observarse fácilmente al microscopio, se corta en secciones ultrafinas. Sin embargo, este delicado procedimiento no está exento de dificultades. Los frágiles tejidos pueden distorsionarse, desgarrarse o agujerearse, poniendo en peligro la integridad general de la muestra. Una vez que el tejido está debidamente preparado, suele tratarse con tintes de colores característicos. Estos tintes acentúan diferentes tipos de células y tejidos con colores específicos, lo que facilita a los profesionales médicos la identificación de características particulares. Sin embargo, esta mejora en visualización tiene un alto coste. En ocasiones, los tintes pueden dificultar el análisis informático de las imágenes al mezclarse de forma inadecuada, traspasarse al fondo o alterar el contraste entre los distintos elementos. El último paso del proceso consiste en digitalizar la muestra. Se toman imágenes de alta resolución del tejido con distintos aumentos, lo que permite su análisis por ordenador. Esta etapa también tiene sus obstáculos. Factores como una calibración incorrecta de la cámara o unas condiciones de iluminación inadecuadas pueden distorsionar o hacer borrosas las imágenes. Además, las imágenes de porta completo obtenidas so de tamaño considerable, complicando aún más el análisis. En general, si bien la preparación, la tinción y la digitalización de las muestras de microscopía médica son fundamentales para el análisis digital, cada uno de estos pasos puede introducir retos adicionales que deben abordarse para garantizar un análisis preciso. Además, convertir un volumen de tejido completo en unas pocas secciones teñidas reduce drásticamente la información 3D disponible e introduce una gran incertidumbre. Las soluciones de aprendizaje profundo (deep learning, DL) son muy prometedoras en el ámbito de la medicina personalizada, pero su impacto clínico a veces se ve obstaculizado por factores como la limitada generalizabilidad, el sobreajuste, la opacidad y la falta de interpretabilidad, además de las preocupaciones éticas y en algunos casos, los incentivos privados. Por otro lado, la variabilidad de las imágenes histológicas complica el desarrollo de métodos robustos de DL. Para superar estos retos, esta tesis presenta una serie de métodos altamente robustos e interpretables basados en principios clásicos de histología, imagen médica, matemáticas y arte, para alinear secciones de microscopía y analizar sus colores. Nuestra primera contribución es ABANICCO, un innovador método de análisis de color que ofrece una segmentación de colores objectiva y no supervisada y permite su posterior refinamiento mediante herramientas fáciles de usar. Se ha demostrado que la precisión y la eficacia de ABANICCO son superiores a las de los métodos existentes de clasificación y segmentación del color, e incluso destaca en la detección y segmentación de objetos completos. ABANICCO puede aplicarse a imágenes de microscopía para detectar áreas teñidas para la cuantificación de biopsias, un aspecto crucial de la investigación de cáncer. La segunda contribución es un método automático y no supervisado de segmentación de tejidos que identifica y elimina el fondo y los artefactos de las imágenes de microscopía, mejorando así el rendimiento de técnicas más sofisticadas de análisis de imagen. Este método es robusto frente a diversas imágenes, tinciones y protocolos de adquisición, y no requiere entrenamiento. La tercera contribución consiste en el desarrollo de métodos novedosos para registrar imágenes histopatológicas de forma eficaz, logrando el equilibrio adecuado entre un registro preciso y la preservación de la morfología local, en función de la aplicación prevista. Como cuarta contribución, los tres métodos mencionados se combinan para crear procedimientos eficientes para la integración completa de datos volumétricos, creando visualizaciones altamente interpretables de toda la información presente en secciones consecutivas de biopsia de tejidos. Esta integración de datos puede tener una gran repercusión en el diagnóstico y el tratamiento de diversas enfermedades, en particular el cáncer de mama, al permitir la detección precoz, la realización de pruebas clínicas precisas, la selección eficaz de tratamientos y la mejora en la comunicación el compromiso con los pacientes. Por último, aplicamos nuestros hallazgos a la integración multimodal de datos y la reconstrucción de tejidos para el análisis preciso de la distribución de elementos químicos en tuberculosis, lo que arroja luz sobre las complejas interacciones entre las bacterias, las células huésped y el sistema inmunitario durante la infección tuberculosa. Este método también aborda problemas como el daño por adquisición, típico de muchas modalidades de imagen. En resumen, esta tesis muestra la aplicación de métodos clásicos de visión por ordenador en el registro de microscopía médica y el análisis de color para abordar los retos únicos de este campo, haciendo hincapié en la visualización eficaz y fácil de datos complejos. Aspiramos a seguir perfeccionando nuestro trabajo con una amplia validación técnica y un mejor análisis de los datos. Los métodos presentados en esta tesis se caracterizan por su claridad, accesibilidad, visualización eficaz de los datos, objetividad y transparencia. Estas características los hacen perfectos para tender puentes robustos entre los investigadores de inteligencia artificial y los clínicos e impulsar así la patología computacional en la práctica y la investigación médicas.Programa de Doctorado en Ciencia y Tecnología Biomédica por la Universidad Carlos III de MadridPresidenta: María Jesús Ledesma Carbayo.- Secretario: Gonzalo Ricardo Ríos Muñoz.- Vocal: Estíbaliz Gómez de Marisca

    Mirror mirror on the wall... an unobtrusive intelligent multisensory mirror for well-being status self-assessment and visualization

    Get PDF
    A person’s well-being status is reflected by their face through a combination of facial expressions and physical signs. The SEMEOTICONS project translates the semeiotic code of the human face into measurements and computational descriptors that are automatically extracted from images, videos and 3D scans of the face. SEMEOTICONS developed a multisensory platform in the form of a smart mirror to identify signs related to cardio-metabolic risk. The aim was to enable users to self-monitor their well-being status over time and guide them to improve their lifestyle. Significant scientific and technological challenges have been addressed to build the multisensory mirror, from touchless data acquisition, to real-time processing and integration of multimodal data

    Computer aided method for 3D assessment of the lower limb alignment for orthopedic surgery planning

    Get PDF
    Tese de mestrado integrado, Engenharia Biomédica e Biofísica (Engenharia Clínica e Instrumentação Médica) Universidade de Lisboa, Faculdade de Ciências, 2017Os membros inferiores são responsáveis por fornecer suporte à totalidade do corpo humano e são essenciais nas mais variadas tarefas como estar de pé, andar e correr. Por vezes, e devido a diversos motivos, podem existir defeitos ou deformações nos membros inferiores que têm um impacto direto na qualidade de vida de uma pessoa, quer por se ver afetado o lado estético pessoal ou por condicionar significativamente a mobilidade. Uma característica da estrutura do membro inferior que é diretamente afetada por estas deformações é o seu alinhamento, isto é, a posição relativa dos ossos e articulações que compõem o membro. Graças à evolução da medicina moderna, corrigir estas deformações é agora uma prática bastante comum no campo da cirurgia ortopédica. No entanto, antes de qualquer cirurgia corretiva e até de qualquer planeamento que esta exija, a deformação tem de ser corretamente analisada, o que é feito através da chamada avaliação do alinhamento do membro inferior. Atualmente, num contexto clínico, esta avaliação é feita manualmente num espaço de trabalho bi-dimensional, normalmente utilizando apenas imagens de raios-X da perna inteira no plano anatómico frontal. Uma revisão ao estado da arte no que toca a métodos de planeamento cirúrgico dedicados ao membro inferior permite concluir que de facto existe software capaz de realizar este planeamento, mas que, no entanto, para além de terem custos elevadíssimos associados, nenhum utilizada modelos 3D como fonte de informação, o que traria imensos benefícios, especialmente ao nível da informação acerca da rotação e da inclinação dos ossos. Existem no entanto algum software a um nível mais experimental que utiliza modelos 3D para realizar a avaliação do alinhamento do membro inferior, sendo que nenhum deles passou ainda a estar disponível comercialmente. Numa perspetiva de implementar um método automático baseado em computador para realizar o planeamento pré-cirurgico da cirurgia de correção para ser utilizado em contexto clínico, foi proposto um projeto para o desenvolvimento de um novo software capaz de efetuar a avaliação do alinhamento do membro inferior em modelos 3D dos doentes. O projeto foi dividido em quatro etapas distintas que se desenrolaram ao longo de um estágio de sete meses. Na primeira etapa, o objetivo consistiu em gerar diversos modelos 3D dos membros inferiores de diferentes pacientes. Para tal, recorreu-se ao software de segmentação de imagens médicas Mimics 14.0 e utilizaram-se imagens de tomografia computorizada dos pacientes. Após o processo de segmentação, obtiveram-se os modelos 3D cuja qualidade teve de ser assegurada através de um processo de remeshing e cuja correta orientação espacial teve de ser também assegurada, já que a avaliação do alinhamento é sensível à orientação da perna. Para tal, utilizou-se o software de renderização 3D Geomagic Studio 14. Optou-se ainda por separar os modelos dos ossos nas suas porções proximal e distal, de modo a reduzir futuramente os tempos de computação. Findo todo este processo, assegurou-se que diferentes utilizadores poderiam gerar estes modelos sem grande variabilidade ou erro no resultado final através da comparação dos modelos obtidos de um mesmo paciente por três utilizadores distintos, sendo que os modelos obtidos apresentavam volumes com diferenças inferiores a 1% relativamente ao valor médio e com um baixo desvio padrão. Numa segunda etapa, os ângulos e medidas consideradas necessárias para uma avaliação adequada foram definidos, apresentando os valores esperados para estas medidas de acordo com a literatura. Assim, foi possível definir também os pontos anatómicos que são necessários para a definição destes mesmos ângulos e medidas e que portanto têm de ser encontrados pelo software. Na terceira etapa, fez-se então o desenvolvimento propriamente dito do software. Encontravam-se já disponíveis alguns métodos automáticos desenvolvidos no contexto projeto, contudo, estes métodos exigiam que o utilizador conhecesse as ferramentas do Geomagic de modo a obter algumas informações, e que depois fosse capaz de utilizar estas informações para editar os scripts de modo a que estes funcionassem para cada paciente em específico. Para além disso, apenas pontos muito específicos podiam ser encontrados. Nesse sentido, isto é, de modo a que todo o processo de encontrar os pontos anatómicos relevantes pudesse ser feito diretamente pelo utilizador, no programa, e sem exigir quaisquer conhecimentos de programação, um conjunto de técnicas foi implementado, dando ao programa uma grande componente gráfica. Para os diferentes pontos, foi necessário recorrer a diferentes metodologias, algumas desenvolvidas propositadamente para o efeito e implementadas em linguagem de programação Python "pura", e algumas adaptadas de outras já existentes e disponíveis no próprio Geomagic. Foi ainda assegurado que existiam métodos alternativos caso os métodos padrão não fossem os mais adequados devido a uma estrutura diferente da esperada dos próprios modelos 3D. De todo este processo resultou um programa que usa os modelos 3D gerados e, da maneira mais automática possível e com uma interface do utilizador fácil de usar, fornece todos os ângulos e medidas, efetuando assim a dita avaliação do alinhamento do membro inferior em 3D. Uma análise ponderada aos resultados obtidos permitiu identificar quais os pontos anatómicos que estarão a ser obtidos de maneira menos ideal e por isso a levar a alguns resultados não tão bons como o esperado. A dependência criada da seleção e limitação de certas áreas nas quais ocorre uma iteração que permite encontrar certos pontos é possivelmente a maior falha do programa desenvolvido que se torna assim demasiado sensível ao input do utilizador. Note-se, contudo, que os próprios testes apresentam algumas falhas que podem influenciar os resultados obtidos, tal como não ter sido definido um roteiro de teste que obrigasse a uma utilização uniforme por parte de todos os utilizadores, e também os diferentes níveis de experiência com o programa por parte dos utilizadores de teste. No entanto, a maioria das medidas obtidas apresenta valores constantes ao longo de diversas utilizações, igualando os valores que seriam obtidos manualmente, mas com o potencial de os obter em metade do tempo. Pode concluir-se então que, no momento, a avaliação do alinhamento 3D é possível utilizando o software desenvolvido. É possível ainda apontar algumas limitações e fazer algumas sugestões de modo a que estas sejas ultrapassadas. Algumas limitações partiram do facto da experiência a programar em Python ser bastante limitada, e outras partiram do software utilizado para fazer o desenvolvimento. Por exemplo, o método que teria sido o mais indicado para encontrar um certo número de pontos na Tibia não foi possível de implementar devido a um bug interno do software. Existe ainda muita coisa que pode ser feita no que toca ao software desenvolvido e ao objectivo final de desenvolver um método de planeamento pré-operativo: em primeiro lugar, é necessário realizar mais testes, de modo a aumentar o tamanho da amostra e o intervalo de confiança dos testes; em segundo lugar, eliminar a dependência do Geomagic para utilizar o programa seria o ideal; finalmente, de modo a completar o plano inicial, deve ser implementada a possibilidade de visualizar o resultado da cirurgia nos modelos 3D.The lower limbs are responsible for supporting the body and are essential for several tasks such as standing, walking and running. Sometimes, and due to various reasons, defects or deformities can be found on the lower limbs and this has an impact on a person’s quality-of-life. One characteristic of the structure of the lower limb that is affected by these deformities is its alignment, i.e. the relative positions of the bones and joints that it includes. Thanks to the evolution of modern medicine, fixing these deformities is now a common practice in the orthopedics' surgical field. Before any corrective surgery and its respective planning, the deformity needs to be properly analyzed, which is accomplished by the assessment of the alignment of the whole lower limb. Currently, in clinical setting, this assessment is carried out manually in the two-dimensional space, normally using wholeleg X-ray images of the anatomical frontal plane, but complex deformities can not be assessed properly in a 2D image. In a desire to create an automatic computer-based method for the preoperative planning of deformity correction and knee surgery, a project consisting of developing a new software for assessing the lower limb alignment based on 3D models was proposed. The project was comprised of four stages: In the first stage, 3D models of different patients’ lower limbs were generated using both segmentation and 3D rendering software, and it was ensured that these models could be generated by any user without significant variability/error in the final outcome; In the second stage, the exact angles and measures needed for a proper assessment were defined, as well as the anatomic landmarks required to calculate them that should then be found by the software; During the third stage, the software development took place, from which resulted a program that uses the generated 3D models and, in the most automatic way possible and with an easy-to-use interface, returns all the needed angles and measures; The final stage of the project was to ensure that the program is reliable and consistent in its results in both intraobserver and interobserver domain, and that it composes an improvement when compared with the manual procedure, while also ensuring that the results obtained by using the program match those obtained manually. A lot can still be done and improved regarding the developed software and the ultimate goal of fully developing a preoperative planning method, but, so far, the 3D alignment assessment that results from the program has been considered to perform its task properly and in an improved way when compared to the traditional technique, even though some limitations can be observed

    Wize Mirror - a smart, multisensory cardio-metabolic risk monitoring system

    Get PDF
    In the recent years personal health monitoring systems have been gaining popularity, both as a result of the pull from the general population, keen to improve well-being and early detection of possibly serious health conditions and the push from the industry eager to translate the current significant progress in computer vision and machine learning into commercial products. One of such systems is the Wize Mirror, built as a result of the FP7 funded SEMEOTICONS (SEMEiotic Oriented Technology for Individuals CardiOmetabolic risk self-assessmeNt and Self-monitoring) project. The project aims to translate the semeiotic code of the human face into computational descriptors and measures, automatically extracted from videos, multispectral images, and 3D scans of the face. The multisensory platform, being developed as the result of that project, in the form of a smart mirror, looks for signs related to cardio-metabolic risks. The goal is to enable users to self-monitor their well-being status over time and improve their life-style via tailored user guidance. This paper is focused on the description of the part of that system, utilising computer vision and machine learning techniques to perform 3D morphological analysis of the face and recognition of psycho-somatic status both linked with cardio-metabolic risks. The paper describes the concepts, methods and the developed implementations as well as reports on the results obtained on both real and synthetic datasets

    Accurate Segmentation of CT Pelvic Organs via Incremental Cascade Learning and Regression-based Deformable Models

    Get PDF
    Accurate segmentation of male pelvic organs from computed tomography (CT) images is important in image guided radiotherapy (IGRT) of prostate cancer. The efficacy of radiation treatment highly depends on the segmentation accuracy of planning and treatment CT images. Clinically manual delineation is still generally performed in most hospitals. However, it is time consuming and suffers large inter-operator variability due to the low tissue contrast of CT images. To reduce the manual efforts and improve the consistency of segmentation, it is desirable to develop an automatic method for rapid and accurate segmentation of pelvic organs from planning and treatment CT images. This dissertation marries machine learning and medical image analysis for addressing two fundamental yet challenging segmentation problems in image guided radiotherapy of prostate cancer. Planning-CT Segmentation. Deformable models are popular methods for planning-CT segmentation. However, they are well known to be sensitive to initialization and ineffective in segmenting organs with complex shapes. To address these limitations, this dissertation investigates a novel deformable model named regression-based deformable model (RDM). Instead of locally deforming the shape model, in RDM the deformation at each model point is explicitly estimated from local image appearance and used to guide deformable segmentation. As the estimated deformation can be long-distance and is spatially adaptive to each model point, RDM is insensitive to initialization and more flexible than conventional deformable models. These properties render it very suitable for CT pelvic organ segmentation, where initialization is difficult to get and organs may have complex shapes. Treatment-CT Segmentation. Most existing methods have two limitations when they are applied to treatment-CT segmentation. First, they have a limited accuracy because they overlook the availability of patient-specific data in the IGRT workflow. Second, they are time consuming and may take minutes or even longer for segmentation. To improve both accuracy and efficiency, this dissertation combines incremental learning with anatomical landmark detection for fast localization of the prostate in treatment CT images. Specifically, cascade classifiers are learned from a population to automatically detect several anatomical landmarks in the image. Based on these landmarks, the prostate is quickly localized by aligning and then fusing previous segmented prostate shapes of the same patient. To improve the performance of landmark detection, a novel learning scheme named "incremental learning with selective memory" is proposed to personalize the population-based cascade classifiers to the patient under treatment. Extensive experiments on a large dataset show that the proposed method achieves comparable accuracy to the state of the art methods while substantially reducing runtime from minutes to just 4 seconds.Doctor of Philosoph

    A deep learning algorithm for contour detection in synthetic 2D biplanar X-ray images of the scapula: towards improved 3D reconstruction of the scapula

    Get PDF
    Three-dimensional (3D) reconstruction from X-ray images using statistical shape models (SSM) provides a cost-effective way of increasing the diagnostic utility of two-dimensional (2D) X-ray images, especially in low-resource settings. The landmark-constrained model fitting approach is one way to obtain patient-specific models from a statistical model. This approach requires an accurate selection of corresponding features, usually landmarks, from the bi-planar X-ray images. However, X-ray images are 2D representations of 3D anatomy with super-positioned structures, which confounds this approach. The literature shows that detection and use of contours to locate corresponding landmarks within biplanar X-ray images can address this limitation. The aim of this research project was to train and validate a deep learning algorithm for detection the contour of a scapula in synthetic 2D bi-planar Xray images. Synthetic bi-planar X-ray images were obtained from scapula mesh samples with annotated landmarks generated from a validated SSM obtained from the Division of Biomedical Engineering, University of Cape Town. This was followed by the training of two convolutional neural network models as the first objective of the project; the first model was trained to predict the lateral (LAT) scapula image given the anterior-posterior (AP) image. The second model was trained to predict the AP image given the LAT image. The trained models had an average Dice coefficient value of 0.926 and 0.964 for the predicted LAT and AP images, respectively. However, the trained models did not generalise to the segmented real X-ray images of the scapula. The second objective was to perform landmark-constrained model fitting using the corresponding landmarks embedded in the predicted images. To achieve this objective, the 2D landmark locations were transformed into 3D coordinates using the direct linear transformation. The 3D point localization yielded average errors of (0.35, 0.64, 0.72) mm in the X, Y and Z directions, respectively, and a combined coordinate error of 1.16 mm. The reconstructed landmarks were used to reconstruct meshes that had average surface-to-surface distances of 3.22 mm and 1.72 mm for 3 and 6 landmarks, respectively. The third objective was to reconstruct the scapula mesh using matching points on the scapula contour in the bi-planar images. The average surface-to-surface distances of the reconstructed meshes with 8 matching contour points and 6 corresponding landmarks of the same meshes were 1.40 and 1.91 mm, respectively. In summary, the deep learning models were able to learn the mapping between the bi-planar images of the scapula. Increasing the number of corresponding landmarks from the bi-planar images resulted into better 3D reconstructions. However, obtaining these corresponding landmarks was non-trivial, necessitating the use of matching points selected from the scapulae contours. The results from the latter approach signal a need to explore contour matching methods to obtain more corresponding points in order to improve the scapula 3D reconstruction using landmark-constrained model fitting
    corecore