5 research outputs found

    Globally optimal 3D image reconstruction and segmentation via energy minimisation techniques

    Get PDF
    This paper provides an overview of a number of techniques developed within our group to perform 3D reconstruction and image segmentation based of the application of energy minimisation concepts. We begin with classical snake techniques and show how similar energy minimisation concepts can be extended to derive globally optimal segmentation methods. Then we discuss more recent work based on geodesic active contours that can lead to globally optimal segmentations and reconstructions in 2D. Finally we extend the work to 3D by introducing continuous flow globally minimal surfaces. Several applications are discussed to show the wide applicability and suitability of these techniques to several difficult image analysis problems

    A methodology for quality control in cell nucleus segmentation

    Get PDF
    In order to achieve the very high accuracy rates required in unsupervised automated biomedical applications, it is often necessary to complement a successful segmentation algorithm with a robust error checking stage. The better the segmentation strategy, the less severe the error checking decisions need to be and the fewer correct segmentations that are discarded. These issues are dealt with in this paper in order to achieve 100% accuracy on a data set of 19946 cell nucleus images using an established segmentation scheme with a success rate of 99.47%. The method is based upon measuring changes in the final segmentation contour as the one parameter that governs its behaviour is varied. 1. Introduction remove potential artefacts based on shape and appearance that was capable of detecting some of the incorrectly segmented nuclei [9]. Nordin describes an algorithm that is able to report a failure at various levels of segmentation, as well as a separate artefact rejection stage [11]. McKenna used a neural network to preselect potential nuclei in scenes for subsequent segmentation. It was pointed out that a post-processing stage would also be necessary to filter out 'erroneously detected objects'[10]. A common trait in these techniques is the use of a separate process to view the output of the segmentation and to use shape and appearance measurements to classify the results as 'pass' (looks like a cell) or 'fail' (doesn't look like a cell). We have proposed a segmentation scheme that not only employs an algorithm with much better performance than previously reported [3], but also enables a confidence measure in the resulting segmentation to be given

    Hidden Markov Models for Spatio-Temporal Pattern Recognition and Image Segmentation

    Get PDF
    Time and again hidden Markov models have been demonstrated to be highly effective in one-dimensional pattern recognition and classification problems such as speech recognition. A great deal of attention is now focussed on 2-D and possibly 3-D applications arising from problems encountered in computer vision in domains such as gesture, face, and handwriting recognition. Despite their widespread usage and numerous successful applications, there are few analytical results which can explain their remarkably good performance and guide researchers in selecting topologies and parameters to improve classification performance

    Method for Accurate Unsupervised Cell Nucleus Segmentation

    Get PDF
    To achieve the extreme accuracy rates demanded by applications in unsupervised automated cytology, it is frequently necessary to supplement the primary segmentation algorithm with a segmentation quality control system. The more robust the segmentation strategy, the less severe the data pruning need be at the segmentation validation stage. These issues are addressed as we describe our cell nucleus segmentation strategy which is able to achieve 100% accurate segmentation from a data set of 19946 cell nucleus images by automatically discarding the most difficult cell images. The automatic quality checking is applied to enhance the performance of a robust energy minimisation based segmentation scheme which already achieved a 99.47% accurate segmentation rate

    Klassifikation morphologischer und pathologischer Strukturen in koronaren Gefäßen auf Basis intravaskulärer Ultraschallaufnahmen zur klinischen Anwendung in einem IVB-System

    Get PDF
    Erkrankungen des Herz-Kreislaufsystems sind in Deutschland für fast 50% der Todesfälle verantwortlich. Insbesondere die Arteriosklerose (vulgo: „Arterienverkalkung“) ist dabei ein dominierendes Krankheitsbild. So ist es auch nicht verwunderlich, dass die Arteriosklerose seit den Anfängen der wissenschaftlichen Medizin ein Feld für umfangreiche Untersuchungen gewesen ist. Speziell durch den technischen Fortschritt bildgebender Verfahren war es möglich neuartige Diagnose- und Therapiemethoden zu entwickeln. Dabei hat sich gerade der intravaskuläre Ultraschall zu einem Goldstandard in der Diagnose arteriosklerotischer Erkrankungen und, in Kombination mit der intravaskulären Brachytherapie, zu einer Erfolg versprechenden Basistechnik für therapeutische Maßnahmen entwickelt. Grundvoraussetzung fast jeder bildbasierten Intervention ist aber die Separierung der Bilddaten in anatomisch und pathologisch differenzierte, saliente Regionen. In Anbetracht zunehmender, umfangreicherer Datenmengen kann eine derartige Aufarbeitung nur rechnergestützt durch Problem adaptierte Klassifikationsalgorithmen gewährleistet werden. Daher war es das Ziel dieser Arbeit, neue Methoden zur Merkmalsextraktion und Algorithmen zur Klassifikation morphologischer und pathologischer Strukturen in koronaren Gefäßen bereitzustellen. Aus der initialen Fragestellung wurde zudem zeitnah deutlich, dass das Forschungsvorhaben Anknüpfungspunkte zu weiteren hochgradig relevanten inter- und intradisziplinären Forschungsthemen, beispielsweise der Histologie, Systembiologie oder Chemietechnik, aufweist. Aber auch vonseiten der Anwendungsszenarien wurden teilweise völlig neue, innovative Wege beschritten. Exemplarisch sei ein E-Learning-Ansatz zur „Übersetzung“ digitaler Bilddaten in haptisch erfahrbare Reliefs für blinde und sehbehinderte Schülerinnen und Schüler genannt. In Anbetracht dieser partiell divergierenden Sichtweisen war auch die generalisierte, von der expliziten Fragestellung abstrahierte Umsetzung eine Ausrichtung der Arbeit. Dieser Intention folgend wurden drei wesentliche methodische und konzeptionelle Entwicklungen innerhalb der Arbeit realisiert: ein Expertensystem zur Approximation arterieller Kompartimente mittels unscharfer elliptischer Templates, ein neuartiger, effizienter Ansatz zur signaltheoretischen Extraktion textureller Merkmale und die Etablierung maschinelle Lernverfahren unter Integration von a priori Wissen. Über eine konsequente Integration statistischer Gütemaße konnte zudem eine ausgeprägte Rückkopplung zwischen Klassifikations- und Bewertungsansätzen gewährleistet werden. Gemeinsam ist allen Ansätzen das Ansinnen, trotz hoch anwendungsbezogener Umsetzungen, die fortwährende Portabilität zu beachten. In einer übergeordneten Abstraktion kann die Intention der Arbeit somit auch in der „generalisierten Nutzung signaltheoretischer Merkmale zur Klassifikation heterogener, durch texturelle Ausprägungen zu differenzierende Kompartimente mittels maschineller Lernverfahren“ verstanden werden
    corecore