10 research outputs found

    JPIP Proxy Server for Remote Browsing of JPEG2000 Images

    Get PDF
    The JPEG2000 image compression standard offers scalability features in support of remote browsing applications. In particular Part 9 of the JPEG2000 standard defines a protocol called JPIP for interactivity with JPEG2000 code-streams and files. In client-server application based on JPIP, a client does not directly interact with the compressed file, but formulates requests using a simple syntax which identifies the current ldquoFocus Windowrdquo. In this kind of application particularly useful could be a proxy server, that potentially can improve the performance of the system through a better use of the network infrastructure. The aim of this work is to propose a proxy server with JPIP capabilities and shows the benefits that can be brought to remote browsing applications

    JPIP proxy server with prefetching strategies based on user-navigation model and semantic map

    Get PDF
    The efficient transmission of large resolution images and, in particular, the interactive transmission of images in a client-server scenario, is an important aspect for many applications. Among the current image compression standards, JPEG2000 excels for its interactive transmission capabilities. In general, three mechanisms are employed to optimize the transmission of images when using the JPEG2000 Interactive Protocol (JPIP): 1) packet re-sequencing at the server; 2) prefetching at the client; and 3) proxy servers along the network infrastructure. To avoid the congestion of the network, prefetching mechanisms are not commonly employed when many clients within a local area network (LAN) browse images from a remote server. Aimed to maximize the responsiveness of all the clients within a LAN, this work proposes the use of prefetching strategies at the proxy server -rather than at the clients. The main insight behind the proposed prefetching strategies is a user-navigation model and a semantic map that predict the future requests of the clients. Experimental results indicate that the introduction of these strategies into a JPIP proxy server enhances the browsing experience of the end-users notably

    Sistemas de microscopía virtual: análisis y perspectivas

    Get PDF
    Microscopy has been constantly evolving since the end of the Twentieth Century, with the introduction of new resources which have improved its practice. For example, the use of the virtual microscope has reached a high level of maturity; it is a synergy among disciplines such as pathology, histology, medical informatics and image analysis. This technology has moved forward many paradigms in research, diagnosis, education and medical training. The virtual microscopy systems require the digitalization of a physical slide, using motorized microscopes, pre and post image processing, compression, transmission and visualization. This article provides an extensive analysis of each of these processes. The main characteristics of virtual microscopy are presented as well as the impact of these systems in image interpretation and in diagnostic activities.Desde finales del siglo XX la microscopía se ha venido transformando, incluyendo nuevos recursos que mejoran y perfeccionan su práctica. Entre ellos se destaca el microscopio virtual, la sinergia entre disciplinas como la patología, la histología, la informática médica y el análisis de imágenes. Esta tecnología ha cambiado muchos paradigmas en la investigación, el diagnóstico, la educación y el entrenamiento médico. Los sistemas de microscopía virtual requieren de la digitalización de una placa con el uso de microscopios robotizados, antes del procesamiento de la imagen y después de él, compresión, transmisión por la red y visualización. En este artículo se hace un análisis extenso de cada uno de estos procesos, y se presentan las principales características de los microscopios virtuales, junto con el impacto de estos sistemas en actividades de interpretación y diagnóstico

    Stationary probability model for microscopic parallelism in JPEG2000

    Get PDF
    Parallel processing is key to augmenting the throughput of image codecs. Despite numerous efforts to parallelize wavelet-based image coding systems, most attempts fail at the parallelization of the bitplane coding engine, which is the most computationally intensive stage of the coding pipeline. The main reason for this failure is the causality with which current coding strategies are devised, which assumes that one coefficient is coded after another. This work analyzes the mechanisms employed in bitplane coding and proposes alternatives to enhance opportunities for parallelism. We describe a stationary probability model that, without sacrificing the advantages of current approaches, removes the main obstacle to the parallelization of most coding strategies. Experimental tests evaluate the coding performance achieved by the proposed method in the framework of JPEG2000 when coding different types of images. Results indicate that the stationary probability model achieves similar coding performance, with slight increments or decrements depending on the image type and the desired level of parallelism

    Stationary Probability Model for Microscopic Parallelism in JPEG2000

    Full text link

    Verbesserung der Dateiverarbeitungskette in Betriebssystemen durch Nutzung der Skalierbarkeit moderner Kompressionsverfahren

    Get PDF
    Motivated by the current challenges in the field of computerized processing of multimedia information, this work contributes to the field of research on data processing and file management within computer systems. It presents novel techniques that enhance existing file- and operating systems by utilizing the scalability of modern media formats. For this purpose, the compression formats JPEG 2000 and H.264 SVC will be presented with a focus on how they achieve scalability. An analysis of the limiting hard- and software components in a computer system for the application area is presented. In particular, the restrictions of the utilized storage-devices, data interfaces and file systems are laid out and workarounds to compensate the performance bottlenecks are depicted. According to the observation that compensating the defiles requires extra efforts, new solution statements utilizing scalable media are derived and examined, subsequently. The present work reveals new concepts for managing scalable media files comprising a new rights management as well as a use-case-optimized storage technique. The rights management allows for granting access to certain parts of a file by which the scalability of the media files can be exploited in a way that users get access to various variants depending on their access rights. The use-case-optimized storage technique increases the throughput of hard disk drives when the subsequent access pattern to the media content is known a-priori. In addition, enhancements for existing data workflows are proposed by taking advantage of scalable media. Based on the Substitution Strategy, where missing data from a scalable file is compensated, a real-time capable procedure for reading files is shown. Using this strategy, image-sequences comprising a video can be shown at a given frame rate without interruptions caused by insufficient throughput of the storage device or low-speed interfaces used to connect the storage device. Adapted caching-strategies facilitate an increase of images residing in cache compared to non-scalable-variants. Additionally, a concept called Parameterizable File-Access is introduced which allows users to request a certain variant of a scalable file directly from the file system by adding side-information to a virtual file name.Motiviert durch die aktuellen Herausforderungen im Bereich der computergestützten Bearbeitung vom Multimediadaten, leistet die vorliegende Arbeit einen Beitrag zum Forschungsgebiet der Datenverarbeitung und Dateiverwaltung innerhalb von Computersystemen durch neuartige Verfahren zur Nutzung skalierbarer Medien unter Verwendung vorhandener Datei- und Betriebssysteme. Hierzu werden die Kompressionsformate JPEG 2000 und H.264 SVC vorgestellt und gezeigt, wie die Eigenschaft der Skalierbarkeit innerhalb der verschiedenen Verfahren erreicht wird. Es folgt eine Analyse der limitierenden Hard- und Softwarekomponenten in einem Computersystem für das o.g. Einsatzgebiet. Ausgehend vom hohen Aufwand zur Kompensation der Leistungsengpässe werden anschließend neue Lösungsansätze unter Nutzung skalierbarer Medienformate abgeleitet, die nachfolgend untersucht werden. Die vorliegende Arbeit zeigt hierzu neue Konzepte zur Verwaltung skalierbarer Mediendaten, die durch ein neues Rechtemanagement sowie durch eine speicheradaptive Ablagestrategie abgedeckt werden. Das Rechtemanagement erlaubt die Vergabe von Zugriffsrechten auf verschiedene Abschnitte einer Datei, wodurch die Skalierbarkeit der Medien derart abgebildet werden kann, dass verschiedene Benutzer unterschiedliche Varianten einer Datei angezeigt bekommen. Die speicheradaptive Ablagestrategie erreicht Durchsatzsteigerungen der verwendeten Datenträger, wenn das spätere Zugriffsverhalten auf die gespeicherten Medien vorab bekannt ist. Weiter werden Verbesserungen der Verarbeitungsabläufe unter Ausnutzung skalierbarer Medien gezeigt. Auf Basis der entwickelten Substitutionsmethode zur Kompensation fehlender Daten einer skalierbaren Datei wird eine echtzeitfähige Einlesestrategie vorgestellt, die unzureichende Durchsatzraten von Speichermedien bzw. langsamen Schnittstellen derart kompensieren kann, dass eine unterbrechungsfreie Ausspielung von Bildsequenzen bei einer vorgegebenen Bildwiederholrate gewährleistet werden kann. Angepasste Cache-Strategien ermöglichen eine Steigerung der im Cache vorhaltbaren Einzelbilder im Vergleich zu nicht skalierbaren Varianten. Darüber hinaus wird das Konzept eines parametrisierbaren Dateiaufrufes eingeführt, wodurch mittels Zusatzinformationen im virtuellen Dateinamen eine gewünschte Variante einer skalierbaren Datei vom Datenspeicher angefragt werden kann

    Verbesserung der Dateiverarbeitungskette in Betriebssystemen durch Nutzung der Skalierbarkeit moderner Kompressionsverfahren

    Get PDF
    Motivated by the current challenges in the field of computerized processing of multimedia information, this work contributes to the field of research on data processing and file management within computer systems. It presents novel techniques that enhance existing file- and operating systems by utilizing the scalability of modern media formats. For this purpose, the compression formats JPEG 2000 and H.264 SVC will be presented with a focus on how they achieve scalability. An analysis of the limiting hard- and software components in a computer system for the application area is presented. In particular, the restrictions of the utilized storage-devices, data interfaces and file systems are laid out and workarounds to compensate the performance bottlenecks are depicted. According to the observation that compensating the defiles requires extra efforts, new solution statements utilizing scalable media are derived and examined, subsequently. The present work reveals new concepts for managing scalable media files comprising a new rights management as well as a use-case-optimized storage technique. The rights management allows for granting access to certain parts of a file by which the scalability of the media files can be exploited in a way that users get access to various variants depending on their access rights. The use-case-optimized storage technique increases the throughput of hard disk drives when the subsequent access pattern to the media content is known a-priori. In addition, enhancements for existing data workflows are proposed by taking advantage of scalable media. Based on the Substitution Strategy, where missing data from a scalable file is compensated, a real-time capable procedure for reading files is shown. Using this strategy, image-sequences comprising a video can be shown at a given frame rate without interruptions caused by insufficient throughput of the storage device or low-speed interfaces used to connect the storage device. Adapted caching-strategies facilitate an increase of images residing in cache compared to non-scalable-variants. Additionally, a concept called Parameterizable File-Access is introduced which allows users to request a certain variant of a scalable file directly from the file system by adding side-information to a virtual file name.Motiviert durch die aktuellen Herausforderungen im Bereich der computergestützten Bearbeitung vom Multimediadaten, leistet die vorliegende Arbeit einen Beitrag zum Forschungsgebiet der Datenverarbeitung und Dateiverwaltung innerhalb von Computersystemen durch neuartige Verfahren zur Nutzung skalierbarer Medien unter Verwendung vorhandener Datei- und Betriebssysteme. Hierzu werden die Kompressionsformate JPEG 2000 und H.264 SVC vorgestellt und gezeigt, wie die Eigenschaft der Skalierbarkeit innerhalb der verschiedenen Verfahren erreicht wird. Es folgt eine Analyse der limitierenden Hard- und Softwarekomponenten in einem Computersystem für das o.g. Einsatzgebiet. Ausgehend vom hohen Aufwand zur Kompensation der Leistungsengpässe werden anschließend neue Lösungsansätze unter Nutzung skalierbarer Medienformate abgeleitet, die nachfolgend untersucht werden. Die vorliegende Arbeit zeigt hierzu neue Konzepte zur Verwaltung skalierbarer Mediendaten, die durch ein neues Rechtemanagement sowie durch eine speicheradaptive Ablagestrategie abgedeckt werden. Das Rechtemanagement erlaubt die Vergabe von Zugriffsrechten auf verschiedene Abschnitte einer Datei, wodurch die Skalierbarkeit der Medien derart abgebildet werden kann, dass verschiedene Benutzer unterschiedliche Varianten einer Datei angezeigt bekommen. Die speicheradaptive Ablagestrategie erreicht Durchsatzsteigerungen der verwendeten Datenträger, wenn das spätere Zugriffsverhalten auf die gespeicherten Medien vorab bekannt ist. Weiter werden Verbesserungen der Verarbeitungsabläufe unter Ausnutzung skalierbarer Medien gezeigt. Auf Basis der entwickelten Substitutionsmethode zur Kompensation fehlender Daten einer skalierbaren Datei wird eine echtzeitfähige Einlesestrategie vorgestellt, die unzureichende Durchsatzraten von Speichermedien bzw. langsamen Schnittstellen derart kompensieren kann, dass eine unterbrechungsfreie Ausspielung von Bildsequenzen bei einer vorgegebenen Bildwiederholrate gewährleistet werden kann. Angepasste Cache-Strategien ermöglichen eine Steigerung der im Cache vorhaltbaren Einzelbilder im Vergleich zu nicht skalierbaren Varianten. Darüber hinaus wird das Konzept eines parametrisierbaren Dateiaufrufes eingeführt, wodurch mittels Zusatzinformationen im virtuellen Dateinamen eine gewünschte Variante einer skalierbaren Datei vom Datenspeicher angefragt werden kann

    Efficient interaction with large medical imaging databases

    Get PDF
    Everyday, a wide quantity of hospitals and medical centers around the world are producing large amounts of imaging content to support clinical decisions, medical research, and education. With the current trend towards Evidence-based medicine, there is an increasing need of strategies that allow pathologists to properly interact with the valuable information such imaging repositories host and extract relevant content for supporting decision making. Unfortunately, current systems are very limited at providing access to content and extracting information from it because of different semantic and computational challenges. This thesis presents a whole pipeline, comprising 3 building blocks, that aims to to improve the way pathologists and systems interact. The first building block consists in an adaptable strategy oriented to ease the access and visualization of histopathology imaging content. The second block explores the extraction of relevant information from such imaging content by exploiting low- and mid-level information obtained from from morphology and architecture of cell nuclei. The third block aims to integrate high-level information from the expert in the process of identifying relevant information in the imaging content. This final block not only attempts to deal with the semantic gap but also to present an alternative to manual annotation, a time consuming and prone-to-error task. Different experiments were carried out and demonstrated that the introduced pipeline not only allows pathologist to navigate and visualize images but also to extract diagnostic and prognostic information that potentially could support clinical decisions.Resumen: Diariamente, gran cantidad de hospitales y centros médicos de todo el mundo producen grandes cantidades de imágenes diagnósticas para respaldar decisiones clínicas y apoyar labores de investigación y educación. Con la tendencia actual hacia la medicina basada en evidencia, existe una creciente necesidad de estrategias que permitan a los médicos patólogos interactuar adecuadamente con la información que albergan dichos repositorios de imágenes y extraer contenido relevante que pueda ser empleado para respaldar la toma de decisiones. Desafortunadamente, los sistemas actuales son muy limitados en cuanto al acceso y extracción de contenido de las imágenes debido a diferentes desafíos semánticos y computacionales. Esta tesis presenta un marco de trabajo completo para patología, el cual se compone de 3 bloques y tiene como objetivo mejorar la forma en que interactúan los patólogos y los sistemas. El primer bloque de construcción consiste en una estrategia adaptable orientada a facilitar el acceso y la visualización del contenido de imágenes histopatológicas. El segundo bloque explora la extracción de información relevante de las imágenes mediante la explotación de información de características visuales y estructurales de la morfología y la arquitectura de los núcleos celulares. El tercer bloque apunta a integrar información de alto nivel del experto en el proceso de identificación de información relevante en las imágenes. Este bloque final no solo intenta lidiar con la brecha semántica, sino que también presenta una alternativa a la anotación manual, una tarea que demanda mucho tiempo y es propensa a errores. Se llevaron a cabo diferentes experimentos que demostraron que el marco de trabajo presentado no solo permite que el patólogo navegue y visualice imágenes, sino que también extraiga información de diagnóstico y pronóstico que potencialmente podría respaldar decisiones clínicas.Doctorad

    Remote browsing of JPEG2000 images

    No full text
    JPEG2000 is a highly scalable compression standard, allowing access to image representations with a reduced resolution, a reduced quality or confined to a spatial region of interest. As such, it is well placed to play an important role in interactive imaging applications. However, the standard itself stops short of providing guidance or specific mechanisms for exploiting its scalability in such applications. In this paper we describe the JPIK protocol for interactive imaging with JPEG2000. Our results suggest, somewhat surprisingly, that image tiling (dividing into independently compressed sub-images), can be detrimental to effective browsing of large compressed images over low bandwidth connections. 1
    corecore