10 research outputs found
JPIP Proxy Server for Remote Browsing of JPEG2000 Images
The JPEG2000 image compression standard offers scalability features in support of remote browsing applications. In particular Part 9 of the JPEG2000 standard defines a protocol called JPIP for interactivity with JPEG2000 code-streams and files. In client-server application based on JPIP, a client does not directly interact with the compressed file, but formulates requests using a simple syntax which identifies the current ldquoFocus Windowrdquo. In this kind of application particularly useful could be a proxy server, that potentially can improve the performance of the system through a better use of the network infrastructure. The aim of this work is to propose a proxy server with JPIP capabilities and shows the benefits that can be brought to remote browsing applications
JPIP proxy server with prefetching strategies based on user-navigation model and semantic map
The efficient transmission of large resolution images and, in particular, the interactive transmission of images in a client-server scenario, is an important aspect for many applications. Among the current image compression standards, JPEG2000 excels for its interactive transmission capabilities. In general, three mechanisms are employed to optimize the transmission of images when using the JPEG2000 Interactive Protocol (JPIP): 1) packet re-sequencing at the server; 2) prefetching at the client; and 3) proxy servers along the network infrastructure. To avoid the congestion of the network, prefetching mechanisms are not commonly employed when many clients within a local area network (LAN) browse images from a remote server. Aimed to maximize the responsiveness of all the clients within a LAN, this work proposes the use of prefetching strategies at the proxy server -rather than at the clients. The main insight behind the proposed prefetching strategies is a user-navigation model and a semantic map that predict the future requests of the clients. Experimental results indicate that the introduction of these strategies into a JPIP proxy server enhances the browsing experience of the end-users notably
Sistemas de microscopÃa virtual: análisis y perspectivas
Microscopy has been constantly evolving since the end of the Twentieth Century, with the introduction of new resources which have improved its practice. For example, the use of the virtual microscope has reached a high level of maturity; it is a synergy among disciplines such as pathology, histology, medical informatics and image analysis. This technology has moved forward many paradigms in research, diagnosis, education and medical training. The virtual microscopy systems require the digitalization of a physical slide, using motorized microscopes, pre and post image processing, compression, transmission and visualization. This article provides an extensive analysis of each of these processes. The main characteristics of virtual microscopy are presented as well as the impact of these systems in image interpretation and in diagnostic activities.Desde finales del siglo XX la microscopÃa se ha venido transformando, incluyendo nuevos recursos que mejoran y perfeccionan su práctica. Entre ellos se destaca el microscopio virtual, la sinergia entre disciplinas como la patologÃa, la histologÃa, la informática médica y el análisis de imágenes. Esta tecnologÃa ha cambiado muchos paradigmas en la investigación, el diagnóstico, la educación y el entrenamiento médico. Los sistemas de microscopÃa virtual requieren de la digitalización de una placa con el uso de microscopios robotizados, antes del procesamiento de la imagen y después de él, compresión, transmisión por la red y visualización. En este artÃculo se hace un análisis extenso de cada uno de estos procesos, y se presentan las principales caracterÃsticas de los microscopios virtuales, junto con el impacto de estos sistemas en actividades de interpretación y diagnóstico
Stationary probability model for microscopic parallelism in JPEG2000
Parallel processing is key to augmenting the throughput of image codecs. Despite numerous efforts to parallelize wavelet-based image coding systems, most attempts fail at the parallelization of the bitplane coding engine, which is the most computationally intensive stage of the coding pipeline. The main reason for this failure is the causality with which current coding strategies are devised, which assumes that one coefficient is coded after another. This work analyzes the mechanisms employed in bitplane coding and proposes alternatives to enhance opportunities for parallelism. We describe a stationary probability model that, without sacrificing the advantages of current approaches, removes the main obstacle to the parallelization of most coding strategies. Experimental tests evaluate the coding performance achieved by the proposed method in the framework of JPEG2000 when coding different types of images. Results indicate that the stationary probability model achieves similar coding performance, with slight increments or decrements depending on the image type and the desired level of parallelism
Verbesserung der Dateiverarbeitungskette in Betriebssystemen durch Nutzung der Skalierbarkeit moderner Kompressionsverfahren
Motivated by the current challenges in the field of computerized
processing of multimedia information, this work contributes to the field of
research on data processing and file management within computer systems. It
presents novel techniques that enhance existing file- and operating systems
by utilizing the scalability of modern media formats.
For this purpose, the compression formats JPEG 2000 and H.264 SVC will be
presented with a focus on how they achieve scalability. An analysis of the
limiting hard- and software components in a computer system for the
application area is presented. In particular, the restrictions of the
utilized storage-devices, data interfaces and file systems are laid out and
workarounds to compensate the performance bottlenecks are depicted.
According to the observation that compensating the defiles requires extra
efforts, new solution statements utilizing scalable media are derived and
examined, subsequently.
The present work reveals new concepts for managing scalable media files
comprising a new rights management as well as a use-case-optimized storage
technique. The rights management allows for granting access to certain
parts of a file by which the scalability of the media files can be
exploited in a way that users get access to various variants depending on
their access rights. The use-case-optimized storage technique increases the
throughput of hard disk drives when the subsequent access pattern to the
media content is known a-priori.
In addition, enhancements for existing data workflows are proposed by
taking advantage of scalable media. Based on the Substitution Strategy,
where missing data from a scalable file is compensated, a real-time capable
procedure for reading files is shown. Using this strategy, image-sequences
comprising a video can be shown at a given frame rate without interruptions
caused by insufficient throughput of the storage device or low-speed
interfaces used to connect the storage device. Adapted caching-strategies
facilitate an increase of images residing in cache compared to
non-scalable-variants. Additionally, a concept called Parameterizable
File-Access is introduced which allows users to request a certain variant
of a scalable file directly from the file system by adding side-information
to a virtual file name.Motiviert durch die aktuellen Herausforderungen im Bereich der
computergestützten Bearbeitung vom Multimediadaten, leistet die
vorliegende Arbeit einen Beitrag zum Forschungsgebiet der Datenverarbeitung
und Dateiverwaltung innerhalb von Computersystemen durch neuartige
Verfahren zur Nutzung skalierbarer Medien unter Verwendung vorhandener
Datei- und Betriebssysteme.
Hierzu werden die Kompressionsformate JPEG 2000 und H.264 SVC vorgestellt
und gezeigt, wie die Eigenschaft der Skalierbarkeit innerhalb der
verschiedenen Verfahren erreicht wird. Es folgt eine Analyse der
limitierenden Hard- und Softwarekomponenten in einem Computersystem für
das o.g. Einsatzgebiet. Ausgehend vom hohen Aufwand zur Kompensation der
Leistungsengpässe werden anschließend neue Lösungsansätze unter
Nutzung skalierbarer Medienformate abgeleitet, die nachfolgend untersucht
werden.
Die vorliegende Arbeit zeigt hierzu neue Konzepte zur Verwaltung
skalierbarer Mediendaten, die durch ein neues Rechtemanagement sowie durch
eine speicheradaptive Ablagestrategie abgedeckt werden. Das
Rechtemanagement erlaubt die Vergabe von Zugriffsrechten auf verschiedene
Abschnitte einer Datei, wodurch die Skalierbarkeit der Medien derart
abgebildet werden kann, dass verschiedene Benutzer unterschiedliche
Varianten einer Datei angezeigt bekommen. Die speicheradaptive
Ablagestrategie erreicht Durchsatzsteigerungen der verwendeten
Datenträger, wenn das spätere Zugriffsverhalten auf die gespeicherten
Medien vorab bekannt ist.
Weiter werden Verbesserungen der Verarbeitungsabläufe unter Ausnutzung
skalierbarer Medien gezeigt. Auf Basis der entwickelten
Substitutionsmethode zur Kompensation fehlender Daten einer skalierbaren
Datei wird eine echtzeitfähige Einlesestrategie vorgestellt, die
unzureichende Durchsatzraten von Speichermedien bzw. langsamen
Schnittstellen derart kompensieren kann, dass eine unterbrechungsfreie
Ausspielung von Bildsequenzen bei einer vorgegebenen Bildwiederholrate
gewährleistet werden kann. Angepasste Cache-Strategien ermöglichen eine
Steigerung der im Cache vorhaltbaren Einzelbilder im Vergleich zu nicht
skalierbaren Varianten. Darüber hinaus wird das Konzept eines
parametrisierbaren Dateiaufrufes eingeführt, wodurch mittels
Zusatzinformationen im virtuellen Dateinamen eine gewünschte Variante
einer skalierbaren Datei vom Datenspeicher angefragt werden kann
Verbesserung der Dateiverarbeitungskette in Betriebssystemen durch Nutzung der Skalierbarkeit moderner Kompressionsverfahren
Motivated by the current challenges in the field of computerized
processing of multimedia information, this work contributes to the field of
research on data processing and file management within computer systems. It
presents novel techniques that enhance existing file- and operating systems
by utilizing the scalability of modern media formats.
For this purpose, the compression formats JPEG 2000 and H.264 SVC will be
presented with a focus on how they achieve scalability. An analysis of the
limiting hard- and software components in a computer system for the
application area is presented. In particular, the restrictions of the
utilized storage-devices, data interfaces and file systems are laid out and
workarounds to compensate the performance bottlenecks are depicted.
According to the observation that compensating the defiles requires extra
efforts, new solution statements utilizing scalable media are derived and
examined, subsequently.
The present work reveals new concepts for managing scalable media files
comprising a new rights management as well as a use-case-optimized storage
technique. The rights management allows for granting access to certain
parts of a file by which the scalability of the media files can be
exploited in a way that users get access to various variants depending on
their access rights. The use-case-optimized storage technique increases the
throughput of hard disk drives when the subsequent access pattern to the
media content is known a-priori.
In addition, enhancements for existing data workflows are proposed by
taking advantage of scalable media. Based on the Substitution Strategy,
where missing data from a scalable file is compensated, a real-time capable
procedure for reading files is shown. Using this strategy, image-sequences
comprising a video can be shown at a given frame rate without interruptions
caused by insufficient throughput of the storage device or low-speed
interfaces used to connect the storage device. Adapted caching-strategies
facilitate an increase of images residing in cache compared to
non-scalable-variants. Additionally, a concept called Parameterizable
File-Access is introduced which allows users to request a certain variant
of a scalable file directly from the file system by adding side-information
to a virtual file name.Motiviert durch die aktuellen Herausforderungen im Bereich der
computergestützten Bearbeitung vom Multimediadaten, leistet die
vorliegende Arbeit einen Beitrag zum Forschungsgebiet der Datenverarbeitung
und Dateiverwaltung innerhalb von Computersystemen durch neuartige
Verfahren zur Nutzung skalierbarer Medien unter Verwendung vorhandener
Datei- und Betriebssysteme.
Hierzu werden die Kompressionsformate JPEG 2000 und H.264 SVC vorgestellt
und gezeigt, wie die Eigenschaft der Skalierbarkeit innerhalb der
verschiedenen Verfahren erreicht wird. Es folgt eine Analyse der
limitierenden Hard- und Softwarekomponenten in einem Computersystem für
das o.g. Einsatzgebiet. Ausgehend vom hohen Aufwand zur Kompensation der
Leistungsengpässe werden anschließend neue Lösungsansätze unter
Nutzung skalierbarer Medienformate abgeleitet, die nachfolgend untersucht
werden.
Die vorliegende Arbeit zeigt hierzu neue Konzepte zur Verwaltung
skalierbarer Mediendaten, die durch ein neues Rechtemanagement sowie durch
eine speicheradaptive Ablagestrategie abgedeckt werden. Das
Rechtemanagement erlaubt die Vergabe von Zugriffsrechten auf verschiedene
Abschnitte einer Datei, wodurch die Skalierbarkeit der Medien derart
abgebildet werden kann, dass verschiedene Benutzer unterschiedliche
Varianten einer Datei angezeigt bekommen. Die speicheradaptive
Ablagestrategie erreicht Durchsatzsteigerungen der verwendeten
Datenträger, wenn das spätere Zugriffsverhalten auf die gespeicherten
Medien vorab bekannt ist.
Weiter werden Verbesserungen der Verarbeitungsabläufe unter Ausnutzung
skalierbarer Medien gezeigt. Auf Basis der entwickelten
Substitutionsmethode zur Kompensation fehlender Daten einer skalierbaren
Datei wird eine echtzeitfähige Einlesestrategie vorgestellt, die
unzureichende Durchsatzraten von Speichermedien bzw. langsamen
Schnittstellen derart kompensieren kann, dass eine unterbrechungsfreie
Ausspielung von Bildsequenzen bei einer vorgegebenen Bildwiederholrate
gewährleistet werden kann. Angepasste Cache-Strategien ermöglichen eine
Steigerung der im Cache vorhaltbaren Einzelbilder im Vergleich zu nicht
skalierbaren Varianten. Darüber hinaus wird das Konzept eines
parametrisierbaren Dateiaufrufes eingeführt, wodurch mittels
Zusatzinformationen im virtuellen Dateinamen eine gewünschte Variante
einer skalierbaren Datei vom Datenspeicher angefragt werden kann
Efficient interaction with large medical imaging databases
Everyday, a wide quantity of hospitals and medical centers around the world are producing large amounts of imaging content to support clinical decisions, medical research, and education. With the current trend towards Evidence-based medicine, there is an increasing need of strategies that allow pathologists to properly interact with the valuable information such imaging repositories host and extract relevant content for supporting decision making. Unfortunately, current systems are very limited at providing access to content and extracting information from it because of different semantic and computational challenges. This thesis presents a whole pipeline, comprising 3 building blocks, that aims to to improve the way pathologists and systems interact. The first building block consists in an adaptable strategy oriented to ease the access and visualization of histopathology imaging content. The second block explores the extraction of relevant information from such imaging content by exploiting low- and mid-level information obtained from from morphology and architecture of cell nuclei. The third block aims to integrate high-level information from the expert in the process of identifying relevant information in the imaging content. This final block not only attempts to deal with the semantic gap but also to present an alternative to manual annotation, a time consuming and prone-to-error task. Different experiments were carried out and demonstrated that the introduced pipeline not only allows pathologist to navigate and visualize images but also to extract diagnostic and prognostic information that potentially could support clinical decisions.Resumen: Diariamente, gran cantidad de hospitales y centros médicos de todo el mundo producen grandes cantidades de imágenes diagnósticas para respaldar decisiones clÃnicas y apoyar labores de investigación y educación. Con la tendencia actual hacia la medicina basada en evidencia, existe una creciente necesidad de estrategias que permitan a los médicos patólogos interactuar adecuadamente con la información que albergan dichos repositorios de imágenes y extraer contenido relevante que pueda ser empleado para respaldar la toma de decisiones. Desafortunadamente, los sistemas actuales son muy limitados en cuanto al acceso y extracción de contenido de las imágenes debido a diferentes desafÃos semánticos y computacionales. Esta tesis presenta un marco de trabajo completo para patologÃa, el cual se compone de 3 bloques y tiene como objetivo mejorar la forma en que interactúan los patólogos y los sistemas. El primer bloque de construcción consiste en una estrategia adaptable orientada a facilitar el acceso y la visualización del contenido de imágenes histopatológicas. El segundo bloque explora la extracción de información relevante de las imágenes mediante la explotación de información de caracterÃsticas visuales y estructurales de la morfologÃa y la arquitectura de los núcleos celulares. El tercer bloque apunta a integrar información de alto nivel del experto en el proceso de identificación de información relevante en las imágenes. Este bloque final no solo intenta lidiar con la brecha semántica, sino que también presenta una alternativa a la anotación manual, una tarea que demanda mucho tiempo y es propensa a errores. Se llevaron a cabo diferentes experimentos que demostraron que el marco de trabajo presentado no solo permite que el patólogo navegue y visualice imágenes, sino que también extraiga información de diagnóstico y pronóstico que potencialmente podrÃa respaldar decisiones clÃnicas.Doctorad
Remote browsing of JPEG2000 images
JPEG2000 is a highly scalable compression standard, allowing access to image representations with a reduced resolution, a reduced quality or confined to a spatial region of interest. As such, it is well placed to play an important role in interactive imaging applications. However, the standard itself stops short of providing guidance or specific mechanisms for exploiting its scalability in such applications. In this paper we describe the JPIK protocol for interactive imaging with JPEG2000. Our results suggest, somewhat surprisingly, that image tiling (dividing into independently compressed sub-images), can be detrimental to effective browsing of large compressed images over low bandwidth connections. 1