122 research outputs found
A New Compressive Video Sensing Framework for Mobile Broadcast
A new video coding method based on compressive
sampling is proposed. In this method, a video is coded using
compressive measurements on video cubes. Video reconstruction
is performed by minimization of total variation (TV) of the pixelwise
discrete cosine transform coefficients along the temporal
direction. A new reconstruction algorithm is developed from
TVAL3, an efficient TV minimization algorithm based on the
alternating minimization and augmented Lagrangian methods.
Video coding with this method is inherently scalable, and has
applications in mobile broadcast
Research and developments of distributed video coding
This thesis was submitted for the degree of Doctor of Philosophy and awarded by Brunel University.The recent developed Distributed Video Coding (DVC) is typically suitable for the applications such as wireless/wired video sensor network, mobile camera etc. where the traditional video coding standard is not feasible due to the constrained computation at the encoder. With DVC, the computational burden is moved from encoder to decoder. The compression efficiency is achieved via joint decoding at the decoder. The practical application of DVC is referred to Wyner-Ziv video coding (WZ) where the side information is available at the decoder to perform joint decoding. This join decoding inevitably causes a very complex decoder. In current WZ video coding issues, many of them emphasise how to improve the system coding performance but neglect the huge complexity caused at the decoder. The complexity of the decoder has direct influence to the system output. The beginning period of this research targets to optimise the decoder in pixel domain WZ video coding (PDWZ), while still achieves similar compression performance. More specifically, four issues are raised to optimise the input block size, the side information generation, the side information refinement process and the feedback channel respectively.
The transform domain WZ video coding (TDWZ) has distinct superior performance to the normal PDWZ due to the exploitation in spatial direction during the encoding. However, since there is no motion estimation at the encoder in WZ video coding, the temporal correlation is not exploited at all at the encoder in all current WZ video coding issues. In the middle period of this research, the 3D DCT is adopted in the TDWZ to remove redundancy in both spatial and temporal direction thus to provide even higher coding performance. In the next step of this research, the performance of transform domain Distributed Multiview Video Coding (DMVC) is also investigated. Particularly, three types transform domain DMVC frameworks which are transform domain DMVC using TDWZ based 2D DCT, transform domain DMVC using TDWZ based on 3D DCT and transform domain residual DMVC using TDWZ based on 3D DCT are investigated respectively.
One of the important applications of WZ coding principle is error-resilience. There have been several attempts to apply WZ error-resilient coding for current video coding standard e.g. H.264/AVC or MEPG 2. The final stage of this research is the design of WZ error-resilient
scheme for wavelet based video codec. To balance the trade-off between error resilience ability and bandwidth consumption, the proposed scheme emphasises the protection of the Region of Interest (ROI) area. The efficiency of bandwidth utilisation is achieved by mutual efforts of WZ coding and sacrificing the quality of unimportant area. In summary, this research work contributed to achieves several advances in WZ video coding. First of all, it is targeting to build an efficient PDWZ with optimised decoder. Secondly, it aims to build an advanced TDWZ based on 3D DCT, which then is applied into multiview video coding to realise advanced transform domain DMVC. Finally, it aims to design an efficient error-resilient scheme for wavelet video codec, with which the trade-off between bandwidth consumption and error-resilience can be better balanced
Fast Motion Estimation Algorithms for Block-Based Video Coding Encoders
The objective of my research is reducing the complexity of video coding standards in real-time scalable and multi-view applications
Design and evaluation of echocardiograms codification and transmission for Teleradiology systems
Las enfermedades cardiovasculares son la mayor causa de muerte en el mundo. Aunque la mayorĂa de muertes por cardiopatĂas se puede evitar, si las medidas preventivas no son las adecuadas el paciente puede fallecer. Es por esto, que el seguimiento y diagnĂłstico de pacientes con cardiopatĂas es muy importante. Numerosos son las pruebas mĂ©dicas para el diagnostico y seguimiento de enfermedades cardiovasculares, siendo los ecocardiogramas una de las tĂ©cnicas mĂĄs ampliamente utilizada. Un ecocardiograma consiste en la adquisiciĂłn de imĂĄgenes del corazĂłn mediante ultrasonidos. Presenta varias ventajas con respecto otras pruebas de imagen: no es invasiva, no produce radiaciĂłn ionizante y es barata. Por otra parte, los sistemas de telemedicina han crecido rĂĄpidamente ya que ofrecen beneficios de acceso a los servicios mĂ©dicos, una reducciĂłn del coste y una mejora de la calidad de los servicios. La telemedicina proporciona servicios mĂ©dicos a distancia. Estos servicios son de especial ayuda en casos de emergencia mĂ©dica y para ĂĄreas aisladas donde los hospitales y centros de salud estĂĄn alejados. Los sistemas de tele-cardiologĂa pueden ser clasificados de acuerdo al tipo de pruebas. En esta Tesis nos hemos centrado en los sistemas de tele-ecocardiografia, ya que los ecocardiogramas son ampliamente usados y presentan el mayor reto al ser la prueba mĂ©dica con mayor flujo de datos. Los mayores retos en los sistemas de tele-ecocardiografia son la compresiĂłn y la transmisiĂłn garantizando que el mismo diagnĂłstico es posible tanto en el ecocardiograma original como en el reproducido tras la compresiĂłn y transmisiĂłn. Los ecocardiogramas deben ser comprimidos tanto para su almacenamiento como para su transmisiĂłn ya que estos presentan un enorme flujo de datos que desbordarĂa el espacio de almacenamiento y no se podrĂa transmitir eficientemente por las redes actuales. Sin embargo, la compresiĂłn produce pĂ©rdidas que pueden llevar a un diagnostico errĂłneo de los ecocardiogramas comprimidos. En el caso de que las pruebas ecocardiograficas quieran ser guardadas, una compresiĂłn clĂnica puede ser aplicada previa al almacenamiento. Esta compresiĂłn clĂnica consiste en guardar las partes del ecocardiograma que son importantes para el diagnĂłstico, es decir, ciertas imĂĄgenes y pequeños vĂdeos del corazĂłn en movimiento que contienen de 1 a 3 ciclos cardiacos. Esta compresiĂłn clĂnica no puede ser aplicada en el caso de transmisiĂłn en tiempo real, ya que es el cardiĂłlogo especialista quien debe realizar la compresiĂłn clĂnica y Ă©ste se encuentra en recepciĂłn, visualizando el echocardiograma transmitido. En cuanto a la transmisiĂłn, las redes sin cables presentan un mayor reto que las redes cableadas. Las redes sin cables tienen un ancho de banda limitado, son propensas a errores y son variantes en tiempo lo que puede resultar problemĂĄtico cuando el ecocardiograma quiere ser transmitido en tiempo real. AdemĂĄs, las redes sin cables han experimentado un gran desarrollo gracias a que permiten un mejor acceso y movilidad, por lo que pueden ofrecer un mayor servicio que las redes cableadas. Dos tipos de sistemas se pueden distinguir acorde a los retos que presenta cada uno de ellos: los sistemas de almacenamiento y reenviĂł y los sistemas de tiempo real. Los sistemas de almacenamiento y reenviĂł consisten en la adquisiciĂłn, almacenamiento y el posterior enviĂł del ecocardiograma sin requerimientos temporales. Una compresiĂłn clĂnica puede ser llevada a cabo previa al almacenamiento. AdemĂĄs de la compresiĂłn clĂnica, una compresiĂłn con pĂ©rdidas es recomendada para reducir el espacio de almacenamiento y el tiempo de envĂo, pero sin perder l ainformaciĂłn diagnĂłstica de la prueba. En cuanto a la transmisiĂłn, al no haber requerimientos temporales, la transmisiĂłn no presenta ninguna dificultad. Cualquier protocolo de transmisiĂłn fiable puede ser usado para no perder calidad en la imagen debido a la transmisiĂłn. Por lo tanto, para estos sistemas sĂłlo nos hemos centrado en la codificaciĂłn de los ecocardiogramas. Los sistemas de tiempo real consisten en la transmisiĂłn del ecocardiograma al mismo tiempo que Ă©ste es adquirido. Dado que el envĂo de video clĂnico es una de las aplicaciones con mayor demanda de ancho de banda, la compresiĂłn para la transmisiĂłn es requerida, pero manteniendo la calidad diagnĂłstica de la imagen. La transmisiĂłn en canales sin cables puede ser afectada por errores que distorsionan la calidad del ecocardiograma reconstruido en recepciĂłn. Por lo tanto, mĂ©todos de control de errores son requeridos para minimizar los errores de transmisiĂłn y el retardo introducido. Sin embargo, aunque el ecocardiograma sea visualizado con errores debido a la transmisiĂłn, esto no implica que el diagnĂłstico no sea posible. Dados los retos previamente descritos, las siguientes soluciones para la evaluaciĂłn clĂnica, compresiĂłn y transmisiĂłn han sido propuestas: - Para garantizar que el ecocardiograma es visualizado sin perder informaciĂłn diagnĂłstica 2 tests han sido diseñados. El primer test define recomendaciones para la compresiĂłn de los ecocardiogramas. Consiste en dos fases para un ahorro en el tiempo de realizaciĂłn, pero sin perder por ello exactitud en el proceso de evaluaciĂłn. Gracias a este test el ecocardiograma puede ser comprimido al mĂĄximo sin perder calidad diagnĂłstica y utilizando asĂ mĂĄs eficientemente los recursos. El segundo test define recomendaciones para la visualizaciĂłn del ecocardiograma. Este test define rangos de tiempo en los que el ecocardiograma puede ser visualizado con inferior calidad a la establecida en el primer test. Gracias a este test se puede saber si el ecocardiograma es visualizado sin pĂ©rdida de calidad diagnĂłstica cuando se introducen errores en la visualizaciĂłn, sin la necesidad de realizar una evaluaciĂłn para cada video transmitido o diferentes condiciones de canal. AdemĂĄs, esta metodologĂa puede ser aplicada para la evaluaciĂłn de otras tĂ©cnicas de diagnĂłstico por imagen. - Para la compresiĂłn de ecocardiogramas dos mĂ©todos de compresiĂłn han sido diseñados, uno para el almacenamiento y otro para la transmisiĂłn. Diferentes propuestas son diseñadas, ya que los ecocardiogramas para los dos propĂłsitos tienen caracterĂsticas diferentes. Para ambos propĂłsitos un mĂ©todo de compresiĂłn en la que las facilidades que incorporan los dispositivos de segmentar la imagen y en la que las caracterĂsticas de visualizaciĂłn de los ecocardiogramas han sido tenidas en cuenta ha sido diseñado. Para la compresiĂłn del ecocardiograma con el propĂłsito de almacenarlo un formato de almacenamiento fĂĄcilmente integrable con DICOM basado en regiones y en el que el tipo de datos y la importancia clĂnica de cada regiĂłn es tenido en cuenta ha sido diseñado. DICOM es el formato para el almacenamiento y transmisiĂłn de imĂĄgenes mĂĄs ampliamente utilizado actualmente. El formato de compresiĂłn propuesto supone un ahorra de hasta el 75 % del espacio de almacenamiento con respecto a la compresiĂłn con JPEG 2000, actualmente soportado por DICOM, sin perder calidad diagnostica de la imagen. Los ratios de compresiĂłn para el formato propuesto dependen de la distribuciĂłn de la imagen, pero para una base de datos de 105 ecocardiogramas correspondientes a 4 ecĂłgrafos los ratios obtenidos estĂĄn comprendidos entre 19 y 41. Para la compresiĂłn del ecocardiograma con el propĂłsito de la transmisiĂłn en tiempo real un mĂ©todo de compresiĂłn basado en regiones en el que el tipo de dato y el modo de visualizaciĂłn han sido tenidos en cuenta se ha diseñado. Dos modos de visualizaciĂłn son distinguidos para la compresiĂłn de la regiĂłn con mayor importancia clĂnica (ultrasonido), los modos de barrido y los modos 2-D. La evaluaciĂłn clĂnica diseñada para las recomendaciones de compresiĂłn fue llevada a cabo por 3 cardiologos, 9 ecocardiogramas correspondientes a diferentes pacientes y 3 diferentes ecĂłgrafos. Los ratios de transmisiĂłn recomendados fueron de 200 kbps para los modos 2-D y de 40 kbps para los modos de barrido. Si se comparan estos resultados con previas soluciones en la literatura un ahorro mĂnimo de entre 5 % y el 78 % es obtenido dependiendo del modo. - Para la transmisiĂłn en tiempo real de ecocardiogramas un protocolo extremo a extremo basada en el mĂ©todo de compresiĂłn por regiones ha sido diseñado. Este protocolo llamado ETP de las siglas en inglĂ©s Echocardiogram Transmssion Protocol estĂĄ diseñado para la compresiĂłn y transmisiĂłn de las regiones por separado, pudiendo asĂ ofrecer diferentes ratios de compresiĂłn y protecciĂłn de errores para las diferentes regiones de acuerdo a su importancia diagnostica. Por lo tanto, con ETP el ratio de transmisiĂłn mĂnimo recomendado para el mĂ©todo de compresiĂłn propuesto puede ser utilizado, usando asĂ eficientemente el ancho de banda y siendo menos sensible a los errores introducidos por la red. ETP puede ser usado en cualquier red, sin embargo, en el caso de que la red introduzca errores se ha diseñado un mĂ©todo de correcciĂłn de errores llamado SECM, de las siglas en inglĂ©s State Error Control Method. SECM se adapta a las condiciones de canal usando mĂĄs protecciĂłn cuando las condiciones empeoran y usando asĂ el ancho de banda eficientemente. AdemĂĄs, la evaluaciĂłn clĂnica diseñada para las recomendaciones de visualizaciĂłn ha sido llevada a cabo con la base de datos de la evaluaciĂłn previa. De esta forma se puede saber si el ecocardiograma es visualizado sin pĂ©rdida diagnostica aunque se produzcan errores de transmisiĂłn. En esta tesis, por lo tanto, se ha ofrecido una soluciĂłn para la transmisiĂłn en tiempo real y el almacenamiento de ecocardiogramas preservando la informaciĂłn diagnĂłstica y usando eficientemente los recursos (disco de almacenamiento y ratio de transmisiĂłn). Especial soporte se da para la transmisiĂłn en redes sin cables, dando soluciones a las limitaciones que estas introducen. AdemĂĄs, las soluciones propuestas han sido probadas y comparadas con otras tĂ©cnicas con una red de acceso mĂłvil WiMAX, demostrando que el ancho de banda es eficientemente utilizado y que el ecocardiograma es correctamente visualizado de acuerdo con las recomendaciones de visualizaciĂłn dadas por la evaluaciĂłn clĂnica
Dynamic bandwidth allocation in ATM networks
Includes bibliographical references.This thesis investigates bandwidth allocation methodologies to transport new emerging bursty traffic types in ATM networks. However, existing ATM traffic management solutions are not readily able to handle the inevitable problem of congestion as result of the bursty traffic from the new emerging services. This research basically addresses bandwidth allocation issues for bursty traffic by proposing and exploring the concept of dynamic bandwidth allocation and comparing it to the traditional static bandwidth allocation schemes
Fast motion estimation algorithms for block-based video coding encoders
The objective of my research is reducing the complexity of video coding standards in real-time scalable and multi-view applications.EThOS - Electronic Theses Online ServiceGBUnited Kingdo
QoS framework for video streaming in home networks
In this thesis we present a new SNR scalable video coding scheme. An important advantage of the proposed scheme is that it requires just a standard video decoder for processing each layer. The quality of the delivered video depends on the allocation of bit rates to the base and enhancement layers. For a given total bit rate, the combination with a bigger base layer delivers higher quality. The absence of dependencies between frames in enhancement layers makes the system resilient to losses of arbitrary frames from an enhancement layer. Furthermore, that property can be used in a more controlled fashion. An important characteristic of any video streaming scheme is the ability to handle network bandwidth fluctuations. We made a streaming technique that observes the network conditions and based on the observations reconfigures the layer configuration in order to achieve the best possible quality. A change of the network conditions forces a change in the number of layers or the bit rate of these layers. Knowledge of the network conditions allows delivery of a video of higher quality by choosing an optimal layer configuration. When the network degrades, the amount of data transmitted per second is decreased by skipping frames from an enhancement layer on the sender side. The presented video coding scheme allows skipping any frame from an enhancement layer, thus enabling an efficient real-time control over transmission at the network level and fine-grained control over the decoding of video data. The methodology proposed is not MPEG-2 specific and can be applied to other coding standards. We made a terminal resource manager that enables trade-offs between quality and resource consumption due to the use of scalable video coding in combination with scalable video algorithms. The controller developed for the decoding process optimizes the perceived quality with respect to the CPU power available and the amount of input data. The controller does not depend on the type of scalability technique and can therefore be used with any scalable video. The controller uses the strategy that is created offline by means of a Markov Decision Process. During the evaluation it was found that the correctness of the controller behavior depends on the correctness of parameter settings for MDP, so user tests should be employed to find the optimal settings
Receiver-Driven Video Adaptation
In the span of a single generation, video technology has made an incredible impact on daily life. Modern use cases for video are wildly diverse, including teleconferencing, live streaming, virtual reality, home entertainment, social networking, surveillance, body cameras, cloud gaming, and autonomous driving. As these applications continue to grow more sophisticated and heterogeneous, a single representation of video data can no longer satisfy all receivers. Instead, the initial encoding must be adapted to each receiver's unique needs. Existing adaptation strategies are fundamentally flawed, however, because they discard the video's initial representation and force the content to be re-encoded from scratch. This process is computationally expensive, does not scale well with the number of videos produced, and throws away important information embedded in the initial encoding. Therefore, a compelling need exists for the development of new strategies that can adapt video content without fully re-encoding it. To better support the unique needs of smart receivers, diverse displays, and advanced applications, general-use video systems should produce and offer receivers a more flexible compressed representation that supports top-down adaptation strategies from an original, compressed-domain ground truth. This dissertation proposes an alternate model for video adaptation that addresses these challenges. The key idea is to treat the initial compressed representation of a video as the ground truth, and allow receivers to drive adaptation by dynamically selecting which subsets of the captured data to receive. In support of this model, three strategies for top-down, receiver-driven adaptation are proposed. First, a novel, content-agnostic entropy coding technique is implemented in which symbols are selectively dropped from an input abstract symbol stream based on their estimated probability distributions to hit a target bit rate. Receivers are able to guide the symbol dropping process by supplying the encoder with an appropriate rate controller algorithm that fits their application needs and available bandwidths. Next, a domain-specific adaptation strategy is implemented for H.265/HEVC coded video in which the prediction data from the original source is reused directly in the adapted stream, but the residual data is recomputed as directed by the receiver. By tracking the changes made to the residual, the encoder can compensate for decoder drift to achieve near-optimal rate-distortion performance. Finally, a fully receiver-driven strategy is proposed in which the syntax elements of a pre-coded video are cataloged and exposed directly to clients through an HTTP API. Instead of requesting the entire stream at once, clients identify the exact syntax elements they wish to receive using a carefully designed query language. Although an implementation of this concept is not provided, an initial analysis shows that such a system could save bandwidth and computation when used by certain targeted applications.Doctor of Philosoph
- âŠ