2 research outputs found

    Codage vidéo par schéma lifting avec gestion des occlusions

    Get PDF
    · Le schéma lifting compensé en mouvement est utilisé dans la plupart des codeurs vidéo basés ondelettes. Cependant, l'estimation et la compensation de mouvement à l'aide de blocs entraîne l'apparition d'artéfacts visibles autour des objets en mouvement et du bord des images. Dans ce papier, nous proposons une nouvelle méthode de filtrage temporel qui fait appel à une segmentation et une estimation de mouvement conjointes. Le principe consiste à attribuer un mouvement à des régions de forme adaptable au lieu d'utiliser des blocs. Nous présentons d'une part l'algorithme de filtrage «Puzzle» et étudions les conditions de son inversibilité. D'autre part, nous proposons une méthode d'extraction des régions d'occlusion à partir des informations de segmentation et de mouvement; ces régions sont ensuite utilisées pour gérer les occlusions. Les premiers résultats expérimentaux confirme la diminution des effets de blocs; la bonne gestion des occlusions permet une baisse significative de l'entropie des sous-bandes temporelles

    (N,0) motion-compensated lifting-based wavelet transform

    No full text
    Motion compensation has been widely used in both DCT- and wavelet-based video coders for years. The recent success of temporal wavelet transform based on motion-compensated lifting suggests that a high-performance, scalable wavelet video coder may soon outperform best DCT-based coders. As recently shown, however, the motion-compensated lifting does not implement exactly its transversal equivalent unless certain conditions on motion are satisfied. In this paper, we review those conditions, and we discuss their importance. We derive a new class of temporal transforms, the so-called 1-N transversal or (N,0) lifting transforms, that are particularly interesting if those conditions on motion are not satisfied. We compare experimentally the 1-3 and 5-3 motion-compensated wavelet transforms for the ubiquitous block-motion model used in all video compression standards. For this model, the 1-3 transform outperforms the 5-3 transform due to the need to transmit additional motion information in the later case. This interesting result, however, does not extend to motion models satisfying the transversal/lifting equivalence conditions
    corecore