61 research outputs found
Dynamic Canvas for Immersive Non-Photorealistic Walkthroughs
International audienceThe static background paper or canvas texture usually used for non-photorealistic animation greatly impedes the sensation of motion and results in a disturbing ``shower door'' effect. We present a method to animate the background canvas for non-photorealistic rendering animations and walkthroughs, which greatly improves the sensation of motion and 3D ``immersion''. The complex motion field induced by the 3D displacement is matched using purely 2D transformations. The motion field of forward translations is approximated using a 2D zoom in the texture, and camera rotation is approximated using 2D translation and rotation. A rolling-ball metaphor is introduced to match the instantaneous 3D motion with a 2D transformation. An infinite zoom in the texture is made possible by using a paper model based on multifrequency solid turbulence. Our results indicate a dramatic improvement over a static background
Utilisation du rendu expressif pour l'illustration et l'exploration de données archéologiques
National audienceLe rendu expressif est une branche relativement jeune de la synthèse d'images qui s'intéresse non pas à créer des images qui sont le résultat de simulations de phénomènes physiques réalistes, mais qui tend à communiquer visuellement des informations sur les objets représentés par le biais de styles variés (dessin, aquarelle, etc). Ce type de rendu semble particulièrement adapté au domaine de l'archéologie pour deux raisons : il permet d'illustrer les hypothèses de reconstruction 3D archéologiques sans pour autant biaiser l'interprétation par une représentation trop réaliste et peut aussi apporter une méthode visuelle intuitive d'exploration de données archéologiques. Dans cet exposé, nous allons tout d'abord présenter les travaux que nous avons réalisé par le passé portant sur la création d'illustrations (effets de papier, aquarelle). Puis nous allons introduire les aspects du rendu expressif qui permettraient l'exploration sémantique de données archéologiques
3D Line textures and the visualization of confidence in Architecture
technical reportThis work introduces a technique for interactive walkthroughs of non-photorealistically rendered (NPR) scenes using 3D line primitives to define architectural features of the model, as well as indicate textural qualities. Line primitives are not typically used in this manner in favor of texture mapping techniques which can encapsulate a great deal of information in a single texture map, and take advantage of GPU optimizations for accelerated rendering. However, texture mapped images may not maintain the visual quality or aesthetic appeal that is possible when using 3D lines to simulate NPR scenes such as hand-drawn illustrations or architectural renderings. In addition, line textures can be modi ed interactively, for instance changing the sketchy quality of the lines, and can be exported as vectors to allow the automatic generation of illustrations and further modi cation in vector-based graphics programs. The technique introduced here extracts feature edges from a model, and using these edges, generates a reduced set of line textures which indicate material properties while maintaining interactive frame rates. A clipping algorithm is presented to enable 3D lines to reside only in the interior of the 3D model without exposing the underlying triangulated mesh. The resulting system produces interactive illustrations with high visual quality that are free from animation artifacts
Textures volumiques auto-zoomables pour une stylisation temporellement cohérente en temps réel
National audienceLes méthodes de stylisation dont l'objectif est de représenter une scène 3D dynamique avec des marques 2D comme des pigments ou des coups de pinceau, sont généralement confrontées au problème de la cohérence temporelle. Dans cet article, nous présentons une méthode de stylisation en temps réel et temporellement cohérente basée sur des textures : les textures auto-zoomables. Une texture auto-zoomable est une texture plaquée sur les objets 3D et enrichie d'un nouveau mécanisme de zoom infini. Ce mécanisme maintient une taille quasi constante en espace image des éléments de texture. Lors de la stylisation, ce mécanisme renforce l'apparence 2D des marques de style tout en restant fidèle au mouvement 3D des objets représentés. Nous illustrons cette propriété par une variété de styles comme l'aquarelle ou le rendu par marques binaires. Bien que notre technique de zoom infini puisse être utilisée aussi bien pour des textures 2D que 3D, nous nous sommes attachés dans cet article au cas 3D (que nous appelons textures volumiques auto-zoomables), ce qui évite la définition d'une paramétrisation des surfaces 3D. En intégrant notre méthode à un moteur de rendu, nous validons la pertinence de ce compromis entre qualité et rapidité
Stylisation d'objets éclairés par des cartes d'environnement HDR
National audienceDans cet article, nous introduisons un pipeline de rendu permettant de styliser de manière interactive des objets éclairés par des cartes d'environnement à grande dynamique (High-Dynamic Range ou HDR). L'utilisation d'images HDR permet d'améliorer la qualité de certains traitements, comme les segmentations ou l'extraction des détails. De plus, cette architecture permet de combiner facilement des stylisations 2D (sur la carte d'environnement et sur les images) et 3D (sur les objets). Les nouveaux styles que nous présentons sont basés sur ce pipeline et illustrent la flexibilité de notre approche
Self-similar texture for coherent line stylization
Oral Session: Lines and StrokesInternational audienceStylized line rendering for animation has traditionally traded-off between two undesirable artifacts: stroke texture sliding and stroke texture stretching. This paper proposes a new stroke texture representation, the self-similar line artmap (SLAM), which avoids both these artifacts. SLAM textures provide continuous, infinite zoom while maintaining approximately constant appearance in screen-space, and can be produced automatically from a single exemplar. SLAMs can be used as drop-in replacements for conventional stroke textures in 2D illustration and animation. Furthermore, SLAMs enable a new, simple approach to temporally coherent rendering of 3D paths that is suitable for interactive applications. We demonstrate results for 2D and 3D animations
Studying and solving visual artifacts occurring when procedural texturing with paradoxical requirements
International audienceTextures are images widely used by computer graphics artists to add visual detail to their work. Textures may come from different sources, such as pictures of real-world surfaces, manually created images using graphics editors, or algorithmic processes. “Procedural texturing” refers to the creation of textures using algorithmic processes.Procedural textures offer many advantages, including the ability to manipulate their appearance through parameters. Many applications rely on changing those parameters to evolve the look of those textures over time or space. This often introduces requirements contradictory with the structure of the unaltered texture, often resulting in visible rendering artifacts. As an example, to animate a lava flow the rendered texture should be an effective representation of the simulated flow, but features such as rocks floating over should not be distorted, nor brutally appearor disappear thus disrupting the illusion. Informally, we want our lava texture to “change, but stay the same”. This example is an instance of the consistency problem that arises when changing parameters of a texture, resulting in noticeable artifacts in the rendered result.In this project, we seek to classify these artifacts depending on their causes and their effects on textures, but also how we can objectively detect and explain their presence, and so predict their occurrence. Analytical and statistical analysis of procedural texturing processes will be performed, in order to find the relation with the corresponding artifacts.Les textures sont des images largement utilisées par les artistes infographistes pour ajouter des détails dans leurs rendus. Ces textures peuvent provenir de différentes sources, telles que des images de surfaces réelles, des images créées manuellement dans des logiciels, ou des processus algorithmiques. Ces dernières sont appelées“textures procédurales”.Les textures procédurales offrent beaucoup d’avantages, notamment la possibilité de définir leur apparence à partir de paramètres. Dans de nombreuses situations, ces paramètres évoluent au cours du temps ou dans l’espace. Cela introduit cependant des contraintes contradictoires à l’apparence de la texture originale, introduisant ainsi des artefacts visibles. Par exemple, pour animer un flot de lave, la texture rendue devrait suivre le flot simulé, mais les formes telles que des rochers flottants à la surface ne devraient pas être distordus, ni apparaître ou disparaîtrebrutalement, ce qui casserait l’illusion. Informellement, cette texture de lave doit “changer, mais rester la même”. Cet exemple est une instance du problème de la cohérence temporelle lié à l’évolution de paramètres d’une texture, ce qui introduit des artefacts dans le rendu final.Au cours de ce projet, nous essayons de classer les différents artefacts selon les causes qui les produisent et leurs effets sur les textures. Nous cherchons aussi des méthodes pour décrire objectivement et détecter leur présence, et même prédire leur apparition. Des méthodes analytiques mais aussi statistiques des procédés de texture vont être mis en œuvre, afin de trouver les liens entre artefacts et descripteurs
Colour videos with depth : acquisition, processing and evaluation
The human visual system lets us perceive the world around us in three dimensions
by integrating evidence from depth cues into a coherent visual model of the world. The equivalent in computer vision and computer graphics are geometric models,
which provide a wealth of information about represented objects, such as depth and
surface normals. Videos do not contain this information, but only provide per-pixel
colour information. In this dissertation, I hence investigate a combination of videos
and geometric models: videos with per-pixel depth (also known as
RGBZ videos).
I consider the full life cycle of these videos: from their acquisition, via filtering and
processing, to stereoscopic display.
I propose two approaches to capture videos with depth. The first is a spatiotemporal
stereo matching approach based on the dual-cross-bilateral grid – a novel real-time
technique derived by accelerating a reformulation of an existing stereo matching
approach. This is the basis for an extension which incorporates temporal evidence in
real time, resulting in increased temporal coherence of disparity maps – particularly
in the presence of image noise.
The second acquisition approach is a sensor fusion system which combines data
from a noisy, low-resolution time-of-flight camera and a high-resolution colour
video camera into a coherent, noise-free video with depth. The system consists
of a three-step pipeline that aligns the video streams, efficiently removes and fills
invalid and noisy geometry, and finally uses a spatiotemporal filter to increase the
spatial resolution of the depth data and strongly reduce depth measurement noise.
I show that these videos with depth empower a range of video processing effects
that are not achievable using colour video alone. These effects critically rely on the
geometric information, like a proposed video relighting technique which requires
high-quality surface normals to produce plausible results. In addition, I demonstrate
enhanced non-photorealistic rendering techniques and the ability to synthesise
stereoscopic videos, which allows these effects to be applied stereoscopically.
These stereoscopic renderings inspired me to study stereoscopic viewing discomfort.
The result of this is a surprisingly simple computational model that predicts the
visual comfort of stereoscopic images. I validated this model using a perceptual
study, which showed that it correlates strongly with human comfort ratings. This
makes it ideal for automatic comfort assessment, without the need for costly and
lengthy perceptual studies
- …