8 research outputs found

    Master of Science

    Get PDF
    thesisVirtual point lights (VPLs) provide an effective solution to global illumination computation by converting the indirect illumination into direct illumination from many virtual light sources. This approach results in a less noisy image compare to Monte Carlo methods. In addition, the number of VPLs to generate can be specified in advance; therefore, it can be adjusted depending on the scene, desired quality, time budget, and the available computational power. In this thesis, we investigate a new technique that carefully places VPLs for providing improved rendering quality for computing global illumination using VPLs. Our method consists of three different passes. In the first pass, we randomly generate a large number of VPLs in the scene starting from the camera to place them in positions that can contribute to the final rendered image. Then, we remove a considerable number of these VPLs using a Poisson disk sample elimination method to get a subset of VPLs that are uniformly distributed over the part of the scene that is indirectly visible to the camera. The second pass is to estimate the radiant intensity of these VPLs by performing light tracing starting from the original light sources in the scene and scatter the radiance of light rays at a hit-point to the VPLs close to that point. The final pass is rendering the scene, which consists of shading all points in the scene visible to the camera using the original light sources and VPLs

    Efficient Many-Light Rendering of Scenes with Participating Media

    Get PDF
    We present several approaches based on virtual lights that aim at capturing the light transport without compromising quality, and while preserving the elegance and efficiency of many-light rendering. By reformulating the integration scheme, we obtain two numerically efficient techniques; one tailored specifically for interactive, high-quality lighting on surfaces, and one for handling scenes with participating media

    Realistic Image Synthesis with Light Transport

    Get PDF
    Ph.DDOCTOR OF PHILOSOPH

    Étude des techniques d’estimation de densité et du tracé de chemins pour le rendu des milieux participatifs

    Full text link
    L'utilisation d'images de synthèse photo réalistes est aujourd'hui devenue commune, que ce soit pour la réalisation de films, la création d'environnements virtuels à des fins vidéo ludiques comme le jeu, ou même pour la prévisualisation de projets architecturaux. La compréhension et les avancées technologiques de ces 20 dernières années permettent maintenant de créer des images très réalistes. Dans certains cas, il est même devenu difficile, voire même impossible, de faire la distinction entre une photo d'un objet réel et une image virtuelle. Mais, pour atteindre un tel degré de réalisme, il faut créer des algorithmes complexes et coûteux, capables de simuler les lois physiques qui gouvernent les interactions de la lumière avec la matière. Les milieux participatifs en sont un parfait exemple. Ils sont incontournables et doivent être intégrés pendant les processus de création que ce soit pour simuler de la fumée, des nuages ou bien pour créer une atmosphère crédible. Malgré les performances toujours plus grandes des ordinateurs modernes, il est encore actuellement impossible de reproduire fidèlement dans un temps raisonnable. Certains effets visuels comme les caustiques ou la diffusion multiple sont difficiles à reproduire pour certains types d'algorithmes, si bien que l’on se limite souvent à une simplification des interactions. C’est encore plus vrai pour les applications temps réels qui nécessitent souvent des rendus à 30 images par seconde. La quantité et la qualité des images à calculer peuvent aussi être tellement importantes qu'il est nécessaire de mettre au point de nouveaux algorithmes. C'est le cas pour l'industrie cinématographique qui doit pouvoir anticiper et planifier ses rendus sur des fermes d'ordinateurs sur souvent plus d'une année et en même temps en contrôler rigoureusement l'aspect financier. Nous allons présenter et analyser dans ce mémoire différentes techniques de simulation de milieux participatifs et proposer certaines directions pour de futurs travaux.Nowadays, the use of photo-realistic computer images is very common, whether for film making, creating virtual environments, video games, or even for pre-visualizing architectural projects. The understanding and technological advances of the last 20 years allow us to be able to create very realistic images. Indeed, it is sometimes difficult, if not impossible, to distinguish between a photo of a real object and a virtual image. But to achieve such a high degree of realism, it is necessary to create complex and costly algorithms capable of simulating the physical laws governing interactions between light and matter. Participating media are a perfect example, as they are unavoidable and must be integrated during the creative processes, whether for simulating smoke or clouds, or for creating a credible atmosphere. Despite the overpowering performance of modern computers, it is still currently impossible to reproduce participating media perfectly, and in a reasonable time. Some visual effects, such as caustics or multiple scattering, are difficult to reproduce for some kinds of algorithms, so one is often limited to a simplification of the interactions. This is even more true for real-time applications that often require rendering at 30 frames per second. The quantity and the quality of the images to be calculated can also be so important that it is necessary to develop new algorithms. This is the case for the film industry, which must be able to anticipate and plan its renderings on computer farms, often over a year, and at the same time strictly control the financial aspect. We will present in this thesis various techniques of simulation of participating media, analyse them, and propose certain directions for future work

    Lichttransportsimulation auf Spezialhardware

    Get PDF
    It cannot be denied that the developments in computer hardware and in computer algorithms strongly influence each other, with new instructions added to help with video processing, encryption, and in many other areas. At the same time, the current cap on single threaded performance and wide availability of multi-threaded processors has increased the focus on parallel algorithms. Both influences are extremely prominent in computer graphics, where the gaming and movie industries always strive for the best possible performance on the current, as well as future, hardware. In this thesis we examine the hardware-algorithm synergies in the context of ray tracing and Monte-Carlo algorithms. First, we focus on the very basic element of all such algorithms - the casting of rays through a scene, and propose a dedicated hardware unit to accelerate this common operation. Then, we examine existing and novel implementations of many Monte-Carlo rendering algorithms on massively parallel hardware, as full hardware utilization is essential for peak performance. Lastly, we present an algorithm for tackling complex interreflections of glossy materials, which is designed to utilize both powerful processing units present in almost all current computers: the Centeral Processing Unit (CPU) and the Graphics Processing Unit (GPU). These three pieces combined show that it is always important to look at hardware-algorithm mapping on all levels of abstraction: instruction, processor, and machine.Zweifelsohne beeinflussen sich Computerhardware und Computeralgorithmen gegenseitig in ihrer Entwicklung: Prozessoren bekommen neue Instruktionen, um zum Beispiel Videoverarbeitung, Verschlüsselung oder andere Anwendungen zu beschleunigen. Gleichzeitig verstärkt sich der Fokus auf parallele Algorithmen, bedingt durch die limitierte Leistung von für einzelne Threads und die inzwischen breite Verfügbarkeit von multi-threaded Prozessoren. Beide Einflüsse sind im Grafikbereich besonders stark , wo es z.B. für die Spiele- und Filmindustrie wichtig ist, die bestmögliche Leistung zu erreichen, sowohl auf derzeitiger und zukünftiger Hardware. In Rahmen dieser Arbeit untersuchen wir die Synergie von Hardware und Algorithmen anhand von Ray-Tracing- und Monte-Carlo-Algorithmen. Zuerst betrachten wir einen grundlegenden Hardware-Bausteins für alle diese Algorithmen, die Strahlenverfolgung in einer Szene, und präsentieren eine spezielle Hardware-Einheit zur deren Beschleunigung. Anschließend untersuchen wir existierende und neue Implementierungen verschiedener MonteCarlo-Algorithmen auf massiv-paralleler Hardware, wobei die maximale Auslastung der Hardware im Fokus steht. Abschließend stellen wir dann einen Algorithmus zur Berechnung von komplexen Beleuchtungseffekten bei glänzenden Materialien vor, der versucht, die heute fast überall vorhandene Kombination aus Hauptprozessor (CPU) und Grafikprozessor (GPU) optimal auszunutzen. Zusammen zeigen diese drei Aspekte der Arbeit, wie wichtig es ist, Hardware und Algorithmen auf allen Ebenen gleichzeitig zu betrachten: Auf den Ebenen einzelner Instruktionen, eines Prozessors bzw. eines gesamten Systems

    Clustering bidireccional en iluminación global basada en puntos

    Get PDF
    La síntesis de imágenes fotorrealistas por ordenador, requiere modelar y simular de forma precisa las interacciones entre luz y materia. Para conseguir este realismo, no sólo se debe calcular la iluminación que proviene de las distintas fuentes de luz que iluminan la escena, si no que también se debe tener en cuenta la energía reflejada entre las distintas superficies, denominada iluminación global. A pesar de los grandes avances tecnológicos, la generación de este tipo de imágenes requiere de una gran cantidad de tiempo y recursos. En producciones cinematográficas este coste tiene un importante impacto debido a la complejidad de las escenas modeladas además de la necesidad de generar miles de fotogramas. Por ello, las productoras invierten millones de dólares en potentes clusters de cálculo para la generación de contenido digital de sus películas, siendo la investigación y desarrollo de nuevas técnicas un tema de gran interés. En los últimos años, han surgido técnicas capaces de calcular la iluminación global de forma aproximada. A pesar de ofrecer resultados aproximados, son lo suficientemente convincentes como para que sus errores pasen desapercibidos. Algunos de estos métodos simulan la luz reflejada por las superficies como un conjunto de luces virtuales (VPLs), calculando su contribución mediante una evaluación jerárquica de las mismas, agrupando VPLs similares como una única fuente de energía. Debido a su eficiencia, estas técnicas han sido extensamente utilizadas en multitud de producciones cinematográficas. A pesar de su eficiencia, estos métodos no escalan bien con el número de píxels a iluminar. Este hecho se agrava con las enormes resoluciones necesarias en la creación de contenido digital. La alta definición se ha convertido en un estándar y el contenido 3D se está implantando progresivamente, donde la generación de imágenes desde múltiples puntos de vista es necesaria. Sin embargo, las muestras generadas desde la cámara presentan una coherencia que puede ser explotada para aproximar la luz que reciben. En este proyecto se aborda el desarrollo de una nueva técnica para el cálculo de la iluminación global basada en VPLs, que explota las similitudes entre las muestras desde la cámara y las VPLs para reducir de forma adaptativa la cantidad de computación, mediante la evaluación jerárquica de las contribuciones de las luces sobre los puntos a iluminar. De esta manera, podemos desarrollar un algoritmo capaz de generar imágenes o grupos de imágenes de alta resolución con gran cantidad de elementos de iluminación con costes sublineales, tanto en el número de luces virtuales como en el número de píxels.

    Adaptive LightSlice for Virtual Ray Lights

    Get PDF
    We speed up the rendering of participating media with Virtual Ray Lights (VRLs) by clustering them in a preprocessing step. A subset of representative VRLs is then sampled from the clustering, which is used for the final rendering. By performing a full variance analysis, we can explicitly estimate the convergence rate of the rendering process and automatically find the locally ideal number of clusters to maximize efficiency. Overall, we report speed-up factors ranging from 13 to 16 compared to unclustered rendering.status: publishe
    corecore