9 research outputs found

    Ambient occlusion and shadows for molecular graphics

    Get PDF
    Computer based visualisations of molecules have been produced as early as the 1950s to aid researchers in their understanding of biomolecular structures. An important consideration for Molecular Graphics software is the ability to visualise the 3D structure of the molecule in a clear manner. Recent advancements in computer graphics have led to improved rendering capabilities of the visualisation tools. The capabilities of current shading languages allow the inclusion of advanced graphic effects such as ambient occlusion and shadows that greatly improve the comprehension of the 3D shapes of the molecules. This thesis focuses on finding improved solutions to the real time rendering of Molecular Graphics on modern day computers. The methods of calculating ambient occlusion and both hard and soft shadows are examined and implemented to give the user a more complete experience when navigating large molecular structures

    High-fidelity rendering on shared computational resources

    Get PDF
    The generation of high-fidelity imagery is a computationally expensive process and parallel computing has been traditionally employed to alleviate this cost. However, traditional parallel rendering has been restricted to expensive shared memory or dedicated distributed processors. In contrast, parallel computing on shared resources such as a computational or a desktop grid, offers a low cost alternative. But, the prevalent rendering systems are currently incapable of seamlessly handling such shared resources as they suffer from high latencies, restricted bandwidth and volatility. A conventional approach of rescheduling failed jobs in a volatile environment inhibits performance by using redundant computations. Instead, clever task subdivision along with image reconstruction techniques provides an unrestrictive fault-tolerance mechanism, which is highly suitable for high-fidelity rendering. This thesis presents novel fault-tolerant parallel rendering algorithms for effectively tapping the enormous inexpensive computational power provided by shared resources. A first of its kind system for fully dynamic high-fidelity interactive rendering on idle resources is presented which is key for providing an immediate feedback to the changes made by a user. The system achieves interactivity by monitoring and adapting computations according to run-time variations in the computational power and employs a spatio-temporal image reconstruction technique for enhancing the visual fidelity. Furthermore, algorithms described for time-constrained offline rendering of still images and animation sequences, make it possible to deliver the results in a user-defined limit. These novel methods enable the employment of variable resources in deadline-driven environments

    Interactive mixed reality rendering in a distributed ray tracing framework

    Get PDF
    The recent availability of interactive ray tracing opened the way for new applications and for improving existing ones in terms of quality. Since today CPUs are still too slow for this purpose, the necessary computing power is obtained by connecting a number of machines and using distributed algorithms. Mixed reality rendering - the realm of convincingly combining real and virtual parts to a new composite scene - needs a powerful rendering method to obtain a photorealistic result. The ray tracing algorithm thus provides an excellent basis for photorealistic rendering and also advantages over other methods. It is worth to explore its abilities for interactive mixed reality rendering. This thesis shows the applicability of interactive ray tracing for mixed (MR) and augmented reality (AR) applications on the basis of the OpenRT framework. Two extensions to the OpenRT system are introduced and serve as basic building blocks: streaming video textures and in-shader AR view compositing. Streaming video textures allow for inclusion of the real world into interactive applications in terms of imagery. The AR view compositing mechanism is needed to fully exploit the advantages of modular shading in a ray tracer. A number of example applications from the entire spectrum of the Milgram Reality-Virtuality continuum illustrate the practical implications. An implementation of a classic AR scenario, inserting a virtual object into live video, shows how a differential rendering method can be used in combination with a custom build real-time lightprobe device to capture the incident light and include it into the rendering process to achieve convincing shading and shadows. Another field of mixed reality rendering is the insertion of real actors into a virtual scene in real-time. Two methods - video billboards and a live 3D visual hull reconstruction - are discussed. The implementation of live mixed reality systems is based on a number of technologies beside rendering and a comprehensive understanding of related methods and hardware is necessary. Large parts of this thesis hence deal with the discussion of technical implementations and design alternatives. A final summary discusses the benefits and drawbacks of interactive ray tracing for mixed reality rendering.Die Verfügbarkeit von interaktivem Ray-Tracing ebnet den Weg für neue Anwendungen, aber auch für die Verbesserung der Qualität bestehener Methoden. Da die heute verfügbaren CPUs noch zu langsam sind, ist es notwendig, mehrere Maschinen zu verbinden und verteilte Algorithmen zu verwenden. Mixed Reality Rendering - die Technik der überzeugenden Kombination von realen und synthetischen Teilen zu einer neuen Szene - braucht eine leistungsfähige Rendering-Methode um photorealistische Ergebnisse zu erzielen. Der Ray-Tracing-Algorithmus bietet hierfür eine exzellente Basis, aber auch Vorteile gegenüber anderen Methoden. Es ist naheliegend, die Möglichkeiten von Ray-Tracing für Mixed-Reality-Anwendungen zu erforschen. Diese Arbeit zeigt die Anwendbarkeit von interaktivem Ray-Tracing für Mixed-Reality (MR) und Augmented-Reality (AR) Anwendungen anhand des OpenRT-Systems. Zwei Erweiterungen dienen als Grundbausteine: Videotexturen und In-Shader AR View Compositing. Videotexturen erlauben die reale Welt in Form von Bildern in den Rendering-Prozess mit einzubeziehen. Der View-Compositing-Mechanismus is notwendig um die Modularität einen Ray-Tracers voll auszunutzen. Eine Reihe von Beispielanwendungen von beiden Enden des Milgramschen Reality-Virtuality-Kontinuums verdeutlichen die praktischen Aspekte. Eine Implementierung des klassischen AR-Szenarios, das Einfügen eines virtuellen Objektes in eine Live-Übertragung zeigt, wie mittels einer Differential Rendering Methode und einem selbstgebauten Gerät zur Erfassung des einfallenden Lichts realistische Beleuchtung und Schatten erzielt werden können. Ein anderer Anwendungsbereich ist das Einfügen einer realen Person in eine künstliche Szene. Hierzu werden zwei Methoden besprochen: Video-Billboards und eine interaktive 3D Rekonstruktion. Da die Implementierung von Mixed-Reality-Anwendungen Kentnisse und Verständnis einer ganzen Reihe von Technologien nebem dem eigentlichen Rendering voraus setzt, ist eine Diskussion der technischen Grundlagen ein wesentlicher Bestandteil dieser Arbeit. Dies ist notwenig, um die Entscheidungen für bestimmte Designalternativen zu verstehen. Den Abschluss bildet eine Diskussion der Vor- und Nachteile von interaktivem Ray-Tracing für Mixed Reality Anwendungen

    Interactive mixed reality rendering in a distributed ray tracing framework

    Get PDF
    The recent availability of interactive ray tracing opened the way for new applications and for improving existing ones in terms of quality. Since today CPUs are still too slow for this purpose, the necessary computing power is obtained by connecting a number of machines and using distributed algorithms. Mixed reality rendering - the realm of convincingly combining real and virtual parts to a new composite scene - needs a powerful rendering method to obtain a photorealistic result. The ray tracing algorithm thus provides an excellent basis for photorealistic rendering and also advantages over other methods. It is worth to explore its abilities for interactive mixed reality rendering. This thesis shows the applicability of interactive ray tracing for mixed (MR) and augmented reality (AR) applications on the basis of the OpenRT framework. Two extensions to the OpenRT system are introduced and serve as basic building blocks: streaming video textures and in-shader AR view compositing. Streaming video textures allow for inclusion of the real world into interactive applications in terms of imagery. The AR view compositing mechanism is needed to fully exploit the advantages of modular shading in a ray tracer. A number of example applications from the entire spectrum of the Milgram Reality-Virtuality continuum illustrate the practical implications. An implementation of a classic AR scenario, inserting a virtual object into live video, shows how a differential rendering method can be used in combination with a custom build real-time lightprobe device to capture the incident light and include it into the rendering process to achieve convincing shading and shadows. Another field of mixed reality rendering is the insertion of real actors into a virtual scene in real-time. Two methods - video billboards and a live 3D visual hull reconstruction - are discussed. The implementation of live mixed reality systems is based on a number of technologies beside rendering and a comprehensive understanding of related methods and hardware is necessary. Large parts of this thesis hence deal with the discussion of technical implementations and design alternatives. A final summary discusses the benefits and drawbacks of interactive ray tracing for mixed reality rendering.Die Verfügbarkeit von interaktivem Ray-Tracing ebnet den Weg für neue Anwendungen, aber auch für die Verbesserung der Qualität bestehener Methoden. Da die heute verfügbaren CPUs noch zu langsam sind, ist es notwendig, mehrere Maschinen zu verbinden und verteilte Algorithmen zu verwenden. Mixed Reality Rendering - die Technik der überzeugenden Kombination von realen und synthetischen Teilen zu einer neuen Szene - braucht eine leistungsfähige Rendering-Methode um photorealistische Ergebnisse zu erzielen. Der Ray-Tracing-Algorithmus bietet hierfür eine exzellente Basis, aber auch Vorteile gegenüber anderen Methoden. Es ist naheliegend, die Möglichkeiten von Ray-Tracing für Mixed-Reality-Anwendungen zu erforschen. Diese Arbeit zeigt die Anwendbarkeit von interaktivem Ray-Tracing für Mixed-Reality (MR) und Augmented-Reality (AR) Anwendungen anhand des OpenRT-Systems. Zwei Erweiterungen dienen als Grundbausteine: Videotexturen und In-Shader AR View Compositing. Videotexturen erlauben die reale Welt in Form von Bildern in den Rendering-Prozess mit einzubeziehen. Der View-Compositing-Mechanismus is notwendig um die Modularität einen Ray-Tracers voll auszunutzen. Eine Reihe von Beispielanwendungen von beiden Enden des Milgramschen Reality-Virtuality-Kontinuums verdeutlichen die praktischen Aspekte. Eine Implementierung des klassischen AR-Szenarios, das Einfügen eines virtuellen Objektes in eine Live-Übertragung zeigt, wie mittels einer Differential Rendering Methode und einem selbstgebauten Gerät zur Erfassung des einfallenden Lichts realistische Beleuchtung und Schatten erzielt werden können. Ein anderer Anwendungsbereich ist das Einfügen einer realen Person in eine künstliche Szene. Hierzu werden zwei Methoden besprochen: Video-Billboards und eine interaktive 3D Rekonstruktion. Da die Implementierung von Mixed-Reality-Anwendungen Kentnisse und Verständnis einer ganzen Reihe von Technologien nebem dem eigentlichen Rendering voraus setzt, ist eine Diskussion der technischen Grundlagen ein wesentlicher Bestandteil dieser Arbeit. Dies ist notwenig, um die Entscheidungen für bestimmte Designalternativen zu verstehen. Den Abschluss bildet eine Diskussion der Vor- und Nachteile von interaktivem Ray-Tracing für Mixed Reality Anwendungen

    Architectures for ubiquitous 3D on heterogeneous computing platforms

    Get PDF
    Today, a wide scope for 3D graphics applications exists, including domains such as scientific visualization, 3D-enabled web pages, and entertainment. At the same time, the devices and platforms that run and display the applications are more heterogeneous than ever. Display environments range from mobile devices to desktop systems and ultimately to distributed displays that facilitate collaborative interaction. While the capability of the client devices may vary considerably, the visualization experiences running on them should be consistent. The field of application should dictate how and on what devices users access the application, not the technical requirements to realize the 3D output. The goal of this thesis is to examine the diverse challenges involved in providing consistent and scalable visualization experiences to heterogeneous computing platforms and display setups. While we could not address the myriad of possible use cases, we developed a comprehensive set of rendering architectures in the major domains of scientific and medical visualization, web-based 3D applications, and movie virtual production. To provide the required service quality, performance, and scalability for different client devices and displays, our architectures focus on the efficient utilization and combination of the available client, server, and network resources. We present innovative solutions that incorporate methods for hybrid and distributed rendering as well as means to manage data sets and stream rendering results. We establish the browser as a promising platform for accessible and portable visualization services. We collaborated with experts from the medical field and the movie industry to evaluate the usability of our technology in real-world scenarios. The presented architectures achieve a wide coverage of display and rendering setups and at the same time share major components and concepts. Thus, they build a strong foundation for a unified system that supports a variety of use cases.Heutzutage existiert ein großer Anwendungsbereich für 3D-Grafikapplikationen wie wissenschaftliche Visualisierungen, 3D-Inhalte in Webseiten, und Unterhaltungssoftware. Gleichzeitig sind die Geräte und Plattformen, welche die Anwendungen ausführen und anzeigen, heterogener als je zuvor. Anzeigegeräte reichen von mobilen Geräten zu Desktop-Systemen bis hin zu verteilten Bildschirmumgebungen, die eine kollaborative Anwendung begünstigen. Während die Leistungsfähigkeit der Geräte stark schwanken kann, sollten die dort laufenden Visualisierungen konsistent sein. Das Anwendungsfeld sollte bestimmen, wie und auf welchem Gerät Benutzer auf die Anwendung zugreifen, nicht die technischen Voraussetzungen zur Erzeugung der 3D-Grafik. Das Ziel dieser Thesis ist es, die diversen Herausforderungen zu untersuchen, die bei der Bereitstellung von konsistenten und skalierbaren Visualisierungsanwendungen auf heterogenen Plattformen eine Rolle spielen. Während wir nicht die Vielzahl an möglichen Anwendungsfällen abdecken konnten, haben wir eine repräsentative Auswahl an Rendering-Architekturen in den Kernbereichen wissenschaftliche Visualisierung, web-basierte 3D-Anwendungen, und virtuelle Filmproduktion entwickelt. Um die geforderte Qualität, Leistung, und Skalierbarkeit für verschiedene Client-Geräte und -Anzeigen zu gewährleisten, fokussieren sich unsere Architekturen auf die effiziente Nutzung und Kombination der verfügbaren Client-, Server-, und Netzwerkressourcen. Wir präsentieren innovative Lösungen, die hybrides und verteiltes Rendering als auch das Verwalten der Datensätze und Streaming der 3D-Ausgabe umfassen. Wir etablieren den Web-Browser als vielversprechende Plattform für zugängliche und portierbare Visualisierungsdienste. Um die Verwendbarkeit unserer Technologie in realitätsnahen Szenarien zu testen, haben wir mit Experten aus der Medizin und Filmindustrie zusammengearbeitet. Unsere Architekturen erreichen eine umfassende Abdeckung von Anzeige- und Rendering-Szenarien und teilen sich gleichzeitig wesentliche Komponenten und Konzepte. Sie bilden daher eine starke Grundlage für ein einheitliches System, das eine Vielzahl an Anwendungsfällen unterstützt

    A Study of Visualizing CSG Solids on Distributed Computing Environments

    No full text
    以光線追蹤語法(Ray Tracing Algorithms)對塑型實體幾何模型(Constructive Solid Geometry)作擬真成圖計算時,常用空間分割技術來加速光線追蹤語法。其主要概念乃是以空間換取時間,亦即利用所產生的龐大空間資料結構來加速光線追蹤的複雜計算。空間資料結構之大小視模型之複雜度而定,因此,當使用光線追蹤法並搭配空間分割技術來處理塑型實體幾何模型時,在經過空間分割後,會產生八分樹結構(Octree Structure)和許多的局部塑型實體幾何樹(Localized CSG Tree),而這些局部塑型實體幾何樹往往隨著空間分割終止條件的深度和場景複雜度而急劇增加,空間分割時間亦隨之成長,這將使單機無法負荷此龐大工作量與資料結構。而Holliman是文獻上迄今所發現唯一針對塑型實體幾何模型去平行產生空間分割的八分樹結構(Octree Structure),也能平行處理光線追蹤計算之系統。 本論文旨在分散式計算環境中,對空間分割技術提出新的處理方法。我們在分散式環境(Distributed Environment)中,結合一般目的工作站和個人電腦等不同的運算能力,將原本循序空間分割演算法,利用工作串列排程機制加以分解成可進行獨立分散處理的工作區塊,以進行分散處裡,來縮短空間分割計算時間。吾人所提之方法更藉分散處理空間分割之便,亦將空間資料結構中所產生之局部塑型實體幾何樹(Localized CSG Tree)予以分散在每一電腦之局部記憶體中,減少每一計算資源所佔用之記憶體需求量,增加處理複雜場景的能力,然後將位處空間分割資料結構上層的空間分割八分樹(Octree)結構複製在每一電腦上,以便當平行/分散光線追蹤計算時,可減少光線與物件作交點(Intersection)測試的時間。此外,因隨著場景複雜度與參與分散處理之計算資源的增加,其平行空間分割前處理時間也將隨之成長,雖然一般皆省略前處理時間,但事實上這會嚴重損壞系統效能,因此為了解決此問題,我們亦採取非同步平行空間分割機制,不等候所有計算資源完成系統初始,即是指先完成系統初始的計算資源便先開始執行,以縮短整體系統執行時間,來降低前處理對系統效能所帶來的衝擊。 結束分散處理空間分割後,塑型實體幾何模型所產生之大量局部塑型實體幾何樹已被加以分散於每一記憶體上,故在做平行光線追蹤時,必須不時要求遠端資料,這需要大量的資料傳送,因此我們採用LRU Cache機制來作平行光線追蹤時,暫存所要求的遠端模型空間資料,減少資料傳輸時間,此外,基於模型資料在空間中分布的連貫性及為了解決光線追蹤時,所產生的負載不均的現象,我們提出另一種支援空間連貫性(Space Coherence)的動態負載平衡策略-適應性分配策略(Adaptive Assigning Strategy) 來控制圖像工作的分配,進而達到更好的光線追蹤效能。 我們對所發展的分散式光線追蹤系統(Distributed Ray Tracing System, DRTS)作實際上的測試,在工作站和個人電腦網路叢集上執行,系統測試環境在2個NFS上,有2台工作站和8台PCs,架構在10Mbps的乙太網路(Ethernet)上,使用PVM工具作通訊程式。7個相當複雜的測試場景,4個是Eric Haines's SPD Database的標準測試場景,兩個是常態分佈(Normal Distribution)和一個是均勻分佈(Uniform Distribution)。測試場景中,最小需70.2 MB,其餘6個,都需超過100 MB記憶體,最大的共需272.23 MB,而被分散的模型場景資料佔全部模型場景資料的70.5%~98.95%之間,如以現在普遍使用64 MB記憶體的單機作業環境下,是無法容納上述場景資料的。圖像解析度是5125512 不具Anti-aliasing,具有6∼10個光源。這相較於一般所展示的測試場景,我們的測試場景呈現高度的複雜度。 系統測試主要分為3部份:1. 同步/非同步平行空間分割、2. 平行光線追蹤和3. DRTS系統整體測試。對所提出的同步/非同步平行空間分割作測試比較,證實如和一般測試考量,在不考慮前處理時間的影響下,10台計算資源時,同步平行空間分割可得到平均4.382的加速和34.01%的效能。而非同步平行空間分割可得到平均4.08之加速和31.6%之效能。同步平行機制領先非同步。如考慮前處理時間,則非同步平行便領先同步平行機制而得到平均3.36之加速和26.08%之效能,同步平行機制只得到得到平均2.874之加速和22.31%之效能,可明顯看出同步平行機制因隨計算資源增加而增長的前處理時間而使效能嚴重衰退,由原先的34.01%衰退為22.31%,效能減低11.7%,且因前處理因素的影響,同步平行機制的效能出現不穩定的狀況,這也是為何一般系統測試時間總是不包含前處理的原因。反觀非同步平行機制,因混合前處理時間在空間分割處理中,使的非同步平行機制將前處理間的影響降至最低,效能僅衰退5.52%,這證實了我們先前所提非同步平行機制能減少前處理時間對系統整體效能所帶來之衝擊的說法。對需要最長空間分割處理時間的Torus#2場景而言,非同步平行機制可將原先單機需要589.4秒在10台時加速至只需182.6秒,共減少406.8秒。而與執行在具有168 Hz和128 MB記憶體之工作站-Ultra-2的循序程式碼比較,非同步平行空間分割在包含前處理時間的情況下,得到平均55.12%之效能改進,將原本需479秒加速至182.6秒,共減少296.4秒。 在平行光線追蹤階段,10台時,得到平均14.42之超級加速和111.94%之超級效能。且對所提出的動態負載平衡策略,適應性分配策略作效能上之分析,結果對於動態直接映對策略(Dynamic Direct Mapping, DDM)亦得到平均12.43%的效能改進。而與Ultra-2的循序程式碼比較,平行光線追蹤部份也得到平均90.91%之卓越效能改善,6場景中最大模型Torus#2,在單台Ultra-2原本須執行2810.6秒,現經由我們系統(DRTS),利用10台計算資源,便成功的減少至只需259.8秒,共減少了2550.8秒,而單台成圖時間最久的Shells#1,由原先的9828.5秒,加速至787.4秒,共減少了9041.1秒,效果相當良好。。 包含非同步平行空間分割和平行光線追蹤2部份的DRTS的系統整體效能改善為平均88.79%。與Ultra-2的循序程式碼比較,系統整體效能改善為平均87.76%,成功的將處理時間最長的Shells#1,從原先單台Ultra-2須9883.5秒,加速至806.2秒,共減少9077.3秒,效能可謂相當良好。而一般上的認知,資料複製策略因不需作遠端資料傳輸,所以應比資料分散有更良好的效能,因此我們對DRTS系統和資料複製策略作比較分析,在小場景時,資料複製策略確實些微領先我們的DRTS系統,但當在需要45.5MB的場景時,DRTS系統卻比資料複製策略得到33.6%的效能改善,推翻以往的觀念謬誤,因複雜的場景會使空間分割時間有相當程度的成長,導致整體效能衰退。這也證實我們先前所提之看法。 DRTS系統與Holliman所發展的平行光線追蹤系統-MISTRAL-3作效能上的比較。如和MISTRAL-3相同不考慮前處理時間,其在分散記憶多重電腦計算環境下,128個處理器時,得到平均31%的效能,我們同步平行空間分割,在分散式計算環境下,10台計算資源時,即得到34.01%的效能。在平行光線追蹤部份,MISTRAL-3得到平均97%的效能,我們得到111.94%之超級效能。全部執行時間方面,MISTRAL-3得到平均80%的效能,但其沒考慮前處理時間,所以我們也在不考慮前處理時間情況下,使用同步平行空間分割與平行光線追蹤,平均可得到92.25%的效能。即始我們考慮前處理時間,使用非同步平行空間分割與平行光線追蹤,亦能得到平均88.79%的效能。而與使用循序程式碼(Serial Code)執行在Ultra-2工作站比較,我們系統只慢1.26倍,相較於Holliman的1.95倍,效能改進35.38%。這都充分證實我們的系統得到更好的效能與良好的可攜性(Portability)。Space subdivision is a popular technique utilized to speedup ray tracing CSG solids so as to generate photo-realistic 3D images. The main concept behind space subdivision is a time-space trade-off which reduces the rendering time of ray tracing in the expense of generating a large spatial data structure. Parallel computing is another popular approach to accelerating ray tracing computing and a number of techniques have been proposed using parallel computers such as those based on distributed memory multicomputers. However, previous techniques have disadvantages in that they mainly concentrated on ray tracing acceleration ignoring the generation process of spatial data structure. This leads to potential bottleneck when the model complexity is increasing to some extent. This motivates our research reported in this thesis to investigate techniques for visualizing CSG solids using ray tracing on distributed computing environments. The platform employed is based on an integration of clusters of general-purpose workstations and personal computers. Unlike the previous approach, the generation of spatial data structure in our approach is executed in parallel so as to reduce the generation time. During the parallel execution localized CSG trees are distributed on each local memory of computing resource where the upper level of the octree structure is replicated at each node in order to reduce the time required for proceeding the ray cell traversal. After the space subdivision process, a large number of localized CSG trees have been distributed on memory of each computing resource. Operating parallel ray tracing must request data required for computing from remote nodes. Thus, we adopt LRU cache scheme in our data management mechanism. The requested data are temporarily stored under the cache scheme so as to reduce data transmission time. Furthermore, we propose dynamic load balancing strategy, adaptive assigning strategy, to support space coherence so that it is convenient to exploit the image coherence and control the task assignation to improve the performance of ray tracing. We has developed an experimental system, Distributed Ray Tracing System (DRTS), based on two NFS with a cluster of two workstations combined with a cluster of eight PCs. We utilize seven very large model scenes to perform our experimental evaluation. The first four models are standard scenes proposed by Haines for the SPD database. The next two are constructed using the normal distribution and uniform distribution, respectively. The smallest model requires memory of 70.2 MB while the rests require over 100MB memory size with the largest one 272.23 MB. The distributed data of scenes are in between 70.5% and 98.95% for overall model data. Generally speaking, a single computing resource with 64 MB can't accommodate this size of model data. Image resolution is 5125512 without anti-aliasing where 6~10 light sources are employed The overall improvement of performance of DRTS system achieves in average 88.79% of ideal speedup including the process for asynchronous parallel space subdivision and parallel ray tracing. In statistics, when using a single Ultra-2, the Shells#1 model requires 9883.5 seconds for ray tracing. When using DRTS the same model can be rendered within 806.2 seconds using 10 computing resources. strategy on scene with 45.5 MB. We conclude that the proposed techniques are of use for accelerating the CSG solid visualization using ray tracing on distributed computing environments.目錄 第一章 簡介 1.1 動機 1.2 論文大綱 第二章 相關研究 2.1 實體模型演算法(Solid Modeling Algorithm) 2.1.1 塑型實體幾何模型(Constructive Solid Geometry) 2.1.2 光線追蹤(Ray Tracing)塑型實體幾何模型 2.1.3 循序光線追蹤加速技術 2.2 平行光線追蹤技術 2.2.1 分散記憶多重電腦計算環境技術 2.3 概要(Summary) 第三章 分散式光線追蹤機制 3.1 平行空間分割-Mistral-3之缺點 3.2 循序空間分割演算法(Sequential Space Subdivision Algorithm) 3.3 平行空間分割資料結構 3.3.1. 半空間節點(Halfspace Nodes) 3.3.2. 塑型實體幾何樹節點(CSG Tree Nodes) 3.3.3 空間分割之八分樹結構空間(Octree Structure Cells) 3.4 平行空間分割機制(Parallel Space Subdivision Scheme) 3.4.1 CSG樹之傳送資料架構 3.4.2 平行空間分割之工作量串列(Task-List) 3.4.3 系統工作要求 3.5 八分樹結構組合 3.5.1 MISTRAL-3之缺點 3.5.2 由下而上組合策略(Button-Up Combine Strategy) 3.6 非同步空間分割機制(Asynchronous Space Subdivision Scheme) 3.7 平行光線追蹤系統-Mistral-3之缺點 3.8循序光線追蹤演算法(Sequential Ray Tracing Algorithm) 3.9平行光線追蹤機制(Parallel Ray Tracing Scheme) 3.9.1 Cache機制 3.9.2 負載平衡策略(Load Balancing Strategies) 3.10 概要(Summary) 第四章 實驗結果 4.1 實行 4.1.1 計算環境 4.1.2 測試場景 4.2 空間分割 4.2.1 加速(Speedup)與效能分析 4.2.2 資料傳輸花費分析 4.2.3 循序程式碼之比較 4.3 平行光線追蹤 4.3.1 資料傳輸花費分析 4.3.2 適應性分配策略分析(Adaptive Assigning Strategy)分析 4.3.3 快取(Cache)記憶體分析 4.3.4 循序程式碼之比較 4.4 分散式光線追蹤系統(Distributed Ray Tracing System, DRTS)整體效能分析 4.4.1 循序程式碼之比較 4.4.2 DRTS系統與模型資料複製策略之比較 4.5 DRTS系統與MISTRAL-3平行系統 4.6 概要(Summary) 第五章 結論與未來工作 5.1 結論 5.2 未來工作 附錄A 實驗結果 A.1 場景計時結果 參考資
    corecore