263 research outputs found
Algorithmes Ă©volutionnaires parallĂšles sur GPU
National audienceLes algorithmes d'optimisation tels que les algorithmes Ă©volutionnaires sont des mĂ©thodes efficaces pour rĂ©soudre des problĂšmes complexes en sciences et en industrie. MĂȘme si ces heuristiques permettent de rĂ©duire de maniĂšre significative le temps de calcul de l'exploration de l'espace de recherche d'une solution, ce dernier coĂ»t reste exorbitant lorsque de trĂšs grandes instances d'un problĂšme sont rĂ©solues. Ainsi, l'utilisation du calcul parallĂšle Ă base de GPU est requise comme une façon complĂ©mentaire d'accĂ©lĂ©rer la recherche. Dans ce papier, on se concentra ainsi sur leur reconception, leur implĂ©mentation et les difficultĂ©s associĂ©es relatifs au contexte d'exĂ©cution du GPU. Les rĂ©sultats expĂ©rimentaux obtenus dĂ©montrent l'efficacitĂ© des approches proposĂ©es et leur capacitĂ© d'exploiter pleinement l'architecture du GPU
Outils et méthodes pour le traitement parallÚle de calculs sur des tableaux
ModÚle de parallélisme de HPF -- Architecture du SIMD de pulse -- Partitionnement de boucles imbriquées -- Partitionnement de code de haut niveau -- Génération d'adresse pour les tableaux -- Langages de haut niveau pour la programmation SIMD -- Méthodes itératives -- Méthodes directes -- Contexte matériel -- Mise en oeuvre d'un objet-tableau C++ -- Générations d'adresses -- Patrons d'adresses -- Algorithme -- Implantation logicielle -- Implantation matérielle -- Transformations -- ParamÚtres -- Un langage de haut niveau pour les ordinateurs SIMD -- Description du langage -- Sémantique -- Tampons circulaires -- Exemple de programme -- Analyse des performances obtenues -- Génération automatique de directives HPF -- Cadre conceptuel et algorithmes -- Implantation -- Généralisation et formalisation du modÚle de partitionnement -- Classe de distribution -- Algorithmes
Parallélisation de simulateur DEVS par métamodélisation et transformation de modÚle
This thesis proposes an engineering approach to parallelize existing DEVS simulators without having to modify the algorithms of the initial implementation, but by injecting additional components suitable for inter-component communication protocol into force. The simulation algorithms of these new components called "Coats" are defined.An engineering approach to systematize the passage from one implementation to its counterpart parallel and distributed is then proposed. This approach is based on metamodeling and models transformation principles inspired of Model Driven Engineering (MDE). Its genericity guarantees the reusability with any sequential DEVS simulator.Cette thĂšse propose une approche dâingĂ©nierie consistant Ă parallĂ©liser des simulateurs DEVS existants, sans ĂȘtre obligĂ© de modifier les algorithmes de lâimplĂ©mentation initiale, mais en injectant des composants additionnels adaptĂ©s au protocole de communication intercomposants en vigueur. Les algorithmes de simulation de ces nouveaux composants appelĂ©s « Manteaux », sont dĂ©finis. Une dĂ©marche dâingĂ©nierie permettant de systĂ©matiser le passage dâune implĂ©mentation Ă sa contrepartie parallĂšle et distribuĂ©e est ensuite proposĂ©e. Cette dĂ©marche sâappuie sur les principes de mĂ©ta modĂ©lisation et de transformation de modĂšles inspirĂ©s de lâIngĂ©nierie DirigĂ©e par les ModĂšles (IDM). Sa gĂ©nĂ©ricitĂ© en garantit la rĂ©utilisabilitĂ© avec tout simulateur sĂ©quentiel DEVS
PolyĂšdres et Compilation
22 pagesInternational audienceLa premiÚre utilisation de polyÚdres pour résoudre un problÚme de compilation, la parallélisation automatique de boucles en présence d'appels de procédure, a été décrite et implémenté il y a prÚs de trente ans. Le modÚle polyédrique est maintenant reconnu internationalement et est en phase d'intégration dans le compilateur GCC, bien que la complexité exponentielle des algorithmes associés ait été pendant trÚs longtemps un motif justifiant leur refus pur et simple. L'objectif de cet article est de donner de nombreux exemples d'utilisation des polyÚdres dans un compilateur optimiseur et de montrer qu'ils permettent de poser des conditions simples pour garantir la légalité de transformations
Algorithmes passant aÌ lâeÌchelle pour la gestion de donneÌes du Web seÌmantique sur les platformes cloud
In order to build smart systems, where machines are able to reason exactly like humans, data with semantics is a major requirement. This need led to the advent of the Semantic Web, proposing standard ways for representing and querying data with semantics. RDF is the prevalent data model used to describe web resources, and SPARQL is the query language that allows expressing queries over RDF data. Being able to store and query data with semantics triggered the development of many RDF data management systems. The rapid evolution of the Semantic Web provoked the shift from centralized data management systems to distributed ones. The first systems to appear relied on P2P and client-server architectures, while recently the focus moved to cloud computing.Cloud computing environments have strongly impacted research and development in distributed software platforms. Cloud providers offer distributed, shared-nothing infrastructures that may be used for data storage and processing. The main features of cloud computing involve scalability, fault-tolerance, and elastic allocation of computing and storage resources following the needs of the users.This thesis investigates the design and implementation of scalable algorithms and systems for cloud-based Semantic Web data management. In particular, we study the performance and cost of exploiting commercial cloud infrastructures to build Semantic Web data repositories, and the optimization of SPARQL queries for massively parallel frameworks.First, we introduce the basic concepts around Semantic Web and the main components and frameworks interacting in massively parallel cloud-based systems. In addition, we provide an extended overview of existing RDF data management systems in the centralized and distributed settings, emphasizing on the critical concepts of storage, indexing, query optimization, and infrastructure. Second, we present AMADA, an architecture for RDF data management using public cloud infrastructures. We follow the Software as a Service (SaaS) model, where the complete platform is running in the cloud and appropriate APIs are provided to the end-users for storing and retrieving RDF data. We explore various storage and querying strategies revealing pros and cons with respect to performance and also to monetary cost, which is a important new dimension to consider in public cloud services. Finally, we present CliqueSquare, a distributed RDF data management system built on top of Hadoop, incorporating a novel optimization algorithm that is able to produce massively parallel plans for SPARQL queries. We present a family of optimization algorithms, relying on n-ary (star) equality joins to build flat plans, and compare their ability to find the flattest possibles. Inspired by existing partitioning and indexing techniques we present a generic storage strategy suitable for storing RDF data in HDFS (Hadoopâs Distributed File System). Our experimental results validate the efficiency and effectiveness of the optimization algorithm demonstrating also the overall performance of the system.Afin de construire des systĂšmes intelligents, ouÌ les machines sont capables de raisonner exactement comme les humains, les donnĂ©es avec sĂ©mantique sont une exigence majeure. Ce besoin a conduit aÌ lâapparition du Web sĂ©mantique, qui propose des technologies standards pour reprĂ©senter et interroger les donnĂ©es avec sĂ©mantique. RDF est le modĂšle rĂ©pandu destineÌ aÌ dĂ©crire de façon formelle les ressources Web, et SPARQL est le langage de requĂȘte qui permet de rechercher, dâajouter, de modifier ou de supprimer des donnĂ©es RDF. Ătre capable de stocker et de rechercher des donnĂ©es avec sĂ©mantique a engendreÌ le dĂ©veloppement des nombreux systĂšmes de gestion des donnĂ©es RDF.LâĂ©volution rapide du Web sĂ©mantique a provoqueÌ le passage de systĂšmes de gestion des donnĂ©es centralisĂ©es aÌ ceux distribuĂ©s. Les premiers systĂšmes Ă©taient fondĂ©s sur les architectures pair-aÌ-pair et client-serveur, alors que rĂ©cemment lâattention se porte sur le cloud computing.Les environnements de cloud computing ont fortement impacteÌ la recherche et dĂ©veloppement dans les systĂšmes distribuĂ©s. Les fournisseurs de cloud offrent des infrastructures distribuĂ©es autonomes pouvant ĂȘtre utilisĂ©es pour le stockage et le traitement des donnĂ©es. Les principales caractĂ©ristiques du cloud computing impliquent lâĂ©volutivitĂ©Ì, la tolĂ©rance aux pannes et lâallocation Ă©lastique des ressources informatiques et de stockage en fonction des besoins des utilisateurs.Cette thĂšse Ă©tudie la conception et la mise en Ćuvre dâalgorithmes et de systĂšmes passant aÌ lâĂ©chelle pour la gestion des donnĂ©es du Web sĂ©mantique sur des platformes cloud. Plus particuliĂšrement, nous Ă©tudions la performance et le coĂ»t dâexploitation des services de cloud computing pour construire des entrepĂŽts de donneÌes du Web sĂ©mantique, ainsi que lâoptimisation de requĂȘtes SPARQL pour les cadres massivement parallĂšles.Tout dâabord, nous introduisons les concepts de base concernant le Web seÌmantique et les principaux composants des systeÌmes fondeÌs sur le cloud. En outre, nous preÌsentons un aperçu des systeÌmes de gestion des donneÌes RDF (centraliseÌs et distribueÌs), en mettant lâaccent sur les concepts critiques de stockage, dâindexation, dâoptimisation des requeÌtes et dâinfrastructure.Ensuite, nous preÌsentons AMADA, une architecture de gestion de donneÌes RDF utilisant les infrastructures de cloud public. Nous adoptons le modeÌle de logiciel en tant que service (software as a service - SaaS), ouÌ la plateforme reÌside dans le cloud et des APIs approprieÌes sont mises aÌ disposition des utilisateurs, afin quâils soient capables de stocker et de reÌcupeÌrer des donneÌes RDF. Nous explorons diverses strateÌgies de stockage et dâinterrogation, et nous eÌtudions leurs avantages et inconveÌnients au regard de la performance et du couÌt moneÌtaire, qui est une nouvelle dimension importante aÌ consideÌrer dans les services de cloud public.Enfin, nous preÌsentons CliqueSquare, un systeÌme distribueÌ de gestion des donneÌes RDF baseÌ sur Hadoop. CliqueSquare inteÌgre un nouvel algorithme dâoptimisation qui est capable de produire des plans massivement paralleÌles pour des requeÌtes SPARQL. Nous preÌsentons une famille dâalgorithmes dâoptimisation, sâappuyant sur les eÌquijointures n- aires pour geÌneÌrer des plans plats, et nous comparons leur capaciteÌ aÌ trouver les plans les plus plats possibles. InspireÌs par des techniques de partitionnement et dâindexation existantes, nous preÌsentons une strateÌgie de stockage geÌneÌrique approprieÌe au stockage de donneÌes RDF dans HDFS (Hadoop Distributed File System). Nos reÌsultats expeÌrimentaux valident lâeffectiviteÌ et lâefficaciteÌ de lâalgorithme dâoptimisation deÌmontrant eÌgalement la performance globale du systeÌme
Planification interactive de trajectoire en Réalité Virtuelle sur la base de données géométriques, topologiques et sémantiques
Pour limiter le temps et le coĂ»t de dĂ©veloppement de nouveaux produits, lâindustrie a besoin dâoutils pour concevoir, tester et valider le produit avec des prototypes virtuels. Ces prototypes virtuels doivent permettre de tester le produit Ă toutes les Ă©tapes du Product Lifecycle Management (PLM). Beaucoup dâopĂ©rations du cycle de vie du produit impliquent la manipulation par un humain des composants du produit (montage, dĂ©montage ou maintenance du produit). Du fait de lâintĂ©gration croissante des produits industriels, ces manipulations sont rĂ©alisĂ©es dans un environnement encombrĂ©. La RĂ©alitĂ© Virtuelle (RV) permet Ă des opĂ©rateurs rĂ©els dâexĂ©cuter ces opĂ©rations avec des prototypes virtuels. Ce travail de recherche introduit une nouvelle architecture de planification de trajectoire permettant la collaboration dâun utilisateur de RV et dâun systĂšme de planification de trajectoire automatique. Cette architecture sâappuie sur un modĂšle dâenvironnement original comprenant des informations sĂ©mantiques, topologiques et gĂ©omĂ©triques. Le processus de planification automatique de trajectoire est scindĂ© en deux phases. Une planification grossiĂšre dâabord exploitant les donnĂ©es sĂ©mantiques et topologiques. Cette phase permet de dĂ©finir un chemin topologique. Une planification fine ensuite exploitant les donnĂ©es sĂ©mantiques et gĂ©omĂ©triques dĂ©termine un trajectoire gĂ©omĂ©trique dans le chemin topologique dĂ©fini lors de la planification grossiĂšre. La collaboration entre le systĂšme de planification automatique et lâutilisateur de RV sâarticule autour de deux modes : en premier lieu, lâutilisateur est guidĂ© sur une trajectoire prĂ©-calculĂ©e Ă travers une interface haptique ; en second lieu, lâutilisateur peut quitter la solution proposĂ©e et dĂ©clencher ainsi une re-planification. LâefficacitĂ© et lâergonomie des ces deux modes dâinteraction est enrichie grĂące Ă des mĂ©thodes de partage de contrĂŽle : tout dâabord, lâautoritĂ© du systĂšme automatique est modulĂ©e afin de fournir Ă la fois un guidage prĂ©gnant lorsque lâutilisateur le suit, et plus de libertĂ© Ă lâutilisateur (un guidage attĂ©nuĂ©) lorsque celui-ci explore des chemins alternatifs potentiellement meilleurs. Ensuite, lorsque lâutilisateur explore des chemins alternatifs, ses intentions sont prĂ©dites (grĂące aux donnĂ©es gĂ©omĂ©triques associĂ©es aux Ă©lĂ©ments topologiques) et intĂ©grĂ©es dans le processus de re-planification pour guider la planification grossiĂšre. Ce mĂ©moire est organisĂ© en cinq chapitres. Le premier expose le contexte industriel ayant motivĂ© ces travaux. AprĂšs une description des outils de modĂ©lisation de lâenvironnement, le deuxiĂšme chapitre introduit le modĂšle multi-niveaux de lâenvironnement proposĂ©. Le troisiĂšme chapitre prĂ©sente les techniques de planification de trajectoire issues de la robotique et dĂ©taille le processus original de planification de trajectoire en deux phases dĂ©veloppĂ©. Le quatriĂšme introduit les travaux prĂ©curseurs de planification interactive de trajectoire et les techniques de partage de contrĂŽle existantes avant de dĂ©crire les modes dâinteraction et les techniques de partage de contrĂŽle mises en Ćuvre dans notre planificateur interactif de trajectoire. Enfin le dernier chapitre prĂ©sente les expĂ©rimentations menĂ©es avec le planificateur de trajectoire et en analyse leurs rĂ©sultats. ABSTRACT : To save time and money while designing new products, industry needs tools to design, test and validate the product using virtual prototypes. These virtual prototypes must enable to test the product at all Product Lifecycle Management (PLM) stages. Many operations in productâs lifecycle involve human manipulation of product components (product assembly, disassembly or maintenance). Cue to the increasing integration of industrial products, these manipulations are performed in cluttered environment. Virtual Reality (VR) enables real operators to perform these operations with virtual prototypes. This research work introduces a novel path planning architecture allowing collaboration between a VR user and an automatic path planning system. This architecture is based on an original environment model including semantic, topological and geometric information. The automatic path planning process split in two phases. First, coarse planning uses semantic and topological information. This phase defines a topological path. Then, fine planning uses semantic and geometric information to define a geometrical trajectory within the topological path defined by the coarse planning. The collaboration between VR user and automatic path planner is made of two modes: on one hand, the user is guided along a pre-computed path through a haptic device, on the other hand, the user can go away from the proposed solution and doing it, he starts a re-planning process. Efficiency and ergonomics of both interaction modes is improved thanks to control sharing methods. First, the authority of the automatic system is modulated to provide the user with a sensitive guidance while he follows it and to free the user (weakened guidance) when he explores possible better ways. Second, when the user explores possible better ways, his intents are predicted (thanks to geometrical data associated to topological elements) and integrated in the re-planning process to guide the coarse planning. This thesis is divided in five chapters. The first one exposes the industrial context that motivated this work. Following a description of environment modeling tools, the second chapter introduces the multi-layer environment model proposed. The third chapter presents the path planning techniques from robotics research and details the two phases path planning process developed. The fourth introduce previous work on interactive path planning and control sharing techniques before to describe the interaction modes and control sharing techniques involved in our interactive path planner. Finally, last chapter introduces the experimentations performed with our path planner and analyses their results
Optimisation multi-niveau d'une application de traitement d'images sur machines parallĂšles
Cette thĂšse vise Ă dĂ©finir une mĂ©thodologie de mise en Ćuvre d applications performantes sur les processeurs embarquĂ©s du futur. Ces architectures nĂ©cessitent notamment d exploiter au mieux les diffĂ©rents niveaux de parallĂ©lisme (grain fin, gros grain) et de gĂ©rer les communications et les accĂšs Ă la mĂ©moire. Pour Ă©tudier cette mĂ©thodologie, nous avons utilisĂ© un processeur cible reprĂ©sentatif de ces architectures Ă©mergentes, le processeur CELL. Le dĂ©tecteurde points d intĂ©rĂȘt de Harris est un exemple de traitement rĂ©gulier nĂ©cessitant des unitĂ©s de calcul intensif. En Ă©tudiant plusieurs schĂ©mas de mise en oeuvre sur le processeur CELL, nous avons ainsi pu mettre en Ă©vidence des mĂ©thodes d optimisation des calculs en adaptant les programmes aux unitĂ©s spĂ©cifiques de traitement SIMD du processeur CELL. L utilisation efficace de la mĂ©moire nĂ©cessite par ailleurs, Ă la fois une bonne exploitation des transferts et un arrangement optimal des donnĂ©es en mĂ©moire. Nous avons dĂ©veloppĂ© un outil d abstraction permettant de simplifier et d automatiser les transferts et la synchronisation, CELL MPI. Cette expertise nous a permis de dĂ©velopper une mĂ©thodologie permettant de simplifier la mise en oeuvre parallĂšle optimisĂ©e de ces algorithmes. Nous avons ainsi conçu un outil de programmation parallĂšle Ă base de squelettes algorithmiques : SKELL BE. Ce modĂšle de programmation propose une solution originale de gĂ©nĂ©ration d applications Ă base de mĂ©taprogrammation. Il permet, de maniĂšre automatisĂ©e, d obtenir de trĂšs bonnes performances et de permettre une utilisation efficace de l architecture, comme le montre la comparaison pour un ensemble de programmes test avec plusieurs autres outils dĂ©diĂ©s Ă ce processeur.This thesis aims to define a design methodology for high performance applications on future embedded processors. These architectures require an efficient usage of their different level of parallelism (fine-grain, coarse-grain), and a good handling of the inter-processor communications and memory accesses. In order to study this methodology, we have used a target processor which represents this type of emerging architectures, the Cell BE processor.We have also chosen a low level image processing application, the Harris points of interest detector, which is representative of a typical low level image processing application that is highly parallel. We have studied several parallelisation schemes of this application and we could establish different optimisation techniques by adapting the software to the specific SIMD units of the Cell processor. We have also developped a library named CELL MPI that allows efficient communication and synchronisation over the processing elements, using a simplified and implicit programming interface. This work allowed us to develop a methodology that simplifies the design of a parallel algorithm on the Cell processor.We have designed a parallel programming tool named SKELL BE which is based on algorithmic skeletons. This programming model providesan original solution of a meta-programming based code generator. Using SKELL BE, we can obtain very high performances applications that uses the Cell architecture efficiently when compared to other tools that exist on the market.PARIS11-SCD-Bib. Ă©lectronique (914719901) / SudocSudocFranceF
Machine virtuelle universelle pour codage vidéo reconfigurable
Cette thĂšse propose un nouveau paradigme de reprĂ©sentation d applications pour les machines virtuelles, capable d abstraire l architecture des systĂšmes informatiques. Les machines virtuelles actuelles reposent sur un modĂšle unique de reprĂ©sentation d application qui abstrait les instructions des machines et sur un modĂšle d exĂ©cution qui traduit le fonctionnement de ces instructions vers les machines cibles. S ils sont capables de rendre les applications portables sur une vaste gamme de systĂšmes, ces deux modĂšles ne permettent pas en revanche d exprimer la concurrence sur les instructions. Or, celle-ci est indispensable pour optimiser le traitement des applications selon les ressources disponibles de la plate-forme cible. Nous avons tout d abord dĂ©veloppĂ© une reprĂ©sentation universelle d applications pour machine virtuelle fondĂ©e sur la modĂ©lisation par graphe flux de donnĂ©es. Une application est ainsi modĂ©lisĂ©e par un graphe orientĂ© dont les sommets sont des unitĂ©s de calcul (les acteurs) et dont les arcs reprĂ©sentent le flux de donnĂ©es passant au travers de ces sommets. Chaque unitĂ© de calcul peut ĂȘtre traitĂ©e indĂ©pendamment des autres sur des ressources distinctes. La concurrence sur les instructions dans l application est alors explicite. Exploiter ce nouveau formalisme de description d'applications nĂ©cessite de modifier les rĂšgles de programmation. A cette fin, nous avons introduit et dĂ©fini le concept de ReprĂ©sentation Canonique et Minimale d acteur. Il se fonde Ă la fois sur le langage de programmation orientĂ© acteur CAL et sur les modĂšles d abstraction d instructions des machines virtuelles existantes. Notre contribution majeure qui intĂšgre les deux nouvelles reprĂ©sentations proposĂ©es, est le dĂ©veloppement d une Machine Virtuelle Universelle (MVU) dont la spĂ©cificitĂ© est de gĂ©rer les mĂ©canismes d adaptation, d optimisation et d ordonnancement Ă partir de l infrastructure de compilation Low-Level Virtual Machine. La pertinence de cette MVU est dĂ©montrĂ©e dans le contexte normatif du codage vidĂ©o reconfigurable (RVC). En effet, MPEG RVC fournit des applications de rĂ©fĂ©rence de dĂ©codeurs conformes Ă la norme MPEG-4 partie 2 Simple Profile sous la forme de graphe flux de donnĂ©es. L une des applications de cette thĂšse est la modĂ©lisation par graphe flux de donnĂ©es d un dĂ©codeur conforme Ă la norme MPEG-4 partie 10 Constrained Baseline Profile qui est deux fois plus complexe que les applications de rĂ©fĂ©rence MPEG RVC. Les rĂ©sultats expĂ©rimentaux montrent un gain en performance en exĂ©cution de deux pour des plates-formes dotĂ©es de deux cĆurs par rapport Ă une exĂ©cution mono-cĆur. Les optimisations dĂ©veloppĂ©es aboutissent Ă un gain de 25% sur ces performances pour des temps de compilation diminuĂ©s de moitiĂ©. Les travaux effectuĂ©s dĂ©montrent le caractĂšre opĂ©rationnel et universel de cette norme dont le cadre d utilisation dĂ©passe le domaine vidĂ©o pour s appliquer Ă d autres domaine de traitement du signal (3D, son, photo )This thesis proposes a new paradigm that abstracts the architecture of computer systems for representing virtual machines applications. Current applications are based on abstraction of machine s instructions and on an execution model that reflects operations of these instructions on the target machine. While these two models are efficient to make applications portable across a wide range of systems, they do not express concurrency between instructions. Expressing concurrency is yet essential to optimize processing of application as the number of processing units is increasing in computer systems. We first develop a universal representation of applications for virtual machines based on dataflow graph modeling. Thus, an application is modeled by a directed graph where vertices are computation units (the actors) and edges represent the flow of data between vertices. Each processing units can be treated apart independently on separate resources. Concurrency in the instructions is then made explicitly. Exploit this new description formalism of applications requires a change in programming rules. To that purpose, we introduce and define a Minimal and Canonical Representation of actors. It is both based on actor-oriented programming and on instructions abstraction used in existing Virtual Machines. Our major contribution, which incorporates the two new representations proposed, is the development of a Universal Virtual Machine (UVM) for managing specific mechanisms of adaptation, optimization and scheduling based on the Low-Level Virtual Machine (LLVM) infrastructure. The relevance of the MVU is demonstrated on the MPEG Reconfigurable Video Coding standard. In fact, MPEG RVC provides decoder s reference application compliant with the MPEG-4 part 2 Simple Profile in the form of dataflow graph. One application of this thesis is a new dataflow description of a decoder compliant with the MPEG-4 part 10 Constrained Baseline Profile, which is twice as complex as the reference MPEG RVC application. Experimental results show a gain in performance close to double on a two cores compare to a single core execution. Developed optimizations result in a gain on performance of 25% for compile times reduced by half. The work developed demonstrates the operational nature of this standard and offers a universal framework which exceeds the field of video domain (3D, sound, picture...)EVRY-INT (912282302) / SudocSudocFranceF
Estimation des performances du systÚme PULSE V1 pour des applications de nature itérative
Mémoire numérisé par la Direction des bibliothÚques de l'Université de Montréal
Multiview Autostereoscopic Displays
This report describes the different technologies used par the manufacturers of autostereoscopic displays which are also called 3D displays. It also presents some existing 3D displays as well as the problems of resampling inherent in this kind of display. Next, it introduces more particularly the NEWSIGHT 3D displays as well as the interleaving of 8 views used by this kind of 3D display. The implementation of this interleaving on the CPU and on the GPU (programmable graphic cards) is also described
- âŠ