263 research outputs found

    Algorithmes Ă©volutionnaires parallĂšles sur GPU

    Get PDF
    National audienceLes algorithmes d'optimisation tels que les algorithmes Ă©volutionnaires sont des mĂ©thodes efficaces pour rĂ©soudre des problĂšmes complexes en sciences et en industrie. MĂȘme si ces heuristiques permettent de rĂ©duire de maniĂšre significative le temps de calcul de l'exploration de l'espace de recherche d'une solution, ce dernier coĂ»t reste exorbitant lorsque de trĂšs grandes instances d'un problĂšme sont rĂ©solues. Ainsi, l'utilisation du calcul parallĂšle Ă  base de GPU est requise comme une façon complĂ©mentaire d'accĂ©lĂ©rer la recherche. Dans ce papier, on se concentra ainsi sur leur reconception, leur implĂ©mentation et les difficultĂ©s associĂ©es relatifs au contexte d'exĂ©cution du GPU. Les rĂ©sultats expĂ©rimentaux obtenus dĂ©montrent l'efficacitĂ© des approches proposĂ©es et leur capacitĂ© d'exploiter pleinement l'architecture du GPU

    Outils et méthodes pour le traitement parallÚle de calculs sur des tableaux

    Get PDF
    ModÚle de parallélisme de HPF -- Architecture du SIMD de pulse -- Partitionnement de boucles imbriquées -- Partitionnement de code de haut niveau -- Génération d'adresse pour les tableaux -- Langages de haut niveau pour la programmation SIMD -- Méthodes itératives -- Méthodes directes -- Contexte matériel -- Mise en oeuvre d'un objet-tableau C++ -- Générations d'adresses -- Patrons d'adresses -- Algorithme -- Implantation logicielle -- Implantation matérielle -- Transformations -- ParamÚtres -- Un langage de haut niveau pour les ordinateurs SIMD -- Description du langage -- Sémantique -- Tampons circulaires -- Exemple de programme -- Analyse des performances obtenues -- Génération automatique de directives HPF -- Cadre conceptuel et algorithmes -- Implantation -- Généralisation et formalisation du modÚle de partitionnement -- Classe de distribution -- Algorithmes

    Parallélisation de simulateur DEVS par métamodélisation et transformation de modÚle

    Get PDF
    This thesis proposes an engineering approach to parallelize existing DEVS simulators without having to modify the algorithms of the initial implementation, but by injecting additional components suitable for inter-component communication protocol into force. The simulation algorithms of these new components called "Coats" are defined.An engineering approach to systematize the passage from one implementation to its counterpart parallel and distributed is then proposed. This approach is based on metamodeling and models transformation principles inspired of Model Driven Engineering (MDE). Its genericity guarantees the reusability with any sequential DEVS simulator.Cette thĂšse propose une approche d’ingĂ©nierie consistant Ă  parallĂ©liser des simulateurs DEVS existants, sans ĂȘtre obligĂ© de modifier les algorithmes de l’implĂ©mentation initiale, mais en injectant des composants additionnels adaptĂ©s au protocole de communication intercomposants en vigueur. Les algorithmes de simulation de ces nouveaux composants appelĂ©s « Manteaux », sont dĂ©finis. Une dĂ©marche d’ingĂ©nierie permettant de systĂ©matiser le passage d’une implĂ©mentation Ă  sa contrepartie parallĂšle et distribuĂ©e est ensuite proposĂ©e. Cette dĂ©marche s’appuie sur les principes de mĂ©ta modĂ©lisation et de transformation de modĂšles inspirĂ©s de l’IngĂ©nierie DirigĂ©e par les ModĂšles (IDM). Sa gĂ©nĂ©ricitĂ© en garantit la rĂ©utilisabilitĂ© avec tout simulateur sĂ©quentiel DEVS

    PolyĂšdres et Compilation

    No full text
    22 pagesInternational audienceLa premiÚre utilisation de polyÚdres pour résoudre un problÚme de compilation, la parallélisation automatique de boucles en présence d'appels de procédure, a été décrite et implémenté il y a prÚs de trente ans. Le modÚle polyédrique est maintenant reconnu internationalement et est en phase d'intégration dans le compilateur GCC, bien que la complexité exponentielle des algorithmes associés ait été pendant trÚs longtemps un motif justifiant leur refus pur et simple. L'objectif de cet article est de donner de nombreux exemples d'utilisation des polyÚdres dans un compilateur optimiseur et de montrer qu'ils permettent de poser des conditions simples pour garantir la légalité de transformations

    Algorithmes passant à l’échelle pour la gestion de données du Web sémantique sur les platformes cloud

    Get PDF
    In order to build smart systems, where machines are able to reason exactly like humans, data with semantics is a major requirement. This need led to the advent of the Semantic Web, proposing standard ways for representing and querying data with semantics. RDF is the prevalent data model used to describe web resources, and SPARQL is the query language that allows expressing queries over RDF data. Being able to store and query data with semantics triggered the development of many RDF data management systems. The rapid evolution of the Semantic Web provoked the shift from centralized data management systems to distributed ones. The first systems to appear relied on P2P and client-server architectures, while recently the focus moved to cloud computing.Cloud computing environments have strongly impacted research and development in distributed software platforms. Cloud providers offer distributed, shared-nothing infrastructures that may be used for data storage and processing. The main features of cloud computing involve scalability, fault-tolerance, and elastic allocation of computing and storage resources following the needs of the users.This thesis investigates the design and implementation of scalable algorithms and systems for cloud-based Semantic Web data management. In particular, we study the performance and cost of exploiting commercial cloud infrastructures to build Semantic Web data repositories, and the optimization of SPARQL queries for massively parallel frameworks.First, we introduce the basic concepts around Semantic Web and the main components and frameworks interacting in massively parallel cloud-based systems. In addition, we provide an extended overview of existing RDF data management systems in the centralized and distributed settings, emphasizing on the critical concepts of storage, indexing, query optimization, and infrastructure. Second, we present AMADA, an architecture for RDF data management using public cloud infrastructures. We follow the Software as a Service (SaaS) model, where the complete platform is running in the cloud and appropriate APIs are provided to the end-users for storing and retrieving RDF data. We explore various storage and querying strategies revealing pros and cons with respect to performance and also to monetary cost, which is a important new dimension to consider in public cloud services. Finally, we present CliqueSquare, a distributed RDF data management system built on top of Hadoop, incorporating a novel optimization algorithm that is able to produce massively parallel plans for SPARQL queries. We present a family of optimization algorithms, relying on n-ary (star) equality joins to build flat plans, and compare their ability to find the flattest possibles. Inspired by existing partitioning and indexing techniques we present a generic storage strategy suitable for storing RDF data in HDFS (Hadoop’s Distributed File System). Our experimental results validate the efficiency and effectiveness of the optimization algorithm demonstrating also the overall performance of the system.Afin de construire des systĂšmes intelligents, où les machines sont capables de raisonner exactement comme les humains, les donnĂ©es avec sĂ©mantique sont une exigence majeure. Ce besoin a conduit à l’apparition du Web sĂ©mantique, qui propose des technologies standards pour reprĂ©senter et interroger les donnĂ©es avec sĂ©mantique. RDF est le modĂšle rĂ©pandu destiné à dĂ©crire de façon formelle les ressources Web, et SPARQL est le langage de requĂȘte qui permet de rechercher, d’ajouter, de modifier ou de supprimer des donnĂ©es RDF. Être capable de stocker et de rechercher des donnĂ©es avec sĂ©mantique a engendré le dĂ©veloppement des nombreux systĂšmes de gestion des donnĂ©es RDF.L’évolution rapide du Web sĂ©mantique a provoqué le passage de systĂšmes de gestion des donnĂ©es centralisĂ©es à ceux distribuĂ©s. Les premiers systĂšmes Ă©taient fondĂ©s sur les architectures pair-à-pair et client-serveur, alors que rĂ©cemment l’attention se porte sur le cloud computing.Les environnements de cloud computing ont fortement impacté la recherche et dĂ©veloppement dans les systĂšmes distribuĂ©s. Les fournisseurs de cloud offrent des infrastructures distribuĂ©es autonomes pouvant ĂȘtre utilisĂ©es pour le stockage et le traitement des donnĂ©es. Les principales caractĂ©ristiques du cloud computing impliquent l’évolutivitĂ©Ì, la tolĂ©rance aux pannes et l’allocation Ă©lastique des ressources informatiques et de stockage en fonction des besoins des utilisateurs.Cette thĂšse Ă©tudie la conception et la mise en Ɠuvre d’algorithmes et de systĂšmes passant à l’échelle pour la gestion des donnĂ©es du Web sĂ©mantique sur des platformes cloud. Plus particuliĂšrement, nous Ă©tudions la performance et le coĂ»t d’exploitation des services de cloud computing pour construire des entrepĂŽts de données du Web sĂ©mantique, ainsi que l’optimisation de requĂȘtes SPARQL pour les cadres massivement parallĂšles.Tout d’abord, nous introduisons les concepts de base concernant le Web sémantique et les principaux composants des systèmes fondés sur le cloud. En outre, nous présentons un aperçu des systèmes de gestion des données RDF (centralisés et distribués), en mettant l’accent sur les concepts critiques de stockage, d’indexation, d’optimisation des requêtes et d’infrastructure.Ensuite, nous présentons AMADA, une architecture de gestion de données RDF utilisant les infrastructures de cloud public. Nous adoptons le modèle de logiciel en tant que service (software as a service - SaaS), où la plateforme réside dans le cloud et des APIs appropriées sont mises à disposition des utilisateurs, afin qu’ils soient capables de stocker et de récupérer des données RDF. Nous explorons diverses stratégies de stockage et d’interrogation, et nous étudions leurs avantages et inconvénients au regard de la performance et du coût monétaire, qui est une nouvelle dimension importante à considérer dans les services de cloud public.Enfin, nous présentons CliqueSquare, un système distribué de gestion des données RDF basé sur Hadoop. CliqueSquare intègre un nouvel algorithme d’optimisation qui est capable de produire des plans massivement parallèles pour des requêtes SPARQL. Nous présentons une famille d’algorithmes d’optimisation, s’appuyant sur les équijointures n- aires pour générer des plans plats, et nous comparons leur capacité à trouver les plans les plus plats possibles. Inspirés par des techniques de partitionnement et d’indexation existantes, nous présentons une stratégie de stockage générique appropriée au stockage de données RDF dans HDFS (Hadoop Distributed File System). Nos résultats expérimentaux valident l’effectivité et l’efficacité de l’algorithme d’optimisation démontrant également la performance globale du système

    Planification interactive de trajectoire en Réalité Virtuelle sur la base de données géométriques, topologiques et sémantiques

    Get PDF
    Pour limiter le temps et le coĂ»t de dĂ©veloppement de nouveaux produits, l’industrie a besoin d’outils pour concevoir, tester et valider le produit avec des prototypes virtuels. Ces prototypes virtuels doivent permettre de tester le produit Ă  toutes les Ă©tapes du Product Lifecycle Management (PLM). Beaucoup d’opĂ©rations du cycle de vie du produit impliquent la manipulation par un humain des composants du produit (montage, dĂ©montage ou maintenance du produit). Du fait de l’intĂ©gration croissante des produits industriels, ces manipulations sont rĂ©alisĂ©es dans un environnement encombrĂ©. La RĂ©alitĂ© Virtuelle (RV) permet Ă  des opĂ©rateurs rĂ©els d’exĂ©cuter ces opĂ©rations avec des prototypes virtuels. Ce travail de recherche introduit une nouvelle architecture de planification de trajectoire permettant la collaboration d’un utilisateur de RV et d’un systĂšme de planification de trajectoire automatique. Cette architecture s’appuie sur un modĂšle d’environnement original comprenant des informations sĂ©mantiques, topologiques et gĂ©omĂ©triques. Le processus de planification automatique de trajectoire est scindĂ© en deux phases. Une planification grossiĂšre d’abord exploitant les donnĂ©es sĂ©mantiques et topologiques. Cette phase permet de dĂ©finir un chemin topologique. Une planification fine ensuite exploitant les donnĂ©es sĂ©mantiques et gĂ©omĂ©triques dĂ©termine un trajectoire gĂ©omĂ©trique dans le chemin topologique dĂ©fini lors de la planification grossiĂšre. La collaboration entre le systĂšme de planification automatique et l’utilisateur de RV s’articule autour de deux modes : en premier lieu, l’utilisateur est guidĂ© sur une trajectoire prĂ©-calculĂ©e Ă  travers une interface haptique ; en second lieu, l’utilisateur peut quitter la solution proposĂ©e et dĂ©clencher ainsi une re-planification. L’efficacitĂ© et l’ergonomie des ces deux modes d’interaction est enrichie grĂące Ă  des mĂ©thodes de partage de contrĂŽle : tout d’abord, l’autoritĂ© du systĂšme automatique est modulĂ©e afin de fournir Ă  la fois un guidage prĂ©gnant lorsque l’utilisateur le suit, et plus de libertĂ© Ă  l’utilisateur (un guidage attĂ©nuĂ©) lorsque celui-ci explore des chemins alternatifs potentiellement meilleurs. Ensuite, lorsque l’utilisateur explore des chemins alternatifs, ses intentions sont prĂ©dites (grĂące aux donnĂ©es gĂ©omĂ©triques associĂ©es aux Ă©lĂ©ments topologiques) et intĂ©grĂ©es dans le processus de re-planification pour guider la planification grossiĂšre. Ce mĂ©moire est organisĂ© en cinq chapitres. Le premier expose le contexte industriel ayant motivĂ© ces travaux. AprĂšs une description des outils de modĂ©lisation de l’environnement, le deuxiĂšme chapitre introduit le modĂšle multi-niveaux de l’environnement proposĂ©. Le troisiĂšme chapitre prĂ©sente les techniques de planification de trajectoire issues de la robotique et dĂ©taille le processus original de planification de trajectoire en deux phases dĂ©veloppĂ©. Le quatriĂšme introduit les travaux prĂ©curseurs de planification interactive de trajectoire et les techniques de partage de contrĂŽle existantes avant de dĂ©crire les modes d’interaction et les techniques de partage de contrĂŽle mises en Ɠuvre dans notre planificateur interactif de trajectoire. Enfin le dernier chapitre prĂ©sente les expĂ©rimentations menĂ©es avec le planificateur de trajectoire et en analyse leurs rĂ©sultats. ABSTRACT : To save time and money while designing new products, industry needs tools to design, test and validate the product using virtual prototypes. These virtual prototypes must enable to test the product at all Product Lifecycle Management (PLM) stages. Many operations in product’s lifecycle involve human manipulation of product components (product assembly, disassembly or maintenance). Cue to the increasing integration of industrial products, these manipulations are performed in cluttered environment. Virtual Reality (VR) enables real operators to perform these operations with virtual prototypes. This research work introduces a novel path planning architecture allowing collaboration between a VR user and an automatic path planning system. This architecture is based on an original environment model including semantic, topological and geometric information. The automatic path planning process split in two phases. First, coarse planning uses semantic and topological information. This phase defines a topological path. Then, fine planning uses semantic and geometric information to define a geometrical trajectory within the topological path defined by the coarse planning. The collaboration between VR user and automatic path planner is made of two modes: on one hand, the user is guided along a pre-computed path through a haptic device, on the other hand, the user can go away from the proposed solution and doing it, he starts a re-planning process. Efficiency and ergonomics of both interaction modes is improved thanks to control sharing methods. First, the authority of the automatic system is modulated to provide the user with a sensitive guidance while he follows it and to free the user (weakened guidance) when he explores possible better ways. Second, when the user explores possible better ways, his intents are predicted (thanks to geometrical data associated to topological elements) and integrated in the re-planning process to guide the coarse planning. This thesis is divided in five chapters. The first one exposes the industrial context that motivated this work. Following a description of environment modeling tools, the second chapter introduces the multi-layer environment model proposed. The third chapter presents the path planning techniques from robotics research and details the two phases path planning process developed. The fourth introduce previous work on interactive path planning and control sharing techniques before to describe the interaction modes and control sharing techniques involved in our interactive path planner. Finally, last chapter introduces the experimentations performed with our path planner and analyses their results

    Optimisation multi-niveau d'une application de traitement d'images sur machines parallĂšles

    Get PDF
    Cette thĂšse vise Ă  dĂ©finir une mĂ©thodologie de mise en Ɠuvre d applications performantes sur les processeurs embarquĂ©s du futur. Ces architectures nĂ©cessitent notamment d exploiter au mieux les diffĂ©rents niveaux de parallĂ©lisme (grain fin, gros grain) et de gĂ©rer les communications et les accĂšs Ă  la mĂ©moire. Pour Ă©tudier cette mĂ©thodologie, nous avons utilisĂ© un processeur cible reprĂ©sentatif de ces architectures Ă©mergentes, le processeur CELL. Le dĂ©tecteurde points d intĂ©rĂȘt de Harris est un exemple de traitement rĂ©gulier nĂ©cessitant des unitĂ©s de calcul intensif. En Ă©tudiant plusieurs schĂ©mas de mise en oeuvre sur le processeur CELL, nous avons ainsi pu mettre en Ă©vidence des mĂ©thodes d optimisation des calculs en adaptant les programmes aux unitĂ©s spĂ©cifiques de traitement SIMD du processeur CELL. L utilisation efficace de la mĂ©moire nĂ©cessite par ailleurs, Ă  la fois une bonne exploitation des transferts et un arrangement optimal des donnĂ©es en mĂ©moire. Nous avons dĂ©veloppĂ© un outil d abstraction permettant de simplifier et d automatiser les transferts et la synchronisation, CELL MPI. Cette expertise nous a permis de dĂ©velopper une mĂ©thodologie permettant de simplifier la mise en oeuvre parallĂšle optimisĂ©e de ces algorithmes. Nous avons ainsi conçu un outil de programmation parallĂšle Ă  base de squelettes algorithmiques : SKELL BE. Ce modĂšle de programmation propose une solution originale de gĂ©nĂ©ration d applications Ă  base de mĂ©taprogrammation. Il permet, de maniĂšre automatisĂ©e, d obtenir de trĂšs bonnes performances et de permettre une utilisation efficace de l architecture, comme le montre la comparaison pour un ensemble de programmes test avec plusieurs autres outils dĂ©diĂ©s Ă  ce processeur.This thesis aims to define a design methodology for high performance applications on future embedded processors. These architectures require an efficient usage of their different level of parallelism (fine-grain, coarse-grain), and a good handling of the inter-processor communications and memory accesses. In order to study this methodology, we have used a target processor which represents this type of emerging architectures, the Cell BE processor.We have also chosen a low level image processing application, the Harris points of interest detector, which is representative of a typical low level image processing application that is highly parallel. We have studied several parallelisation schemes of this application and we could establish different optimisation techniques by adapting the software to the specific SIMD units of the Cell processor. We have also developped a library named CELL MPI that allows efficient communication and synchronisation over the processing elements, using a simplified and implicit programming interface. This work allowed us to develop a methodology that simplifies the design of a parallel algorithm on the Cell processor.We have designed a parallel programming tool named SKELL BE which is based on algorithmic skeletons. This programming model providesan original solution of a meta-programming based code generator. Using SKELL BE, we can obtain very high performances applications that uses the Cell architecture efficiently when compared to other tools that exist on the market.PARIS11-SCD-Bib. Ă©lectronique (914719901) / SudocSudocFranceF

    Machine virtuelle universelle pour codage vidéo reconfigurable

    Get PDF
    Cette thĂšse propose un nouveau paradigme de reprĂ©sentation d applications pour les machines virtuelles, capable d abstraire l architecture des systĂšmes informatiques. Les machines virtuelles actuelles reposent sur un modĂšle unique de reprĂ©sentation d application qui abstrait les instructions des machines et sur un modĂšle d exĂ©cution qui traduit le fonctionnement de ces instructions vers les machines cibles. S ils sont capables de rendre les applications portables sur une vaste gamme de systĂšmes, ces deux modĂšles ne permettent pas en revanche d exprimer la concurrence sur les instructions. Or, celle-ci est indispensable pour optimiser le traitement des applications selon les ressources disponibles de la plate-forme cible. Nous avons tout d abord dĂ©veloppĂ© une reprĂ©sentation universelle d applications pour machine virtuelle fondĂ©e sur la modĂ©lisation par graphe flux de donnĂ©es. Une application est ainsi modĂ©lisĂ©e par un graphe orientĂ© dont les sommets sont des unitĂ©s de calcul (les acteurs) et dont les arcs reprĂ©sentent le flux de donnĂ©es passant au travers de ces sommets. Chaque unitĂ© de calcul peut ĂȘtre traitĂ©e indĂ©pendamment des autres sur des ressources distinctes. La concurrence sur les instructions dans l application est alors explicite. Exploiter ce nouveau formalisme de description d'applications nĂ©cessite de modifier les rĂšgles de programmation. A cette fin, nous avons introduit et dĂ©fini le concept de ReprĂ©sentation Canonique et Minimale d acteur. Il se fonde Ă  la fois sur le langage de programmation orientĂ© acteur CAL et sur les modĂšles d abstraction d instructions des machines virtuelles existantes. Notre contribution majeure qui intĂšgre les deux nouvelles reprĂ©sentations proposĂ©es, est le dĂ©veloppement d une Machine Virtuelle Universelle (MVU) dont la spĂ©cificitĂ© est de gĂ©rer les mĂ©canismes d adaptation, d optimisation et d ordonnancement Ă  partir de l infrastructure de compilation Low-Level Virtual Machine. La pertinence de cette MVU est dĂ©montrĂ©e dans le contexte normatif du codage vidĂ©o reconfigurable (RVC). En effet, MPEG RVC fournit des applications de rĂ©fĂ©rence de dĂ©codeurs conformes Ă  la norme MPEG-4 partie 2 Simple Profile sous la forme de graphe flux de donnĂ©es. L une des applications de cette thĂšse est la modĂ©lisation par graphe flux de donnĂ©es d un dĂ©codeur conforme Ă  la norme MPEG-4 partie 10 Constrained Baseline Profile qui est deux fois plus complexe que les applications de rĂ©fĂ©rence MPEG RVC. Les rĂ©sultats expĂ©rimentaux montrent un gain en performance en exĂ©cution de deux pour des plates-formes dotĂ©es de deux cƓurs par rapport Ă  une exĂ©cution mono-cƓur. Les optimisations dĂ©veloppĂ©es aboutissent Ă  un gain de 25% sur ces performances pour des temps de compilation diminuĂ©s de moitiĂ©. Les travaux effectuĂ©s dĂ©montrent le caractĂšre opĂ©rationnel et universel de cette norme dont le cadre d utilisation dĂ©passe le domaine vidĂ©o pour s appliquer Ă  d autres domaine de traitement du signal (3D, son, photo )This thesis proposes a new paradigm that abstracts the architecture of computer systems for representing virtual machines applications. Current applications are based on abstraction of machine s instructions and on an execution model that reflects operations of these instructions on the target machine. While these two models are efficient to make applications portable across a wide range of systems, they do not express concurrency between instructions. Expressing concurrency is yet essential to optimize processing of application as the number of processing units is increasing in computer systems. We first develop a universal representation of applications for virtual machines based on dataflow graph modeling. Thus, an application is modeled by a directed graph where vertices are computation units (the actors) and edges represent the flow of data between vertices. Each processing units can be treated apart independently on separate resources. Concurrency in the instructions is then made explicitly. Exploit this new description formalism of applications requires a change in programming rules. To that purpose, we introduce and define a Minimal and Canonical Representation of actors. It is both based on actor-oriented programming and on instructions abstraction used in existing Virtual Machines. Our major contribution, which incorporates the two new representations proposed, is the development of a Universal Virtual Machine (UVM) for managing specific mechanisms of adaptation, optimization and scheduling based on the Low-Level Virtual Machine (LLVM) infrastructure. The relevance of the MVU is demonstrated on the MPEG Reconfigurable Video Coding standard. In fact, MPEG RVC provides decoder s reference application compliant with the MPEG-4 part 2 Simple Profile in the form of dataflow graph. One application of this thesis is a new dataflow description of a decoder compliant with the MPEG-4 part 10 Constrained Baseline Profile, which is twice as complex as the reference MPEG RVC application. Experimental results show a gain in performance close to double on a two cores compare to a single core execution. Developed optimizations result in a gain on performance of 25% for compile times reduced by half. The work developed demonstrates the operational nature of this standard and offers a universal framework which exceeds the field of video domain (3D, sound, picture...)EVRY-INT (912282302) / SudocSudocFranceF

    Estimation des performances du systÚme PULSE V1 pour des applications de nature itérative

    Full text link
    Mémoire numérisé par la Direction des bibliothÚques de l'Université de Montréal

    Multiview Autostereoscopic Displays

    Get PDF
    This report describes the different technologies used par the manufacturers of autostereoscopic displays which are also called 3D displays. It also presents some existing 3D displays as well as the problems of resampling inherent in this kind of display. Next, it introduces more particularly the NEWSIGHT 3D displays as well as the interleaving of 8 views used by this kind of 3D display. The implementation of this interleaving on the CPU and on the GPU (programmable graphic cards) is also described
    • 

    corecore