72 research outputs found

    Étude de la pratique du creative coding pour la production de performances génératives et interactives en milieu immersif

    Get PDF
    Qu’est-ce que les artistes tels que Memo Akten, Kyle McDonald, Kyle McLean, RobertHodgin, Chris O’Shea, Golan Levin, Zach Lieberman ont en commun? Ils partagent une pratique de l’usage créatif des outils de la programmation logicielle et une maîtrise à la fois de la programmation et de la création d’expériences. Ils imaginent des oeuvres et développent des outils disponibles pour la communauté des développeurs et artistes tels que, par exemple, l’environnement « Open Framework » par l’artiste Zach Lieberman ou Cinder par Robert Hodgin. Dans ce contexte, ce mémoire de recherche-création examine les logiques de conception incarnées par la figure du codeur créatif dans le contexte de la production d’environnements génératifs et interactifs pour la production d’expériences immersives. Les particularités de ces environnements sont les suivantes : ils sont générés en temps réel, modifiables en tout temps et offrent aux utilisateurs un certain degré de liberté. Dans ce contexte, pour le créateur ou l’artiste qui utilise l’ordinateur, la machine n’occupe pas uniquement une position d’exécutante, mais de partenaire. Ces aspects influencent les processus de conception, de création et de diffusion des oeuvres, plus particulièrement au niveau de la méthode par laquelle les projets sont générés. Ce mémoire pose donc le questionnement suivant : comment, dans un contexte de projet individuel ou de collaboration, le codeur créatif peut-il concevoir des systèmes génératifs pouvant servir d’instrument ou d’outil pour la création d’expériences immersives? Reposant sur une méthode d’étude de cas, plusieurs projets sont analysés afin d’atteindre les objectifs de cette recherche. Le premier objectif consiste en l’étude, à partir de l’analyse d’un répertoire de projets situés, de la logique de conception d’environnements immersifs interactifs utilisant des systèmes génératifs. Pour le second objectif, il s’agit, à partir de cette analyse, de proposer une certaine méthode de création itérative adaptée aux logiques de génération procédurale et de modularité propre au médium. Globalement, cette recherche vise, par l’étude de projets, à mieux cerner et comprendre la pratique artistique incarnée par la figure particulière du codeur créatif

    APIA : architecture propriété intéraction acteur pour des mondes virtuels agiles

    Get PDF
    Une majorité de mondes virtuels (MVs) existants mettent l'accent sur la qualité graphique, les capacités réseaux ou sur la qualité de la modélisation. Toutefois, ces MVs manquent souvent agilité t tant au niveau de leur conception que de leur exécution. Il en résulte des MVs monolithiques avec peu de réutilisabilité. Cette thèse propose une architecture appelée "Architecture Propriété Interaction Acteur" (APIA) qui a pour objectif d'améliorer Yagilité des MVs en se concentrant sur les caractéristiques sous-jacentes : la composabilité, la réutilisabilité, la modifiabilité, l'extensibilité et une grande liberté d'action. La solution proposée consiste en une architecture générique basée sur un méta-modèle conceptuel comprenant cinq éléments de base, supportés par un processus et des algorithmes de gestion. Comparativement aux autres approches qui sont centrées sur l'entité, le métamodèle conceptuel propose un paradigme centré sur l'interaction entre les entités. Ce paradigme permet de regrouper les protocoles entre les entités et les aspects de l'interaction dans un élément du MV nommé interaction. Plusieurs exemples, dont des applications de cryochirurgie et d'inspection de barrages, viennent démontrer que les entités et les interactions sont moins interdépendantes avec cette approche. De plus, des exemples montrent que l'émergence de comportements est facilitée due à la meilleure composabilité de cette approche. Ensuite, le processus développé avec APIA définit trois groupes d'actions qui influencent à différents niveaux Yagilité future du MV. Finalement, APIA définit des algorithmes de gestion de ces actions afin de maintenir le MV cohérent tout au long des modifications, des extensions ou des compositions en cours d'exécution. Les gestionnaires qui appliquent ces algorithmes maintiennent automatiquement la cohérent du MV lors d'opérations de modification, d'extension et de composition. Ces caractéristiques sont désormais possibles en cours d'exécution sans l'intervention humaine

    Sculpture virtuelle par système de particules

    Get PDF
    3D is emerging as a new media. Its widespread adoption requires the implementation of userfriendly tools to create and manipulate three-dimensional shapes. Current softwares heavily rely on underlying shape modeling, usually a surfacic one, and are then often counter-intuitive orlimiting. Our objective is the design of an approach alleviating those limitations and allowing the user to only focus on the process of creating forms. Drawing inspiration from the ancient use of clay,we propose to model a material in a lagrangian description. A shape is described by a particles system, where each particle represents a small fraction of the total volume of the shape. In this framework, the Smoothed Particle Hydrodynamics method enables to approximate physical values anywhere in space. Relying on this method, we propose a modeling of material with two levels, one level representing the topology and the other one describing local geometry of the shape.The SPH method especially enables to evaluate a density of matter. We use this property todefine an implicit surface based on the physical properties of the particles system to reproduce the continuous aspect of matter. Those virtual materials can then be manipulated locally through interactions reproducing the handling of dough in the real world or through global shape deformation. Our approach is demonstrated by several prototypes running either on typical desktop workstation or in immersive environment system.La 3D s'impose comme un nouveau média dont l'adoption généralisée passe par la conception d'outils, accessibles au grand public, de création et de manipulation de formes tridimensionnelles quelconques. Les outils actuels reposent fortement sur la modélisation sous-jacente des formes, généralement surfacique, et sont alors peu intuitifs ou limitatifs dans l'expressivité offerte à l'utilisateur.Nous souhaitons, dans ces travaux, définir une approche ne présentant pas ces défauts et permettant à l'utilisateur de se concentrer sur le processus créatif. En nous inspirant de l'utilisation séculaire de l'argile, nous proposons une approche modélisant la matière sous forme lagrangienne.Une forme est ainsi décrite par un système de particules, où chaque particule représente un petit volume du volume global.Dans ce cadre lagrangien, la méthode Smoothed Particle Hydrodynamics (SPH) permet l'approximation de grandeurs physiques en tout point de l'espace. Nous proposons alors une modélisation de matériaux à deux couches, l'une décrivant la topologie et l'autre décrivant la géométrie du système global.La méthode SPH permet, entre autres, d'évaluer la densité de matière. Ceci nous permet de définir une surface implicite basée sur les propriétés physiques du système de particules pour redonner un aspect continu à la matière.Ces matériaux peuvent alors être manipulés au moyen d'interactions locales reproduisant le maniement de la pâte à modeler, et de déformations globales. L'intérêt de notre approche est démontrée par plusieurs prototypes fonctionnant sur des stations de travail standard ou dans des environnements immersifs

    Conception et développement d'un SIG 3D dans une approche de service Web : exemple d'une application en modélisation géologique

    Get PDF
    Plusieurs domaines d’application comme la géologie, l’archéologie, ou l’architecture requièrent une gestion explicite de la 3e dimension pour aider, appuyer et réaliser adéquatement leur processus d’analyse et de prise de décision. Mais avons-nous à disposition les outils adéquats qui gèrent explicitement cette 3e dimension tout en appuyant la prise de décision dans des contextes spatiaux? Par exemple, les outils de conception assistée par ordinateur (CAO) offrent plusieurs fonctionnalités pour réaliser la modélisation volumique, mais sont plus limités quant aux fonctionnalités d’analyse spatiale et d’interrogation des données descriptives. Les systèmes d’information géographiques (SIG) et les systèmes de gestion de base de données (SGBD) spatiaux, quant à eux, permettent de visualiser et stocker certaines formes de modèles 3D mais n’offrent que très peu des fonctionnalités de modélisation et d’analyse que ces systèmes offrent habituellement pour le 2D. Du côté de la standardisation, l’ISO et l’OGC ont commencé à réviser certains standards comme le Schéma Spatial ISO 19107 et le Geography Markup Language (GML) afin de normaliser la gestion de la 3e dimension des données géométriques. Ce travail de recherche présente un inventaire des capacités 3D des principales géotechnologies et propose ce que nous pourrions nommer les caractéristiques fondamentales d’un SIG 3D s’appuyant sur une architecture multi tiers (client, serveur et base de données) et exploitant le concept de service Web. Cette architecture offre à partir d’un outil-client des capacités de modélisation 3D et d’interrogation des propriétés spatiales et descriptives d’un modèle 3D stocké au sein d’une base de données sur un serveur distant. Le tout, réalisé à travers le Web et implémentant les standards tels que le WFS, le GML et le Schéma Spatial ISO 19107. Pour valider ces propositions, le développement d’un prototype le Web Geological Feature Server (WGFS) a été réalisé. Le WGFS s’appuie en grande partie sur des composants logiciels open source et donne accès en lecture et en écriture à partir du logiciel CAO Gocad à des données géologiques 3D stockées en format XML dans une base de données MySQL. Son serveur d’applications (Tomcat couplé à Deegree), regroupe la logique applicative ainsi que les bases d’une bibliothèque d’opérateurs spatiaux 3D dont un premier opérateur, le 3D « bounding box », a été implémenté.Several application domains like Geology, Archeology and Architecture require an explicit management of the 3rd dimension to adequately support the analysis and decision-making process. But do we currently have the adequate tools to manage this 3rd dimension? For example, Computer Assisted Design (CAD) systems are reliable for modeling solids but have limited capability for spatial analysis and data storage. Geographic Information Systems (GIS) and Database Management Systems (DBMS) can handle visualization and storage for some 3D models but they only offer a small portion of the modeling and analysis capacities that they generally offer in 2D. Meanwhile, the International Organization for Standardization (ISO) and the Open Geospatial Consortium OGC started to update some of their standards like the ISO 19107 Spatial Schema and the Geography Markup Language (GML) in order to normalize the management of the 3rd dimension of spatial data. The current study provides a report on the capabilities of available geotechnologies to manage 3D spatial data and presents the fundamental characteristics of a new 3D-GIS based on a multi-tiered approach (client, server and database) with built-in web services. The architecture of this system provides a user with geometrical modeling, spatial analysis and querying capabilities of a 3D model stored with his descriptive properties in a database on a remote server. All this, carried out through the Web and implementing standards such as the WFS specification, the GML language and the ISO 19107 Spatial Schema. To test the feasibility of these proposals, a prototype of a Web Geological Feature Server (WGFS) is developed. The WGFS is an open source based framework that provides read/write access from the CAD software Gocad to 3D geological data (extracted from SIGEOM database) stored in XML format in a MySQL database. Its application server (Tomcat coupled to Deegree), gathers applicative logic as well as the bases of a 3D spatial operators library whose first operator, the 3D bounding box, has been implemented

    Prototype d'un guide chirurgical personnalisé pour l'installation de vis pédiculaires

    Get PDF
    Revue des connaissances -- Éléments anatomiques du rachis -- Descirption des déformations scoliotiques -- Chirurgie du rachis scoliotique -- Techniques d'assistance chirurgicale -- Reconstruction 3D -- Prototypage rapide en orthopédie -- Développement du guide, des outils de traitement et méthodologie expérimentale -- Approche générale de développement du guide chirurgical -- Construction du modèle géométrique de la vertèbre -- Design préliminaire d'un guide par recalage surface-surface -- Développement d'un second guide par recalage points-surface -- Programme de calcul des paramètres de réglage du second guide -- Évaluation expérimentale du second guide -- Guide par recalage points-surface : expérimentation et discussion des résultals -- Résultats expérimentaux obtenus avec le second design

    Un modèle hybride pour le support à l'apprentissage dans les domaines procéduraux et mal définis

    Get PDF
    Pour construire des systèmes tutoriels intelligents capables d'offrir une assistance hautement personnalisée, une solution populaire est de représenter les processus cognitifs pertinents des apprenants à l'aide d'un modèle cognitif. Toutefois, ces systèmes tuteurs dits cognitifs ne sont applicables que pour des domaines simples et bien définis, et ne couvrent pas les aspects liés à la cognition spatiale. De plus, l'acquisition des connaissances pour ces systèmes est une tâche ardue et coûteuse en temps. Pour répondre à cette problématique, cette thèse propose un modèle hybride qui combine la modélisation cognitive avec une approche novatrice basée sur la fouille de données pour extraire automatiquement des connaissances du domaine à partir de traces de résolution de problème enregistrées lors de l'usagé du système. L'approche par la fouille de données n'offre pas la finesse de la modélisation cognitive, mais elle permet d'extraire des espaces problèmes partiels pour des domaines mal définis où la modélisation cognitive n'est pas applicable. Un modèle hybride permet de profiter des avantages de la modélisation cognitive et de ceux de l'approche fouille de données. Des algorithmes sont présentés pour exploiter les connaissances et le modèle a été appliqué dans un domaine mal défini : l'apprentissage de la manipulation du bras robotisé Canadarm2. \ud ______________________________________________________________________________ \ud MOTS-CLÉS DE L’AUTEUR : Systèmes tutoriels intelligents, cognition spatiale, robotique, fouille de donnée

    Fouille de données : vers une nouvelle approche intégrant de façon cohérente et transparente la composante spatiale

    Get PDF
    Depuis quelques décennies, on assiste à une présence de plus en plus accrue de l’information géo-spatiale au sein des organisations. Cela a eu pour conséquence un stockage massif d’informations de ce type. Ce phénomène, combiné au potentiel d’informations que renferment ces données, on fait naître le besoin d’en apprendre davantage sur elles, de les utiliser à des fins d’extraction de connaissances qui puissent servir de support au processus de décision de l’entreprise. Pour cela, plusieurs approches ont été envisagées dont premièrement la mise à contribution des outils de fouille de données « traditionnelle ». Mais face à la particularité de l’information géo-spatiale, cette approche s’est soldée par un échec. De cela, est apparue la nécessité d’ériger le processus d’extraction de connaissances à partir de données géographiques en un domaine à part entière : le Geographic Knowlegde Discovery (GKD). La réponse à cette problématique, par le GKD, s’est traduite par la mise en œuvre d’approches qu’on peut catégoriser en deux grandes catégories: les approches dites de prétraitement et celles de traitement dynamique de l’information spatiale. Pour faire face aux limites de ces méthodes et outils nous proposons une nouvelle approche intégrée qui exploite l’existant en matière de fouille de données « traditionnelle ». Cette approche, à cheval entre les deux précédentes vise comme objectif principal, le support du type géo-spatial à toutes les étapes du processus de fouille de données. Pour cela, cette approche s’attachera à exploiter les relations usuelles que les entités géo-spatiales entretiennent entre elles. Un cadre viendra par la suite décrire comment cette approche supporte la composante spatiale en mettant à contribution des bibliothèques de traitement de la donnée géo-spatiale et les outils de fouille « traditionnelle »In recent decades, geospatial data has been more and more present within our organization. This has resulted in massive storage of such information and this, combined with the learning potential of such information, gives birth to the need to learn from these data, to extract knowledge that can be useful in supporting decision-making process. For this purpose, several approaches have been proposed. Among this, the first has been to deal with existing data mining tools in order to extract any knowledge of such data. But due to a specificity of geospatial information, this approach failed. From this arose the need to erect the process of extracting knowledge from geospatial data in its own right; this lead to Geographic Knowledge Discovery. The answer to this problem, by GKD, is reflected in the implementation of approaches that can be categorized into two: the so-called pre-processing approaches and the dynamic treatment of spatial relationships. Given the limitations of these approaches we propose a new approach that exploits the existing data mining tools. This approach can be seen as a compromise of the two previous. It main objective is to support geospatial data type during all steps of data mining process. To do this, the proposed approach will exploit the usual relationships that geo-spatial entities share each other. A framework will then describe how this approach supports the spatial component involving geo-spatial libraries and "traditional" data mining tool

    Conception d'un outil cognitif d'assistance à la prise de vue pour la photogrammétrie terrestre

    Get PDF
    Les infrastructures canadiennes se faisant de plus en plus vieillissantes, il est primordial d'en effectuer une surveillance régulière afin de garantir la sécurité publique. L'inspection des infrastructures consiste à suivre les déformations tridimensionnelles d'une structure sur une période donnée. Les techniques de photogrammétrie à courte portée figurent parmi les solutions permettant d'élaborer des modélisations 3D précises de structure et d'en réaliser la surveillance. Malgré leurs nombreux avantages, elles impliquent un nombre important d'étapes dont la qualité de réalisation dépend de l'expertise de l'opérateur. Ce mémoire présente la solution ergonomique de photogrammétrie courte portée qui a été élaborée pour l'acquisition et la modélisation 3D d'objets complexes. Plus spécifiquement, les composants de cette solution visent à apporter une assistance à un utilisateur non expert en photogrammétrie lors de l'acquisition des prises de vue afin de lui permettre de respecter les tolérances relatives à la configuration d'acquisition qui garantiront que le modèle 3D élaboré répond aux spécifications de précision et de complétude attendues

    Parallélisation et optimisation d'un simulateur de morphogénèse d'organes. Application aux éléments du rein

    Get PDF
    Depuis plusieurs dizaines d années, la modélisation du vivant est un enjeu majeur qui nécessite de plus en plus de travaux dans le domaine de la simulation. En effet, elle ouvre la porte à toute une palette d applications: l aide à la décision en environnement et en écologie, l aide à l enseignement, l aide à la décision pour les médecins, l aide à la recherche de nouveaux traitements pharmaceutiques et la biologie dite prédictive , etc. Avant de pouvoir aborder un problème, il est nécessaire de pouvoir modéliser de façon précise le système biologique concerné en précisant bien les questions auxquelles devra répondre le modèle. La manipulation et l étude de systèmes complexes, les systèmes biologiques en étant l archétype, pose, de façon générale, des problèmes de modélisation et de simulation. C est dans ce contexte que la société Integrative BioComputing (IBC) développe depuis le début des années 2000 un prototype d une Plateforme Générique de Modélisation et de Simulation(la PGMS) dont le but est de fournir un environnement pour modéliser et simuler plus simplement les processus et les fonctions biologiques d un organisme complet avec les organes le composant. La PGMS étant une plateforme générique encore en phase de développement, elle ne possédait pas les performances nécessaires pour permettre de réaliser la modélisation et la simulation d éléments importants dans des temps suffisamment courts. Il a donc été décidé, afin d améliorer drastiquement les performances de la PGMS, de paralléliser et d optimiser l implémentation de celle-ci; le but étant de permettre la modélisation et la simulation d organes complets dans des temps acceptables. Le travail réalisé au cours de cette thèse a donc consisté à traiter différents aspects de la modélisation et de la simulation de systèmes biologiques afin d accélérer les traitements de ceux-ci. Le traitement le plus gourmand en termes de temps de calcul lors de l exécution de la PGMS, le calcul des champs physicochimiques, a ainsi fait l objet d une étude de faisabilité de sa parallélisation. Parmi les différentes architectures disponibles pour paralléliser une telle application, notre choix s est porté sur l utilisation de GPU (Graphical Processing Unit) à des fins de calculs généralistes aussi couramment appelé GPGPU (General-Purpose computation on Graphics Processing Units). Ce choix a été réalisé du fait, entre autres, du coût réduit du matériel et de sa très grande puissance de calcul brute qui en fait une des architectures de parallélisation les plus accessibles du marché. Les résultats de l étude de faisabilité étant particulièrement concluant, la parallélisation du calcul des champs a ensuite été intégrée à la PGMS. En parallèle, nous avons également mené des travaux d optimisations pour améliorer les performances séquentielles de la PGMS. Le résultat de ces travaux est une augmentation de la vitesse d exécution d un facteur 18,12x sur les simulations les plus longues (passant de 16 minutes pour la simulation non optimisée utilisant un seul cœur CPU à 53 secondes pour la version optimisée utilisant toujours un seul cœur CPU mais aussi un GPU GTX500). L autre aspect majeur traité dans ces travaux a été d améliorer les performances algorithmiques pour la simulation d automates cellulaires en trois dimensions. En effet, ces derniers permettent aussi bien de simuler des comportements biologiques que d implémenter des mécanismes de modélisation tels que les interactions multi-échelles. Le travail de recherche s est essentiellement effectué sur des propositions algorithmiques originales afin d améliorer les simulations réalisées par IBC sur la PGMS. L accélération logicielle, à travers l implémentation de l algorithme Hash Life en trois dimensions, et la parallélisation à l aide de GPGPU ont été étudiées de façon concomitante et ont abouti à des gains très significatifs en temps de calcul.For some years, living matter modeling has been a major challenge which needs more and more research in the simulation field. Indeed, the use of models of living matter have multiple applications: decision making aid in environment or ecology, teaching tools, decision making aid for physician, research aid for new pharmaceutical treatment and predictive biology, etc. But before being able to tackle all these issues, the development of a correct model, able to give answer about specific questions, is needed. Working with complex systems biologic system being the archetype of them raises various modeling and simulation issues. It is in this context that the Integrative BioComputing (IBC) company have been elaborating, since the early 2000s, the prototype of a generic platform for modeling and simulation (PGMS). Its goal is to provide a platform used to easily model and simulate biological process of a full organism, including its organs. Since the PGMS was still in its development stage at the start of my PhD, the application performance prevented the modeling and simulation of large biological components in an acceptable time. Therefore, it has been decide to optimize and parallelize its computation to increase significantly the PGMS performances. The goal was to enable the use of the PGMS to model and simulate full organs in acceptable times. During my PhD, I had to work on various aspects of the modeling and simulation of biological systems to increase their process speed. Since the most costly process during the PGMS execution was the computation of chemical fields, I had to study the opportunity of parallelizing this process. Among the various hardware architectures available to parallelize this application, we chose to use graphical processing units for general purpose computation (GPGPUs). This choice was motivated, beside other reasons, by the low cost of the hardware compared to its massive computation power, making it one of the most affordable parallel architecture on the market. Since the results of the initial feasibility study were conclusive, the parallelization of the fields computation has been integrated into the PGMS. In parallel to this work, I also worked on optimizing the sequential performance of the application. All these works lead to an increase of the software performances achieving a speed-up of 18.12x for the longest simulation (from 16 minutes for the non-optimized version with one CPU core to 53 seconds for the optimized version, still using only one core on the CPU but also a GPU GTX500). The other major aspect of my work was to increase the algorithmic performances for the simulation of three-dimensional cellular automata. In fact, these automata allow the simulation of biological behavior as they can be used to implement various mechanisms of a model such as multi-scale interactions. The research work consisted mainly in proposing original algorithms to improve the simulation provided by IBC on the PGMS. The sequential speed increase, thanks to the three-dimensional Hash Life implementation, and the parallelization on GPGPU has been studied together and achieved major computation time improvement.CLERMONT FD-Bib.électronique (631139902) / SudocSudocFranceF
    • …
    corecore