57 research outputs found

    Lire les Lignes de la Ville: Méthodologie de caractérisation des graphes spatiaux

    Get PDF
    Cities can be seen as the epitome of complex systems. They arise from a set of interactions and components so diverse that is almost impossible to describe them exhaustively. Amid this diversity, we chose an object which orchestrates the development and use of an urban area : the road network. Following the established work on space syntax, we represent road networks as graphs. From this symbolic representation we can build a geographical object called the way. The way is defined by local rules independently from the direction in which the network is read. This complex object, and several indicators leaned upon it, allows us to carry out deep analysis of spatial networks, independent from their borders.With this methodology, we demonstrate how different road graphs, from various places in the world, show similar properties. We show how such analysis, based on the topological and topographical properties of their road networks, allows us to trace back some aspects of the historical and geographical contexts of city formation. We define a model of temporal differentiation, where the structural changes through time in the network are highlighted.This methodology was thought to be generic so it can be used with several kinds of spatial networks, opening the panel of research applications and future work.La ville est un parfait exemple de système complexe. Elle regroupe une telle diversité de composants et d’interactions qu’il est impossible d’en faire une description exhaustive. Parmi sa pluralité, nous choisissons un élément qui structure son développement et son usage : le réseau de ses rues. Suivant la piste initiée par les travaux en syntaxe spatiale, nous traduisons ce réseau sous forme de graphe. À partir de cette représentation, nous construisons un objet, la voie, par des règles locales, indépendantes du sens de lecture du réseau. Cet objet, sur lequel s'appuie le développement de plusieurs indicateurs, permet une étude approfondie des graphes spatiaux, indépendamment de l’emprise choisie.L’application de cette méthodologie nous permet de mettre en évidence les propriétés particulières partagées par des graphes viaires de différents continents. Nous montrons ainsi comment l’analyse de villes, à travers les propriétés topologiques et topographiques de leurs réseaux viaires, permet de retrouver une partie des contextes historiques et géographiques de leur construction. Dans une approche diachronique, nous détaillons la construction d'une méthodologie de différentiation temporelle. Celle-ci nous permet d'apprécier l'impact structurel des modifications opérées sur un graphe viaire.La méthodologie développée a été conçue pour pouvoir être appliquée à n'importe quel type de réseau spatial, permettant ainsi d'ouvrir ce travail vers de nombreuses pistes de recherches

    Application des cartes combinatoires à la modélisation géométrique et sémantique des bâtiments

    Get PDF
    3D building models are widely used in the civil engineering industry. While the models are needed by several applications, such as architectural representations and simulation processes, they often lack of information that are of major importance for the consistency of the calculations. The original models are then often rebuilt in the way that fits better to the intended applications. To overcome this drawback, we introduce a framework allowing to enrich a 3D model of a building presenting just a geometry, in a way more interoperable model, by adding to it topological and semantic information. A cellular subdivision of the building space is first performed relying on its geometry, then the topological relationships between the cells are explicitely defined. Semantic labels are then attributed to the identified components based on the topology and defined heuristic rules. A 3D combinatorial map data structure (3-map) is used to handle the reconstructed information. From the enriched model we show how to extract applications-driven information allowing to perform acoustic simulation and indoor ray tracing navigation. The approach stands as a bridge between the modeling approaches and the applications in building analysis using the model. It is fully automatic and present interesting results on several types of building modelsLes modèles 3D de bâtiment sont largement utilisés dans l'industrie de la construction et sont nécessités par plusieurs applications telles que la représentation architecturale et les processus de simulation. Malheureusement, ces modèles manquent souvent d'informations d'une importance majeure pour permettre d'effectuer des opérations d'analyse et de calcul. Les modèles originaux sont alors souvent reconstruits par les différents acteurs qui les utilisent afin de les rendre plus adaptés à leur besoins. Dans le but de pallier ce problème, nous introduisons une approche permettant d'enrichir un modèle 3D de bâtiment et le rendre beaucoup plus interopérable. À partir de l'information géométrique seulement, nous rajoutons au modèle des informations topologiques et sémantiques. Une subdivision cellulaire de l'espace occupé par le bâtiment est d'abord effectuée en se basant sur sa géométrie, puis les relations topologiques entre les cellules sont reconstruites et explicitement définies. Des étiquettes sémantiques sont ensuite attribuées aux composants identifiés du bâtiment à l'aide de la topologie reconstruite et des règles heuristiques prédéfinies. Une structure de données topologique appelée carte combinatoire 3D (3-carte) est utilisée comme une base solide pour la mise au point des opération de reconstruction et le traitement des informations reconstruites. À partir du modèle enrichi, nous montrons comment extraire des données pour des applications dédiées, par exemple la simulation acoustique et lancer de rayon pour la navigation intérieure. Notre méthode se présente comme un pont entre les approches de modélisation et les applications d'analyse du bâtiment qui utilisent ces modèles. Il est entièrement automatique et présente des résultats intéressants sur plusieurs types de modèle

    A general method for the recognition of 3D curves : Application to the identification of cortical sulci in magnetic resonance images

    Get PDF
    Many studies dealing with the human brain use the spatial coordinate system of cortical anatomy to localise functional regions . Unfortunately, cerebral anatomy is highly variable from one individual to another, particularly at the level of cortical folds calle d cortical sulci . The analysis of anatomical examinations must therefore be individualised in order to localise such structures . Interactive interpretation of MRI is a tedious task that could be greatly lightened thanks to computer-based assistance . In this paper, an automatic system for the recognition of the superficial part of cortical sulci is described . A general method for the recognitio n of 3D curves is presented . It hinges upon a statistical model composed of a fully connected graph . Its nodes are 3D curves, and its edges are the relations between these curves . Image primitives consisting in 3D segments are extracted from the input 3D image . These lines are grouped together in order to generate hypothesis nodes, then edges between nodes are computed and validated The recognition of model curves is based on a sub-graph isomorphism search between a model graph and sub-graphs made o f lines extracted from the input image . Our method integrates an auto-adaptive mechanism to deal with missing or inexact data . The method has been applied to the automatic identification of the superficial part of six major cortical sulci . Our database i s composed of 28 MRI examinations from healthy adult volunteers, where cortical sulci have been manually labelled . Despite th e great interindividual variability of cortical anatomy, results are quite promising .Un grand nombre d'études menées sur le cerveau humain utilisent le référentiel spatial de l'anatomie corticale pour localiser les régions fonctionnelles. Cependant, l'anatomie cérébrale s'avère extrêmement variable d'un individu à l'autre, en particulier au niveau des plis du cortex appelés sillons corticaux. Une analyse individualisée des images est donc nécessaire pour localiser ces structures. Sa réalisation interactive représente une tâche fastidieuse qui est susceptible d'être considérablement allégée grâce à une assistance informatisée. Cet article propose une méthode de reconnaissance automatique de la partie surfacique des sillons corticaux, s'appuyant sur un modèle statistique de ceux-ci. En parallèle, sont présentées une méthode générale de reconnaissance de courbes 3D et son application à l'identification de la partie débouchante de six sillons corticaux majeurs. La méthode s'appuie sur un modèle constitué d'un graphe statistique complètement connecté dont les noeuds représentent des courbes 3D et les arcs les relations qui les unissent. Des primitives 3D sont extraites de l'image à traiter; ce sont des portions de lignes 3D, et, dans l'application, des portions de sillons. Ces lignes sont associées pour former des noeuds hypothèses, puis des arcs entre ces noeuds sont calculés et validés. Reconnaître les courbes recherchées consiste à trouver des isomorphismes entre le graphe modèle et des sous-graphes de lignes issus de l'image. La méthode intègre un mécanisme d'autoadaptation aux données manquantes ou inexactes. Cette étude s'appuie sur une base expertisée de 28 examens IRM issus de sujets adultes sains. Les résultats obtenus sont satisfaisants malgré la très grande variabilité interindividuelle de l'anatomie corticale

    Contribution à l'analyse de la dynamique des écritures anciennes pour l'aide à l'expertise paléographique

    Get PDF
    Mes travaux de thèse s inscrivent dans le cadre du projet ANR GRAPHEM1 (Graphemebased Retrieval and Analysis for PaleograpHic Expertise of Middle Age Manuscripts). Ilsprésentent une contribution méthodologique applicable à l'analyse automatique des écrituresanciennes pour assister les experts en paléographie dans le délicat travail d étude et dedéchiffrage des écritures.L objectif principal est de contribuer à une instrumetation du corpus des manuscritsmédiévaux détenus par l Institut de Recherche en Histoire des Textes (IRHT Paris) en aidantles paléographes spécialisés dans ce domaine dans leur travail de compréhension de l évolutiondes formes de l écriture par la mise en place de méthodes efficaces d accès au contenu desmanuscrits reposant sur une analyse fine des formes décrites sous la formes de petits fragments(les graphèmes). Dans mes travaux de doctorats, j ai choisi d étudier la dynamique del élément le plus basique de l écriture appelé le ductus2 et qui d après les paléographes apportebeaucoup d informations sur le style d écriture et l époque d élaboration du manuscrit.Mes contributions majeures se situent à deux niveaux : une première étape de prétraitementdes images fortement dégradées assurant une décomposition optimale des formes en graphèmescontenant l information du ductus. Pour cette étape de décomposition des manuscrits, nousavons procédé à la mise en place d une méthodologie complète de suivi de traits à partir del extraction d un squelette obtenu à partir de procédures de rehaussement de contraste et dediffusion de gradients. Le suivi complet du tracé a été obtenu à partir de l application des règlesfondamentales d exécution des traits d écriture, enseignées aux copistes du Moyen Age. Il s agitd information de dynamique de formation des traits portant essentiellement sur des indicationsde directions privilégiées.Dans une seconde étape, nous avons cherché à caractériser ces graphèmes par desdescripteurs de formes visuelles compréhensibles à la fois par les paléographes et lesinformaticiens et garantissant une représentation la plus complète possible de l écriture d unpoint de vue géométrique et morphologique. A partir de cette caractérisation, nous avonsproposé une approche de clustering assurant un regroupement des graphèmes en classeshomogènes par l utilisation d un algorithme de classification non-supervisé basée sur lacoloration de graphe. Le résultat du clustering des graphèmes a conduit à la formation dedictionnaires de formes caractérisant de manière individuelle et discriminante chaque manuscrittraité. Nous avons également étudié la puissance discriminatoire de ces descripteurs afin d obtenir la meilleure représentation d un manuscrit en dictionnaire de formes. Cette étude a étéfaite en exploitant les algorithmes génétiques par leur capacité à produire de bonne sélection decaractéristiques.L ensemble de ces contributions a été testé à partir d une application CBIR sur trois bases demanuscrits dont deux médiévales (manuscrits de la base d Oxford et manuscrits de l IRHT, baseprincipale du projet), et une base comprenant de manuscrits contemporains utilisée lors de lacompétition d identification de scripteurs d ICDAR 2011. L exploitation de notre méthode dedescription et de classification a été faite sur une base contemporaine afin de positionner notrecontribution par rapport aux autres travaux relevant du domaine de l identification d écritures etétudier son pouvoir de généralisation à d autres types de documents. Les résultats trèsencourageants que nous avons obtenus sur les bases médiévales et la base contemporaine, ontmontré la robustesse de notre approche aux variations de formes et de styles et son caractèrerésolument généralisable à tout type de documents écrits.My thesis work is part of the ANR GRAPHEM Project (Grapheme based Retrieval andAnalysis for Expertise paleographic Manuscripts of Middle Age). It represents a methodologicalcontribution applicable to the automatic analysis of ancient writings to assist the experts inpaleography in the delicate work of the studying and deciphering the writing.The main objective is to contribute to an instrumentation of the corpus of medievalmanuscripts held by Institut de Recherche en Histoire de Textes (IRHT-Paris), by helping thepaleographers specialized in this field in their work of understanding the evolution of forms inthe writing, with the establishment of effective methods to access the contents of manuscriptsbased on a fine analysis of the forms described in the form of small fragments (graphemes). Inmy PhD work, I chose to study the dynamic of the most basic element of the writing called theductus and which according to the paleographers, brings a lot of information on the style ofwriting and the era of the elaboration of the manuscript.My major contribution is situated at two levels: a first step of preprocessing of severelydegraded images to ensure an optimal decomposition of the forms into graphemes containingthe ductus information. For this decomposition step of manuscripts, we have proceeded to theestablishment of a complete methodology for the tracings of strokes by the extraction of theskeleton obtained from the contrast enhancement and the diffusion of the gradient procedures.The complete tracking of the strokes was obtained from the application of fundamentalexecution rules of the strokes taught to the scribes of the Middle Ages. It is related to thedynamic information of the formation of strokes focusing essentially on indications of theprivileged directions.In a second step, we have tried to characterize the graphemes by visual shape descriptorsunderstandable by both the computer scientists and the paleographers and thus unsuring themost complete possible representation of the wrting from a geometrical and morphological pointof view. From this characterization, we have have proposed a clustering approach insuring agrouping of graphemes into homogeneous classes by using a non-supervised classificationalgorithm based on the graph coloring. The result of the clustering of graphemes led to theformation of a codebook characterizing in an individual and discriminating way each processedmanuscript. We have also studied the discriminating power of the descriptors in order to obtaina better representation of a manuscript into a codebook. This study was done by exploiting thegenetic algorithms by their ability to produce a good feature selection.The set of the contributions was tested from a CBIR application on three databases ofmanuscripts including two medieval databases (manuscripts from the Oxford and IRHTdatabases), and database of containing contemporary manuscripts used in the writersidentification contest of ICDAR 2011. The exploitation of our description and classificationmethod was applied on a cotemporary database in order to position our contribution withrespect to other relevant works in the writrings identification domain and study itsgeneralization power to other types of manuscripts. The very encouraging results that weobtained on the medieval and contemporary databases, showed the robustness of our approachto the variations of the shapes and styles and its resolutely generalized character to all types ofhandwritten documents.PARIS5-Bibliotheque electronique (751069902) / SudocSudocFranceF

    MIMESIS, un environnement de conception et de simulation de modèles physiques particulaires masses-interactions CORDIS-ANIMA pour l'animation : du mouvement généré à l'image du mouvement

    Get PDF
    This thesis deals with the design of a computer framework dedicaced to animation by the physical mass-interaction CORDIS-ANIMA networks. Genericity and modularity of CORDIS-ANIMA having been still largely proved, the design and the implementation of such framework have to face with other theorical and practical problems that are discussed here in order to include every function that are required for an interactive creation of models and the communication inside a global chain of production of animated pictures. This thesis ends on the report of various situation of use in pedagogical, research and creation contexts.Cette thèse a pour objet la conception d’un environnement pour l’animation à l’aide de réseaux masses–interactions CORDIS-ANIMA. La généricité et la modularité de CORDIS-ANIMA ayant largement prouvé leur intérêt pour l’animation depuis 25 ans, la conception et l’implantation d’un environnement de conception de tels modèles doivent faire face à d’autres problématiques théoriques et pratiques qui seront discutées dans ce manuscrit, dans le but d’inclure dans cet environnement toutes les fonctionnalités requises pour une création interactive de modèles de mouvement et leur insertion dans une chaîne globale de production d’images animées. Cette thèse se terminera par le compte-rendu de situations d’utilisation dans un cadre pédagogique, de recherche et de création

    Analyse de la variabilité de la forme du corps humain à partir de données anthropométriques tridimensionnelles

    Get PDF
    Les informations concernant la forme du corps humain sont fondamentales pour divers secteurs, notamment la conception de vêtements, d'automobiles et d'espaces de travail. Ceci justifie le rôle de l'anthropométrie qui est définie comme étant l'étude de mesures effectuées sur le corps humain. Traditionnellement les données anthropométriques manquent d'information sur la forme du corps humain et sont fastidieuses à prendre. Les systèmes denumérisation de surface permettent de surmonter ces problèmes en générant des modèles 3D de corps humain à haute résolution en une dizaine de secondes. Ces systèmes ont révolutionné le domaine de l'anthropométrie et favorisé la tenue de projets de numérisation de corps humain tel que le projet CAESAR. Pour rendre les modèles 3D de corps humain utiles pour les concepteurs dans divers secteurs, il est essentiel de convertir le grand nombre de points de surface numérisés en une quantification compacte de la forme humaine. Les travaux publiés dans ce contexte font appel à des points de repère anatomiques pour développer une telle description. Une localisation efficace des points de repère sur les modèles 3D nécessite leur marquage sur le corps humain préalablement à la numérisation. Ce procédé sera éventuellement éliminé des futurs projets de numérisation à cause de sa lenteur. Dans cette thèse on propose une méthode pour analyser la variabilité de la forme du corps humain au sein d'une population ciblée sans utilisation de points de repère anatomiques. Nous proposons d'abord un algorithme de fermeture des trous des modèles 3D. Ces troussont principalement dus à l'occlusion de certaines parties du corps humain au cours dela numérisation. Ensuite nous avons développé une quantification compacte de la forme humaine par application de l'analyse en composantes principales (ACP) sur une représentation volumétrique des modèles 3D d'une population donnée. La représentation volumétrique fournie une correspondance entre les différents modèles sans recours aux points de repère. L'ACP permet d'extraire un nombre réduit de composantes principales qui forment une base orthonormale de l'espace de forme du corps humain. Chaque modèle 3D peut être décrit et reconstruit à partir des coefficients de sa projection sur cette base. Les composantes extraites représentent les principaux modes de variation de la forme humaine dans l'ensemble des modèles 3D étudié. Enfin, nous proposons un outil pour visualiser ces modes afin de comprendre la variation de forme qu'ils induisent

    Validation des caractéristiques d'usinage par des grammaires d'usinage attribuées : une contribution à la prise en compte des contraintes d'usinage en cours de conception

    Get PDF
    Pour rester concurrentielles, les entreprises oeuvrant à la conception et à l'usinage de pièces mécaniques unitaires ou en petites séries doivent relever le défi continuel de livrer des produits en un temps très court et avec un rapport qualité/prix meilleur que celui de leurs concurrents. L'application de l'ingénierie concourante est une des alternatives pour ces entreprises dans le but d'atteindre leurs objectifs. Cette philosophie amène les entreprises à prendre en compte en phase de conception l'ensemble des contraintes liées aux différents métiers intervenant au cours du cycle de vie du produit. Bien que considérée depuis une trentaine d'années, la prise en compte des contraintes de l'usinage en cours de conception reste un problème de recherche d'actualité. Le travail présenté dans ce mémoire porte sur une méthodologie permettant l'intégration de l'analyse d'usinage en phase de conception. Cette méthodologie a pour but de permettre au concepteur de valider, en cours de conception, des propositions de conception parfois non entièrement définies. Nous validons les données (géométriques et technologiques) du modèle produit par le biais de grammaires d'usinage attribuées qui se basent sur des modèles de machines et outils. Cette validation ne nécessite pas une conception finalisée, elle s'appuie sur un ensemble de caractéristiques d'usinage qui contiennent non seulement les données du modèle produit validées, mais également un procédé candidat et les méthodes d'analyse utilisées. Ces caractéristiques sont hiérarchisées afin d'assister le concepteur dans le processus de décision entre les alternatives de conception. Les modèles de machines et d'outils proposés sont valides pour cinq familles de procédés, à savoir, fraisage, tournage, perçage, alésage et brochage. Les structures de données ainsi que les composants d'une maquette logicielle sont spécifiés dans le dernier chapitre. Un exemple illustre ensuite notre démarche et nos concepts. Les perspectives de recherche qui découlent de nos travaux concernent d'une part le développement d'une grammaire générative qui, partant des formes fonctionnelles spécifiées par le concepteur, suggère les formes non fonctionnelles pour obtenir une conception usinable et d'autre part, le développement d'un module d'analyse et d'évaluation incrémentale d'usinage de pièces indiquant au concepteur les modifications ayant le plus d'impact d'un point de vue usinage

    Contribution à la cartographie d’une matrice de flux

    Get PDF
    We consider a flow matrice where the (1,…,i ,… k) rows and the (1, …,j ,…, p) columns are respectively origin and destination place linked by a flow values (Fij). Mapping flow aims to project values on a map depicting generally a geographic space, using linear and punctual features. When the matrice is dense, this well known approach leads theoretical and methodological difficulties, graphics constraints, technical and technological challenges that must be addressed in order to solve the graphic complexity that appears: the so-called spaghetti effect. The traditional answer is to simplify the figure by selecting flows and or by reducing their resolution. If the result is really effective, it does not interest the flow mapping cartographic process. What are the reasons? Does this mean that solutions to flow mapping problems are only relate to digital or cartographic data? What is really the meaning of flow mapping? This thesis is part of the overall objective of reducing analytic and graphical complexity of flow mapping. Consisting of nine chapters divided into two parts, it offers four families of theoretical and methodological contributions. The first part is to familiarize ourselves with the construction of matrices, their (carto)graphic presentation and constraints that result. The second part offers a range of non-exhaustive and operational solutions to solve a variety of problems related to reduce the analytical and visual complexity of flow mapping. The approach wanting general and generalizable, the proposed solutions are validated empirically on migration or trade flow matrices that are expressed at different geographical scales (from local to global).Une matrice de flux est un tableau croisé formé de (1,…,i ,… k) lignes et de (1, …,j ,…, p) colonnes, respectivement lieux d’origine et de destination, dont le croisement forme une valeur quantitative : le flux (Fij). Sa cartographie a pour objectif de représenter graphiquement ces valeurs. Pour cela, elle les transforme en figurés linéaires, ponctuels et/ou zonaux puis les projette dans un espace assorti d’une métrique communément géographique. Lorsque la matrice est dense, cette approche pourtant bien connue pose de nombreuses difficultés d’ordres méthodologique et pratique, des contraintes graphiques et des défis techniques et technologiques qu’il convient de résoudre au risque de produire une figure illisible, caractéristique de l’effet spaghetti. La réponse traditionnellement apportée consiste à simplifier la figure en sélectionnant l’information à représenter et/ou en réduisant sa résolution. Essentiellement numérique ou technologique, elle ne s’inscrit pas dans un raisonnement théorique et conceptuel qui intéresse le processus de construction cartographique. Quelles en sont les raisons ? Est-ce à dire que les solutions à ces problèmes cartographiques seraient exclusivement numériques ? Que signifie in fine représenter des valeurs de flux sur une carte ? La thèse s’inscrit dans l’objectif général de réduction de la complexité inhérente au processus de cartographie d’une matrice de flux. Composée de neuf chapitres répartis en deux parties, elle propose quatre familles de contributions théoriques et méthodologiques. La première partie vise à se familiariser avec la construction des matrices, leurs représentations (carto)graphiques et les contraintes qui en découlent. La seconde partie propose un éventail de solutions non exhaustives et opérationnelles, permettant de résoudre une sélection de problèmes liés à la complexité visuelle : graphique et analytique de la carte de flux, L’approche se voulant générale et généralisable, les solutions proposées sont validées empiriquement sur des matrices de flux migratoires ou commerciaux qui s’expriment à différentes échelles géographiques (de l’échelle locale au niveau mondial)

    Sculpture virtuelle par système de particules

    Get PDF
    3D is emerging as a new media. Its widespread adoption requires the implementation of userfriendly tools to create and manipulate three-dimensional shapes. Current softwares heavily rely on underlying shape modeling, usually a surfacic one, and are then often counter-intuitive orlimiting. Our objective is the design of an approach alleviating those limitations and allowing the user to only focus on the process of creating forms. Drawing inspiration from the ancient use of clay,we propose to model a material in a lagrangian description. A shape is described by a particles system, where each particle represents a small fraction of the total volume of the shape. In this framework, the Smoothed Particle Hydrodynamics method enables to approximate physical values anywhere in space. Relying on this method, we propose a modeling of material with two levels, one level representing the topology and the other one describing local geometry of the shape.The SPH method especially enables to evaluate a density of matter. We use this property todefine an implicit surface based on the physical properties of the particles system to reproduce the continuous aspect of matter. Those virtual materials can then be manipulated locally through interactions reproducing the handling of dough in the real world or through global shape deformation. Our approach is demonstrated by several prototypes running either on typical desktop workstation or in immersive environment system.La 3D s'impose comme un nouveau média dont l'adoption généralisée passe par la conception d'outils, accessibles au grand public, de création et de manipulation de formes tridimensionnelles quelconques. Les outils actuels reposent fortement sur la modélisation sous-jacente des formes, généralement surfacique, et sont alors peu intuitifs ou limitatifs dans l'expressivité offerte à l'utilisateur.Nous souhaitons, dans ces travaux, définir une approche ne présentant pas ces défauts et permettant à l'utilisateur de se concentrer sur le processus créatif. En nous inspirant de l'utilisation séculaire de l'argile, nous proposons une approche modélisant la matière sous forme lagrangienne.Une forme est ainsi décrite par un système de particules, où chaque particule représente un petit volume du volume global.Dans ce cadre lagrangien, la méthode Smoothed Particle Hydrodynamics (SPH) permet l'approximation de grandeurs physiques en tout point de l'espace. Nous proposons alors une modélisation de matériaux à deux couches, l'une décrivant la topologie et l'autre décrivant la géométrie du système global.La méthode SPH permet, entre autres, d'évaluer la densité de matière. Ceci nous permet de définir une surface implicite basée sur les propriétés physiques du système de particules pour redonner un aspect continu à la matière.Ces matériaux peuvent alors être manipulés au moyen d'interactions locales reproduisant le maniement de la pâte à modeler, et de déformations globales. L'intérêt de notre approche est démontrée par plusieurs prototypes fonctionnant sur des stations de travail standard ou dans des environnements immersifs
    corecore