542 research outputs found

    Fusion de multi-modalités et réduction par sémantique latente Application à la recherche de documents multimédia et à l'annotation automatique d'images

    Get PDF
    International audienceCe papier étudie la "sémantique latente" entre des éléments visuels et textuels d'une collection multimédia, appliquée à deux tâches : (1) la Recherche de Document Multimédia (RDM) contenant des images et du texte ; et (2) l'Annotation Automatique d'Images (AAI). La sémantique latente, habituellement utilisée dans l'indexation textuelle, est mise à profit ici pour faire apparaître des liens entre les descriptions textuelles et visuelles des images. Nous avons ainsi deux contributions principales. Il s'agit d'une part, de la première étude sur l'influence de la sémantique latente entre termes textuels et visuels, sur une grande collection de documents. En effet, cette méthode est testée sur une collection de 20000 images touristiques. D'autre part, nous démontrons que la fusion des différents modalités d'image (i.e. termes visuels vs textuels, et différentes méthode de représentations d'image) améliore le résultat d'une annotation au- tomatique des images par du texte. Nos collections de test sont la base d'images annotées de COREL et la base d'Image CLEF 2006

    Apprentissage organisationnel, économie de la connaissance: mode ou modèle?

    Get PDF
    cahier de recherche du LIPSORCe texte vise la tension "apprentissage organisationnel - modèle organisationnel

    Segmentation automatique par apprentissage profond de la colonne vertébrale scoliotique à partir d'images de résonance magnétique

    Get PDF
    Ce projet de maîtrise vise le recours à l’IRM pour porter assistance aux cliniciens dans la planification du traitement de la scoliose idiopathique de l’adolescent. Celle-ci est une pathologie qui occasionne une torsion et une courbure de la colonne vertébrale qui entraînent des déformations 3D complexes dans les cas les plus graves. L’IRM offre sur le plan sagittal un accès visuel net aux deux principales structures anatomiques en lien avec cette pathologie : les disques intervertébraux (DIVs) et les vertèbres. La discectomie par thoracoscopie est une procédure chirurgicale minimalement invasive du rachis employée dans certains traitements de la scoliose. Ayant une visualisation limitée de la colonne vertébrale durant la procédure, le chirurgien a recours à un système de navigation par ordinateur qui nécessite l’utilisation d’une caméra endoscopique qui prend des images de la colonne vertébrale du patient en temps réel pour mettre à jour un modèle préopératoire 3D obtenu par IRM suite à un recalage 3D/2D. Toutefois, la mise en place du modèle préopératoire 3D implique une segmentation des corps vertébraux (CVs) et des DIVs. De ce fait, l’objectif de cette recherche est de proposer une méthode de segmentation simultanée des DIVs et CVs à partir d’IRM de patients atteints de scoliose idiopathique. L’émergence de l’apprentissage profond et le succès dont il fait preuve en segmentation d’images de par ses performances et sa capacité de généralisation sur des données diverses, nous a menés naturellement à nous en servir pour résoudre ce problème. À travers la revue de littérature, on peut constater que la segmentation simultanée des DIVs et CVs à partir d’IRM en ayant recours à l’apprentissage profond n’est pas explorée. Les travaux existants se focalisent sur l’une des deux structures uniquement. De plus, leur validation sur des données de patients scoliotiques ne semble pas être réalisée. La restriction de l’accès aux images médicales est un sérieux obstacle d’autant plus que les approches basées sur l’apprentissage profond sont gourmandes en termes de données d’apprentissage. Dans le cadre de notre projet, nous avons construit une base de données à partir de deux sources. La première est composée d’un nombre important d’images de sujets non scoliotiques alors que la deuxième est constituée d’un nombre limité d’images de patients scoliotiques. Nous avons proposé un pré-traitement pour nettoyer et normaliser ces images de sorte à rehausser leur contraste, apparier les deux bases de données et effectuer une augmentation de données à travers des stratégies géométriques. L’entraînement de notre modèle de segmentation simultanée des DIVs et CVs passe par un apprentissage supervisé en deux temps. Nous entraînons d’abord un modèle avec des images de sujets non scoliotiques. Ensuite, ce modèle est ré-entraîné avec les images de patients scoliotiques. Dans les deux étapes, nous avons utilisé un réseau de neurones convolutif (CNN) dont l’architecture est de type encodeur-décodeur. Par contre, nous avons introduit une opération de recalibration des caractéristiques nommé Spatial and Channel Squeeze and Excitation (scSE) pour mettre en avant les plus discriminantes. Nos images souffrent d’un déséquilibre de classes où l’arrière-plan de l’image est plus dominant que les DIVs et les CVs. Pour alléger ce problème, nous avons ajouté un terme basé sur le coefficient de Kappa de Cohen à la fonction de l’entropie croisée de notre fonction objectif. Nos expériences montrent que nos choix méthodologiques sont payants. En exprimant la qualité des résultats en termes de coefficient de Dice, nous obtenons dans le cas de la segmentation des CVs, une moyenne de 85% de bonnes prédictions sur l’ensemble de la base de données de test et une moyenne de 78% dans le cas de segmentation des DIVs. Nous avons ainsi démontré qu’une segmentation multi-classes a produit de meilleures performances par rapport à une segmentation binaire en deux temps (un modèle pour les DIVs et un autre pour les CVs). Aussi, le transfert d’apprentissage et l’utilisation de blocs scSE ont tous deux dévoilé tout leur intérêt et leur complémentarité. Le premier a permis au modèle de mieux se familiariser avec les images de patients scoliotiques et ainsi étendre la représentation des DIVs et CVs aux déformations qu’ils pouvaient subir dans le contexte de la scoliose. Le second a doté le modèle d’une meilleure capacité de généralisation, ce qui a pour conséquence directe d’avoir une compréhension générale plus large des DIVs et CVs. La contribution que nous apportons à travers ce projet se manifeste par l’intérêt que nous portons à la scoliose en validant notre approche sur des IRMs de patients scoliotiques. À l’instar de ce qui est proposé dans la littérature de segmentation de la colonne vertébrale à partir d’IRM en ayant recours à l’apprentissage profond, notre approche se distingue par la segmentation simultanée des CVs et DIVs, les deux plus importants repères osseux dans le traitement de la scoliose. De plus, le recours à une stratégie qui prend en compte le poids des caractéristiques à travers l’utilisation du bloc scSE n’a pas été explorée dans la littérature. Pour des études futures, nous proposons d’étendre l’architecture actuelle afin d’inclure de l’information multi-modalité et multi-échelle. La première information servira à généraliser le modèle et être performant sur un plus grande nombre de modalités IRM. Le second servira à assurer une invariance par rapport à l’échelle. Pour pallier le problème crucial de manque de données de patients scoliotiques, nous proposons de recourir à un auto-encodeur variationnel dans le but d’apprendre une représentation latente de ces données scoliotiques afin de générer de nouvelles images qui pourraient être utilisées durant l’entraînement. À terme, le modèle proposé permettra une segmentation automatique des disques et des corps vertébraux qui pourra être utilisée dans plusieurs applications cliniques. Une fois le modèle entrainé, un recalage 3D/2D en temps réel d’un modèle préopératoire 3D de la colonne vertébrale et d’une radiographie intra-opératoire pourra être effectué dans le cadre des chirurgies minimalement invasives du rachis. De plus, notre modèle permettra une fusion multimodale automatique d’un volume IRM avec une reconstruction 3D radiographique de la colonne vertébrale et la topographie de surface du tronc, dans le cadre de la simulation de l’effet de la chirurgie de la colonne sur l’apparence externe du tronc de patients

    Contribution Ă  la maintenance des ontologies Ă  partir d'analyses textuelles : extraction de termes et de relations entre termes

    Get PDF
    Les ontologies sont des nouvelles formes de contrôle intelligent de l'information. Elles présentent un savoir préalable requis pour un traitement systématique de l'information à des fins de navigation, de rappel, de précision, etc. Toutefois, les ontologies sont confrontées de façon continue à un problème d'évolution. Étant donné la complexité des changements à apporter, un processus de maintenance, du moins semi-automatique, s'impose de plus en plus pour faciliter cette tâche et assurer sa fiabilité.\ud L'approche proposée trouve son fondement dans un modèle cognitif décrivant un processus d'extraction de connaissances à partir de textes et de thésaurus. Nous mettons ainsi, les textes au centre du processus d'ingénierie des connaissances et présentons une approche se démarquant des techniques formelles classiques en représentation de connaissances par son indépendance de la langue. Les traitements textuels sont fondés principalement sur un processus de classification supporté par un réseau de neurones (ART 1) et sur l'Indexation Sémantique Latente appliquée sur des classes de termes. Partant de l'hypothèse que l'extraction -de connaissances à partir de textes ne peut se contenter d'un traitement statistique (ni même linguistique) de données textuelles pour accaparer toute leur richesse sémantique, un processus d'extraction de connaissances à partir d'un thésaurus a été conçu afin d'intégrer, le mieux possible, les connaissances du domaine au sein de l'ontologie. Ce processus est fondé principalement sur un calcul d'associations sémantiques entre des Vecteurs Conceptuels. Le modèle proposé représente une chaîne de traitement (ONTOLOGICO) au sein de la plateforme\ud SATIM. Ce modèle vise à assister les experts de domaine dans leur tâche de conceptualisation et de maintenance des ontologies en se basant sur un processus itératif supporté par un ensemble de modules, en particulier, un extracteur de termes, un lemmatiseur, un segmenteur, un classifieur, un module de raffinement sémantique basé sur l'Indexation Sémantique Latente et un identificateur de termes reliés basé sur le calcul de similarité sémantique entre les couples de vecteurs conceptuels. La découverte de relations entre termes pour les besoins d'une conceptualisation de domaine s'avère être le résultat d'une complémentarité de traitements appliqués tant sur des textes de domaine que sur un thésaurus. D'une part, les analyses textuelles fondées principalement sur l'application de l'Indexation Sémantique Latente sur des classes de termes génèrent des relations sémantiques précises. D'autre part, l'extraction de relations sémantiques à partir d'un thésaurus, en se basant sur une représentation par des Vecteurs conceptuels, constitue un choix théorique judicieux et performant. Ce processus joue en effet, un rôle important dans la complétude des relations.\ud Ce projet de recherche se place au coeur des échanges entre terminologie et acquisition de connaissances. Il amène une réflexion sur les divers paliers à envisager dans une telle démarche de modélisation de connaissances textuelles pour des objectifs de maintenance d'une ontologie de domaine. La méthodologie proposée constitue une aide précieuse dans le domaine de la maintenance des ontologies. Elle assiste les terminologues chargés de naviguer à travers de vastes données textuelles pour extraire et normaliser la terminologie et facilite la tâche des ingénieurs en connaissances, chargés de modéliser des domaines. ______________________________________________________________________________ MOTS-CLÉS DE L’AUTEUR : Maintenance d'ontologie, Traitement Automatique du Langage Naturel (TALN), Indexation Sémantique Latente, Vecteurs Conceptuels, Classification automatique, Réseaux de Neurones

    Apprentissage profond multimodal appliqué à l'usinage

    Get PDF
    Les techniques axées sur les données ont offert à la technologie de fabrication intelligente des opportunités sans précédent pour assurer la transition vers une productivité basée sur l'industrie 4.0. L'apprentissage automatique et l'apprentissage profond occupent une place cruciale dans le développement de systèmes intelligents pour l'analyse descriptive, diagnostique et prédictive des machines-outils et la surveillance d’état des systèmes de fabrication industrielle. De nombreuses techniques d'apprentissage profond ont été testées sur les problèmes de surveillance d’état des machines-outils, de la détection du broutement, du diagnostic de défauts, de la sélection optimale des paramètres de coupe, etc. Une étude bibliométrique est proposée pour à retracer les techniques de détection du broutement, depuis les méthodes de traitement du signal temps-fréquence, la décomposition jusqu'à la combinaison avec des modèles d'apprentissage automatique ou d'apprentissage profond. Une analyse cartographique a été réalisée afin d’identifier les limites de ces différentes techniques et de proposer des axes de recherche pour détecter le broutement dans les processus d'usinage. Les données ont été collectées à partir du web of science (WoS 2022) en exploitant des requêtes particulières sur la détection du broutement. La plupart des documents recueillis présentent la détection du broutement à l'aide de techniques de transformation ou de décomposition. Ce travail a permis de détecter les articles les plus significatifs, les auteurs les plus cités, la collaboration entre auteurs, les pays, continents et revues les plus productifs, le partenariat entre pays, les mots-clés des auteurs et les tendances de la recherche sur la détection du broutement. Cette thèse à pour objective de proposer dans un premier temps, une méthode de prédiction du choix des paramètres de coupe en exploitant l’apprentissage profond multimodal. L'apprentissage profond multimodal a été utilisé pour associer un choix de conditions de coupe (outil, vitesse de coupe, profondeur de coupe et vitesse d'avance par dents) avec un état de surface, en considérant la rugosité arithmétique moyenne (Ra) et une photo de la pièce. Nous avons construit un modèle de fusion multimodale tardive avec deux réseaux de neurones profonds, un réseau de neurones convolutif (CNN) pour traiter les données images et un réseau de neurones récurrent avec des couches de mémoire à long terme (LSTM) pour les données numériques. Cette méthode permet d’intégrer les informations provenant de deux modalités (fusion multimodale) afin à terme d'assurer la qualité de surface dans les processus d'usinage. Les difficultés rencontrées lors de l’élaboration de cette méthode nous ont orientés vers une approche unimodale pour détecter le broutement d’usinage. Par la suite nous présentons une approche basée sur des compétences mécaniques pour d’abord identifier les traitements optimaux des signaux puis l'apprentissage profond (apprentissage par transfert) pour détecter automatiquement le phénomène de broutement en usinage. Ce travail a mis l’accent sur l’utilisation de données collectées dans les conditions industrielles contrairement à la majorité des travaux basés sur les données qui utilisent les données laboratoire. Cette méthode arrive à avoir de bonnes performances malgré le fait qu’elle ne donne aucune indication au réseau de neurones sur l'amplitude du signal, la vitesse de rotation

    La régulation par les standards ISO

    No full text
    International audienceDes appareillages électriques, en passant par les bilans comptables jusqu'aux technologies de l'information et de la communication, rares sont les secteurs économiques qui ne soient pas soumis à des normes dites techniques. Les normes techniques, dont les normes ISO sont certainement les plus connues (notamment ISO 9000 et 14000), sont des standards de production qui ont pour but d'améliorer la qualité, la sécurité ou la comptabilité de biens et de services. De fait, si ces normes passent souvent pour un objet obscur et complexe engageant les quelques initiés des domaines concernés, elles n'en demeurent pas moins un véritable processus de régulation économique à l'échelle mondiale. Le terme ISO est polysémique puisqu'il désigne aussi bien l'organisation internationale (International Organization for Standardization) au sein de laquelle sont adoptés les standards que les normes elles-mêmes. Créée en 1946, à la suite de la Fédération internationale des associations nationales de normalisation, l'ISO présente une structure fédérative regroupant les agences nationales de 148 pays. Le nombre impressionnant de normes publiées (13 700 depuis 1947) tend à attester de l'importance de ces dispositions pour les secteurs économiques concernés. A l'heure des débats sur la mondialisation, il peut être intéressant de se pencher sur une entreprise de régulation internationale qui, loin de réactiver des oppositions classiques (libéralisme économique contre régulation ou intérêts privés contre autorité publique), semble, au contraire, réaliser un syncrétisme original. Les politiques de normalisation internationale mettent en relation une multitude d'acteurs publics et privés : organisations internationales, administrations nationales, agences, centres de recherches, entreprises, associations, etc. Cette diversité d'acteurs n'épuise cependant pas la notion de politique publique, mais incite à la concevoir sous un nouveau jour, qui soit susceptible d'en faire ressortir tant l'originalité des formes que la portée effective dans les cas qui nous intéressent. Dans la contribution sans doute un peu trop dense que nous présentons ici, nous aimerions à la fois interroger les entrées classiques d'analyse de ces politiques, et proposer une démarche d'analyse un peu différente, basée sur l'idée de format empruntée à Rémi Barbier, et de monopolisation des formats. Ce cadre d'analyse permet de saisir à la fois les modalités d'élaboration des prescriptions et la mise à l'épreuve de ces prescriptions dans les situations de travail qui les opérationnalisent

    Les Guidelines TEI à l'épreuve de la complexité textuelle et graphique médiévale

    Get PDF
    The TEI Guidelines represent today an essential standard in the world of textual encoding for digital editions. However, some problems concerning TEI encoding, both theoretical and practical, are far from being definitively resolved. In this context we firstly discuss a theoretical question: what is the nature of the encoding? Are we interested in the Text or in its documentary image? What is the difference between a descriptive encoding and an editorial one? Secondly, we analyse the specific case of the TEI Guidelines application to the Medieval textual and writing reality: indeed, this application risks being anything but automatic, as TEI tags were set in the context of contemporary printed books

    Extraction de taxonomie par regroupement hiérarchique de plongements vectoriels de graphes de connaissances

    Get PDF
    RÉSUMÉ: Les graphes de connaissances jouent aujourd’hui un rôle important pour représenter et stocker des données, bien au-delà du Web sémantique ; beaucoup d’entre eux sont obtenus de manière automatique ou collaborative, et agrègent des données issues de sources diverses. Dans ces conditions, la création et la mise à jour automatique d’une taxonomie qui reflète le contenu d’un graphe est un enjeu crucial.Or, la plupart des méthodes d’extraction taxonomique adaptées aux graphes de grande taille se contentent de hiérarchiser des classes pré-existantes, et sont incapables d’identifier de nouvelles classes à partir des données. Dans ce mémoire, nous proposons une méthode d’extraction de taxonomie expressive applicable à grande échelle, grâce à l’utilisation de plongements vectoriels. Les modèles de plongement vectoriel de graphe fournissent une représentation vectorielle dense des éléments d’un graphe, qui intègre sous forme géométrique les régularités des données : ainsi, deux éléments sémantiquement proches dans le graphe auront des plongements vectoriels géométriquement proches.Notre but est de démontrer le potentiel du regroupement hiérarchique non-supervisé appliqué aux plongements vectoriels sur la tâche d’extraction de taxonomie. Pour cela, nous procédons en deux étapes : nous montrons d’abord qu’un tel regroupement est capable d’extraire une taxonomie sur les classes existantes, puis qu’il permet de surcroît d’identifier de nouvelles classes et de les organiser hiérarchiquement, c’est-à-dire d’extraire une taxonomie expressive.----------ABSTRACT: Knowledge graphs are the backbone of the Semantic Web, and have been succesfully applied to a wide range of areas. Many of these graphs are built automatically or collaboratively,and aggregate data from various sources. In these conditions, automatically creating and updating a taxonomy that accurately reflects the content of a graph is an important issue. However, among scalable taxonomy extraction approaches, most of them can only extract a hierarchy on existing classes, and are unable to identify new classes from the data. In this thesis, we propose a novel taxonomy extraction method based on knowledge graph embeddings that is both scalable and expressive. A knowledge graph embedding model provides a dense, low-dimensional vector representation of the entities of a graph, such that similar entities in the graph are embedded close to each other in the embedding space.Our goal is to show how these graph embeddings can be combined with unsupervised hierarchical clustering to extract a taxonomy from a graph. We first show that unsupervised clustering is able to extract a taxonomy on existing classes. Then, we show that it can also be used to identify new classes and organize them hierarchically, thus creating an expressive taxonom

    Un bilan interprétatif de la théorie de l’agrégation logique

    Get PDF
    La théorie de l’agrégation des jugements, ou, comme elle est ici conçue,de l’agrégation logique, généralise celle du choix social en faisant porter la règle d’agrégation sur des jugements quelconques au lieu des seuls jugements depréférence. Elle procède du paradoxe doctrinal de Kornhauser et Sager et du dilemme discursif de Pettit, que l’article réexpose en soulignant leurs différences. Après ce préalable conceptuel, il reproduit les grandes étapes techniques de la théorie, depuis son premier théorème d’impossibilité, chez List et Pettit, jusqu’aux résultats entièrement généraux de Dietrich et Mongin. Il met en relief la réalisation collective du théorème canonique - par Dietrich et List, Dokow et Holzman, Nehring et Puppe, qui a donné sa méthode d’analyse à la théorie: elle consiste à caractériser mathématiquement les agendas d’impossibilité d’un agrégateur donné, c’est-à-dire les ensembles de propositions tels qu’il n’existe pas de fonction de jugement collectif vérifiant une certaine liste de conditions. La théorie est ici unifiée par le traitement logique du problème agrégatif, dont on défend la pertinence, et par la distinction initiale de ses deux variantes, le paradoxe doctrinal et le dilemme discursif, que l’on réélabore techniquement.agrégation des jugements; agrégation logique; paradoxe doctrinal; dilemme discursif; logique générale; méthode des prémisses et méthode des conclusions; théorie du choix social

    Postmodernité et bouddhisme zen japonais : d'une sémiotique de lieux, le cas du jardin sec Ryôan-ji

    Get PDF
    Les phénomènes de polysémie et de transcodage des corpus culturels établissent une structure d'argumentation dialectique. Le transculturel et le transhistorique deviennent là des axes centraux dans l'application du pragmaticisme des systèmes en expansion et dans la coexistence des métadiscours actuels et anciens. Le criticisme du métasavoir sur la pluralité des dispositifs hypertextuels permet ainsi une double lecture, celle de la postmodernité et celle de la proto-philosophie bouddhique. De là, on convient d'une réversibilité historique, du structuralisme et du post-structuralisme comme lieux d'une confrontation de la fonction critique des modèles textuels. La postmodernité (fin des années 60 et début des années 70) indique alors, par la mise en place d'une prolifération des figures-discours, le statut des actes langagiers par rapport à une homologie des styles et des genres. On y note un questionnement soutenu des assises d'une grammaire visuelle pluraliste dont, entre autres, un arrêt sur le concept de champ élargi dans les discours critiques de R. Krauss sur l'installation. En fait, les définitions d'une syntaxe du lieu et de la praxis du landscape-gardener seraient comme les deux pôles d'une économie esthétique au fondement même de cette praxis installative.Les conditions particulières du transhistorique réalisent encore une forme de consensus de l'historia entre les passages de frontière d'un tel corpus historique pluraliste et des séquences d'argumentation, dont notamment l'inclusion de modèles stratégiques. D'où l'intégration possible des champs de la postmodernité et de la proto-philosophie bouddhique japonaise, qui rejoignent un processus de montage et de démontage des ruines textuelles, en regard d'une dialectique opératoire de conformité et de non-conformité du sens. L'histoire du code, la protophilosophie et l'esthétique bouddhiques zen japonaises entre les 12e et 15e siècles, supposent ainsi une rhétorique et un métalangage dont les règles du savoir véhiculent des paramètres langagiers paradoxaux. Les kôans évoquent à cet égard un encodage communicationnel du texte qui exige une réceptivité de l'entendement hétérodoxe d'après les modèles langagiers performatifs. L'analyse du métasystème bouddhique japonais permet alors une validation critique des corpus textuels afin d'établir une spéculation hypothétique quant aux agrégats interprétatifs.Le corpus textuel de cette recherche vise principalement les positions de Toshihiko Izutsu, Abe Masao, Martin Colcutt, Hebert V. Guenter, Chung-Ying Cheng, Philip Yampolsky, Robert D. Baird, Tom J.F. Tillemans; ainsi que celles de certains philosophes tels que Nishida Kitaro, Hisamatsu Shin'ichi, Hajime Nakamura, Jacques Masui, T.P. Kasulis, Sung Bae Park, David Appelbaum, et David E. Shaner. Dans ce contexte d'érudition, les approches méthodologiques et théoriques de Roland Barthes, Julia Kristeva, Linnart Mail, Ryôji Nakamura, René de Ceccaty et Gilles Deleuze sont aussi prises en considération comme valeurs d'interprétation de certaines problématiques soulevées en cours d'analyse.En outre, l'étude d'un concept, celui de vide par exemple, soit le sunyata, réfère tant aux discussions sur la valeur symbolique du dispositif zérologique en psychanalyse, qu'à la mise en forme d'un espace de non représentation. Car dans l'état de crise actuelle du discours occidental, le statut même du silence comme de l'éthique remet en cause la conception du logocentrisme européen. En sémiotique des lieux, l'étude du jardin sec, le Ryôan-ji, serait en conséquence un tel recoupement synthétique de la tradition du système esthético-philosophique bouddhique zen japonais et des théories postmodernes. Cette grammaire in situ intervient sur des praxis actuelles en histoire de l'art: soit, a priori, sur les postulats du musicologue Daniel Charles dans ses «Gloses sur le Ryôan-ji» et au niveau du corpus critique sur l'oeuvre de John Cage.C'est dans ce contexte que la philosophie cosmogonique et l'oeuvre «Atlas Eclipticalis» de Cage se définissent sémiotiquement avec le structuralisme, une logique triadique et une architecture des théories du jardin, ainsi qu'une application du corpus peircéen sur la trichotomie du signe. Là, un archétype topologique, le ma (1'espace-temps), permet de circonscrire les paramètres discursifs et cognitifs clés actualisés par l'architecte d'avant-garde, Arata Isozaki. Dans le modèle du jardin Ryôan-ji plus particulièrement, le fondement des propriétés cosmologiques comme valeur hypothétique du lieu architectural, concernerait dès lors hic et nunc les relations céleste/terrestre, diurne/nocturne, dans la redéfinition pragmatique d'une grammaire in situ.Montréal Trigonix inc. 201
    • …
    corecore