193 research outputs found

    La thèse du capitalisme cognitif : une mise en perspective historique et théorique

    Get PDF
    Cet article propose une approche marxiste de la thèse du capitalisme cognitif et repose sur une grille de lecture où les transformations de la connaissance sont appréhendées à partir du rôle moteur du rapport capital-travail. La première partie est consacrée à présenter la méthode d'analyse et les concepts à la base de notre approche du rôle de la connaissance dans la dynamique longue du capitalisme. La seconde est dédiée à une mise en perspective historique du sens et des enjeux de la transition du capitalisme industriel vers le capitalisme cognitif.Capitalisme cognitif, Connaissance, travail, rapport salarial

    Extraction de taxonomie par regroupement hiérarchique de plongements vectoriels de graphes de connaissances

    Get PDF
    RÉSUMÉ: Les graphes de connaissances jouent aujourd’hui un rôle important pour représenter et stocker des données, bien au-delà du Web sémantique ; beaucoup d’entre eux sont obtenus de manière automatique ou collaborative, et agrègent des données issues de sources diverses. Dans ces conditions, la création et la mise à jour automatique d’une taxonomie qui reflète le contenu d’un graphe est un enjeu crucial.Or, la plupart des méthodes d’extraction taxonomique adaptées aux graphes de grande taille se contentent de hiérarchiser des classes pré-existantes, et sont incapables d’identifier de nouvelles classes à partir des données. Dans ce mémoire, nous proposons une méthode d’extraction de taxonomie expressive applicable à grande échelle, grâce à l’utilisation de plongements vectoriels. Les modèles de plongement vectoriel de graphe fournissent une représentation vectorielle dense des éléments d’un graphe, qui intègre sous forme géométrique les régularités des données : ainsi, deux éléments sémantiquement proches dans le graphe auront des plongements vectoriels géométriquement proches.Notre but est de démontrer le potentiel du regroupement hiérarchique non-supervisé appliqué aux plongements vectoriels sur la tâche d’extraction de taxonomie. Pour cela, nous procédons en deux étapes : nous montrons d’abord qu’un tel regroupement est capable d’extraire une taxonomie sur les classes existantes, puis qu’il permet de surcroît d’identifier de nouvelles classes et de les organiser hiérarchiquement, c’est-à-dire d’extraire une taxonomie expressive.----------ABSTRACT: Knowledge graphs are the backbone of the Semantic Web, and have been succesfully applied to a wide range of areas. Many of these graphs are built automatically or collaboratively,and aggregate data from various sources. In these conditions, automatically creating and updating a taxonomy that accurately reflects the content of a graph is an important issue. However, among scalable taxonomy extraction approaches, most of them can only extract a hierarchy on existing classes, and are unable to identify new classes from the data. In this thesis, we propose a novel taxonomy extraction method based on knowledge graph embeddings that is both scalable and expressive. A knowledge graph embedding model provides a dense, low-dimensional vector representation of the entities of a graph, such that similar entities in the graph are embedded close to each other in the embedding space.Our goal is to show how these graph embeddings can be combined with unsupervised hierarchical clustering to extract a taxonomy from a graph. We first show that unsupervised clustering is able to extract a taxonomy on existing classes. Then, we show that it can also be used to identify new classes and organize them hierarchically, thus creating an expressive taxonom

    Structuration de données par apprentissage non-supervisé : applications aux données textuelles

    Get PDF
    En fouille de données, le succès d'une méthode tient au fait qu'elle permet de répondre par un algorithme intuitif à un besoin pratique bien théorisé. C'est avec cet éclairage que nous présentons un ensemble de contributions, élaborées durant ces dix dernières années, et répondant au besoin pratique de structurer automatiquement un ensemble de données. Dans un premier temps nous proposons de nouveaux modèles théoriques de structuration complexe en classes d’individus ; il s’agit alors d'extraire automatiquement d'un ensemble de données, des structures de classification plus proches de leur organisation réelle telle qu’observée (classification recouvrante, formes symétriques), de rendre ces structures à la fois robustes (tolérance au bruit) et manipulables par l’homme (visualisation, paramétrage) et enfin d’être en mesure de les expliquer (sémantique des classes). Dans un second temps nous nous intéressons aux données textuelles via la mise en oeuvre de modèles rendant compte de la structure thématique d’une collection de textes courts dans un contexte de recherche d’information ; enfin, nous présentons un méta-modèle permettant d’apprendre automatiquement un modèle de structuration sémantique d’un ensemble de termes

    Une introduction Ă  l'univers de Briefs

    Get PDF
    Premier rapport de recherche sur les BriefsWe propose in this paper a study of basic information structure, called "Brief" for annotating observations of phenomena in a spatiotemporal context through interconnection networks. One of various features of these" briefs" is that they can be used in an observation made both by human or machine through communicating objects (CO). These annotations will allow implementation of services for automatic or manual processing annotations on various phenomena. It can be used as a standard interchange format for these annotations between applications on networks. We show that we can deal metrics and techniques of computational geography and those coming from the Semantic Web to enhance the mechanisms of analysis and processing of these masses of information on the networks.Nous proposons dans cet article d'étudier une structure d'information élémentaire, appelée Brief, permettant d'annoter des observations de phénomènes dans un contexte spatiotemporel via les réseaux d'interconnexion. Une des particularités de ces Briefs est qu'ils peuvent être utilisés dans une observation effectuée par l'homme ou par la machine à travers les objets communicants Cette forme d'annotation permettra une mise en place des services de traitement automatiques ou manuels des annotations sur divers phénomènes. Elle peut être utilisée comme un format d'échange standard de ces annotations entre les applications sur réseaux. Nous montrons que l'on peut composer les métriques et techniques de la géographie algorithmique et celles venant du web sémantique pour enrichir les mécanismes d'analyse et de traitement de ces masses de fractions d'information sur les réseaux

    Économie de la connaissance et financiarisation : une étude du concept de valeur dans le capitalisme contemporain

    Get PDF
    Ce travail de recherche se donne comme objectif de démontrer que l'économie de la connaissance et son corollaire la financiarisation ne sont pas des modalités d'un nouveau capitalisme qui se serait finalement autonomisé de la contrainte de l'accumulation du profit médiatisée par le travail abstrait. Il se présente comme une réponse théorique, qui pourrait permettre d'ouvrir des pistes de recherche confirmant ou infirmant cette hypothèse sur le plan empirique. Il s'agit de voir ce que la théorie de la valeur-travail peut apporter dans les débats autour de l'économie de la connaissance et de la financiarisation. Notre hypothèse consiste à défendre l'idée que la théorie de la valeur-travail, telle que formulée par Marx, nous permettra de saisir un certain nombre de confusions régnant dans les débats autour du capitalisme contemporain, entre autres, d'infirmer la thèse de la fin du travail, ainsi que d'apporter une réponse aux mystifications qui prêtent au capital la faculté de produire de la valeur. Notre recherche révèle que l'un des principaux problèmes relatif à la compréhension du capitalisme contemporain consiste à confondre richesse et valeur, plongeant ainsi de nombreuses théories dans des contradictions. De plus, le recours aux théoriciens du courant de la Wertkritik nous permet de comprendre pourquoi le capital semble poursuivre son accroissement tandis que l'économie productive s'essouffle.\ud ______________________________________________________________________________ \ud MOTS-CLÉS DE L’AUTEUR : Capitalisme cognitif, économie de la connaissance, financiarisation de l'économie, économie politique, théorie de la valeur-travail, rente, produits dérivés

    Sexualités & Mondialisation : Prendre son temps aujourd’hui

    Get PDF
    The main aim of Renaissance humanism is to free humanity from the chains of Nature (in the West: Greek or Pagan thought) and God's Will (e.g. Judaism, Christianity, or Islam). This liberation implies that man will totally appropriate his environment and subject it to his will and power in a new "virility", which goes far beyond masculine and feminine sexuality-based orientations: this is both an advantage and a challenge to the ancient understandings of major and minor human, psychological and political issues.First, I present the humanist origins of modern "virility".Second, masculine and feminine orientations are linked with the evolution of Western Culture (with Paganism and Judaism as the roots of Western history).Third, sexuality is understood through a fundamental examination of its relationship to time.Control; Economy; Globalization; Judaism; Paganism; Sexuality

    Traduction des opérations de l'analyse historique dans le langage conceptuel des systèmes d'information géographique pour une exploration des processus morphologiques de la ville et du territoire

    Get PDF
    Present work intends to conceive an interface between Urban Morphology and Geographic Information Science (GISc). This interface is considered as a space of exchange for knowledge exploration between several disciplines. The links pointed out from this theoretical work help us define the framework of formalization of morphological processes. We have focused our efforts over the methodology of translation of the notion of morphological process. The main steps of translation of the historical analysis operations into the conceptual language of the GISc mainly include numerical handling of cartographic sources, i.e. maps, plans, cadastre, etc. The main problems encountered are linked to the heterogeneity of historical information such as: partial data sets, non-representative statistical ensembles and semantic relativity of concepts through time (polysemy, synonymy, etc.). We discuss these problems from the knowledge production process point of view. We focus on questions of knowledge emergence from quantitative analysis and, symmetrically, of concept formalization leading to data structures compatible with the idea of characterization. Our work is essentially based on the possibilities of the exploratory paradigm applied to geo-historical data. By doing so, we have been particularly interested in the contributions of the systematic approach to the enhancement of the interpretive potential of classical descriptive morphological analyses. Outcome of work are of different natures. We can mention among others: 1° the construction of a formal classification (ontology) of concepts subsuming transformation and evolution of the city and the territory and 2° the development of an exploratory approach of geo-historical data. We have also discussed the contribution of some social sciences' paradigms (Callon and Latour's sociology of translation, Koselleck's conceptual history (Begriffsgeschichte), Peirce's abduction, Ginzburg's indiciary paradigm, etc.) to GISc. In particular, we are interested in the enhancement of the process of modeling by rethinking the tasks of conceptualization and formalization by taking into account the historical context of production of information during the process of knowledge reduction. We have pointed out the importance of periods of conceptual stability to allow comparative measurements and of events to explain ruptures not only at the data level, but also at the level of the entire conceptualization. These outputs should be considered as a new step towards recognition of the exploratory approach as a relevant tool to face interdisciplinary and complex problems related to urban processes in general. In particular, this work helps us stabilizing the theoretical framework contributing to the definition of the next generation numerical archives and interoperability of systems. Indeed, these technical questions need modelers to take into account different kinds of evolution when dealing with either concepts or instances and to produce a common platform to manage both. Finally, we show some clues to continue this work by introducing collaborative approaches and exploratory multidimensional interfaces. The figure below illustrates the initial framework of this research and the extension resulting from our work

    Contribution à la construction d’ontologies et à la recherche d’information : application au domaine médical

    Get PDF
    This work aims at providing efficient access to relevant information among the increasing volume of digital data. Towards this end, we studied the benefit from using ontology to support an information retrieval (IR) system.We first described a methodology for constructing ontologies. Thus, we proposed a mixed method which combines natural language processing techniques for extracting knowledge from text and the reuse of existing semantic resources for the conceptualization step. We have also developed a method for aligning terms in English and French in order to enrich terminologically the resulting ontology. The application of our methodology resulted in a bilingual ontology dedicated to Alzheimer’s disease.We then proposed algorithms for supporting ontology-based semantic IR. Thus, we used concepts from ontology for describing documents automatically and for query reformulation. We were particularly interested in: 1) the extraction of concepts from texts, 2) the disambiguation of terms, 3) the vectorial weighting schema adapted to concepts and 4) query expansion. These algorithms have been used to implement a semantic portal about Alzheimer’s disease. Further, because the content of documents are not always fully available, we exploited incomplete information for identifying the concepts, which are relevant for indexing the whole content of documents. Toward this end, we have proposed two classification methods: the first is based on the k nearest neighbors’ algorithm and the second on the explicit semantic analysis. The two methods have been evaluated on large standard collections of biomedical documents within an international challenge.Ce travail vise à permettre un accès efficace à des informations pertinentes malgré le volume croissant des données disponibles au format électronique. Pour cela, nous avons étudié l’apport d’une ontologie au sein d’un système de recherche d'information (RI).Nous avons tout d’abord décrit une méthodologie de construction d’ontologies. Ainsi, nous avons proposé une méthode mixte combinant des techniques de traitement automatique des langues pour extraire des connaissances à partir de textes et la réutilisation de ressources sémantiques existantes pour l’étape de conceptualisation. Nous avons par ailleurs développé une méthode d’alignement de termes français-anglais pour l’enrichissement terminologique de l’ontologie. L’application de notre méthodologie a permis de créer une ontologie bilingue de la maladie d’Alzheimer.Ensuite, nous avons élaboré des algorithmes pour supporter la RI sémantique guidée par une ontologie. Les concepts issus d’une ontologie ont été utilisés pour décrire automatiquement les documents mais aussi pour reformuler les requêtes. Nous nous sommes intéressés à : 1) l’identification de concepts représentatifs dans des corpus, 2) leur désambiguïsation, 3), leur pondération selon le modèle vectoriel, adapté aux concepts et 4) l’expansion de requêtes. Ces propositions ont permis de mettre en œuvre un portail de RI sémantique dédié à la maladie d’Alzheimer. Par ailleurs, le contenu des documents à indexer n’étant pas toujours accessible dans leur ensemble, nous avons exploité des informations incomplètes pour déterminer les concepts pertinents permettant malgré tout de décrire les documents. Pour cela, nous avons proposé deux méthodes de classification de documents issus d’un large corpus, l’une basée sur l’algorithme des k plus proches voisins et l’autre sur l’analyse sémantique explicite. Ces méthodes ont été évaluées sur de larges collections de documents biomédicaux fournies lors d’un challenge international

    Coordination implicite d'interactions sensorimotrices comme fondement de la cognition

    Get PDF
    This thesis promotes a cognitive infrastructure able to model sensorimotor behaviors in animals and humans. The theoretical developments upon which this infrastructure is drawn is inspired by the philosophical interactivist framework and the enaction paradigm: any system is represented by a set of active processes, in constant interaction with their subjective environment, which includes influences between these processes. Any living organism or cognitive system is therefore fractal, decomposed in different levels of emergence based on the same principles. These principles are now widely spread but appeared progressively during species evolution. Assimilation, regulation, anticipation or coordination made it possible for concurrent processes fighting for limited resources to cooperate, develop and maintain through ages. This joint evolution of environmental conditions and internal structures led to nowadays organisms, able to adapt to a genetically unpredictable environment of growing complexity.A mathematical model using the formalism of complex systems is detailed, as well as its computer implementation. The agent's dynamics is modeled by an activity field under the continuous influence of internal anticipations and external sensations. The global behavior of the agent then results from the implicit and stable coordination of localized interactive processes. On this aspect, the model extends artificial neural networks and classical probabilistic models. This essential characteristic enables applications in various domains and a unification of all levels of cognition. A set of applications validates the model, extending from physiological need satisfaction to mechanical systems handling, through auditory and visual perception. Finally and in order to extend the model to more complex behaviors in the future, technical contributions on algorithm optimization and parallel implementations are developed.Cette thèse propose une infrastructure cognitive permettant de modéliser les comportements sensori-moteurs animaux et humains. La réflexion théorique ayant conduit à cette infrastructure s'inspire du cadre philosophique interactiviste et du paradigme de l'énaction : tout système est représenté par un ensemble de processus actifs, en interaction permanente avec leur environnement propre, ce qui inclut leur influence mutuelle. Tout organisme vivant ou système cognitif peut ainsi être décomposé de manière fractale, chaque niveau d'émergence reposant sur les mêmes principes. Ces principes aujourd'hui largement répandus sont apparus durant l'évolution des espèces vivantes. L'assimilation, la régulation, l'anticipation ou encore la coordination ont ainsi permis à des processus en concurrence pour des ressources limitées de coopérer, se développer et se maintenir à travers les âges. Cette évolution conjointe des conditions environnementales et des structures internes a conduit aux organismes modernes, capables de s'adapter à un environnement génétiquement imprévisible et d'une complexité croissante.Un modèle mathématique utilisant le formalisme des systèmes complexes est détaillé, ainsi que son implémentation informatique. La dynamique de l'agent y est modélisée par un champ d'activité sous l'influence permanente d'anticipations internes et de sensations externes. Le comportement global de l'agent résulte alors de la coordination implicite et stable de processus interactifs localisés. A ce niveau, le modèle étend et complète les réseaux de neurones artificiels et les modèles probabilistes classiques. Cette caractéristique essentielle permet d'appliquer le modèle à des domaines variés et d'unifier tous les niveaux de la cognition. Le modèle est validé par un ensemble d'applications s'étendant de la satisfaction de besoins physiologiques à la manipulation de systèmes mécaniques, en passant par la perception auditive et visuelle. Enfin, et afin de pouvoir étendre ce type de modèles à des problèmes plus complexes dans le futur, des contributions techniques touchant à l'optimisation et à la parallélisation des algorithmes sont développées

    Étude de l'analyse formelle dans les données relationnelles : application à la restructuration des modèles structuraux UML

    Full text link
    Thèse numérisée par la Direction des bibliothèques de l'Université de Montréal
    • …
    corecore