297 research outputs found

    La structure communautaire comme paradigme d'organisation des réseaux complexes

    Get PDF
    Tableau d'honneur de la Faculté des études supérieures et postdoctorales, 2011-2012La caractérisation des propriétés universelles des systèmes complexes aide à comprendre comment leurs éléments sont distribués et connectés, pourquoi il en est ainsi et quelles en sont les conséquences. Dans les réseaux complexes, ces propriétés incluent l'organisation indépendente d'échelle, la propriété du small-world, la modularité et Y auto-similarité. Par contre, aucun mécanisme connu n'explique l'émergence de toutes ces propriétés. On développe ici un nouveau modèle d'organisation qui considère les communautés, plutôt que les éléments de base ou les liens qu'ils partagent, comme les blocs fondamentaux des systèmes complexes. On conclut que les propriétés mentionnées précédemment sont unifiées dans une structure communautaire indépendente d'échelle. Comme preuve empirique de notre attachement préférentiel structurel, nous examinons des réseaux sociaux (collaborations entre scientifiques et entre acteurs) et d'information (l'Internet) et sommes capables de reproduire leurs distributions en éléments par communauté et communautés par élément. De plus, notre modèle permet de prédire comment les structures et les éléments sont interconnectés, souvent de manière auto-similaire, en plus d'offrir de bons indices quant à l'évolution temporelle de ces systèmes. Nous utilisons la structure communautaire indépendente d'échelle comme nouveau paradigme d'organisation et étudions ces effets sur les phénomènes propagatoires sur réseaux complexes. Ici, une analyse par champs moyens est utilisée pour coupler de façon cohérente la dynamique des éléments du réseau et la dynamique des motifs récurrents dans leur topologie. Pour un modèle d'épidémie sur réseaux sociaux, cette approche procure un système d'EDOs pour l'évolution temporelle, en plus de solutions analytiques pour le seuil épidémique et la prévalence à l'équilibre. Dans le cadre de cette application, nous évaluons comment notre compréhension de la structure d'un réseau nous aide à contrôler sa dynamique. À la lumière de nos analyses, nous postulons ensuite un nouveau paradigme pour la description de Y organisation des réseaux complexes

    Modèles professionnels dans l'accompagnement auprès des chômeurs dans le champ de l'insertion

    No full text
    International audienceCet article est issu de l'ouvrage « A quoi servent les professionnels de l'insertion ? » publié en 2008 dans la collection « Le travail du social » dirigée par Alain Vilbrod, aux éditions l'Harmattan Il s'appuie sur un travail socio-historique et une enquête de terrain menée entre 2004 et 2007 sur trois réseaux professionnalisés particulièrement présents dans le champ, à savoir : • les Centres d'Hébergement et de Réinsertion Sociale, • les Missions Locales, • les Structures d'Insertion par l'Activité Economique. Ils disposent d'institutions représentatives auprès des pouvoirs publics, ils communiquent régulièrement sur leurs activités, ils ont mis en œuvre des processus de formation et de professionnalisation spécifiques. Cette enquète a permis de construire une typologie concernant les interactions à l'œuvre au jour le jour entre les intervenants sociaux et les usagers. Elle contribue à répondre à la question de la diversité de ces métiers de l'intervention sociale du point de vue des modes de collaboration avec les chomeurs et de l'interprétation de la catégorie insertion. Nous avons recherché les critères qui discriminent les formes d'intervention sociale dans le champ de l'insertion. Certaines pratiques ou représentations sont communes dans le champ. D'autres sont spécifiques et en mesure de révéler la nature de clivages, en particulier du point de vue des modes de collaboration avec les usagers

    Apprentissage statistique de modèles de comportement multimodal pour les agents conversationnels interactifs

    No full text
    Face to face interaction is one of the most fundamental forms of human communication. It is a complex multimodal and coupled dynamic system involving not only speech but of numerous segments of the body among which gaze, the orientation of the head, the chest and the body, the facial and brachiomanual movements, etc. The understanding and the modeling of this type of communication is a crucial stage for designing interactive agents capable of committing (hiring) credible conversations with human partners. Concretely, a model of multimodal behavior for interactive social agents faces with the complex task of generating gestural scores given an analysis of the scene and an incremental estimation of the joint objectives aimed during the conversation. The objective of this thesis is to develop models of multimodal behavior that allow artificial agents to engage into a relevant co-verbal communication with a human partner. While the immense majority of the works in the field of human-agent interaction (HAI) is scripted using ruled-based models, our approach relies on the training of statistical models from tracks collected during exemplary interactions, demonstrated by human trainers. In this context, we introduce "sensorimotor" models of behavior, which perform at the same time the recognition of joint cognitive states and the generation of the social signals in an incremental way. In particular, the proposed models of behavior have to estimate the current unit of interaction ( IU) in which the interlocutors are jointly committed and to predict the co-verbal behavior of its human trainer given the behavior of the interlocutor(s). The proposed models are all graphical models, i.e. Hidden Markov Models (HMM) and Dynamic Bayesian Networks (DBN). The models were trained and evaluated - in particular compared with classic classifiers - using datasets collected during two different interactions. Both interactions were carefully designed so as to collect, in a minimum amount of time, a sufficient number of exemplars of mutual attention and multimodal deixis of objects and places. Our contributions are completed by original methods for the interpretation and comparative evaluation of the properties of the proposed models. By comparing the output of the models with the original scores, we show that the HMM, thanks to its properties of sequential modeling, outperforms the simple classifiers in term of performances. The semi-Markovian models (HSMM) further improves the estimation of sensorimotor states thanks to duration modeling. Finally, thanks to a rich structure of dependency between variables learnt from the data, the DBN has the most convincing performances and demonstrates both the best performance and the most faithful multimodal coordination to the original multimodal events.L'interaction face-à-face représente une des formes les plus fondamentales de la communication humaine. C'est un système dynamique multimodal et couplé – impliquant non seulement la parole mais de nombreux segments du corps dont le regard, l'orientation de la tête, du buste et du corps, les gestes faciaux et brachio-manuels, etc – d'une grande complexité. La compréhension et la modélisation de ce type de communication est une étape cruciale dans le processus de la conception des agents interactifs capables d'engager des conversations crédibles avec des partenaires humains. Concrètement, un modèle de comportement multimodal destiné aux agents sociaux interactifs fait face à la tâche complexe de générer un comportement multimodal étant donné une analyse de la scène et une estimation incrémentale des objectifs conjoints visés au cours de la conversation. L'objectif de cette thèse est de développer des modèles de comportement multimodal pour permettre aux agents artificiels de mener une communication co-verbale pertinente avec un partenaire humain. Alors que l'immense majorité des travaux dans le domaine de l'interaction humain-agent repose essentiellement sur des modèles à base de règles, notre approche se base sur la modélisation statistique des interactions sociales à partir de traces collectées lors d'interactions exemplaires, démontrées par des tuteurs humains. Dans ce cadre, nous introduisons des modèles de comportement dits "sensori-moteurs", qui permettent à la fois la reconnaissance des états cognitifs conjoints et la génération des signaux sociaux d'une manière incrémentale. En particulier, les modèles de comportement proposés ont pour objectif d'estimer l'unité d'interaction (IU) dans laquelle sont engagés de manière conjointe les interlocuteurs et de générer le comportement co-verbal du tuteur humain étant donné le comportement observé de son/ses interlocuteur(s). Les modèles proposés sont principalement des modèles probabilistes graphiques qui se basent sur les chaînes de markov cachés (HMM) et les réseaux bayésiens dynamiques (DBN). Les modèles ont été appris et évalués – notamment comparés à des classifieurs classiques – sur des jeux de données collectés lors de deux différentes interactions face-à-face. Les deux interactions ont été soigneusement conçues de manière à collecter, en un minimum de temps, un nombre suffisant d'exemplaires de gestion de l'attention mutuelle et de deixis multimodale d'objets et de lieux. Nos contributions sont complétées par des méthodes originales d'interprétation et d'évaluation des propriétés des modèles proposés. En comparant tous les modèles avec les vraies traces d'interactions, les résultats montrent que le modèle HMM, grâce à ses propriétés de modélisation séquentielle, dépasse les simples classifieurs en terme de performances. Les modèles semi-markoviens (HSMM) ont été également testé et ont abouti à un meilleur bouclage sensori-moteur grâce à leurs propriétés de modélisation des durées des états. Enfin, grâce à une structure de dépendances riche apprise à partir des données, le modèle DBN a les performances les plus probantes et démontre en outre la coordination multimodale la plus fidèle aux évènements multimodaux originaux

    Apprentissage statistique de modèles de comportement multimodal pour les agents conversationnels interactifs

    Get PDF
    Face to face interaction is one of the most fundamental forms of human communication. It is a complex multimodal and coupled dynamic system involving not only speech but of numerous segments of the body among which gaze, the orientation of the head, the chest and the body, the facial and brachiomanual movements, etc. The understanding and the modeling of this type of communication is a crucial stage for designing interactive agents capable of committing (hiring) credible conversations with human partners. Concretely, a model of multimodal behavior for interactive social agents faces with the complex task of generating gestural scores given an analysis of the scene and an incremental estimation of the joint objectives aimed during the conversation. The objective of this thesis is to develop models of multimodal behavior that allow artificial agents to engage into a relevant co-verbal communication with a human partner. While the immense majority of the works in the field of human-agent interaction (HAI) is scripted using ruled-based models, our approach relies on the training of statistical models from tracks collected during exemplary interactions, demonstrated by human trainers. In this context, we introduce "sensorimotor" models of behavior, which perform at the same time the recognition of joint cognitive states and the generation of the social signals in an incremental way. In particular, the proposed models of behavior have to estimate the current unit of interaction ( IU) in which the interlocutors are jointly committed and to predict the co-verbal behavior of its human trainer given the behavior of the interlocutor(s). The proposed models are all graphical models, i.e. Hidden Markov Models (HMM) and Dynamic Bayesian Networks (DBN). The models were trained and evaluated - in particular compared with classic classifiers - using datasets collected during two different interactions. Both interactions were carefully designed so as to collect, in a minimum amount of time, a sufficient number of exemplars of mutual attention and multimodal deixis of objects and places. Our contributions are completed by original methods for the interpretation and comparative evaluation of the properties of the proposed models. By comparing the output of the models with the original scores, we show that the HMM, thanks to its properties of sequential modeling, outperforms the simple classifiers in term of performances. The semi-Markovian models (HSMM) further improves the estimation of sensorimotor states thanks to duration modeling. Finally, thanks to a rich structure of dependency between variables learnt from the data, the DBN has the most convincing performances and demonstrates both the best performance and the most faithful multimodal coordination to the original multimodal events.L'interaction face-à-face représente une des formes les plus fondamentales de la communication humaine. C'est un système dynamique multimodal et couplé – impliquant non seulement la parole mais de nombreux segments du corps dont le regard, l'orientation de la tête, du buste et du corps, les gestes faciaux et brachio-manuels, etc – d'une grande complexité. La compréhension et la modélisation de ce type de communication est une étape cruciale dans le processus de la conception des agents interactifs capables d'engager des conversations crédibles avec des partenaires humains. Concrètement, un modèle de comportement multimodal destiné aux agents sociaux interactifs fait face à la tâche complexe de générer un comportement multimodal étant donné une analyse de la scène et une estimation incrémentale des objectifs conjoints visés au cours de la conversation. L'objectif de cette thèse est de développer des modèles de comportement multimodal pour permettre aux agents artificiels de mener une communication co-verbale pertinente avec un partenaire humain. Alors que l'immense majorité des travaux dans le domaine de l'interaction humain-agent repose essentiellement sur des modèles à base de règles, notre approche se base sur la modélisation statistique des interactions sociales à partir de traces collectées lors d'interactions exemplaires, démontrées par des tuteurs humains. Dans ce cadre, nous introduisons des modèles de comportement dits "sensori-moteurs", qui permettent à la fois la reconnaissance des états cognitifs conjoints et la génération des signaux sociaux d'une manière incrémentale. En particulier, les modèles de comportement proposés ont pour objectif d'estimer l'unité d'interaction (IU) dans laquelle sont engagés de manière conjointe les interlocuteurs et de générer le comportement co-verbal du tuteur humain étant donné le comportement observé de son/ses interlocuteur(s). Les modèles proposés sont principalement des modèles probabilistes graphiques qui se basent sur les chaînes de markov cachés (HMM) et les réseaux bayésiens dynamiques (DBN). Les modèles ont été appris et évalués – notamment comparés à des classifieurs classiques – sur des jeux de données collectés lors de deux différentes interactions face-à-face. Les deux interactions ont été soigneusement conçues de manière à collecter, en un minimum de temps, un nombre suffisant d'exemplaires de gestion de l'attention mutuelle et de deixis multimodale d'objets et de lieux. Nos contributions sont complétées par des méthodes originales d'interprétation et d'évaluation des propriétés des modèles proposés. En comparant tous les modèles avec les vraies traces d'interactions, les résultats montrent que le modèle HMM, grâce à ses propriétés de modélisation séquentielle, dépasse les simples classifieurs en terme de performances. Les modèles semi-markoviens (HSMM) ont été également testé et ont abouti à un meilleur bouclage sensori-moteur grâce à leurs propriétés de modélisation des durées des états. Enfin, grâce à une structure de dépendances riche apprise à partir des données, le modèle DBN a les performances les plus probantes et démontre en outre la coordination multimodale la plus fidèle aux évènements multimodaux originaux

    Dynamique de l'environnement : Scénarios, simulations et maquette

    No full text
    IP-SIG/LIV/4.2. Contrat RNRT IPSIGCe livrable traite de la négociation dynamique de SLA/SLS et du maintien des paramètres négociés lors de la mobilité du terminal dans le cadre d'une signalisation NSIS. Il fait suite au livrable 4.1 qui présentait un assistant de négociation, coté terminal utilisateur, permettant de négocier dynamiquement les SLA/SLS avec le/les fournisseurs de service, et plusieurs protocoles conformes à l'environnement NSIS afin de négocier le SLS, et maintenir la qualité de service négociée. Il s'agit dans ce livrable de compléter l'approche retenue en présentant des scénarios d'utilisation, notamment dans le cas du protocole de négociation dynamique de paramètres de SLS, des résultats de simulations, principalement pour le protocole de réservation de ressources à l'avance et une maquette permettant de démontrer la faisabilité de la (re)négociation dynamique de SLA/SLS. Cette dernière comporte un module d'apprentissage et un système multi-agents
    • …
    corecore