13 research outputs found

    Amélioration de l'expérience d'apprentissage dans un système hypermédia adaptatif éducatif grâce aux données extraites et inférées à partir des réseaux sociaux

    Get PDF
    Avec l'émergence des formations en ligne accessibles pour tous, la personnalisation de l'apprentissage devient de plus en plus cruciale et présente de nouveaux défis aux chercheurs du domaine. Il est actuellement nécessaire de tenir compte de l'hétérogénéité du public cible et lui présenter des contenus éducatifs adaptés à ses besoins et sa façon d'apprendre afin de lui permettre de profiter au maximum de ces formations et éviter le décrochage. Ce travail de recherche s'inscrit dans le cadre des travaux sur la personnalisation de l'apprentissage à travers les systèmes hypermédias adaptatifs utilisés en éducation (SHAE). Ces systèmes ont la vocation de personnaliser le processus d'apprentissage selon des critères bien spécifiques, tels que les pré-requis ou plus souvent les styles d'apprentissage, en générant un chemin d'apprentissage adéquat. Les SHAE se basent généralement sur trois modèles principaux à savoir le modèle apprenant, le modèle du domaine et le modèle d'adaptation. Bien que la personnalisation du processus d'apprentissage offerte par les SHAE actuels soit avantageuse pour les apprenants, elle présente encore certaines limites. D'un côté, juste le fait de personnaliser l'apprentissage augmente les chances que le contenu présenté à l'apprenant lui soit utile et sera ainsi mieux compris. Mais d'un autre côté, la personnalisation dans les SHAE existants se contente des critères niveau de connaissances et style d'apprentissage, et elle s'applique seulement à certains aspects qui n'ont pas évolué depuis leur création, à savoir le contenu, la présentation et la navigation. Ceci remet en question la pertinence des objets d'apprentissage attribués aux apprenants et la motivation de ces derniers à faire usage des SHAE sachant que ceux-ci se basent essentiellement sur les questionnaires pour la constitution de leur modèle apprenant. Suite à une étude empirique d'une cinquantaine de SHAE existants, révélant leurs atouts et limites, certains objectifs de recherche ont été identifiés afin d'améliorer l'expérience d'apprentissage à travers ces systèmes. Ces objectifs visent à établir un modèle de SHAE capable de (i) déterminer les données du modèle apprenant de façon implicite à partir des réseaux sociaux tout en répondant aux standards associés à ce modèle afin de construire le modèle apprenant; (ii) favoriser la collaboration entre les différents apprenants qui seraient mieux motivés à apprendre en collaborant; (iii) personnaliser, de façon automatique, de nouveaux aspects à savoir l'approche pédagogique, la collaboration et le feedback selon les traits de personnalité de l'apprenant en plus des trois volets existants. Un modèle de SHAE a été proposé pour répondre à ces objectifs. Ce modèle permet d’extraire les données personnelles de l'utilisateur à partir de ses réseaux sociaux et de prédire ses traits de personnalité selon son interaction avec ces réseaux. Par la suite, il est possible d'adapter les objets d'apprentissage, sur la base d'un système de recommandation, à ces traits de personnalité en plus du style d'apprentissage et du niveau de connaissances des apprenants. L'adaptation aux traits de personnalité de l'apprenant selon le modèle Big Five a permis de personnaliser de nouveaux aspects tels l'approche pédagogique, le type de collaboration et le feedback. Un prototype, "ColadaptLearn", conçu à partir de ce modèle et expérimenté avec un ensemble d'étudiants a permis de valider les choix du prototype pour les objets d'apprentissage, selon les règles préétablies, en les confrontant aux choix faits par les étudiants. Ces données ont été utilisées pour développer un réseau bayésien permettant de prédire les objets d'apprentissage adéquats aux futurs apprenants. Les résultats de l’expérimentation ont montré qu'il y a une bonne concordance entre les choix du prototype et ceux des apprenants, en plus d'une satisfaction de ces derniers par rapport aux feedbacks reçus, ce qui appuie le rajout des nouveaux aspects proposés. Comme suite à cette thèse, il est envisageable d'appliquer le modèle proposé dans des environnements d'apprentissage plus larges de types cours en ligne ouverts et massifs, jeu sérieux ou même des formations mobiles, ce qui contribuerait à mieux valider les propos amenés. Il est aussi possible d’utiliser des techniques d'apprentissage automatique autres que les réseaux bayésiens pour la prédiction des objets d'apprentissage adaptés. Finalement, il serait intéressant d'explorer d'autres sources de données qui pourraient fournir plus d'informations sur l'apprenant de façon implicite tels ses centres d'intérêt ou ses émotions auxquels un SHAE pourrait s'adapter.With the growth of online learning accessible to all, learning personalization is becoming increasingly crucial and presents new challenges for researchers. It is currently essential to take into account the heterogeneity of the target audience and adapt educational content to their needs and learning style in such a way that they are able to fully benefit from these learning forms and prevent them from dropping out. This research work addresses learning personalization through adaptive educational hypermedia systems (AEHS). These systems are designed to customize the learning process according to specific criteria, such as prerequisites or, more often, learning styles, by generating a suitable learning path. AEHS are generally based on three main models: the learning model, the domain model and the adaptation model. Although the learning process customization offered by current AEHS is beneficial to learners, it still has some limitations. On one hand, just the fact of personalizing learning increases the likelihood that the content presented to the learner will be useful and thus better understood. But on the other hand, customization in existing AEHS is limited to the criteria knowledge level and learning style and applies only to certain aspects which have not evolved since their creation, namely content, presentation and navigation. This questions the relevance of the learning objects assigned to learners and their motivation to use such AEHS, knowing that they rely essentially on questionnaires to build their learner model. After conducting an empirical study of 50 existing AEHS, revealing their strengths and limitations, some research objectives were identified to improve the learning experience through such systems. These objectives aim to establish an AEHS model which is able to (i) implicitly identify the learning model data on the basis of social networks while meeting the associated standards; (ii) promote collaboration between different learners who would be better motivated to learn while collaborating; (iii) automatically customize new aspects such as the teaching approach, collaboration and feedback according to learners' personality traits in addition to the three existing ones. An AEHS model has been proposed to meet these objectives. This model makes it possible to extract the user's personal data from his social networks and to predict his personality traits depending on his interaction with these networks. Thereafter, it is possible to adapt the learning objects, on the basis of a recommendation system, to these personality traits in addition to the criteria learning style and knowledge level. Adapting to the learner's personality traits according to the Big Five model enabled the customization of new aspects such as the pedagogical approach, the collaboration type and the feedback. A prototype, "ColadaptLearn", based on this model and experimented with a group of students, validated the prototype's choices for learning objects while confronting them to the students' choices. These data were then used to build a Bayesian network to predict the appropriate learning objects for future learners. The experimental results showed that there is a good match between the prototype choices and those of learners, in addition to learners' satisfaction regarding the feedback received, which supports the addition of the proposed new aspects. As a follow-up to this thesis, it is possible to apply the proposed model in a larger learning environment such as massive open online courses (MOOC), serious games or mobile learning, which would help to validate the proposals made. It is also possible to use other automatic learning techniques than Bayesian networks to predict suitable learning objects. Finally, it would be interesting to explore other data sources that could implicitly provide more information about the learner, such as his or her interests or emotions that an SHAE could adapt to

    Mobilité et bases de données : Etat de l'art et perspectives: 1ère partie. Action spécifique CNRS « Mobilité/Accès aux données »

    Get PDF
    National audienceThis paper is the result of the collective work done within the CNRS specific action Mobility/Data access with seven french laboratories IMAG-LSR, INT-Evry, LIP6, LORIA, PRiSM, EPFL, LIRMM . All pursuiving research in mobile computing and mobile databases. The action started in October 2001 for an initial period of one year. The activities and results of this action are available online at [AS_BDMobile]. The objective of this paper is to review the state of progress in mobile databases and identify major research directions. However, the research domain is so broad that we cannot pretend to be exhaustive. First, we propose a classification of mobile applications and a characterization of their execution environments. Then, we analyze the following issues: management of localization data, data access models, copy consistency and synchronization, management of embedded data, data confidentiality, and adaptability of software infrastructures to mobility and disconnection. For editorial reasons, this paper is published as a chronicle with two parts of equal importance.Ce document est le résultat d'un travail collectif réalisé par les membres de l'action spécifique CNRS « Mobilité/Accès aux données ». Il fait le point sur l'état d'avancement des travaux réalisés dans le domaine des bases de données mobiles et identifie quelques orientations de recherche jugées particulièrement pertinentes. Compte tenu de la largeur du domaine, ce document ne prétend cependant pas à l'exhaustivité. Après une classification des applications mobiles et une caractérisation de leur environnement d'exécution, les problématiques suivantes sont analysées : gestion des données de localisation, modèles d'accès aux données, cohérence des traitements et synchronisation de copies, gestion de données embarquées, confidentialité des données et enfin adaptabilité des infrastructures logicielles à la mobilité et à la déconnexion

    Surcoût de l'authentification et du consensus dans la sécurité des réseaux sans fil véhiculaires

    Get PDF
    Les réseaux ad hoc sans fil véhiculaires (VANET) permettent les communications entre véhicules afin d'augmenter la sécurité routière et d'agrémenter l'expérience de conduite. Une catégorie d'applications ayant suscité un fort intérêt est celle liée à la sécurité du trafic routier. Un exemple prometteur est l'alerte de danger local qui permet d'accroitre la " ligne de vue " du conducteur en lui proposant un ensemble d'alertes afin d'anticiper des situations potentiellement dangereuses. En raison de leurs contraintes temporelles fortes et les conséquences critiques d'une mauvaise utilisation, il est primordial d'assurer des communications sécurisées. Mais l'ajout de services de sécurité entraîne un surcoût de calcul et réseau. C'est pourquoi l'objectif de notre travail est d'établir un cadre général (de manière analytique) du surcoût de la sécurité sur le délai de transfert d'une alerte. Parmi les mécanismes de sécurité conventionnels, le service d'authentification apparaît comme la pierre angulaire de la sécurité des VANETs. De plus, l'authentification est utilisée pour chaque message émis ou reçu. Il est donc potentiellement le service le plus consommateur. C'est pourquoi, nous nous focalisons sur ce service. Nous nous posons ainsi les questions suivantes : quel est le coût de l'authentification ? Quel est son impact sur l'application d'alerte de danger local ? La première contribution de cette thèse est l'élaboration d'une formule permettant le calcul du surcoût de la signature numérique. Mais l'authentification ne sera pas le seul mécanisme de sécurité déployé. Le consensus est notamment un des mécanismes fréquemment employés afin d'instaurer une confiance entre les véhicules. En effet, grâce à une méthode de décision et à partir d'un ensemble de messages, le consensus vise à obtenir un commun accord sur une valeur ou une action entre les véhicules. Ainsi, nous devons comprendre comment définir les paramètres de consensus afin de réduire l'impact de ce mécanisme sur le délai et la distance de freinage ? Comment s'intègre le consensus dans la formule globale de surcoût de l'authentification ? C'est notamment à ces questions que cette thèse répond. Notre deuxième contribution est une méthode de décision dynamique qui analyse l'environnement réseau courant (nombre de voisins à portée de communication), et explore le contenu des alertes. Il en résulte une réduction du nombre de paquets à examiner et donc une réaction plus rapide et plus adaptée à l'alerte.In 2007, road accidents have cost 110 deaths, 4600 injuries and €438 millions daily in the European Union. The damage is similarly devastating in the United States with 102 deaths, 7900 injuries and $630 millions daily. Therefore, industry consortia, governments, and automotive companies, have made the reduction of vehicular fatalities a top priority. To raise this challenge, a main idea is to make vehicles and roads smarter thanks to wireless communications. Indeed, wireless communications will increase the line-of-sight of the driver and make vehicles aware of their environment. Smart vehicles and roads will form a wireless vehicular network (VANET). The VSC Project details 75 applications that could be deployed on vehicular networks. Applications are divided in three categories: safety-related, traffic optimization and infotainment. Automotive safety-related applications aim to assist drivers in avoiding vehicular accidents, by providing advisories and early warnings to drivers, using broadcast vehicle-to-vehicle (V2V) communications. Vehicles typically communicate as per the Dedicated Short Range Communication standard (DSRC), and broadcast messages in response to certain notified events (emergency message) or periodically (beacon message). In this thesis, we focus on V2V communications in Local Danger Warning (LDW) application, which is considered one of the most promising active safety applications for inter-vehicle communication. Since drivers of vehicles participating in V2V communications are expected to act on messages received from other participants, it is clearly necessary that these messages be transmitted in a secure fashion. Unfortunately, security mechanisms come with overhead that impact the performance of the V2V communications, and hence that of the safety applications. The IEEE 1609.2 standard for vehicular ad hoc networks is based on the ECDSA algorithm for supporting the authentication mechanism. The main goal of this work is to define a formula, which assesses the authentication overhead in VANET. We also introduce the problem of consensus, which is an additional mechanism that impacts the total time overhead of ECDSA. Indeed, when you receive a message, you could legitimately ask: "Should I trust this message?". The consensus aims at increasing trust. But consensus mechanism comes with overheads. We investigate the network performance and propose new decision methods and techniques to reduce these overheads

    Analyse et enrichissement de flux compressés : application à la vidéo surveillance

    Get PDF
    The increasing deployment of civil and military videosurveillance networks brings both scientific and technological challenges regarding analysis and content recognition over compressed streams. In this context, the contributions of this thesis focus on: - an autonomous method to segment in the compressed domain mobile objects (pedestrians, vehicles, animals …), - the coverage of the various compression standards commonly used in surveillance (MPEG-2, MPEG-4 Part 2, MPEG-4 Part 10 / H.264 AVC), - an optimised multi-stream processing chain from the objects segmentation up to their tracking and description. The developed demonstrator made it possible to bench the performances of the methodological approaches chosen for a tool dedicated to help investigations. It identifies vehicles from a witness description in databases of tens of hours of video. Moreover, while dealing with corpus covering the different kind of content expected from surveillance (subway stations, crossroads, areas in countryside or border surveillance …), the system provided the following results: - simultaneous real time analysis of up to 14 MPEG-2 streams, 8 MPEG-4 Part 2 streams or 3 AVC streams on a single core (2.66 GHz; 720x576 video, 25 fps), - 100% vehicles detected over the length of traffic surveillance footages, with a image per image detection near 95%, - a segmentation spreading over 80 to 150% of the object area (under or over-segmentation linked with the compressed domain). These researches led to 9 patents linked with new services and applications that were made possible thanks to the suggested approaches. Among these lie tools for Unequal Error Protection, Visual Cryptography, Watermarking or SteganographyLe développement de réseaux de vidéosurveillance, civils ou militaires, pose des défis scientifiques et technologiques en termes d’analyse et de reconnaissance des contenus des flux compressés. Dans ce contexte, les contributions de cette thèse portent sur : - une méthode de segmentation automatique des objets mobiles (piétons, véhicules, animaux …) dans le domaine compressé, - la prise en compte des différents standards de compression les plus couramment utilisés en surveillance (MPEG-2, MPEG-4 Part 2 et MPEG-4 Part 10 / H.264 AVC), - une chaîne de traitement multi-flux optimisée depuis la segmentation des objets jusqu’à leur suivi et description. Le démonstrateur réalisé a permis d’évaluer les performances des approches méthodologiques développées dans le cadre d’un outil d’aide à l’investigation, identifiant les véhicules répondant à un signalement dans des bases de données de plusieurs dizaines d’heures. En outre, appliqué à des corpus représentatifs des différentes situations de vidéosurveillance (stations de métro, carrefours, surveillance de zones en milieu rural ou de frontières ...), le système a permis d’obtenir les résultats suivants : - analyse de 14 flux MPEG-2, 8 flux MPEG-4 Part 2 ou 3 flux AVC en temps réel sur un coeur à 2.66 GHZ (vidéo 720x576, 25 images par seconde), - taux de détection des véhicules de 100% sur la durée des séquences de surveillance de trafic, avec un taux de détection image par image proche des 95%, - segmentation de chaque objet sur 80 à 150% de sa surface (sous ou sur-segmentation liée au domaine compressé). Ces recherches ont fait l’objet du dépôt de 9 brevets liés à des nouveaux services et applications rendus opérationnels grâce aux approches mises en oeuvre. Citons entre autres des outils pour la protection inégale aux erreurs, la cryptographie visuelle, la vérification d’intégrité par tatouage ou l’enfouissement par stéganographi

    Un système multi-agent pour l'enseignement et la simulation de tâches coopératives

    Full text link
    Thèse numérisée par la Direction des bibliothèques de l'Université de Montréal

    APIA : architecture propriété intéraction acteur pour des mondes virtuels agiles

    Get PDF
    Une majorité de mondes virtuels (MVs) existants mettent l'accent sur la qualité graphique, les capacités réseaux ou sur la qualité de la modélisation. Toutefois, ces MVs manquent souvent agilité t tant au niveau de leur conception que de leur exécution. Il en résulte des MVs monolithiques avec peu de réutilisabilité. Cette thèse propose une architecture appelée "Architecture Propriété Interaction Acteur" (APIA) qui a pour objectif d'améliorer Yagilité des MVs en se concentrant sur les caractéristiques sous-jacentes : la composabilité, la réutilisabilité, la modifiabilité, l'extensibilité et une grande liberté d'action. La solution proposée consiste en une architecture générique basée sur un méta-modèle conceptuel comprenant cinq éléments de base, supportés par un processus et des algorithmes de gestion. Comparativement aux autres approches qui sont centrées sur l'entité, le métamodèle conceptuel propose un paradigme centré sur l'interaction entre les entités. Ce paradigme permet de regrouper les protocoles entre les entités et les aspects de l'interaction dans un élément du MV nommé interaction. Plusieurs exemples, dont des applications de cryochirurgie et d'inspection de barrages, viennent démontrer que les entités et les interactions sont moins interdépendantes avec cette approche. De plus, des exemples montrent que l'émergence de comportements est facilitée due à la meilleure composabilité de cette approche. Ensuite, le processus développé avec APIA définit trois groupes d'actions qui influencent à différents niveaux Yagilité future du MV. Finalement, APIA définit des algorithmes de gestion de ces actions afin de maintenir le MV cohérent tout au long des modifications, des extensions ou des compositions en cours d'exécution. Les gestionnaires qui appliquent ces algorithmes maintiennent automatiquement la cohérent du MV lors d'opérations de modification, d'extension et de composition. Ces caractéristiques sont désormais possibles en cours d'exécution sans l'intervention humaine

    Usagers & Recherche d'Information

    Get PDF
    La recherche d'information est confrontée à une variété de plus en plus importante tant en termes d'usagers, de tâches à remplir, d'outils.... Face à cette hétérogénéité de nombreux travaux, s'attachent à améliorer la recherche d'information par le biais d'approches adaptatives, de systèmes de recommandation... Mes travaux s'inscrivent dans ce cadre et apportent un éclairage essentiellement porté sur l'usager et ses activités et plus particulièrement sur la recherche d'information. Les résultats correspondent à 3 angles d'investigation nous permettant d'aborder cette problématique de l'hétérogénéité en Recherche d'Information

    Un modèle hybride pour le support à l'apprentissage dans les domaines procéduraux et mal définis

    Get PDF
    Pour construire des systèmes tutoriels intelligents capables d'offrir une assistance hautement personnalisée, une solution populaire est de représenter les processus cognitifs pertinents des apprenants à l'aide d'un modèle cognitif. Toutefois, ces systèmes tuteurs dits cognitifs ne sont applicables que pour des domaines simples et bien définis, et ne couvrent pas les aspects liés à la cognition spatiale. De plus, l'acquisition des connaissances pour ces systèmes est une tâche ardue et coûteuse en temps. Pour répondre à cette problématique, cette thèse propose un modèle hybride qui combine la modélisation cognitive avec une approche novatrice basée sur la fouille de données pour extraire automatiquement des connaissances du domaine à partir de traces de résolution de problème enregistrées lors de l'usagé du système. L'approche par la fouille de données n'offre pas la finesse de la modélisation cognitive, mais elle permet d'extraire des espaces problèmes partiels pour des domaines mal définis où la modélisation cognitive n'est pas applicable. Un modèle hybride permet de profiter des avantages de la modélisation cognitive et de ceux de l'approche fouille de données. Des algorithmes sont présentés pour exploiter les connaissances et le modèle a été appliqué dans un domaine mal défini : l'apprentissage de la manipulation du bras robotisé Canadarm2. \ud ______________________________________________________________________________ \ud MOTS-CLÉS DE L’AUTEUR : Systèmes tutoriels intelligents, cognition spatiale, robotique, fouille de donnée

    Conception et implémentation d'une plate-forme d'évaluation adaptative des apprentissages

    Get PDF
    Des avancées importantes ont été réalisées au cours de ces dernières décennies dans le domaine du E-learning. Ceci permet par exemple l'interopérabilité des plates-formes et l'adaptation du déroulement des apprentissages à l'apprenant. Mais certains composants du E-learning comme l'évaluation en ligne des apprentissages, sont encore en phase de développement. Comme conséquence de ce retard, dans la plupart des plates-formes de E-learning, les évaluations sont sous le format classique des tests malgré leurs limites et problèmes de précision. Or, en mettant à profit des techniques d'intelligence artificielle (lA), des théories en psychométrie et les normes actuelles dans le domaine du E-learning, il est possible d'intégrer des fonctionnalités permettant d'administrer des évaluations adaptatives et plus informatives à ces plates-formes. Les travaux présentés dans ce mémoire se situent dans ce contexte. Le mémoire présentera des algorithmes et des stratégies permettant l'adaptation des évaluations selon le niveau des habiletés cognitives des apprenants. Les résultats de ces évaluations serviront à faire un diagnostic cognitif sur les apprentissages de ces apprenants. Pour ce faire, nous devons nous assurer de la véracité des réponses fournies par les apprenants. Un mécanisme de détection de patrons de réponses inappropriées sera donc implémenté. Cette dernière fonctionnalité et le diagnostic cognitif seront présentés de façon sommaire. La plate-forme développée qui intègre toutes ses fonctionnalités est nommée PersonFit. Elle sera présentée ainsi que des stratégies permettant son intégration dans la plate-forme de E-learning Moodle. Finalement, une présentation et discussion sur les résultats d'implémentation permettront de juger de la pertinence et de l'efficacité du travail effectué. ______________________________________________________________________________ MOTS-CLÉS DE L’AUTEUR : E-learning, Systèmes Tutoriels Intelligents, Théorie de la Réponse à l'Item, E-testing, Modèle de l'apprenant, Adaptation à l'apprenant, Moodle, PersonFit

    Exploitation du BIM pour la modélisation Chronographique de la planification et la simulation 4D

    Get PDF
    La planification des projets de construction est une fonction managériale des plus importantes car elle influe directement sur le succès de la réalisation des travaux. Ces dernières années, différentes études ont été menées et divers outils ont été créés pour exploiter les possibilités de combiner le Building Information Modeling (BIM) et les méthodes traditionnelles de planification afin d’assister à la réalisation des calendriers de construction. Cependant, ces outils et méthodes sont principalement destinés à aborder les perspectives de conception des ouvrages. Leur utilisation pour la planification des travaux en phase de construction nécessite alors d’importants efforts pour remanier, d’une part les maquettes numériques BIM et d’autre part les échéanciers, notamment pour caractériser le caractère spatial des projets. La méthode Chronographique développée au sein du laboratoire MGPlan offre une modélisation de la planification des projets de construction adaptée aux différentes contraintes d’exécution des travaux. L’objectif de la présente recherche est donc de créer une stratégie de communication entre les maquettes numériques BIM, la méthode Chronographique et les outils de simulation 4D afin de réaliser plus efficacement la planification de la réalisation des travaux et le montage des modèles 4D. Afin de répondre à cette problématique, des études approfondies des mécanismes de la méthode Chronographique, des outils BIM de modélisation et de la simulation 4D ont été menées. Sur la base de ces observations, une stratégie de communication entre ces différents éléments a été conçue et des outils ont été mis en place pour l’assister. Une étude de cas d’un projet fictif a été réalisée pour éprouver cette stratégie
    corecore