33 research outputs found

    Visualisation de données dans le domaine de l’E-recrutement

    Full text link
    La récente profusion des données, communément appelée Big Data, nécessite une analyse pertinente de ces larges volumes de données afin d’en tirer l’information utile nécessaire à la prise de décision. La visualisation de données se révèle à cet égard un moyen efficace pour transmettre cette information de façon interactive et synthétique. Le travail décrit dans ce mémoire qui constitue un volet du projet BPP, collaboration entre le RALI et la société LittleBigJob (LBJ), vise à répondre à ce besoin par l’implémentation d’un tableau de bord permettant la visualisation des offres d’emploi sur le web. Ces offres étant composées de plusieurs sections : titre de l’offre, compagnie qui recrute, description de l’offre, etc. Certaines informations contenues dans la description de l’offre ne peuvent pas être extraites directement. Ainsi, pour l’extraction des compétences citées dans une offre, nous utilisons les techniques de l’apprentissage automatique et plus particulièrement les champs markoviens conditionnels (CRF) utilisés pour l’étiquetage des séquences. Les expériences menées visent également à tester la capacité de ces modèles à trouver ces compétences dans la description de l’offre avec un ensemble d’entraînement partiellement étiqueté, d’une part parce que nous ne disposons pas d’une liste complète de compétences nécessaire à l’étiquetage, et d’autre part, parce que de nouvelles compétences apparaissent continuellement.The large amount of data available nowadays, so-called Big Data, requires a relevant analysis to derive information and get insights for decision making. Data visualization is an effective way to convey this information interactively and synthetically. This work, which is part of BPP Project, a collaboration between the RALI and LBJ, aims to meet this need by implementing a dashboard for visualization of job offers on the web. These offers consist of several sections: title, company, description, etc. Some information contained in the description cannot be extracted directly. Thus, for the extraction of skills from the description of an offer, we use machine learning techniques, especially Conditional Random Fields (CRF) used for sequence labeling. We also tested the ability of those models to find skills in the description of the offer with partial labeled training dataset, as we do not have a complete list of skills required for labeling, and also because new skills appear constantly

    Méthodes de diagnostic avancées dans la validation formelle des modèles

    Get PDF
    Malgré l'existence d'un nombre important d'approches et outils de vérification à base de modèles, leur utilisation dans l'industrie reste très limitée. Parmi les raisons qui expliquent ce décalage il y a l'exploitation, aujourd'hui difficile, des résultats du processus de vérification. Dans cette thèse, nous étudions l'utilisation des outils de vérification dans les processus actuels de modélisation de systèmes qui utilisent intensivement la validation à base de modèles. Nous établissons ensuite les limites des approches existantes, surtout en termes d'utilisabilité. A partir de cette étude, nous analysons les causes de l'état actuel des pratiques. Nous proposons une approche complète et outillée d'aide au diagnostic d'erreur qui améliore l'exploitation des résultats de vérification, en introduisant des techniques mettant à profit la visualisation d'information et l'ergonomie cognitive. En particulier, nous proposons un ensemble de recommandations pour la conception d'outils de diagnostic, un processus générique adaptable aux processus de validation intégrant une activité de diagnostic, ainsi qu'un framework basé sur les techniques de l'Ingénierie Dirigée par les Modèles (IDM) permettant une implémentation et une personnalisation rapide de visualisations. Notre approche a été appliquée à une chaîne d'outils existante, qui intègre la validation de modèles UML et SysML de systèmes temps réel critiques. Une validation empirique des résultats a démontré une amélioration significative de l'utilisabilité de l'outil de diagnostic, après la prise en compte de nos préconisations.A plethora of theoretical results are available which make possible the use of dynamic analysis and model-checking for software and system models expressed in high-level modeling languages like UML, SDL or AADL. Their usage is hindered by the complexity of information processing demanded from the modeller in order to apply them and to effectively exploit their results. Our thesis is that by improving the visual presentation of the analysis results, their exploitation can be highly improved. To support this thesis, we define a diagnostic trace analysis approach based on information visualisation and human factors techniques. This approach offers the basis for new types of scenario visualizations, improving diagnostic trace understanding. Our contribution was implemented in an existing UML/SysML analyzer and was validated in a controlled experiment that shows a significant increase in the usability of our tool, both in terms of task performance speed and in terms of user satisfaction. The pertinence of our approach is assessed through an evaluation, based on well-established evaluation mechanisms. In order to perform such an evaluation, we needed to adapt the notion of usability to the context of formal methods usability, and to adapt the evaluation process to our setting. The goal of this experiment was to see whether extending analysis tools with a well-designed event-based visualization would significantly improve analysis results exploitation and the results are meeting our expectations

    Outils de visualisation de données de cartes à puce pour une société de transport collectif

    Get PDF
    RÉSUMÉ : De plus en plus de sociétés de transport en commun font le choix de systèmes automatisés de perception des titres de transport par carte à puce et réalisent que ces données recueillies au jour le jour, depuis déjà 2008 pour la grande région de Montréal, constituent un potentiel immense à exploiter pour la planification de leur offre de transport. Dans ce contexte, cette maîtrise recherche s’inscrit dans un projet global mené depuis trois ans en collaboration avec divers partenaires. Elle fait suite aux précédents travaux de recherche menés sur l’enrichissement des transactions des cartes à puce en leur associant les origines et les destinations des trajets. Pour les fins de ce projet, le Réseau de Transport de Longueuil (RTL) a mis à disposition les 3,1 millions de transactions de bus et de métro du mois de mars 2013. La société Thales a rendu disponible son portail « Analytics For Transportation » développé par le département CeNTAI (Centre de Traitement et d’Analyse de l’Information). L’objectif principal de cette maîtrise recherche est de concevoir des interfaces permettant de visualiser et d’analyser les transactions de cartes à puce, enrichies de leurs destinations, répondant ainsi aux besoins d’un exploitant de transport en commun. Les sous-objectifs, correspondant aux étapes de la recherche, sont les suivants : - Rendre opérationnel l’algorithme de détermination des destinations - Conceptualiser la structure des données la plus adéquate pour permettre leur visualisation - Créer des interfaces de visualisation répondant aux besoins d’un exploitant de transport en commun. Ce mémoire commence par une revue de littérature présentant d’une part les projets des années précédentes sur l’estimation de l’origine puis de la destination des déplacements et d’autre part d’autres projets liés à la visualisation de ce type de données. Les raisonnements employés pour répondre aux trois sous-objectifs précités sont exposés dans une section méthodologie. La dernière section présente les résultats et analyses obtenus à partir de ces données enrichies. Les contributions apportées par ce mémoire sont : - L’optimisation et la refonte de l’algorithme d’estimation des destinations et son adaptation à un réseau défini selon le format GTFS (General Transit Feed Specification)- La présentation d’aperçus rapides et ergonomiques obtenus grâce à l’utilisation d’outils libres (Elasticsearch et Kibana) analysant ces données enrichies de carte à puce - La conception d’une nouvelle interface web personnalisée et développée pour alimenter un tableau de bord présentant des indicateurs clés pour une société de transport en commun à partir des données transmises par le RTL. En conclusion, ce projet de recherche propose une solution opérationnelle qui, pour un jeu de données de transactions de cartes à puce, permet, en une étape, d’estimer la destination des trajets de chaque transaction des usagers, de préparer des statistiques supplémentaires (distance et temps de trajet, séquences de tronçons …) et de les exporter vers un fichier texte et vers une base de données (Elasticsearch). Le tout est réalisé en un temps relativement court : 20 minutes pour 3 millions de transactions, temps d’exportation compris. Les données sont alors directement disponibles et exploitables dans des portails web configurés ou développés pour l’occasion prenant en compte les besoins des clients. Parmi les 3,1 millions de transactions disponibles, 20% sont des transactions de métro. Ces dernières permettent d’aider l’algorithme dans l’estimation des destinations. Lorsqu’elles sont prises en compte, elles n’améliorent que de 1% le nombre total de destinations des trajets de bus portant à 79% le nombre de trajets OD en bus recomposés pour notre jeu de données de mars 2013. Les séquences de tronçons ou déplacements ont été recomposées au cours de l’algorithme. Il en ressort par exemple que 66% des déplacements de bus, ou séquences de tronçons, effectués par les usagers sont des trajets directs sans correspondance. La part d’usagers effectuant des déplacements d’une seule correspondance est respectivement 12% du bus vers le bus et 20% du bus vers le métro. En définitive, ce projet de recherche permet de montrer que l’analyse de gros volumes de données en un temps limité est possible et une solution opérationnelle est présentée. En effet, il faudrait un temps de traitement de seulement 32 heures pour enrichir les transactions des 8 dernières années du RTL, à raison de 3 millions de données par mois. Ces données de type OD seraient alors disponibles pour alimenter les analyses des différents départements d’une société de transport en commun tels que la gestion des opérations du réseau, la planification et même le marketing et la finance. Les outils de visualisation développés permettraient alors d’aider le RTL dans la rédaction d’un cahier des charges auprès d’une entreprise offrant des solutions BI (Business Intelligence) pour visualiser leurs données métier.----------ABSTRACT : Public transit authorities are choosing more and more smart card automated fare collection systems and realize that those daily recovered data, since 2008 for the greater Montreal region, have a great potential for their planning and operations. In this context, this research master is part of a global project held for three-year period in collaboration with various partners. It follows previous research works on data enrichment of smart card transactions by combining their trip origin and destination. For the purpose of this project, the transit authority RTL (Réseau de Transport de Longueuil) provided one month (March 2013) of bus and metro smart card transactions (3.1 million). As far as Thales is concerned, they made available their “Analytics For Transportation” portal developed by its CeNTAI Department (Centre de Traitement et d’Analyse de l’Information). The main objective of this master research is to design interfaces for viewing and analyzing smart card transactions, enriched of their destination, while meeting the needs of a transit operator. The sub-objectives, corresponding to the steps of this research, are: - Make operational the algorithm determining trip destinations - Conceptualize the most adequate data structure enabling their visualization - Design visualization interfaces meeting the needs of a transit operator This thesis starts with a literature review with, on the one hand, the previous works on the estimation of the trips origin and destination, and, on the other hand, other projects on data visualization. The steps followed to meet the above three sub-objectives are described in the methodology section. The final section presents the results and analysis obtained from these enriched data. The main achievements of this project are: - The optimization and redesign of the algorithm estimating trip destinations and its adaptation to a network defined with the GTFS format (General Transit Feed Specification) - The presentation of ergonomic insights, obtained thanks to the use open source tools (Elasticsearch, Kibana), enabling those enriched smart card data to be quickly analyzed The design of a new customized web interface developed to present other key indicators used by a public transport company. In conclusion, this research project presents an operational solution, which for a set of smart card transaction data offers, in one step, to estimate the destination of each smart card transaction trip, to prepare additional statistics (distance and travel time, trip-leg sequences …) and to export those enriched transactions to a text file or a data base (Elasticsearch). The whole process is made within a relatively short time: 20 minutes for 3 million transactions, export time included. The data is then directly available and usable in web portals configured or developed for the occasion and which take into account the needs of the customers. Of the 3.1 million available transactions, 20% are metro transactions. These transactions help the algorithm in the estimation of a trip destination. These metro transactions only help to find 1 more percent of destinations, resulting in 79% of trip destinations recovered for our March 2013 dataset. Trip-legs have also been reconstructed by the algorithm. It shows for example that 66% of bus travels are made without a transfer. The share of users making only one transfer represents respectively 12% from bus to bus and represents 20% from bus to metro. In the end, this research shows that the analysis of large volume of data within a limited period of time is possible and an operational solution is presented. Indeed, it would require a processing time of 32 hours to enhance the RTL smart card transactions of the last 8 years, with 3 million transactions per month. These OD type of data would then be available to power the analysis of the various departments of a public transit authority such as operations, planning and even marketing and finance. The developed visualization prototypes would then help the RTL in drafting the specifications of a new tool sold and designed by a company selling BI (Business Intelligence) solutions to visualize their business data

    Outils informatiques pour l’édition et le traitement des textes, des images, du langage

    Get PDF
    This paper is a detailed account of a symposium held at the Université catholique de Louvain on computer science tools used in the field of human sciences, in particular but not exclusively, in the edition of ancient and medieval texts.La présente contribution est le résumé détaillé d’une journée d’étude qui s’est tenue à l’Université catholique de Louvain et qui était consacrée aux outils informatiques utilisés dans la recherche en sciences humaines, tout particulièrement, mais non exclusivement, dans les éditions des textes anciens et médiévaux

    Outils informatiques pour l’édition et le traitement des textes, des images, du langage

    Get PDF
    This paper is a detailed account of a symposium held at the Université catholique de Louvain on computer science tools used in the field of human sciences, in particular but not exclusively, in the edition of ancient and medieval texts.La présente contribution est le résumé détaillé d’une journée d’étude qui s’est tenue à l’Université catholique de Louvain et qui était consacrée aux outils informatiques utilisés dans la recherche en sciences humaines, tout particulièrement, mais non exclusivement, dans les éditions des textes anciens et médiévaux

    Visualisation d'information pour l'aide à la compréhension de situations complexes

    Get PDF
    Ce mémoire présente les concepts et la réalisation d’outils de visualisation d’information dans un objectif d’aide à la compréhension de systèmes complexes. L’implantation des différents outils proposés a été réalisée dans le cadre du projet IMAGE mené au centre RDDC Valcartier. L’objectif principal de ce projet est de fournir une méthodologie et des outils afin d’aider à la compréhension de systèmes complexes. Le concept proposé par IMAGE repose principalement sur la synergie de quatre principes, soit la représentation, la scénarisation, la simulation et l’exploration. Nous nous attarderons ici essentiellement à l’aspect exploration. On propose d’abord une version desktop non immersive du module d’exploration. Différents outils de visualisation ont été développés à l’aide de l’outil de développement graphique Eye-Sys. Un ensemble d’affichages graphiques interactifs est proposé et s’inspire notamment de plusieurs techniques dans le domaine de la visualisation d’information. Ensuite, une version immersive des outils de visualisation a été réalisée. À partir de différents concepts de réalité virtuelle connus comme la stéréoscopie off-axis, des outils de visualisation ont été adaptés pour que l’on puisse les utiliser de façon immersive dans un environnement virtuel de type CAVE. On propose également l’intégration de différents périphériques de contrôle comme une télécommande sans fil et une tablette PC afin de faciliter la navigation dans l’environnement et la manipulation des différents outils de visualisation développés

    Visualisation de l'évolution d'un domaine scientifique par l'analyse des résumés de publication à l'aide de réseaux neuronaux

    Full text link
    Mémoire numérisé par la Direction des bibliothèques de l'Université de Montréal

    Rapport de mission au Mali : appui au service cartographie-informatique

    Full text link
    La mission a pour but d'apporter une aide technique à la préparation de schémas directeurs d'approvisionnement en combustibles ligneux de Bamako et Ségou. Organisée en trois parties, la mission a pour objectifs spécifiques d'aider à la réalisation des cartes et d'étudier les possibilités d'actualisation des données du PIRL (évaluation des ressources ligneuses), de mettre en place le SIG du projet et d'assurer la formation à l'utilisation du logiciel Map Info. La portée de différentes activités devra faire l'objet de suivi et bilans régulier
    corecore