118 research outputs found

    Classification évidentielle avec contraintes d'étiquettes

    Get PDF
    International audienceCe papier propose une version améliorée de l'algorithme de classification automatique évidentielle semi-supervisée SECM. Celui-ci bénéficie de l'introduction de données étiquetées pour améliorer la pertinence de ses résul-tats et utilise la théorie des fonctions de croyance afin de produire une partition crédale qui généralise notamment les concepts de partitions dures et floues. Le pendant de ce gain d'expressivité est une complexité qui est exponentielle avec le nombre de classes, ce qui impose en retour l'utilisation de schémas ef-ficaces pour optimiser la fonction objectif. Nous proposons dans cet article une heuristique qui relâche la contrainte classique de positivité liée aux masses de croyances des méthodes évidentielles. Nous montrons sur un ensemble de jeux de données de test que notre méthode d'optimisation permet d'accélérer sensi-blement l'algorithme SECM avec un schéma d'optimisation classique, tout en améliorant également la qualité de la fonction objectif

    Visual clustering based on chemical recognition system of ants

    Get PDF
    International audienceThis paper describes the Visual AntClust clustering algorirthm that relies on a modeling of the chemical recognition system of ants to build a partition of a data set. The algorithm associates each artificial ant with a data object to be classified and represent its chemical signature in a 2D euclidian space. It then applies rules that mimic the behavior of real ants to group into the same nest (or cluster) the artificial ants. Therefore similar ants (or data) also tends to have similar coordinates in the 2D space. Experimental results show that this method can achieve good performances on artificial and real data sets and allows for a good visualization tool

    Author name extraction in blog web pages: a machine learning approach

    Get PDF
    International audienceThis paper presents research results concerning the automatic extraction of author names that are explicitly mentioned in blog web pages. It shows that some NLP pre-preprocessing stages (NE recognition, coreference resolution) prior to a SVM classification have a positive impact on accuracy.Cet article présente les résultats de travaux ayant pour but l'extraction automatique de noms d'auteurs explicites dans des articles de blogs. Il montre que l'ajout de pré-traitements relevant du TAL (détection d'entités nommées, résolution des coréférences) avant une classification de type SVM améliore les performances

    Materializing aaseline views for deviation detection exploratory OLAP

    Get PDF
    The final publication is available at link.springer.comAlert-raising and deviation detection in OLAP and explora-tory search concerns calling the user’s attention to variations and non-uniform data distributions, or directing the user to the most interesting exploration of the data. In this paper, we are interested in the ability of a data warehouse to monitor continuously new data, and to update accordingly a particular type of materialized views recording statistics, called baselines. It should be possible to detect deviations at various levels of aggregation, and baselines should be fully integrated into the database. We propose Multi-level Baseline Materialized Views (BMV), including the mechanisms to build, refresh and detect deviations. We also propose an incremental approach and formula for refreshing baselines efficiently. An experimental setup proves the concept and shows its efficiency.Peer ReviewedPostprint (author's final draft

    : Rapport final du projet ANR 2006-2008 (annexes scientifiques)

    Get PDF
    As a 24 months platform project, Lutin Game Lab was designed for making academic researchers and game companies cooperate in order to reach a new stage in the process of game quality assessment, before and after they are available on the market. The project was organized along 6 WP, all of them having fulfilled their specific goals, although we had to endure some delays due to the time required for settling the technical platform and due to the lack of time available for the companies to collaborate during the year 2008.The project results can be summed up in 4 different aspects:* A platform is now open to companies as well as to academic labs, equipped with all the devices and the softwares needed for conducting evaluation of gamers behaviour, including all game platforms, excepted for on-line games. Two eye-tracking devices and sensorial analysis tools are part of the equipment of the platform. This technical platform is operated by the UMS CNRS Lutin at the Cité des Sciences in Paris.* The methods created for analyzing the existing games and the ones in development phase were scientifically validated and adapted to the requirements of companies (time needed, display of the results, prerequisites and modes of cooperation with developers). These methods have not yet been tested in the developing phase of real games except for one of them (QRC), due to the workload of developers during this period. * The methods are the following:o Artificial expert for the prediction of gamers judgments based on a description framework of game properties. A subjective evaluation database has been designed using the data collected during the tests of 240 gamers (experts and naives) expressing judgments in a 11 items questionnaire, using the data from an objective description of game properties and the data obtained through an "objectivated subjective" description of games qualities retrieved from experts who designed and filled up a framework of 56 items per game genre (126 iterations). This expert allows companies to test their games while they are still in the design phase through the description framework in order to predict the judgments from the gamers and to optimize their various choices in game design using the 15 fuzzy models selected for each game genre.o Usability testing method adapted specifically to videogames (Quick Reality Check, QRC), based on a test protocol involving 10 gamers, on logs tracking the gamer behaviour (implemented by the developers in their prototype), on synthetic visualization tools displaying the results, and on remediation method in cooperation with game designers (game doctor). This method focuses on ergonomics features and acceptability issues.o An eyetracking method dedicated to gamers behaviour analysis. It helps to explore in-depth the areas or phases of concern discovered with the previous method. This allows the game designers to reshape some features in the interfaces and to compare their results with the patterns of each game genre that the research was able to modelize.o A method for tracking emotional states during the game, through sensors placed on the gamers bodies, in order to explore and better understand the reasons of the problems pointed out by the other methods. This is a much more innovative methodology and field of research and this explains the need for focusing on specific features in order to validate the whole framework with the existing scientific state of the art. This is a very promising field and a very attractive one for the game designers, one that would require much more research efforts.o An artificial expert providing diagnosis through the gathering of every piece of data collected during the various tests, with added results from on line questionnaires. The expert software provides an integrative view of the results for a specific game and can refer it to the various models available in the literature.* In the gameplay evaluation field, the project evolves from a review of literature to the design of a wiki open to the community of game designers, which aim is to create de knowledge database about gameplay qualities for each game genre. The wiki includes a list of rules shared by the community and examples of games displaying the uses of these rules, extracted from a corpus of the most famous games. The database can be enriched with new cases, rules can be adapted, through the revision process of the wiki which includes collective validation. Developers can access the wiki as a resource for validation of their choices.In brief, the platform offers a set of devices, a set of methods, available for the game industry, operated by Lutin experts, and a website including the wiki. Lutin Game lab platform represents an European reference center in the field of game evaluation. Lutin plans to design a quality label for games that could be used before the games are placed on the market. LUtin Game Lab requires a new research project devoted to the extension of the methods to on-line games (Lutin Game Lab on line). The next year will be devoted to dissemination and validation on real game being developed.Le projet annonçait ainsi ses objectifs en 2006 : " Lutin Game Lab, projet de plate-forme de 24 mois, se propose de fédérer les forces de recherche académiques et de développement des entreprises pour faire faire un pas significatif aux méthodologies d'évaluation de la qualité d'un jeu vidéo fini ou en cours de développement. " Le travail a comporté 6 sous -projets qui ont tous été menés à bien conformément au programme prévu avec des décalages non négligeables dus notamment au temps nécessaire au montage technique de la plate-forme et à la difficulté des entreprises à dégager du temps pour leur collaboration au moment voulu alors qu'elles sont sous haute pression concurrentielle. Le bilan du projet peut se résumer en 4 points : * il existe désormais en France une plate-forme ouverte aux entreprises et aux laboratoires, équipée de tous les matériels et logiciels nécessaires pour faire l'évaluation des comportements des joueurs de jeux vidéo, toutes plates-formes de jeu confondus, à l'exception des jeux multi joueurs en ligne. Cette plate-forme technique, comportant notamment des dispositifs d'oculométrie opérationnels de divers types, et des dispositifs d'analyse sensorielle, est opérationnelle en permanence dans le cadre des missions de l'UMS CNRS Lutin 2803 à la Cité des Sciences. * Les méthodes élaborées pour l'analyse des jeux existants et des jeux en cours de développement ont été validées scientifiquement et opérationnellement selon les critères des entreprises de jeux vidéo (délais, présentation des résultats, prérequis et formes de coopération). Ces méthodes devront cependant être validées en situation de jeux en cours de développement car les délais de coopération avec les entreprises n'ont permis de mettre en œuvre cette étape que pour une seule de ces méthodes (dite QRC)* Les méthodes comportent 5 volets : o un expert artificiel prédictif qui permet de prédire l'appréciation subjective des joueurs à partir d'une description formalisée des propriétés d'un jeu. Une base de données d'évaluation subjective a été constituée à partir de tests réalisés par 240 joueurs de tous niveaux et de leur appréciation subjective (11 items), à partir de description des propriétés objectives du jeu (106 items) et à partir d'une description subjective objectivée des qualités d'un jeu par genre (56 items par genre de jeu) et de 126 itérations de cette grille réalisée à partir d'une extraction d'expertise auprès de game designers et élèves game designers. Il est proposé aux entreprises de jeux vidéo de tester leur jeu dans une phase amont du développement pour prédire les scores de leurs jeux et ensuite optimiser les choix effectués, en exploitant les 15 modèles en logique floue sélectionnés pour chaque genre de jeu. o Une méthode en usability (Quick Reality Check) qui comporte un protocole de tests auprès de 10 joueurs minimum, des outils de suivi des déplacements par implantation de logs dans le jeu en cours de développement, de modes de visualisation synthétique des résultats et une méthode de correction associant les développeurs (Game Doctor). Cette méthode traite avant tout les questions d'ergonomie et d'acceptabilité. o Une méthode de suivi du regard des joueurs permettant d'affiner les résultats de la méthode précédente, sur des zones ou des phases problématiques pour repositionner le game design et l'ergonomie en fonction des patterns, ou signatures, identifiés par la recherche pour chaque type de jeux. o Une méthode de suivi de l'engagement émotionnel durant le jeu à partir de capteurs d'analyse sensorielle placés sur les joueurs, permettant là aussi d'affiner la recherche éventuelle de problèmes pour des phases plus précises selon les stratégies du game designer. Cette méthode est la plus innovante en termes de recherche et nos résultats restent donc limités à certains points précis qui sont cependant très prometteurs et nécessiteraient des travaux supplémentaires.o Un expert artificiel diagnostic permettant de traiter et de synthétiser toutes les données recueillies lors des tests des autres méthodes, de les compléter par des questionnaires en ligne si nécessaire et de les rapporter à des modèles issus de la littérature pour proposer un diagnostic intégré sur les qualités d'un jeu donné. * Dans le domaine du gameplay, le projet a évolué à partir d'un recensement exhaustif de la littérature sur la mise en place d'un wiki permettant à toute la communauté des développeurs de constituer une base de connaissances partagées sur les qualités du gameplay selon les genres. Ce wiki comporte un énoncé de règles reconnues par la communauté mais aussi leur exemplification à partir d'un corpus de jeux parmi les plus connus dans tous les genres. La base peut être enrichie par d'autres études de cas, les règles peuvent être affinées, et les développeurs peuvent la consulter en tant que de besoin pour valider les choix qu'ils effectuent. La mise en place de la plate-forme comporte ainsi une partie d'équipements localisés à la cité des sciences, une expertise en méthodes, directement opérationnelles et proposées déjà aux entreprises par les différents partenaires membres de Lutin, et un site collaboratif qui rassemble la communauté autour de son expertise propre. Lutin Game Lab peut ainsi prétendre devenir un centre de références européen en termes de méthodes qualité pour les jeux vidéo et nous prévoyons de travailler à proposer un label pour qualifier les jeux vidéo avant leur mise sur le marché, ainsi qu'à une extension de ses compétences pour les jeux vidéo multi joueurs en ligne (Lutin Game Lab on line). Le projet a ainsi atteint son objectif général ainsi que ses objectifs particuliers, à l'exception du temps de validation encore nécessaire auprès des entreprises qui n'a pu être pris en compte durant le projet

    Clustering Web Pages Sequences With Artificial Ants

    No full text
    International audienceThis paper introduces new Web usage mining tools designed to help characterizing user accesses on websites. Our approach relies on a categorization of Web user sessions to help identifying and understanding major trends in the navigations. The novelty of our work mainly relies in the clustering method that is a fast unsupervised ant-inspired clustering algorithm paired with new similarity measures that handle sessions either as a sequence or an unordered set of Web pages. Our algorithm is evaluated on real Web log files of a French museum that contains more than 39000 user sessions over one month and a half. Our experiments show that our algorithm can build meaningful sessions clusters that can help infer Web users' motivations

    Classification supervisée par population de fourmis artificielles

    No full text
    National audienc

    Mesure d'audience sur Internet par population de fourmis artificielles

    No full text
    National audienceNous présentons dans ce travail un outil pour la mesure d’audience sur Internet, reposant sur l’extraction de profils de navigation représentatifs de l’activité des internautes sur les sites. Ces profils sont obtenus par l’application d’un algorithme de classification non supervisée – inspiré du système de reconnaissance chimique des fourmis – sur des sessions de navigations construites à partir des fichiers log du site étudié. Cet algorithme de classification a été associé à une représentation multimodale des sessions utilisateurs permettant d’employer l’ensemble des informations à disposition dans les fichiers log (impacts sur les pages, heure de connexion, durée, séquence des pages, …), ainsi qu’à une mesure de similarité adaptée pour créer les profils de chacun des clusters obtenus. Il reste cependant d’autres modalités (basées sur le contenu des documents accédés) qui pourraient améliorer la capacité de l’outil à donner du sens aux profils découverts

    Classification non supervisée incrémentale de données relationnelles

    No full text
    National audienc

    New Incremental Fuzzy C Medoids Clustering Algorithms

    No full text
    International audienceThis paper proposes two new incremental fuzzy c medoids clustering algorithms for very large datasets. These algorithms are tailored to work with continuous data streams, where all the data is not necessarily available at once or can not fit in main memory. Some fuzzy algorithms already propose solutions to manage large datasets in a similar way but are generally limited to spatial datasets to avoid the complexity of medoids computation. Our methods keep the advantages of the fuzzy approaches and add the capability to handle large relational datasets by considering the continuous input stream of data as a set of data chunks that are processed sequentially. Two distinct models are proposed to aggregate the information discovered from each data chunk and produce the final partition of the dataset. Our new algorithms are compared to state-of-the-art fuzzy clustering algorithms on artificial and real datasets. Experiments show that our new approaches perform closely if not better than existing algorithms while adding the capability to handle relational data to better match the needs of real world applications
    corecore