435 research outputs found

    Comment coproduisons-nous notre environnement numérique marchand ?

    Get PDF
    International audienceAvec le développement des Technologies de l'Information et de la Communication (TIC) au sein des diverses sphÚres de la société, nous sommes actuellement conduit à produire une grande quantité de données numériques (i.e. : les big data) durant nos activités quotidiennes. Ces big data constituent autant d'indices que les e-commerçants mobilisent afin de personnaliser automatiquement les environnements numériques de leurs consommateurs. Pour ce faire, ils développent différents systÚmes de filtrage destinés à améliorer la qualité de leurs services. C'est pourquoi, afin de mieux comprendre ce processus, nous proposons dans cet article de rendre compte de la maniÚre dont nous coproduisons nos environnements numériques marchands. Nous verrons ainsi que cette coproduction recouvre finalement une asymétrie de conception qui la distingue trÚs nettement d'une cocréation

    Manipuler les données. Documenter le marché: Les implications organisationnelles du mouvement big data

    Get PDF
    International audienceWhat is big data? How to characterize it? What is its impact on the organization of the market? From a merchant point of view, big data consist in transforming the traces of consumers' activities into information which are transmit to the market participants. Big data is, therefore, a process of documentation. First, we argue that the dynamics of this process refers to a socio-technical evolution and a socio-cognitive revolution. Then, we underline the implications of this revolution on the market organization. In conclusion, we note that if big data documentation process can promote the reactivity and adaptability of commercial organizations, it can also lead to important knowledge biases in socioeconomic terms.Qu'est-ce que le big data ? Comment le caractériser ? Quel est son impact sur l'organisation du marché ? D'un point de vue marchand, le big data consiste à transformer les traces d'activités des consommateurs en informations dans le but de documenter les acteurs du marché. Le big data est donc un processus de documentation. D'abord, nous soutenons que la dynamique de ce processus renvoie à une évolution sociotechnique et une révolution sociocognitive. Ensuite, nous pointons les implications de cette révolution sur l'organisation du marché. En conclusion, nous soulignons que si le processus de documentation big data peut favoriser la réactivité et l'adaptabilité des organisations marchandes, il peut également engendrer des biais de connaissance importants sur le plan socioéconomique

    La quĂȘte du Graal et la rĂ©alitĂ© numĂ©rique

    Get PDF
    Cet article prĂ©sente un processus de fouille de donnĂ©es afin d’extraire des connaissances associĂ©es au motif de la parentĂ© et de la famille dans un corpus en ancien français de la premiĂšre moitiĂ© du XIIIe siĂšcle. AprĂšs une numĂ©risation puis un prĂ©traitement des donnĂ©es fondĂ© sur des techniques de TAL (Traitement Automatique du Langage), il a Ă©tĂ© procĂ©dĂ© Ă  une extraction de motifs sĂ©quentiels (enchaĂźnements de voisinages de mots liĂ©s Ă  la thĂ©matique traitĂ©e). Dans cet article, nous prĂ©sentons les problĂšmes liĂ©s Ă  la numĂ©risation et aux traitements du texte. Puis, nous dĂ©taillons ce processus automatique et exhaustif et analysons les premiers rĂ©sultats obtenus en procĂ©dant Ă  l’étude prĂ©cise d’un motif sĂ©quentiel dans diffĂ©rents textes du cycle Lancelot-Graal.La QuĂȘte du Graal and the question of digital reality This paper describes a method to mine texts written in Old French in the second half of the 13th century. The method is based on data mining tools, which are used here to automatically extract patterns dealing with family relationships. After scanning and digitizing the texts, a pre-treatment has been applied based on NLP (Natural Language Processing) to clean the texts. Sequential patterns are then extracted, which provide the expert with sequences of neighbourhoods of words that are relevant to the analysis being carried out by the expert.We report here the problems raised by numerizing such texts. Then we present the process we have applied and the results we have obtained. Finally, we detail how a specific sequential pattern, chosen among those appearing in the Lancelot-Graal series, can be further analyzed

    Le traitement automatique des langues face aux données textuelles volumineuses et potentiellement dégradées : qu'est-ce que cela change ?

    Get PDF
    National audiencePrĂ©tendre que le phĂ©nomĂšne rĂ©cent du Big Data a bouleversĂ© thĂ©oriquement et mĂ©thodologiquement le traitement automatique des langues (TAL) serait inexact : le TAL a connu sa derniĂšre vĂ©ritable rĂ©volution Ă  la fin des annĂ©es 80 - dĂ©but des annĂ©es 90. C'est en effet Ă  cette pĂ©riode que s'est opĂ©rĂ© un changement de paradigme, un passage du rationalisme vers l'empirisme, avec le " remplacement " des approches symboliques, Ă  base de rĂšgles, fondĂ©es sur l'expertise humaine par des approches empiriques fondĂ©es sur les donnĂ©es, oĂč la connaissance est extraite par des techniques d'apprentissage automatique, en particulier statistique. Permis par des capacitĂ©s de stockage et de traitement accrues des ordinateurs et la disponibilitĂ© de volumes consĂ©quents de textes au format numĂ©rique, ce bouleversement, mĂȘme s'il s'est Ă©tendu sur plusieurs annĂ©es, a Ă©tĂ© en fait assez profond : passage d'un TAL trĂšs linguistique oĂč l'on cherchait Ă  comprendre - expliquer les jugements de grammaticalitĂ© dont sont capables les locuteurs natifs d'une langue, construire et manipuler des reprĂ©sentations assez Ă©laborĂ©es du sens... - Ă  un TAL " trĂšs statistique " oĂč l'on fait Ă©merger des connaissances grĂące Ă  l'observation Ă  grande Ă©chelle, au comptage..., et oĂč l'on extrait des reprĂ©sentations de " sens utile " pour des traitements applicatifs. Affirmer que les volumes actuels de donnĂ©es Ă  l'Ă©chelle du Big Data n'ont eu et n'ont aucun impact sur le TAL serait cependant Ă©galement faux. Les donnĂ©es textuelles Ă  traiter se dĂ©clinent Ă  l'aune des 3 V (variĂ©tĂ©, volume, vĂ©locitĂ©). Elles consistent bien sĂ»r en des documents Ă©crits, pages Web, emails et autres textes " traditionnels ", mais Ă©galement en contenus de blogs, de rĂ©seaux sociaux, en sms, en documents audio transcrits automatiquement, ce qui correspond donc Ă  des types et des qualitĂ©s de langue trĂšs divers. Pour ne citer que quelques chiffres donnant tant une idĂ©e des volumes que de la vitesse d'Ă©volution de ceux-ci, nous pouvons par exemple nous rĂ©fĂ©rer Ă  ceux de Go-globe.com de juin 2011, citĂ©s Ă  davidfayon.fr/2011/croissance-du-web-une-minute, qui, quoique un peu anciens, sont dĂ©jĂ  extrĂȘmement parlants : crĂ©ation par minute de 60 blogs, de 98000 messages sur Twitter, de 510000 commentaires sur Facebook, de 168 millions d'emails ou de 600 vidĂ©os sur YouTube. À l'heure actuelle, ces nombres sont encore plus impressionnants. Ces volumes Ă©normes de donnĂ©es textuelles ont accru le phĂ©nomĂšne dĂ©crit prĂ©cĂ©demment de passage du TAL Ă  l'empirisme, accompagnĂ© du renforcement de certains champs du domaine - parfois avec un regard nouveau - et de l'Ă©mergence d'applications nouvelles. Dans ce chapitre, nous revenons en dĂ©tail sur l'impact de ce dĂ©luge de donnĂ©es sur le TAL en dĂ©butant par un rappel des spĂ©cificitĂ©s des donnĂ©es textuelles au sein de ce monde du Big Data dans lequel les donnĂ©es volumineuses auxquelles il est fait rĂ©fĂ©rence sont frĂ©quemment (semi-)structurĂ©es ; ceci nous permet de mieux comprendre l'intĂ©rĂȘt mais aussi la difficultĂ© d'accĂ©der au contenu sĂ©mantique de ces donnĂ©es particuliĂšres. Nous nous penchons ensuite sur la façon dont les chercheurs en TAL reprĂ©sentent et exploitent ces donnĂ©es massives pour en faire Ă©merger la connaissance utile pour l'objectif visĂ©. Nous prĂ©sentons ensuite successivement d'une part des applications qui tentent de trouver des solutions pour faire face au dĂ©luge de donnĂ©es disponibles, d'autre part certaines qui, elles, cherchent Ă  tirer profit de cette masse d'informations et Ă  exploiter sa redondance. Nous concluons en rappelant les grandes lignes de l'Ă©volution du TAL

    Le programme Mogador en linguistique formelle arabe et ses applications dans le domaine de la recherche et du filtrage sémantique

    No full text
    The MOGADOR project aims at devolopping a new approach to Arabic Natural Langage Processing, by designing software tools based on an original description of Arabic grammar that gives top priority to its tool-words (in a redefined definition). These 'tool-words', that do not derivate from the standard morphological system, trigger off expectations at both syntactic and semantic levels, and thus constrain the sentence either locally or globally. Based on our theoretical and algorithmic work in morphological analysis, electronic dictionaries and proof software in corpora analysis and Information Retrieval, we plan to make available a new generation of filters featuring limited complexity. We propose steps in both theoretical and software fields, with the design of new parsers and software proof tools. These filters could be embedded in search tools boosting them with the results of new linguistic analysis, which have become essential considering the recent boom of the Arabic Web.DĂ©velopper une approche nouvelle du traitement automatique de larabe fondĂ©s sur une modĂ©lisation originale de la grammaire arabe donnant la prioritĂ© aux mots-outils (redĂ©finis), est l'ambition du programme MOGADOR. Échappant au systĂšme de dĂ©rivation, ces mots-outils induisent des attentes syntaxiques voire sĂ©mantiques contraignant localement et/ou globalement la phrase. Forts de nos dĂ©veloppements algorithmiques et applicatifs en analyse morphologique, en dictionnaires Ă©lectroniques et en dĂ©monstrateurs dans le domaine de l'analyse de corpus et de la recherche d'informations, nous projetons, par des dĂ©veloppements thĂ©oriques, la construction de nouveaux analyseurs et des mises en oeuvre concrĂštes, de rendre possibles de nouvelles mĂ©thodes de filtrage Ă  complexitĂ© maĂźtrisĂ©e. Ces filtres pourront ĂȘtre couplĂ©s Ă  des moteurs de recherche, dopant ces derniers par des analyses linguistiques qui sont devenues nĂ©cessaires depuis l'explosion du Web en langue arabe

    Mise en Ɠuvre d’une méthode de Data Mining pour appréhender le comportement d’un sujet en état de tunnélisation attentionnelle

    Get PDF
    Dans l’aéronautique, on considère que 80% des accidents sont dus à une erreur humaine dans l’aviation civil et militaire (O'Hare, Wiggins, Batt, & Morrison, 1994) (Wiegmann & Shappell, 2003). Ces statistiques ont donc amené nombre de scientifiques à s’intéresser au sujet des facteurs humains. L’idée est d’améliorer la sécurité aérienne en comprenant mieux le comportement humain. On s’aperçoit en effet que certains accidents rejoués en simulateur par d’autres pilotes expérimentés conduisent parfois au même crash (Wanner & Wanner, 1999). C’est parfois l’environnement qui conduit à l’erreur humaine. Ainsi il est intéressant de rechercher des moyens d’aider l’opérateur dans sa tâche. Ce n’est pas chose si aisée. Van Eslande et al (Van Eslande, Erreur de conduite et besoin d’aide : une approche accidentologique, 2001) (Van Eslande, Alberton, Nachtergaële, & Blancher, 1997) postulent que le comportement des automobilistes est essentiellement conditionné par les infrastructures routières. Il a été remarqué que les conflits étaient un précurseur remarquable d’erreurs humaines conduisant à l’accident. Des confits entre l’humain et la machine, ou entre l’opérateur et la tour de contrôle, ou encore entre le pilote et le co-pilote. L’étude des conflits s’avère alors un thème pertinent pour les facteurs humains. C’est dans ce domaine que nous travaillons au CAS au sein de l’ISAE. Le rapport sera constitué de trois grandes sections. Dans un premier temps nous présenterons l’environnement de travail à l’ISAE. Puis dans les parties suivantes nous définirons de manière plus précise ce qu’est la « tunnélisation attentionnelle » et décrirons plus en profondeur l’expérience du robot qui est notre base de travail. Enfin nous présenterons les résultats en termes de diagnostic de l’état d’un opérateur

    Construction et Ă©volution de connaissances par confrontation de points de vue : prototype pour la recherche d'information scientifique

    Get PDF
    Avec le Web 2.0, les utilisateurs, devenus contributeurs, ont pris une place centrale dans les processus de consommation et de production de connaissances ; cependant la paternitĂ© des contributions est souvent perdue lors de l'indexation de l'information. Viewpoints est un formalisme de reprĂ©sentation des connaissances centrĂ© sur le point de vue individuel, humain ou artificiel. Nous considĂ©rons trois types d'objets de connaissance : les documents (supports), les agents (Ă©metteurs) et les topics (descripteurs). Un viewpoint Ă©mis par un agent exprime son opinion sur la proximitĂ© entre deux objets. Les viewpoints permettent de dĂ©finir et de calculer une distance entre objets qui Ă©volue au fil des interactions (requĂȘtes et retours d'utilisation) et de l'ajout de nouveaux viewpoints. Un prototype de moteur de recherche pour des donnĂ©es de publications scientifiques tirĂ©es de HAL-LIRMM montre comment Viewpoints peut faire Ă©merger, de façon transparente, une intelligence collective Ă  partir des interactions des utilisateurs contributeurs. (RĂ©sumĂ© d'auteur

    Fouille de traces dans le sport électronique : recommandation stratégique, analyse spatiale et enjeux pour le sport réel

    Get PDF
    International audienceLe dĂ©veloppement et la professionnalisation du jeu vidĂ©o suscitent le besoin d'outils adaptĂ©s Ă  l'analyse de la pratique des joueurs, selon des axes sportif, tactique et stratĂ©gique. TrĂšs populaires et par nature informatique, ces jeux fournissent de nombreuses traces. Dans le cadre d'un jeu opposant deux Ă©quipes de cinq joueurs (un MOBA, Multiplayer Online Battle Arena), analogue au Rugby, nous montrons que la fouille de ces traces est fructueuse. Elle permet d'Ă©mettre des recommandations stratĂ©giques et l'analyse des configurations spatiales des joueurs fournit des indications prĂ©cieuses sur l'issue du match. La fouille de traces de sport Ă©lectronique ouvre des perspectives intĂ©ressantes pour l'analyse stratĂ©gique du sport rĂ©el. ABSTRACT. The development and professionalization of video game require tools for analysing the practice of the players and teams, their tactics and strategies. Very popular and by nature numerical, these games provide many tracks that we analyze in terms of team play. We study DotA, a MOBA-like (Multiplayer Online Battle Arena), where two teams battle in a game very similar to rugby or American football. We show through topological measures-area of polygon described by the players, inertia, diameter, distance to the goal-that are independent with the exact nature of the game, that simple measures on spacial tracks allow for relevantly predicting the outcome of the match. MOTS-CLÉS : jeu vidĂ©o, sport Ă©lectronique, fouille de traces, recommandation, stratĂ©gie KEYWORDS: video game, electronic sport, track mining ICT10, le 25 mai 2010. 2 ICT1

    Projet KidLearn : Vers une personnalisation motivante des parcours d’apprentissage

    Get PDF
    Article de mĂ©diation scientifiqueBulletin de l'Association française pour l'Intelligence Artificielle vise Ă  fournir un cadre de discussions et d'Ă©changes au sein de la communautĂ© universitaire et industrielle. Ainsi, toutes les contributions, pour peu qu'elles aient un intĂ©rĂȘt gĂ©nĂ©ral pour l'ensemble des lecteurs, sont les bienvenues. En particulier, les annonces, les comptes rendus de confĂ©rences, les notes de lecture et les articles de dĂ©bat sont trĂšs recherchĂ©s. Le Bulletin de l'Af IA publie Ă©galement des dossiers plus substantiels sur diffĂ©rents thĂšmes liĂ©s Ă  l'IA. Le comitĂ© de rĂ©daction se rĂ©serve le droit de ne pas publier des contributions qu'il jugerait contraire Ă  l'esprit du bulletin ou Ă  sa politique Ă©ditoriale. En outre, les articles signĂ©s, de mĂȘme que les contributions aux dĂ©bats, reflĂštent le point de vue de leurs auteurs et n'engagent qu'eux-mĂȘmes. Édito Ce second numĂ©ro de l'annĂ©e du Bulletin de AfIA est consacrĂ© Ă  un dossier thĂ©matique montĂ© par Marie LEFEVRE (UniversitĂ© Claude Bernard Lyon 1, LIRIS) sur « IA & Éducation ». Il s'agit un dossier trĂšs complet qui est prĂ©sentĂ© ici, avec pas moins de 15 contributions provenant d'autant d'Ă©quipes ou laboratoires français (voir page 5). Ce Bulletin vous prĂ©sente Ă©galement le compte rendu de la seconde journĂ©e « Philosophie des sciences et intelligence artificielle » du 6 fĂ©vrier 2020 (voir page 61). Vous y trouverez enfin la liste des thĂšses et HDR soutenues lors du trimestre Ă©coulĂ©. La composition actuelle du Conseil d'Administration se trouve en quatriĂšme de couverture de tous nos bulletins (voir page 66). Encore un grand merci Ă  tous les contributeurs de ce numĂ©ro, sans oublier Claire LEFÈVRE pour sa relecture assidue
    • 

    corecore