294 research outputs found

    Le filtrage basé sur le contenu pour la recommandation de cours (FCRC)

    Get PDF
    RÉSUMÉ La recherche d'un cours sur un sujet précis dans un répertoire d'une ou de plusieurs universités peut s'avérer fastidieuse. Seulement à Montréal, on compte plusieurs milliers de cours universitaires offerts. Le problème est accentué par la multidisciplinarité de certains cours. Les étudiants de cycle supérieur sont responsables de ¬¬¬choisir leur plan d’études, les cours pertinents à leur domaine de recherche, mais ce n’est pas évident qu’ils puissent faire le bon choix des cours sans avoir besoin d’être guidés ou orientés. Encore, les étudiants du premier cycle ont souvent le problème du nombre de places limité dans un groupe de cours. Avec un outil permettant d'établir la similarité entre des cours, les étudiants pourraient trouver rapidement des cours similaires à ceux qui, pour une raison ou une autre, ne sont pas disponibles à un trimestre ou pour leur plan d’étude. A cette fin, plusieurs systèmes de filtrage ont été proposés, mais le filtrage basé sur le contenu pour la recommandation de cours, n’a jamais été abordé avant. L’objectif est de créer un système permettant d’établir la similarité entre les cours en se basant sur leurs descriptions et sur le calcul de leur distance dans un espace vectoriel . Ce mémoire présente le système FCRC (Filtrage basé Contenu pour la Recommandation de Cours) qui fournit des suggestions de cours sur la base de leur similarité sémantique. Les résultats montrent que la mesure de similarité basée sur le cosinus fournit des recommandations relativement précises et complètes. Le coefficient de Dice permet aussi d’obtenir de bons résultats. Ces deux mesures sont les plus performantes. Nous sommes arrivés à identifier plus que cinq cours les plus similaires à l’intérieur des dix premiers résultats.----------ABSTRACT Searching for courses on a topic in a university database or listing of courses can prove difficult. Strictly in Montreal universities, the number of courses range in the thousands. The problem is exacerbated by the fact that many courses are multidisciplinary. For graduate students in particular, who should look for courses on a topic related to their research, it implies that defining their course plan can be a difficult process that requires some assistance. Even when a course that is relevant is found, it often is not offered in the right semester or it is filled to capacity. Therefore, a system that provides a means of finding courses based on their similarity would prove very useful. A number of systems have been developed to provide course recommendations to students, but we aim to define an approach that is solely content-based, using the similarity of course descriptions. The algorithm is based on the vector-space model of the term-document matrix. This thesis presents the FCRC approach (content-based course recommender) which offers recommendations based on course similarity measures. Results show that the similarity measured on the cosine between document vectors offers relatively complete and precise recommendations. The Dice coefficient is also a good measure of similarity. In general, the first 5 of 10 recommendations are relevant based on this approach, and the recall rate is close to 100%

    L’éthique des mégadonnées (Big Data) en recherche

    Get PDF
    Les principaux problèmes rencontrés par les scientifiques qui travaillent avec des ensembles de données massives (mégadonnées, Big Data), en soulignant les principaux problèmes éthiques, tout en tenant compte de la législation de l'Union européenne. Après une brève Introduction au Big Data, la section Technologie présente les applications spécifiques de la recherche. Il suit une approche des principales questions philosophiques spécifiques dans Aspects philosophiques, et Aspects juridiques en soulignant les problèmes éthiques spécifiques du règlement de l'UE sur la protection des données 2016/679 (General Data Protection Regulation, « GDPR »). La section Problèmes éthiques détaille les problèmes spécifiques générés par le big data. Après une brève section de Recherche de big data, sont présentées les Conclusions sur l’éthique de la recherche dans l’utilisation du big data. SOMMAIRE: Abstract 1. Introduction - 1.1 Définitions - 1.2 Les dimensions du big data 2. La technologie - 2.1 Applications - - 2.1.1 En recherche 3. Aspects philosophiques 4 Aspects juridiques - 4.1 RGPD (GDPR) - - Étapes du traitement des données personnelles - - Principes du traitement des données - - Politique de confidentialité et transparence - - Finalités du traitement des données - - Confidentialité par conception et confidentialité implicite - - Le paradoxe (juridique) des mégadonnées 5. Problèmes éthiques - L'éthique dans la recherche - Prise de conscience - Consentement - Contrôle - Transparence - Confiance - Propriété - Surveillance et sécurité - Identité numérique - Réalité ajustée - De-anonymisation - Inégalité numérique - Confidentialité 6. Recherche des mégadonnées Conclusions Bibliographie DOI: 10.13140/RG.2.2.10128.5632

    Exploration de textes dans un corpus francophone de droit : le cas SOQUIJ

    Get PDF
    L’intelligence d’affaires a mis en place des processus et des procédures permettant l’accès à une donnée unique. Des rapports, des requêtes et des analyses sont possibles sur cette structure. L’exploration de données a bénéficié de ces démarches et a fait naitre l’exploration de textes. L’exploration de textes est peu employée par rapport à l’exploration de données, et ce autant par la communauté scientifique que par le domaine privé. La syntaxe et la grammaire mathématique sont universelles tandis que la syntaxe et la grammaire linguistique sont régionales et plus complexes. Ces limitations ont restreint les recherches sur l’exploration des textes. Ce mémoire s’intéresse à l’utilisation d’un outil d’exploration de textes dans le contexte juridique. Plus précisément, l’objectif de la présente recherche est d’utiliser l’outil pour en découvrir les défis et opportunités découlant de l’exploration des liens des textes et de la classification supervisée et non supervisée. Afin d’atteindre cet objectif, la présente recherche s’appuie sur le « design science » et la méthodologie « CRISP-DM », le tout dans le but de sélectionner un outil logiciel approprié à la recherche, d’effectuer l’exploration de textes et d’analyser les résultats. Les principaux résultats qui émanent des analyses effectuées avec l’outil IBM PASW SPSS sont les suivants. Premièrement, une analyse des liens entre les textes permet de faire ressortir les concepts des différents domaines de droit. Deuxièmement, l’analyse « Two-Steps » fait ressortir 3 classes dans le corpus complet qui comprend 4 domaines. Enfin, les analyses de classifications supervisées ont eu un taux de succès entre 46 et 60 % sur les échantillons de validation. Les modèles développés sont peu performants et selon moi ils ne peuvent pas être déployés à la SOQUIJ. La connaissance du domaine juridique est importante afin d’analyser et interpréter les textes propres à la SOQUIJ. Il en va de même afin de créer un dictionnaire pour l’exploration de textes. Ce dictionnaire spécifique au droit manque pour l’obtention de résultats plus probants. Plusieurs avenues sont intéressantes pour les recherches futures. Des plus intéressantes, notons la validation de l’impact de la création d’un dictionnaire pour réviser les différentes analyses et aussi d’étudier le résultat des 3 classes créées par le « Two-Steps »

    : Anticiper les évolutions pour les accompagner et les maîtriser

    Get PDF
    Cette recherche comprend quatre volets.Le premier présente le fonctionnement d’outils numériques existants d’analyse mathématique du droit. L’intelligence artificielle permet de modéliser certains aspects de l’activité juridique. En appliquant une méthodologie rigoureuse, on peut en particulier présenter l’éventail des décisions qui seraient prises par une juridiction donnée sur un dossier caractérisé par quelques dizaines de critères. Cette quantification fine de l’aléa judiciaire, qui va bien au-delà de simples statistiques, permet de comprendre et d’analyser les pratiques et, le cas échéant, de les faire évoluer.Le deuxième volet est consacré à l’encadrement juridique de ces Modes Algorithmiques d’Analyse des Décisions (MAAD).Leur domaine de compétence identifié - les contentieux juridiquement analogues – leur cadre juridique s’articule principalement autour de quatre points :- les réutilisations des données judiciaires- l’éthique avec un principe de transparence qui s’applique aux méthodes et aux résultats- les responsabilités que le fait générateur soit constitué par une faute présumée ou qu’il provienne de l’autonomie de l’algorithme- l’intégration des MAAD à des procédures dématérialisées de règlement judiciaire et extra-judiciaire des litigesDans le troisième volet, une enquête a été menée auprès des présidents des tribunaux de grande instance et des Cours d’appel de métropole et d’outre-mer ainsi que de la Cour de cassation dans l’objectif de connaître leur perception de ces outils, leurs attentes et leurs suggestions quant à leur emploi. Elle a permis de recueillir les avis de magistrats intéressés par ces outils. Les magistrats soulignent la nécessité de réguler leur conception et d’accompagner leurs usages.Le quatrième volet, sociologique, montre que les dynamiques internes au champ juridique, qui se traduisent par l’« appropriation des nouveaux outils par les acteurs du droit », seront déterminantes dans le processus de changement qui devrait se traduire par une montée en puissance des algorithmes au sein de l’institution qu’est la Justice Si d’importantes forces de changement sont déjà à l’œuvre, elles reposent sur la mobilisation d’acteurs aux caractéristiques spécifiques plutôt « subalternes » dans lechamp juridique voire, s’agissant des dirigeants de start up , clairement périphériques. Ces derniers apparaissent atypiques par l eur trajectoire, qu’elle soit professionnelle ou profane, et leur attitude réformatrice plus ou moins « radicale » relativement au monde du droit et de la justice

    Le droit international privé à l'épreuve du commerce électronique

    Get PDF
    Le droit international privé est-il incapable de régir les litiges nés des opérations du commerce électronique ? La question est controversée et deux courants de pensée diamétralement opposés s'affrontent. Cette étude vise à évaluer l'incidence des caractéristiques du Réseau sur l'application des règles du droit international privé. En d'autres termes, il s'agit de vérifier la pertinence du recours à la méthode conflictuelle et l'adéquation de ses solutions en matière de commerce électronique. L'évaluation est effectuée en analysant dans un premier temps les dispositions du Règlement de Bruxelles en matière de compétence juridictionnelle et celles du Règlement de Rome concernant la loi applicable. Il était indispensable de souligner les caractéristiques juridiquement importantes du Réseau afin de mieux saisir l'ampleur du défi posé. L'application des règles de conflit envisagées par les deux instruments au contrat électronique, a permis dans une étape ultérieure de conclure à leur adaptation à l'environnement numérique. Il convient à cet égard de souligner l'importance des réformes introduites par les Règlements de Bruxelles et de Rome notamment en matière de consommation. Au risque de paraître simpliste, cette conclusion exige quelques précisions. L'incidence du réseau sur l'application de certaines règles de rattachement est certaine et dévoile les limites de la logique conflictuelle. Mais cet impact est largement surestimé par la doctrine, et les conséquences fâcheuses qui en découlent peuvent être largement atténuées. En effet, notre étude identifie trois obstacles majeurs qui s'opposent à l'application du droit international privé contemporain au contrat électronique : la prolifération des contrats d'adhésion, la qualification du contrat électronique et l'interprétation de certaines notions comme le lieu d'exécution. Or ces difficultés pourront être surmontées progressivement par l'évolution de la jurisprudence nationale et communautaire.\ud ______________________________________________________________________________ \ud MOTS-CLÉS DE L’AUTEUR : droit international privé, commerce électronique, Internet, loi applicable, juge compétent, autonomie de la volonté, facteurs de rattachement

    La mesure des dimensions de la qualité des archives électroniques: apport des textes normatifs en matière d'archivage électronique à long terme

    Get PDF
    Mesurer l'adéquation d'un produit ou d'un service, en regard d'exigences, d'attentes ou de besoins formulés par un individu ou imposés par un système institutionnel, est une activité qui doit être effectuée par la totalité des organisations. Le secteur des archives est également concerné par cette revue de la qualité. S'assurer de l'adéquation des documents d'activité et des archives est en effet la garantie, pour ces derniers, de répondre à des besoins probatoires, d'information, ou encore de recherche. L'irruption des technologies numériques dans l'ensemble des activités humaines rend cette revue périodique de la qualité encore plus indispensable. En effet, dans un milieu en constante évolution, où l'obsolescence des systèmes de lecture des documents électroniques augmente le risque de perte ou de dégradation des archives, s'assurer du niveau adéquat de qualité permet de satisfaire aux exigences. Ainsi, les institutions en charge des archives ont la responsabilité de conserver des documents authentiques, fiables, intègres et exploitables. Le but principal de ce travail est de livrer une réflexion théorique sur l'apport des normes et standards en matière d'archivage électronique à long terme dans la mesure des qualités des archives. A cette fin, trois textes normatifs ont été retenus : le modèle de référence OAIS, le standard d'encodage et de transfert de métadonnées METS, et enfin le dictionnaire de données pour les métadonnées de préservation PREMIS. Les éléments participant à la mesure des dimensions de la qualité des archives identifiés dans les normes et standards cités ci-dessus, ont été explicités et organisés selon un cadre conceptuel issu de la littérature existante sur le sujet. Afin de juger de leur pertinence, ils ont été associés à des variables et à des questions de mesure, puis opérationnalisés. L'utilisation de normes et standards dans le milieu archivistique permet une compréhension entre professionnels, et est un prérequis à l'élaboration collective d'instruments et de méthodologies. Dans ce sens, les normes et standards sont un vecteur d'échange et d'automatisation. Identifier et expliciter des éléments participant à la qualité des archives dans un tel milieu contribuent ainsi grandement à l'automatisation de la mesure et donc à son adoption. L'accent de ce travail a par conséquent été mis sur l'identification d'éléments pouvant permettre une automatisation de la mesure, et par là même offrir un système applicable à de nombreuses organisations. Enfin, il propose des perspectives futures en termes de mesure, englobant d'autres normes archivistiques
    • …
    corecore