1,253 research outputs found

    La vérité et le champ visuel

    Get PDF
    La présente étude utilise les outils du domaine de la méréotopologie (la théorie des parts, ensembles et frontières) pour élaborer les implications de certaines analogies entre la 'psychologie écologique' de J.J.Gibson et la phénoménologie de Edmund Husserl. On présentera une théorie ontologique de frontières spatiales et des entités possédant une extension spatiale. S'en rapportant aux exemples de la sphère de géographie, on démontre qu'aussi bien les frontières que les entités à extension spatiale appartiennent à deux vastes catégories: des objets qui existent indépendamment de nos actes cognitifs (par exemple: la planète Terre, sa surface extérieure); et des objets qui existent seulement grâce à ces actes (par exemple: l'équateur, la Mer du Nord). Le champ visuel, lui aussi, peut être conçu comme un exemple d'une entité à extension spatiale qui est dépendante dans le sens proposé ci-dessus. L'étude présente suggère une extension de cette analogie en postulant les entités qui, pour les vrais jugements, seraient ce que le champ visuel est pour les actes de perception visuelle. Le champ de jugement est défini plus précisément comme une entité étendue complexe, contenant toutes les entités essentielles pour la vérité d'un (vrai) jugement donné. Il est possible de démontrer que le travail des linguistes cognitifs tel Talmy ou Langacker, si l'on l'interprète convenablement, produit une explication détaillée des structures des champs de jugement correspondant aux phrases de sortes différentes. Un genre nouveau de définition de la vérité en tant que correspondance pour les expressions de la langue naturelle peut donc être formulé sur cette base

    Proposition d'une méthode xTAN pour modéliser les processus complexes

    No full text
    Différents tâtonnements de travaux précédents, permettent aujourd'hui de présenter une technique qui devra être validée par diverses applications à venir. L'objectif de cette technique est de fournir une méthodologie qui conduise à la modélisation de processus complexes comme par exemple des processus bio-sociaux-psychiques. La technique fait appel à des concepts avancés qui devront aussi être positionnés mathématiquement. Le premier affichage consiste en deux arbres parallèles : un arbre d'évolutions et un arbre de décisions. Ces deux arbres sont duaux et des relations relient les sorties de l'évolution aux valeurs des décisions et réciproquement. L'arbre de l'évolution est symbolique. Il manipule des transformations apportées à un tenseur fondamental rattaché à la description des structures du système étudié sous forme de graphes étendus (nous précisons cette extension). Les deux arbres partent d'un état supposé, à la fois en métrique et en probabilité de décision. A chaque extrémité de branches on peut calculer une espérance de gain comme le produit scalaire des vecteurs des observables en sortie de couche physique (implémentée dans l'arbre d'évolution) et des probabilités en sortie d'arbre de décision. Les deux arbres sont encadrés par des environnements, respectivement physique et psychique. On incorpore ainsi élégamment la théorie des jeux dans un graphe dynamique où les transformations peuvent évoluer dans le temps

    Interprétabilité et explicabilité pour l’apprentissage machine : entre modèles descriptifs, modèles prédictifs et modèles causaux. Une nécessaire clarification épistémologique

    Get PDF
    Le déficit d’explicabilité des techniques d’apprentissage machine (AM) pose des problèmes opérationnels, juridiques et éthiques. Un des principaux objectifs de notre projet est de fournir des explications éthiques des sorties générées par une application fondée sur de l’AM, considérée comme une boîte noire. La première étape de ce projet, présentée dans cet article, consiste à montrer que la validation de ces boîtes noires diffère épistémologiquement de celle mise en place dans le cadre d’une modélisation mathématique et causale d’un phénomène physique. La différence majeure est qu’une méthode d’AM ne prétend pas représenter une causalité entre les paramètres d’entrées, qui peuvent être de plus de haute dimensionnalité, et ceux de sortie. Nous montrons dans cet article l’intérêt de mettre en œuvre les distinctions épistémologiques entre les différentes fonctions épistémiques d’un modèle, d’une part, et entre la fonction épistémique et l’usage d’un modèle, d’autre part. Enfin, la dernière partie de cet article présente nos travaux en cours sur l’évaluation d’une explication, qui peut être plus persuasive qu’informative, ce qui peut ainsi causer des problèmes d’ordre éthique

    Les mises en forme algorithmiques, ruptures et continuités dans la quantification du social

    Full text link
    Ce mémoire de maîtrise porte sur les algorithmes de « data mining » et de « machine learning », constitutifs d’un domaine que l’on appelle plus récemment la « science des données ». Pour essayer d’éclairer la portée et la spécificité des enjeux que leur usage soulève dans nos sociétés, il est proposé d’interroger le rapport qu’ils entretiennent avec les fondements et les limites des outils plus traditionnels de la statistique sociale/mathématique, bien documentés en sociologie, à l'égard notamment du « langage des variables » et du raisonnement expérimental « toutes choses égales par ailleurs ». En inscrivant l’approche au croisement de la sociologie de la connaissance et de la quantification, le cadre conceptuel s’inspire de l’épistémologie comparative de Gilles-Gaston Granger, de la « méta-épistémologie historique » de Ian Hacking et de la sociohistoire de la statistique sociale d’Alain Desrosières. Par l’idée de mises en forme algorithmique de la vie sociale, les algorithmes de calcul sont envisagés comme modes d’investigation, partiellement ou complètement automatisés, procédant à des mises en forme et en ordre plurielles et différenciées du social et de ses propriétés. À partir de données de Statistique Canada servant à étayer plus concrètement les formes de connaissances produites et les visées d’objets qu’elles délimitent en termes de possibilités et de contraintes d’expérience, la présente étude de cas entreprend d’examiner le clivage des méthodes « classiques » et « contemporaines » à l’intérieur du cadre supervisé de l’apprentissage. Pour ce faire, trois techniques/familles d’algorithmes sont comparées sous l’angle de leurs opérations d’analyse: 1) les méthodes de régression logistique, 2) les arbres de décision et 3) les forêts aléatoires. L’objectif de cette analyse sociologique théorique comme empirique est d’examiner comment ces approches opèrent certains modes de classification et facilitent ou défavorisent des représentations du monde et de l’individu. Le travail conduit plus généralement à ouvrir quelques pistes de réflexion quant aux rapports de compatibilité et d’incompatibilité des formes de raisonnement du style statistique et probabiliste avec certains états du développement de la sociologie.This master's thesis focuses on data mining and machine learning algorithms, constituting a field more recently called “data science”. To try to shed light on the specificity of the issues they raise in our societies, it is proposed to question the relationship they maintain with the foundations and the limits of the more “classic” tools of mathematical statistics in sociology, with regard in particular to the “language of variables” and to the experimental reasoning “all other things being equal” (cetaris paribus). By placing the approach at the intersection of the sociology of knowledge and quantification, the conceptual framework is inspired by the comparative epistemology of Gilles-Gaston Granger (1920-2016), the historical meta-epistemology of Ian Hacking (1936-) and the sociohistory of social statistics by Alain Desrosières (1940-2013). Through the idea of “mises en forme algorithmique de la vie sociale”, computational algorithms are considered as partially or completely automated types of investigation, carrying out plural and differentiated of shaping and ordering of the social and its properties. Using data from Statistics Canada used to more concretely support the forms of knowledge produced as well as the possibilities and experience constraints that they define, this case study sets out to examine the divide between “classical” and more “contemporary” methods of analysis within the framework of “supervised” learning. To do this, three algorithm techniques (or families of algorithms) are compared from the angle of their knowledge operations: 1) logistic regressions, 2) decision trees and 3) random forests. The objective of this theoretical as well as empirical work is to examine how these approaches operate certain modes of classification, facilitate or disadvantage representations of the world and can also be performative in social activities. The research work more generally leads to opening up some avenues of reflection as to the compatibility and incompatibility relationships of the forms of reasoning of the statistical and probabilistic style with certain states of development in society and in sociology

    La validation dans l'enseignement des probabilités au niveau secondaire

    Get PDF
    Our research is concerned with the question of validation in the teaching of probabilities for Grade 9 and 10 students (age 14 and 15). We adopted the theoretical and methodological model of Mathematic Working Spaces associate to notion of probabilistic paradigm is used to characterize validation in the teaching of probability. The research is based on three successive studies. The first one is exploratory and aims at comparing both the validation practiced in probability and geometry. It showed that semiotics registers are favored to validate in probability and are more used than in geometry. Through the analysis of various tasks implemented at various school levels and related to three categories of tasks (simple, complex, rich) the second study shows highlights different forms of validation depending on the category of the task and the class level considered. The last study, based on interviews with teachers, leads to define the various types of validation adopted by teachers. As findings of the research and based on the data coming the three studies, some characteristics of validation in probability are given and show the specific originality of the teaching of probability in France.Notre recherche porte sur la question de la validation dans l’enseignement des probabilités en classe de 3e et de 2nde. Nous avons adopté le modèle des Espaces de Travail Mathématique et la notion de paradigme probabiliste pour caractériser la validation dans l’enseignement des probabilités. Nous avons mené notre recherche en suivant trois sortes d’enquête. La première est exploratoire, elle vise à comparer la validation pratiquée dans les deux domaines, probabilités et géométrie. Elle a permis de mettre en évidence la place privilégiée des registres sémiotiques dans le discours de la validation en probabilités par rapport à la géométrie. La deuxième enquête s'appuie sur l’étude de tâches mises en oeuvres dans différents niveaux de classe et relevant de différentes catégories de tâches (simple, complexe, riche). Elle met en évidence l’existence de différentes formes de validation, qui dépendent de la catégorie de la tâche et du niveau de classe considéré. Enfin, une dernière enquête, sous forme d'entretien auprès des enseignants, a permis de dégager plusieurs styles de validation adoptés par les enseignants. L’étude de l'ensemble des données de ces trois enquêtes donne une caractérisation de la validation probabiliste et de sa singularité dans l’enseignement probabiliste en Franc

    Fouille d'opinions

    No full text
    L'internet social a récemment fait exploser la disponibilité de documents textuels exprimant des opinions ou des sentiments, par exemple dans les groupes de discussions, les blogs, forums et autres sites spécialisés dans les critiques de produits. Les opinions disponibles sur l'internet ont un impact considérable sur les internautes. Des sondages (Pang et Lee (2008)) montrent que la majorité (80%) des internautes ont déjà fait des recherches d'avis sur un produit et que ces derniers sont prêts à payer deux fois plus cher pour un produit dont l'avis est plus favorable qu'un autre. Les entreprises prennent en compte ce paramètre et l'analyse d'opinions est depuis longtemps une composante importante dans leurs prises de décisions. La nécessité de traiter automatiquement les opinions se fait donc fortement ressentir. L'analyse automatique des opinions, aussi appelée fouille d'opinions, concerne l'extraction d'un sentiment dans une source telle qu'un texte sans structure prédéfinie. Les sentiments reconnus peuvent être classés soit positifs soit négatifs, soit en des classes définies plus finement. Le sujet de notre stage portait sur la construction d'un tel système de fouille. Nous axons notre recherche sur la généricité, c'est-à-dire que nous souhaitons diminuer l'intervention humaine dans le processus de fouille. Pour cela, des exemples de textes d'opinions annotés selon le sentiment (positif ou négatif) qui leur est associé sont exploités. Nous nous plaçons donc dans un cadre d'apprentissage supervisé et explorons le problème de fouille d'opinions à travers l'utilisation de méthodes standards. Beaucoup de ces méthodes nécessitent des ressources a priori telles que le vocabulaire et la structure des phrases. Dans ce rapport, nous tentons de pousser la généricité de ces méthodes en diminuant ce besoin en ressources a priori

    Preuve et démonstration en mathématiques au collège

    Get PDF
    International audienceLa recherche présentée ici est une contribution à l'étude des rapports que les élèves de 10 à 16 ans établissent entre l'élaboration d'explications, la démonstration et la notion de preuve en mathématiques. Pour cela nous avons utilisé une situation expérimentale d'interaction et de communication entre les élèves à propos de la résolution d'un problème combinatoire. Dans la première partie nous abordons la question de la transposition didactique de la notion de démonstration dans l'enseignement français. Dans la seconde partie, après un examen précis du dispositif expérimental et de son fonctionnement, nous rapportons l'analyse des observations concernant des élèves de sixième (11-12 ans) et de troisième (14-15 ans). Enfin, nous présentons nos conclusions relativement à deux aspects: d'une part les liens entre la résolution du problème et la formulation de sa solution, d'autre part les rapports entre preuve et démonstration ; dans ce dernier cas nous formulons des hypothèses sur la nature des obstacles à l'apprentissage en sixième et en troisième

    Reconnaissance des buts d'un agent à partir d'une observation partielle de ses actions et des connaissances stratégiques de son espace de décision

    Get PDF
    La capacité de reconnaître les intentions des autres est une composante essentielle non seulement de l'intelligence humaine mais aussi de l'intelligence artificielle dans plusieurs domaines d'application. Pour les algorithmes d'intelligence artificielle, reconnaître l'intention d'un agent à partir d'une observation partielle de ses actions demeure un défi de taille. Par exemple dans les jeux de stratégie en temps réel, on aimerait reconnaître les intentions de son adversaire afin de mieux contrer ses actions futures. En domotique, on voudrait une maison capable de comprendre et d'anticiper les intentions de ses habitants pour maximiser leur confort et les assister dans leurs activités quotidiennes. Dans le domaine de la sécurité informatique, un outil de détection des intrus doit pouvoir observer les actions des usagers du réseau et déceler ceux qui ont des intentions malveillantes. Ce mémoire de maîtrise propose d'aborder ce problème sous observabilité partielle par adaptation des méthodes utilisées dans l'analyse grammaticale probabiliste. L'approche probabiliste considérée utilise une grammaire hors contexte de multi-ensemble partiellement ordonnée et considère la poursuite de plusieurs buts simultanément, ordonnés ou non. Cela revient donc à faire de l'analyse grammaticale probabiliste avec plusieurs symboles de départ

    Influence du taux de change sur l'évaluation des projets miniers vu sous l'angle des options réelles

    Get PDF

    Représentations savantes des maladies des plantes à l’époque moderne - Professionnalisation des sciences agricoles et de l’agronomie (France et Etats-Unis)

    Get PDF
    Première partie : Théophraste et Aristote inspirent, au début de l’époque moderne (avant 1650), la représentation savante de la maladie des plantes. Celle-ci est perçue soit comme les effets du dépôt d’une rosée (théorie de la double exhalaison) soit comme une modification de la forme due à l’insuffisance du principe formatif relativement aux effets de la matière et des circonstances externes (théorie de la forme et de la matière). La théorie de la forme explique la continuité de celle-ci à travers les générations mais aussi la possibilité d’un changement, tel du froment devenant de l’ivraie. Des modifications sont apportées par plusieurs auteurs, comme Julius Scalger (fin 16e) ou Guy de la Brosse (début 17e). Aux 16e et 17e siècles, les histoires naturelles présentent une plante à part, aux cotés des autres graminées, l’ ustilago (pour nous graminée malade de charbon ou de carie), comme le résultat d’une modification de forme. Galilée propose un modèle qui rompt avec l’Antiquité. Il s’appuie, comme pour son approche du mouvement selon le lieu, sur une géométrisation des phénomènes observés utilisant le modèle de la sphère ardente. Mais c’est surtout l’évolution de la météorologie et de la physiologie sous l’influence croissante de la chimie, et l’émergence des nouvelles théories de la génération, au 17e puis au 18e siècle, que la rupture avec l’aristotélisme a lieu, permettant de nouveaux modèles. Les maladies sont ainsi présentées comme le résultat de l’agressivité de substances acides de certaines intempéries, ou de dysfonctionnement interne de la plante ou dans ses échanges avec l’extérieur. Les représentations paysannes sont prises en considération dans le cadre des Lumières au 18e siècle. Finalement, nous terminons cette partie par l’identification de nouveaux modèles, qui n’accusent principale et premièrement, ni les intempéries, ni une anomalie interne, mais un agent externe : les modèles chimiques où il s’agit d’un ferment, les modèles animalculistes, d’un petit animal, finalement les modèles victorieux, les cryptogamistes où il s’agit d’un champignon parasite microscopique. Finalement les modèles chimiques qui accusent des substances dans l’atmosphère sont recyclés dans les modèles expliquant les effets nocifs des usines. Tous ces éléments nous amènent à quelques réflexions sur la multiplicité et la complexité des chaînes de causalité permettant de rendre compte de l’évolution des représentations savantes et de l’émergence de la "nouveauté" Seconde partie : Au 18e siècle, émerge un nouveau type de savant, le physicien agriculteur, dans le cadre des Lumières, sous l’effet de plusieurs influences, empirisme, utilitarisme, physiocratie, écoute des savoirs des gens de métiers, et dans le cadre du développement de l’alphabétisation. Ces savants s’organisent par la création de sociétés d’agriculture, dans la plupart des pays d’Europe puis d’Amérique ; sociétés présentant plusieurs points communs et constituant une sorte de réseau international, diffusant dans les campagnes, les valeurs du siècle. Des débats ont lieu sur ce que devrait être une science de l’agriculture. Au 19e siècle, ce nouveau champ des sciences agricoles s’institutionnalise mais de manière sensiblement différente, selon les pays. En France, ce champ se construit d’une manière autonome constituant ses propres écoles supérieures, ses propres stations et laboratoires de recherches avant l’établissement de l’Institut des recherches agronomiques (Ira) après la première guerre mondiale, puis de l’Institut national de la recherche agronomique (Inra) après la seconde guerre mondiale. Aux États-Unis, un autre processus a constitué l’USDA Land-Grant system. Plusieurs décisions législatives fédérales (Acts) y ont favorisé dans les années 1870, l’installation de collèges agricoles qui furent les embryons des universités. Origine de ces dernières, les sciences agricoles vont demeurer étroitement imbriquées avec elles. Les stations expérimentales agricoles seront rattachées à l’université lors de leur création. Le département américain de l’agriculture (USDA) est créé pour coiffer et organiser l’ensemble des stations regroupées en grande division. Nous nous sommes particulièrement intéressés à l’histoire de l’Ira et à celle de l’Inra, aux nombreux projets depuis le 19e siècle dont ils sont issus. Notre étude confirme l’ambiguïté du discours agrarianiste des milieux politiques et agricoles vis-à-vis de la modernisation et de la science, et montre la victoire du discours moderniste non pas à la libération et pendant les 30 glorieuses, mais dès Vichy, contre le discours de la révolution nationale de Pétain. Pendant la guerre émergent ainsi les hommes et les décisions qui amènent la création de l’Inra, en 1946. Nous avons découpé l’histoire de l’Inra en deux périodes définissant deux Inra : l’organisme de recherche de l’agriculture (jusque dans les années 1970), la partie agricole et agro-industrielle d’un réseau de recherche-développement (depuis les années 1980). Ces travaux montrent la disparité mais aussi plusieurs points communs entre pays, comme le fait que la professionnalisation, largement déterminée partout par la situation politique et économique, est accompagnée grosso modo des mêmes périodes de déclins et de progrès
    corecore