1,364 research outputs found

    Les espaces de l'halieutique

    Get PDF
    Les tactiques de pêches développées par les pêcheurs peuvent être interprétées comme des adaptations à l'hétérogénéité spatiale de la distribution d'une ressource. Elles visent en effet à réduire l'incertitude relative aux probabilités de captures que peut attendre le pêcheur, incertitude induite par la répartition spatiale de la ressource. Les facteurs intervenants dans la constitution d'une tactique donnée sont a priori nombreux, mais surtout difficiles à quantifier car issus pour une grande part de choix subjectifs et qualitatifs. On se propose ici de les aborder de manière théorique à partir d'un travail de simulations. Les comportements individuels des pêcheurs sont ainsi modélisés en fonction de trois types de facteurs : facteurs informatifs, concernant les échanges d'informations entre pêcheurs au sein d'une flotille ; facteurs "cognitifs", liés à la connaissance partielle du milieu et la faculté d'apprentissage des pêcheurs ; facteurs directifs, liés au comportement du pêcheurs ; facteurs directifs, liés au comportement du pêcheur : interactions pêcheur-pêcheur, pêcheur-ressource, pêcheur-structure d'autorité. Plus précisément, la présente étude se concentre sur les déterminants des tactiques de pêche relevant des deux premières composantes. On définit ainsi un modèle d'échange d'informations individuelles entre navires d'une part, et de savoir-faire individuel d'autre part. Ces modèles définissent des tactiques de recherche de la ressource. Ils sont mis en oeuvre au sein d'un simulateur de type système multi-agent, où sont représentées explicitement l'activité de pêche des navires d'une flotille et la ressource sur laquelle elle se développe... (D'après résumé d'auteur

    Repérage et annotation d'indices de nouveautés dans les écrits scientifiques

    No full text
    International audienceThis paper deals with thecategorisation of textual cues in scientific abstracts with the aim to highlight the information contained while for exploring huge volumes of texts. Typically, one context of application is the rapid identification by an expert of strategic information for science and technology watch. From a study of a sample of abstracts in english, novelty, objective, result and conclusion cues are formalized as finite state automata and projected on a test corpus. Resultats show that using these cues is relevant. Using the type of cues identified and the supposed information announced, an XML markup of scientific abstracts is proposed. The final aim is to guide the reader towards information categories classified as such which can assist science and technology watch process.Cet article explore la catégorisation des indices textuels présents dans les résumés scientifiques afin de mettre en valeur les informations véhiculées lors de l'exploration de grandes masses de textes. Typiquement, un des contextes d'application est le repérage rapide par un utilisateur expert des informations à caractère stratégique pour la veille scientifique et technologique. Après étude d'un échantillon de résumes scientifiques en anglais, les indices de nouveautés, d'objectif, de résultats et de conclusions sont formalisés et projetés sur un deuxième corpus de test. Les résultats montrent que ces indices sont globalement ''performants'. S'appuyant sur les indices repérés et du type d'information véhiculée, un balisage XML des résumés est proposé. L'objectif est de guider le lecteur vers les catégories d'information balisées en tant que telles, susceptibles de contribuer au processus de veille scientifique et technologique

    DĂ©veloppement MLO: Metadata for learning opportunities

    Get PDF
    Tiré de l'écran-titre (visionné le 27 juin 2017).Ce rapport d'études présente les résultats des travaux de développement d’outils d’extraction et d’exploitation des métadonnées sur les opportunités d’apprendre. Les résultats de leur utilisation témoignent du fort potentiel de la spécification MLO-AD

    Analyse macroscopique des grands systèmes (émergence épistémique et agrégation spatio-temporelle)

    Get PDF
    L'analyse des systèmes de grande taille est confrontée à des difficultés d'ordre syntaxique et sémantique : comment observer un million d'entités distribuées et asynchrones ? Comment interpréter le désordre résultant de l'observation microscopique de ces entités ? Comment produire et manipuler des abstractions pertinentes pour l'analyse macroscopique des systèmes ? Face à l'échec de l'approche analytique, le concept d'émergence épistémique - relatif à la nature de la connaissance - nous permet de définir une stratégie d'analyse alternative, motivée par le constat suivant : l'activité scientifique repose sur des processus d'abstraction fournissant des éléments de description macroscopique pour aborder la complexité des systèmes. Cette thèse s'intéresse plus particulièrement à la production d'abstractions spatiales et temporelles par agrégation de données. Afin d'engendrer des représentations exploitables lors du passage à l'échelle, il apparaît nécessaire de contrôler deux aspects essentiels du processus d'abstraction. Premièrement, la complexité et le contenu informationnel des représentations macroscopiques doivent être conjointement optimisés afin de préserver les détails pertinents pour l'observateur, tout en minimisant le coût de l'analyse. Nous proposons des mesures de qualité (critères internes) permettant d'évaluer, de comparer et de sélectionner les représentations en fonction du contexte et des objectifs de l'analyse. Deuxièmement, afin de conserver leur pouvoir explicatif, les abstractions engendrées doivent être cohérentes avec les connaissances mobilisées par l'observateur lors de l'analyse. Nous proposons d'utiliser les propriétés organisationnelles, structurelles et topologiques du système (critères externes) pour contraindre le processus d'agrégation et pour engendrer des représentations viables sur les plans syntaxique et sémantique. Par conséquent, l'automatisation du processus d'agrégation nécessite de résoudre un problème d'optimisation sous contraintes. Nous proposons dans cette thèse un algorithme de résolution générique, s'adaptant aux critères formulés par l'observateur. De plus, nous montrons que la complexité de ce problème d'optimisation dépend directement de ces critères. L'approche macroscopique défendue dans cette thèse est évaluée sur deux classes de systèmes. Premièrement, le processus d'agrégation est appliqué à la visualisation d'applications parallèles de grande taille pour l'analyse de performance. Il permet de détecter les anomalies présentes à plusieurs niveaux de granularité dans les traces d'exécution et d'expliquer ces anomalies à partir des propriétés syntaxiques du système. Deuxièmement, le processus est appliqué à l'agrégation de données médiatiques pour l'analyse des relations internationales. L'agrégation géographique et temporelle de l'attention médiatique permet de définir des évènements macroscopiques pertinents sur le plan sémantique pour l'analyse du système international. Pour autant, nous pensons que l'approche et les outils présentés dans cette thèse peuvent être généralisés à de nombreux autres domaines d'application.The analysis of large-scale systems faces syntactic and semantic difficulties: How to observe millions of distributed and asynchronous entities? How to interpret the disorder that results from the microscopic observation of such entities? How to produce and handle relevant abstractions for the systems' macroscopic analysis? Faced with the failure of the analytic approach, the concept of epistemic emergence - related to the nature of knowledge - allows us to define an alternative strategy. This strategy is motivated by the observation that scientific activity relies on abstraction processes that provide macroscopic descriptions to broach the systems' complexity. This thesis is more specifically interested in the production of spatial and temporal abstractions through data aggregation. In order to generate scalable representations, the control of two essential aspects of the aggregation process is necessary. Firstly, the complexity and the information content of macroscopic representations should be jointly optimized in order to preserve the relevant details for the observer, while minimizing the cost of the analysis. We propose several measures of quality (internal criteria) to evaluate, compare and select the representations depending on the context and the objectives of the analysis. Secondly, in order to preserve their explanatory power, the generated abstractions should be consistent with the background knowledge exploited by the observer for the analysis. We propose to exploit the systems' organisational, structural and topological properties (external criteria) to constrain the aggregation process and to generate syntactically and semantically consistent representations. Consequently, the automation of the aggregation process requires solving a constrained optimization problem. We propose a generic algorithm that adapts to the criteria expressed by the observer. Furthermore, we show that the complexity of this optimization problem directly depend on these criteria. The macroscopic approach supported by this thesis is evaluated on two classes of systems. Firstly, the aggregation process is applied to the visualisation of large-scale distributed applications for performance analysis. It allows the detection of anomalies at several scales in the execution traces and the explanation of these anomalies according to the system syntactic properties. Secondly, the process is applied to the aggregation of news for the analysis of international relations. The geographical and temporal aggregation of media attention allows the definition of semantically consistent macroscopic events for the analysis of the international system. Furthermore, we believe that the approach and the tools presented in this thesis can be extended to a wider class of application domains.SAVOIE-SCD - Bib.électronique (730659901) / SudocGRENOBLE1/INP-Bib.électronique (384210012) / SudocGRENOBLE2/3-Bib.électronique (384219901) / SudocSudocFranceF

    Un système d'information géographique en Inde du Sud:<br />Théorie, mise en œuvre et applications thématiques

    Get PDF
    National audienceIndia whose population has recently reached the one-billion mark enjoys a rich and ancient census apparatus, which remains an under-utilized source for the study of contemporary socio-spatial dynamics. Our paper sums up the stages of a GIS project applied to the 75.000 localities of South India.The emergence of GIS technology in a country like India comes up against many scientific, technical or institutional problems. Georeferencing of villages, for instance, required considerable effort because of the unavailability of reliable printed cartography. Similarly, systematic examination of the census data has underlined their shortcomings and called for corrections of all kinds. This article chronicles some of these concrete and theoretical difficulties, as well as solutions found to make the collected information available to a large number of potential users. As a conclusion, we display some of the cartographic applications of this rich database, as well as some geostatistical tools that can fruitfully applied for a renewed approach to the phenomenon of socio-spatial change.L'Inde et son milliard d'habitants possèdent un riche recensement plus que centenaire, qui reste une source sous-exploitée pour l'étude des dynamiques socio-spatiales actuelles. L'article résume les étapes d'un projet de géomatique appliqué aux quelque 75.000 villages de l'Inde du sud. L'apparition de la technologie des SIG dans un pays comme l'Inde bute sur de multiples problèmes (scientifiques, institutionnels et techniques). La localisation géoréférencée des villages a, par exemple, demandé des efforts considérables, en relation directe avec la rareté et la médiocre qualité des fonds cartographiques disponibles sur papier. De même, l'exploitation systématique de la statistique censitaire a mis en évidence ses faiblesses et ses lacunes, nécessitant des corrections de tous types. L'article fait le récit de ces problèmes pratiques et théoriques, ainsi que des solutions trouvées à la question de la restitution de l'information constituée grâce aux médias modernes. En conclusion, nous présentons des exemples d'applications cartographiques de cette riche base de données et quelques outils géostatistiques qui permettent désormais d'aborder de manière renouvelée l'étude du changement socio-spatial

    Une photographie du corps des professeurs des universités de sciences économiques en 2011

    Get PDF
    La section CNU 05 (sciences économiques) est importante en terme d'effectifs, mais en perte de vitesse par rapport aux disciplines voisines (droit et gestion). Le concours d'agrégation externe permet de recruter des professeurs plus jeunes que dans les disciplines soumises à la règle commune, mais cet avantage est compensé par une évolution de carrière plus lente. En terme de répartition par corps d'appartenance (PR ou MdC), de sexe, et de région géographique d'exercice, nous sommes plutôt dans la moyenne, mais avec un peu trop de professeurs hommes-parisiens. La construction du tableau de classement au 31 décembre 2011, met en lumière à la fois le très faible taux de femmes dans la classe exceptionnelle, et une sous représentation des collègues nés durant la décennie 1951-1960 (avec des répercussions à venir au moment de leur départ à la retraite). L'analyse conjointe de la répartition par ancienneté dans chaque grade et des candidatures à la promotion entre 2009 et 2011, montre qu'un certain nombre de collègues en seconde ou première classe ont abandonné toute idée d'avancement
    • …
    corecore