12 research outputs found

    Gestion de la sécurité dans une infrastructure de services dynamique (Une approche par gestion des risques)

    Get PDF
    Les changements de contexte économiques imposent de nouvelles stratégies organisationnelles aux entreprises : recentrages métier et développement de stratégies de collaboration interentreprises. Ces tendances du marché laissent prévoir une croissance exponentielle d écosystèmes de service accessibles à la fois aux clients finaux et aux partenaires. Tout laisse prévoir que ces écosystèmes s appuieront largement sur les architectures orientées services permettant de construire des systèmes d information capable d avoir l agilité requise et de supporter l interconnexion des processus métier collaboratifs en composant dynamiquement les processus à partir de services distribués. Ce type d architecture qui permet d assurer l alignement du système d information sur les besoins métier de l entreprise, rend indispensable la prise en compte des contraintes de sécurité tant au niveau individuel des services qu au niveau de la composition. Dans un environnement de services distribués et dynamiques, la sécurité ne doit pas se limiter à fournir des solutions technologiques mais à trouver une stratégie de sécurité prenant en compte les dimensions métier, organisationnelle et technologique. En outre, la sécurité doit être appréhendée comme un processus continu qui vise l optimisation des investissements de sécurité et assure la pérennité des mesures de sécurité mises en œuvre. Or les modèles et architectures de référence du domaine des services ont sous-estimé la définition des besoins en termes de sécurité, les biens à protéger et l identification des risques pesant sur ces biens. Pour cela, nous proposons d aborder la problématique de la sécurité par une approche de gestion des risques permettant d identifier les différents types de risques et de proposer les mesures de sécurité les plus adéquates au contexte. Toutefois, la gestion des risques s avère un vrai défi dans un environnement ouvert de services collaboratifs. En effet, les méthodes de gestion des risques développées dans le cadre des systèmes d information ne répondent pas aux exigences de sécurité dans un environnement ouvert et ne sont pas adaptées aux environnements dynamiques. Pour pallier ces limites, nous proposons un cadre méthodologique de gestion de la sécurité portant sur les phases préparation, conception, exécution et supervision du cycle de vie des services. Nous proposons un modèle de services sécurisés permettant de définir des patrons de sécurité, un modèle de classification des biens à protéger et une ontologie pour définir les concepts associés à ces biens. En outre, nous développons une méthodologie de conception d une architecture orientée services sécurisée puis abordons la construction de processus métier sécurisés avant de proposer un service de gestion des vulnérabilités de l infrastructure.Changes in economic environment impose new organizational strategies to companies: refocusing business and creating collaboration strategies. These trends point to an exponential growth of service ecosystems accessible to both end users and partners. All foreshadows that these ecosystems rely heavily on service-oriented architectures that can build information systems having the required agility and supporting the interconnection of collaborative business processes by composing processes dynamically from distributed services. This type of architecture that ensures business and information systems alignment, makes it essential to take into account security constraints at the services and the composition s levels. In a distributed and dynamic services environment, security should not be limited to providing technological solutions but to find a security strategy taking into account the business, organizational and technological dimensions. Besides, the security must be considered as an ongoing process that aims to optimize security investments and ensures the sustainability of implemented security measures. However, the models and reference architectures in the services domain have underestimated the definition of security requirements, assets to protect and the identification of risks to those assets. Therefore, we propose to address the security management issues by a risk management approach to identify the different types of risks and propose the most appropriate security measures to the context. Nevertheless, risk management is a real challenge in an open collaborative services environment. The methods of risk management developed in the context of information systems do not meet the security requirements in an open environment and are not suitable for dynamic environments. To overcome these limitations, we propose a methodological framework for security management covering the phases: preparation, design, execution and supervision of the services lifecycle. We propose a model of secure services to identify security patterns, an assets classification model and an ontology defining the concepts associated with those assets. Moreover, we develop a methodology for designing secure service oriented architectures, we address the development of secure business processes then we propose a security service for managing and supervising the infrastructure components vulnerabilities.VILLEURBANNE-DOC'INSA-Bib. elec. (692669901) / SudocSudocFranceF

    Towards a desing method for 3D collaborative GIS

    Full text link
    Our thesis work focuses on collaborative 3D GIS and considers two main aspects governing their implementation: a conceptual framework for an approach to design these systems and a technical framework dealing with the main issues of integration of multiple data sources from different partners in a 3D collaborative database

    L'espace documentaire en restructuration (l'évolution des services des bibliothèques universitaires.)

    Get PDF
    Le catalogue occupe une place privilégiée dans l offre de service des bibliothèques universitaires, pivot de l intermédiation. Depuis 10 ans, il traverse une crise grave, voyant les usagers le délaisser à la faveur des moteurs de recherche généralistes. Le web, plus qu un sérieux concurrent, devance aujourd hui les systèmes d information documentaires, et devient le point d entrée principal pour la recherche d information. Les bibliothèques tentent de structurer un espace documentaire qui soit habité par les usagers, au sein duquel se développe l offre de service, mais celle-ci se présente encore comme une série de silos inertes, sans grande possibilité de navigation, malgré de considérables efforts d ingénierie et des pistes d évolution vers les outils de découverte. La profession, consciente de cette crise profonde, après avoir accusé les remous occasionnés par la dimension disruptive du numérique, cherche des moyens pour adapter et diversifier son offre, fluidifier la diffusion de l information, et se réinvente un rôle d intermédiation en cherchant à tirer profit des nouvelles pratiques des usagers, de leurs nouvelles attentes, et de nouvelles perspectives. Les bibliothèques placent leur espoir dans de nouveaux modèles de données, tentent d y ajouter un niveau d abstraction favorisant les liaisons avec l univers de la connaissance. L évolution vers le web sémantique semble une opportunité à saisir pour valoriser les collections et les rendre exploitables dans un autre contexte, au prix d importants efforts que cette analyse tente de mesurer. Une approche constructiviste fondée sur l observation participante et le recueil de données offre une vision issue de l intérieur de la communauté des bibliothèques sur l évolution des catalogues et des outils d intermédiation, et ouvre des perspectives sur leurs enjeux.The catalog takes up a special position in the supply of services of academic libraries, as a pivot for the intermediary between users and information professionals who carry the responsibility for building up collections. For 10 years, through a serious crisis, they ve been seeing their patrons preferring the general or commercial search engines. The Web is more than a serious competitor today, ahead of the document information systems, and became the main access point for information retrieval. Libraries are trying to structure an information space that is temporarily or permanently inhabited by users, in which the service offering is developed, but it is still presented as a series of silos, with few opportunities of navigation between them despite considerable engineering efforts and a perspective of evolution towards discovery tools. The profession, having become aware of this deep crisis after accusing eddies caused by the breakdown of the digital switch, looking for ways to adapt and diversify its offering, streamlines the dissemination of information, and reinvents its roles, trying to take advantage of new practices of users, new expectations and new prospects. Libraries put their hope in new data models, trying to add a level of abstraction promoting links with the world of knowledge. The evolution towards the Semantic Web seems to be a valuable opportunity to enhance the collections and make them usable in another context, at the expense of significant efforts sized up by this analysis. A constructivist approach based on participant observation and data collection offers a vision of the outcome within the library community on the development of catalogs and intermediation tools, and an outlook on their issues.PARIS-CNAM (751032301) / SudocSudocFranceF

    L'AIS : une donnée pour l'analyse des activités en mer

    Get PDF
    4 pages, session "Mer et littoral"International audienceCette contribution présente des éléments méthodologiques pour la description des activités humaines en mer dans une perspective d'aide à la gestion. Différentes procédures, combinant l'exploitation de bases de données spatio-temporelles issue de données AIS archivées à des analyses spatiales au sein d'un SIG, sont testées afin de caractériser le transport maritime en Mer d'Iroise (Bretagne, France) sur les plans spatiaux, temporels et quantitatifs au cours d'une année

    Formalisation Multi-Agents de la Sociologie de l'Action Organisée

    Get PDF
    The sociology of the organised action (Crozier, Friedberg) is widely used to make diagnostics of organisational context when some structural difficulties are encountered. However, the results of a SOA analysis is essentially informal, no comparisons or generalisation are possible. This work present a formalisation of this theory as: - a meta-model of social organisations, - techniques for an analytic study of an organisation, - simulation, using a model of the actors' bounded rationality, to compute how the actors' behaviours could be regularised.Bien souvent utilisée comme outils d'intégration et d'échange entre les différentes parties de projets scientifiques interdisciplinaires, la simulation numérique est en plein essor dans les sciences sociales, et notamment la simulation multi-agents. En effet, la capacité de calcul de plus en plus puissante des ordinateurs et les méthodes de recherche individu-centrées en sciences sociales (micro-économie ou individualisme méthodologique, pour ne citée que celles-ci) ont suscité un intérêt croissant pour la représentation logicielle de processus interagissant les un avec les autres dans le cadre d'un phénomène qualifié de complexe. Notre thèse se positionne ainsi dans ce contexte, plus particulièrement au niveau des relations causales entre des comportements microscopiques en interaction et un phénomène macroscopique émergeant. Notre travail de recherche s'inscrit dans un projet mené en collaboration avec des sociologues qui vise à rendre compte de phénomènes organisationnels. Plutôt que de s'emparer de cas empiriques et de produire des modèles ad'hoc, nous proposons une démarche innovante consistant à formaliser une théorie sociologique : la Sociologie de l'Action Organisée (SAO) de M. Crozier et E. Friedberg. L'intérêt d'une telle modélisation est de disposer d'un méta-modèle sociologiquement fondé permettant de modéliser de façon formelle différentes organisations relevant de son champ d'expertise. Nous proposons de mettre en œuvre cette formalisation via un laboratoire virtuel, SocLab, permettant d'éditer le modèle d'une organisation puis de mener des expériences et tester nos hypothèses. Du méta-modèle de la SAO à l'outil d'expérimentation SocLab, notre thèse propose une démarche méthodologique pour l'analyse organisationnelle assistée par l'expérimentation virtuelle. Dans la perspective d'analyser la causalité émergente des processus organisationnels, nous avons défini une série d'indicateurs numériques qui servent de base aux interprétations indispensables à la vérification et la validation d'un modèle. Ces indicateurs permettent de caractériser acteurs, relations, et transactions dans les termes de la SAO et de comparer différents modèles, d'une même organisation ou d'organisations différentes. Nous présentons ensuite un modèle d'agent adaptatif à base de règles qui rend compte du comportement stratégique des acteurs dont la rationalité est orientée vers la coopération tel que le postule la SAO. Nous présentons par ailleurs une méthodologie de validation des modèles de rationalité. Enfin nous illustrons notre démarche avec un cas d'étude issu du corpus SAO, que nous modélisons, soumettons à diverses hypothèses, que nous interprétons et (in)validons par la simulation. Outre la démarche de formalisation de la SAO et le développement du laboratoire virtuel SocLab, la thèse présente de nombreuses originalités que ce soit au niveau des concepts développés autour de l'échange et de la coopération, au niveau du modèle d'agent stratégique-coopératif, ou au niveau des outils d'analyse produits ou mis en œuvre. L'intérêt principal réside dans le développement d'une démarche rigoureuse couvrant de nombreux aspects de l'utilisation de l'expérimentation virtuelle en sociologie qui devrait permettre au chercheur, à l'étudiant comme aux consultants en organisation de produire des raisonnements solides sur le /phénomène organisation/

    Modélisation ontologique des recommandations de pratique clinique pour une aide à la décision à niveaux d'abstraction variables

    Get PDF
    Clinical practice guidelines (CPGs) are elaborated according to evidence-based medicine principles in order to improve healthcare quality. However, even when they are integrated into clinical decision support systems, recommendations are poorly implemented by physicians. Indeed, CPGs are often criticized for their lack of flexibility, and their inability to handle the singularity of patients encountered in clinical practice. In particular, CPGs are usually elaborated for a single pathology whereas patients usually suffer from multiple pathologies and comorbidities. We have proposed a method based on an ontological reasoning to enable the reconciliation of single-pathology CPGs to support the flexible management of patients with multiple pathologies. Knowledge bases are made of decision rules that formalize the content of single-pathology CPGs. Patient criteria are organized by a domain ontology, which allows the generation of a generalization-ordered graph of clinical patient profiles. The ontological reasoning allows to reason at different levels of abstraction to process clinical cases described with different levels of completeness. This method has been implemented in a decision support system called GO-DSS, and applied to the management of patients suffering from both arterial hypertension and type 2 diabetes, on the basis of CPGs produced by the VIDAL company (VIDAL Recos). The prototype and its user interfaces have been qualitatively evaluated by a sample of users including both computer scientists with medical knowledge and physicians with computer skills.Conformément aux principes de la médecine factuelle, les guides de bonne pratique clinique (GBPC) sont élaborés dans un but d'amélioration de la qualité des soins. Pourtant, le suivi des recommandations par les médecins reste faible, même lorsqu'elles sont intégrées dans des systèmes informatisés d'aide à la décision. En effet, elles sont souvent critiquées pour leur manque de flexibilité, et leur incapacité à gérer la singularité des patients rencontrés en pratique clinique. En particulier, leur orientation monopathologique est en inadéquation avec la réalité de patients bien souvent polypathologiques. Nos travaux portent sur la proposition d'une méthode basée sur un raisonnement ontologique pour permettre la conciliation de GBPC pour la prise en charge flexible de patients polypathologiques au sein d'un système d'aide à la décision. Les bases de connaissances reposent sur des règles construites par formalisation des recommandations, dont les critères patients sont organisés par une ontologie du domaine, permettant de produire un graphe des profils cliniques structuré par généralisation. Le raisonnement ontologique permet une juste adaptation des connaissances aux niveaux d'abstraction variables de la description du patient. Cette méthode a été implémentée dans un système d'aide à la décision, appelé GO-DSS, et appliquée à la prise en charge de patients diabétiques et hypertendus, à partir des GBPC produits par la société VIDAL (VIDAL Recos). Le prototype et ses interfaces ont été évalués qualitativement par un échantillon d'utilisateurs comprenant à la fois des informaticiens avec des connaissances médicales et des médecins avec des compétences en informatique

    Synthèse des prévisions d'ensemble par scénarios physiquement cohérents : mise en pratique au moyen d'approc

    Get PDF
    La prévision météorologique, basée sur la modélisation du système chaotique atmosphérique, comporte une part d'incertitude. Celle-ci peut être évaluée à l'aide d'ensembles de prévisions. La thèse s'intéresse au post-traitement de la prévision d'ensemble à échelle kilométrique de Météo-France (PE-AROME). L'objectif est de développer de nouveaux outils pour extraire des informations essentielles des modèles pour les prévisions. Ces outils s'appuient sur des méthodes d'apprentissage profond. Ce manuscrit commence par la présentation des prévisions d'ensemble, des méthodes de post-traitement existantes et des méthodes employées aujourd'hui pour expertiser les modèles météorologiques. Cette thèse propose d'enrichir la palette d'outils disponibles avec deux approches complémentaires pour extraire de nouvelles informations de la PE-AROME. Dans un premier temps, une approche pour aider à la prévision de structures orageuses particulières et à fort impact, qu'on nomme les échos arqués, est développée. L'objectif est de les détecter dans les sorties de chaque membre PE-AROME. Cette détection est faite par un réseau de neurones convolutif (de type U-Net). Le réseau de neurones retenu montre une bonne capacité à discerner les échos arqués d'autres organisations orageuses. Les performances de ce U-Net ont permis de déboucher sur une production en mode recherche quotidienne synthétisant le risque d'échos arqués. L'évaluation objective des prévisions montre la plus-value de la PE-AROME comparée au modèle déterministe AROME au-delà de 15 heures d'échéance. La deuxième approche développée durant cette thèse vise à mettre en œuvre une synthèse par scénarios des prévisions de pluies. Un scénario peut être défini comme un groupe de membres prévoyant des évènements météorologiques similaires. Cette approche ne s'intéresse pas à un évènement particulier et est donc moins spécialisée que la détection des échos arqués. Cette synthèse repose sur une réduction de dimension du champ de pluies à l'aide d'un autre réseau de neurones convolutif (de type autoencodeur). Chaque membre est ainsi exprimé et classé dans l'espace latent de l'autoencodeur qui possède quelques dizaines de dimensions. La pertinence de cette représentation sous forme de scénarios est discutée à l'aide de scores et d'études de cas. Les scores montrent une réelle complémentarité entre le modèle déterministe AROME et la PE-AROME. Ils montrent qu'il est plus intéressant de suivre les deux scénarios les plus peuplés de la PE-AROME que deux réseaux AROME. Mais ils montrent aussi qu'en cas de deux scénarios équiprobables dans la PE-AROME, le scénario qui est aussi celui d'une prévision AROME a plus de chance d'être correct que l'autr

    Actes de la 9ème conférence des Technologies de l’Information et de la Communication pour l’Enseignement (TICE 2014)

    Get PDF
    National audienceLe cycle de conférence TICE a pour objectif de faire tous les deux ans le point sur les résultats de recherches, les nouvelles applications, les derniers usages, et les retours d’expériences dans le domaine de l’éducation supérieure numérique. Le colloque TICE 2014 est organisé par l’IUT de Beziers, une composante de l’Université Montpellier 2. Cette neuvième édition du colloque TICE sera l’occasion de rassembler à Béziers, du 18 au 20 Novembre 2014, la communauté scientifique et industrielle des TICE autour du thème « Nouvelles pédagogies et sciences et technologies du numérique »

    Méthodologie de Matching à large Echelle de schémas XML

    No full text
    National audienceLe matching, est une opération importante pour les processus assurant l’interopérabilité de systèmes d’information notamment pour des applications telles que l'échange, l'intégration et la transformation de données. Toutefois, la problématique du matching se pose avec acuité lorsque le nombre et le volume des schémas de données est important. C’est notamment le cas pour les applications e-business avec une très forte orientation internet. Dans ce contexte, nous proposons, dans cet article, une méthodologie de matching à large échelle structurée en trois différentes phases (pré-matching, matching et post-matching), qui vise à optimiser le matching grâce à une phase préalable de prétraitement qui se base sur des techniques d’analyse, de traitement linguistique des éléments des schémas et d’extraction de données. Cette méthodologie est supportée par une plateforme nommée PLASMA (Platform for LArge Scale MAtching) qui a permis de conduire une série d’expérimentations
    corecore