291 research outputs found

    Gestion de métadonnées utilisant tissage et transformation de modÚles

    Get PDF
    The interaction and interoperability between different data sources is a major concern in many organizations. The different formats of data, APIs, and architectures increases the incompatibilities, in a way that interoperability and interaction between components becomes a very difficult task. Model driven engineering (MDE) is a paradigm that enables diminishing interoperability problems by considering every entity as a model. MDE platforms are composed of different kinds of models. Some of the most important kinds of models are transformation models, which are used to define fixed operations between different models. In addition to fixed transformation operations, there are other kinds of interactions and relationships between models. A complete MDE solution must be capable of handling different kinds of relationships. Until now, most research has concentrated on studying transformation languages. This means additional efforts must be undertaken to study these relationships and their implications on a MDE platform. This thesis studies different forms of relationships between models elements. We show through extensive related work that the major limitation of current solutions is the lack of genericity, extensibility and adaptability. We present a generic MDE solution for relationship management called model weaving. Model weaving proposes to capture different kinds of relationships between model elements in a weaving model. A weaving model conforms to extensions of a core weaving metamodel that supports basic relationship management. After proposing the unification of the conceptual foundations related to model weaving, we show how weaving models and transformation models are used as a generic approach for data interoperability. The weaving models are used to produce model transformations. Moreover, we present an adaptive framework for creating weaving models in a semi-automatic way. We validate our approach by developing a generic and adaptive tool called ATLAS Model Weaver (AMW), and by implementing several use cases from different application scenarios.L'interaction et l'interopérabilité entre différentes sources de données sont une préoccupation majeure dans plusieurs organisations. Ce problÚme devient plus important encore avec la multitude de formats de données, APIs et architectures existants. L'ingénierie dirigée par modÚles (IDM) est un paradigme relativement nouveau qui permet de diminuer ces problÚmes d'interopérabilité. L'IDM considÚre toutes les entités d'un systÚme comme un modÚle. Les plateformes IDM sont composées par des types de modÚles différents. Les modÚles de transformation sont des acteurs majeurs de cette approche. Ils sont utilisés pour définir des opérations entre modÚles. Par contre, il y existe d'autres types d'interactions qui sont définies sur la base des liens. Une solution d'IDM complÚte doit supporter des différents types de liens. Les recherches en IDM se sont centrées dans l'étude des transformations de modÚles. Par conséquence, il y a beaucoup de travail concernant différents types des liens, ainsi que leurs implications dans une plateforme IDM. Cette thÚse étudie des formes différentes de liens entre les éléments de modÚles différents. Je montre, à partir d'une étude des nombreux travaux existants, que le point le plus critique de ces solutions est le manque de généricité, extensibilité et adaptabilité. Ensuite, je présente une solution d'IDM générique pour la gestion des liens entre les éléments de modÚles. La solution s'appelle le tissage de modÚles. Le tissage de modÚles propose l'utilisation de modÚles de tissage pour capturer des types différents de liens. Un modÚle de tissage est conforme à un métamodÚle noyau de tissage. J'introduis un ensemble des définitions pour les modÚles de tissage et concepts liés. Ensuite, je montre comment les modÚles de tissage et modÚles de transformations sont une solution générique pour différents problÚmes d'interopérabilité des données. Les modÚles de tissage sont utilisés pour générer des modÚles de transformations. Ensuite, je présente un outil adaptive et générique pour la création de modÚles de tissage. L'approche sera validée en implémentant un outil de tissage appel

    Le mouvement " Open Data " dans la grande transformation des intelligences collectives et face à la question des écritures, du web sémantique et des ontologies

    Get PDF
    Cognitive capitalism has two main characteristics, collective intelligence and the intensive use of information technology, based on the digitization of content, procedures and writings. In this paper, we try to examine the Open Data movement faced with the transformation of collective intelligence. We analyze this process in the context of public policy, science, intelligence software. We show how this movement articulates with the issue of semantic web ontologies and with the rise of algorithmic. We emphasize, indirectly but strong, on the emergence of "data mining" as "imperial narrative," as the story of performative societies in the context of anthropological stratum Internet. We outline the possibility of new modes of governance and the emergence of new ways of thinking about politics and public space. The future of democratic societies is partly at stakeLe capitalisme cognitif a deux caractéristiques principales, l'intelligence collective et l'utilisation intensive des technologies de l'information, fondées sur la numérisation du contenu, des procédures et des écritures. Dans cet article, nous essayons d'examiner le mouvement Open Data face à la transformation des intelligences collectives et analysons ce processus dans le cadre de l'action publique, de la science, de l'intelligence logicielle, de la stratégie. Nous montrons comment ce mouvement s'articule avec la question du web sémantique, des ontologies, avec la montée de l'algorithmique. Dans ce cadre, l'émergence du " data mining" se présente comme "récit impérial", comme le récit des sociétés performatives. S'ouvre également la possibilité de nouveaux modes de gouvernance, l'émergence de nouvelles façons de penser le politique et l'espace public

    Panorama : des métadonnées pour les ressources électroniques

    Get PDF
    Article issu d\u27une intervention Ă  l\u27occasion du 1er Atelier des rĂ©seaux de la documentation scientifique "MĂ©tadonnĂ©es et Archives Ouvertes" qui s’est tenu les 11, 12 et 13 octobre 2005 Ă  Arcachon

    Feuille de route stratégique - métadonnées culturelles et transition Web 3.0

    Get PDF
    Cette feuille de route sur les mĂ©tadonnĂ©es culturelles et la transition Web 3.0 du ministĂšre de la Culture et de la Communication a Ă©tĂ© rĂ©alisĂ©e en prenant appui sur les actions 4 et 5 de la feuille de route stratĂ©gique ministĂ©rielle en faveur de l\u27ouverture et du partage des donnĂ©es publiques (« open data ») et s\u27inscrit dans le cadre des travaux sur le Web sĂ©mantique initiĂ©s par le Conseil d\u27Orientation de l’Édition Publique et de l\u27Information Administrative (COEPIA). Cette feuille de route pose les premiers jalons d\u27une politique culturelle de transition vers le Web 3.0 intĂ©grant pleinement la valeur des mĂ©tadonnĂ©es culturelles. Elle n\u27a pas vocation Ă  couvrir l\u27ensemble des aspects du 3.0 dans cette phase d\u27initialisation. Il s\u27agit de mettre en exergue des actions dĂ©cisives et opĂ©rationnelles Ă  mener par le secteur culturel Ă  court et moyen terme dans l\u27agenda numĂ©rique 2014-2015

    ModÚles prédictifs pour la réduction des coûts associés aux non-conformités lors de la teinte des tissus

    Get PDF
    L'industrie manufacturiĂšre produit de plus en plus de produits diffĂ©rents avec un plus faible volume, ce qui fait considĂ©rablement augmenter la variabilitĂ© du procĂ©dĂ©. Cette variabilitĂ© rend le maintien de la qualitĂ© des produits plus ardu qu'auparavant. L'industrie du textile ne fait pas exception Ă  la rĂšgle. Par exemple, dans ce mĂ©moire, le partenaire industriel, Duvaltex a tentĂ© de contrĂŽler leur non-conformitĂ© en ce qui concerne la couleur des piĂšces de tissu teint en mettant en place une rĂšgle d'affaire. En utilisant des donnĂ©es historiques fournies par l'entreprise, des modĂšles prĂ©dictifs ont Ă©tĂ© dĂ©veloppĂ©s afin de pouvoir aiguiller la stratĂ©gie de test. La performance de ces modĂšles a Ă©tĂ© comparĂ©e Ă  celle de leur rĂšgle d'affaires. Le modĂšle des forĂȘts alĂ©atoires amĂ©liore de 12% (taux de faux nĂ©gatifs) la performance de leur rĂšgle qui Ă©tait en place. Également, les modĂšles proposĂ©s permettent Ă  Duvaltex de choisir le nombre de tests qu'ils souhaitent effectuer en fonction de leur budget ainsi que du nombre de piĂšces non conformes qu'ils sont prĂȘts Ă  tolĂ©rer

    Apprendre de données positives et non étiquetées : application à la segmentation et la détection d'évÚnements calciques

    Get PDF
    Deux types de neurotransmission se produisent dans les neurones du cerveau : la transmission Ă©voquĂ©e et la transmission spontanĂ©e. Contrairement Ă  la transmission Ă©voquĂ©e, le rĂŽle de la transmission spontanĂ©e sur la plasticitĂ© synaptique - un mĂ©canisme utilisĂ© pour doter le cerveau de capacitĂ©s d'apprentissage et de mĂ©morisation - reste incertain. Les neurotransmissions spontanĂ©es sont localisĂ©es et se produisent alĂ©atoirement dans les synapses des neurones. Lorsqu'un tel Ă©vĂ©nement spontanĂ© se produit, ce que l'on appelle un influx synaptique miniature d'ions calcium (miniature Synaptic CaÂČâș Transient, mSCT), des ions calcium messagers secondaires pĂ©nĂštrent dans la synapse, activant les voies de signalisation en aval de la plasticitĂ© synaptique. L'utilisation de l'imagerie calcique du neurone in vitro permet la visualisation spatiotemporelle de l'entrĂ©e des ions calcium. Les vidĂ©os calciques qui en rĂ©sultent permettent une Ă©tude quantitative de l'impact du mSCT sur la plasticitĂ© synaptique. Cependant, la localisation des mSCTs dans l'imagerie du calcium est difficile en raison de leur petite taille, de leur faible intensitĂ© par rapport au bruit de l'imagerie et de leur caractĂšre alĂ©atoire inhĂ©rent. Dans ce mĂ©moire, nous prĂ©sentons une mĂ©thode d'analyse quantitative Ă  grande Ă©chelle des vidĂ©os d'imagerie calcique limitant la variabilitĂ© induite par les interventions humaines pour obtenir des donnĂ©es probantes, dans le but de caractĂ©riser l'impact des mSCTs sur la plasticitĂ© synaptique. En nous basant sur un outil semi-automatique de dĂ©tection Ă  seuil d'intensitĂ© (Intensity Thresholded Detection, ITD), nous sommes capables de gĂ©nĂ©rer des donnĂ©es pour entraĂźner un rĂ©seau pleinement convolutionnel (Fully Convolutional Network, FCN) afin de dĂ©tecter rapidement et automatiquement les mSCTs Ă  partir de vidĂ©os calciques. En utilisant les segmentations bruitĂ©es de l'ITD comme donnĂ©es d'entraĂźnement, combinĂ©es Ă  un schĂ©ma d'entraĂźnement positif (P) et non Ă©tiquetĂ© (Unlabeled, U), les performances du FCN surpassent ITD. Le FCN dĂ©tecte des mSCTs de faible intensitĂ© non dĂ©tectĂ©s auparavant par ITD et offre une segmentation supĂ©rieure Ă  ITD. Nous avons ensuite caractĂ©risĂ© l'impact des paramĂštres PU tels que le nombre de P et le ratio P:U. Le FCN entraĂźnĂ© est intĂ©grĂ© dans une routine tout-en-un pour permettre une analyse Ă  grande Ă©chelle des mSCTs. La routine offre la dĂ©tection, la segmentation, la caractĂ©risation et la visualisation des mSCTs ainsi qu'une solution logicielle pour gĂ©rer plusieurs vidĂ©os avec diffĂ©rentes mĂ©tadonnĂ©es.Two types of neurotransmission occur in brain’s neurons: evoked transmission and spontaneous transmission. Unlike the former, the role of spontaneous transmission on synaptic plasticity –a mechanism used to endow the brain learning and memory abilities – remain unclear. Spontaneous neurotransmissions are localized and randomly happening in neuron’s synapses. When such spontaneous events happen, so-called miniature synaptic CaÂČâș transients(mSCT), second messenger calcium ions entered the spine, activating downstream signaling pathways of synaptic plasticity. Using calcium imaging of in vitro neuron enable spatiotemporal visual-ization of the entry of calcium ions. Resulting calcium videos enable quantitative study of mSCT’s impact on synaptic plasticity. However, mSCT localization in calcium imaging can be challenging due to their small size, their low intensity compared with the imaging noise and their inherent randomness. In this master’s thesis, we present a method for quantitative high-through put analysis of calcium imaging videos that limits the variability induced by human interventions to obtain evidence for characterizing the impact of mSCTs on synaptic plasticity. Based on a semi-automatic intensity thresholded detection (ITD) tool, we are able to generate data to train a fully convolutional neural network (FCN) to rapidly and automaticaly detect mSCT from calcium videos. Using ITD noisy segmentations as training data combine with a positive and unlabeled (PU) training schema, we leveraged FCN performances and could even detect previously undetected low instensity mSCTs missed by ITD. The FCN also provide better segmentation than ITD. We then characterized the impact of PU parameters such as the number of P and the ratio P:U. The trained FCN is bundled in a all-in-one pipeline to permit a high-thoughtput analysis of mSCT. The pipeline offers detection, segmentation,characterization and visualization of mSCTs as well as a software solution to manage multiple videos with different metadatas

    Processus IDM pour l’intĂ©gration des patrons de sĂ©curitĂ© dans une application Ă  base de composants

    Get PDF
    Security has become an important challenge in current software and system development. Most of designers are experts in software development but not experts in security. It is important to guide them to apply security mechanisms in the early phases of software development to reduce time and cost of development. To reach this objective, we propose to apply security expertise as security patterns at software design phase. A security pattern is a well-understood solution to a recurring information security problem. So, security patterns encapsulate the knowledge accumulated by security experts to secure a software system. Although well documented, patterns are often neglected at the design level and do not constitute an intuitive solution that can be used by software designers. This can be the result of the maladjustment of those patterns to systems context, the inexpertness of designers with security solutions and the need of integration process to let designers apply those pattern ? solutions in practical situations and to work with patterns at higher levels of abstraction. To enable designers to use solutions proposed by security patterns, this thesis proposes a model driven engineering approach to secure applications through the integration of security patterns. Component-based approach is a powerful means to develop and reuse complex systems. In this thesis, we take component based software systems as an application domain for our approach to facilitate the development of applications by assembling prefabricated software building blocks called components. The proposed process provides separation between domain expertise and application security expertise, both of which are needed to build a secure application. Our main goal is to provide a semi-automatic integrating of security patterns into component-based models, and producing an executable secure code. This integration is performed through a set of transformation rules. The result of this integration is a new model supporting security concepts. It is then automatically translated into aspect-oriented code related to security. These aspects are then woven in a modular way within the functional application code to enforce specified security properties. The use of aspect technology in the implementation phase guarantees that the application of security patterns is independent from any particular implementation. In order to provide a clear comprehension of the SCRIP process, we have described it using the standard SPEM . This work is implemented in a software tool called SCRI-TOOL (SeCurity patteRn Integration Tool). This tool allows not security experts developers to integrate different security properties throughout the development cycle of an component based application. To illustrate the use of SCRI-TOOL, we propose a case study regarding electronic healthcare systems. The choice of such a case study is motivated by the great attention archived for such systems from academia and industry and by the importance of security in such systems. Indeed, because of the large number of actors that can interact in such systems, security is a critical requirement. This case study will also allow us to illustrate the proposed methodology to highlight the importance of security management at a high level of abstraction. As results of the application of this process, we obtain a health care application completely secure and meeting the requirements of medical context.La sĂ©curitĂ© est devenue un enjeu important dans le dĂ©veloppement des systĂšmes logiciels actuels. La majoritĂ© des concepteurs de ces systĂšmes manquent d’expertise dans le domaine de la sĂ©curitĂ©. Il s’avĂšre donc important de les guider tout au long des diffĂ©rentes phases de dĂ©veloppement logiciel dans le but de produire des systĂšmes plus sĂ©curisĂ©s. Cela permettra de rĂ©duire le temps ainsi que les coĂ»ts de dĂ©veloppement. Pour atteindre cet objectif, nous proposons d’appliquer l’expertise en matiĂšre de sĂ©curitĂ© sous forme de patrons de sĂ©curitĂ© lors de la phase de conception de logiciels. Un patron de sĂ©curitĂ© intĂšgre des solutions Ă©prouvĂ©es et gĂ©nĂ©riques proposĂ©es par des experts en sĂ©curitĂ©. Cependant, les patrons de sĂ©curitĂ© sont souvent nĂ©gligĂ©s au niveau de la conception et ne constituent pas une solution intuitive qui peut ĂȘtre utilisĂ©e par les concepteurs de logiciels. Cela peut ĂȘtre le rĂ©sultat de l’inadaptation de ces patrons au contexte des systĂšmes, la non-expertise des concepteurs dans le domaine de la sĂ©curitĂ© ou encore l’absence d’un processus d’intĂ©gration de ces patrons dans les modĂšles Ă  un haut niveau d’abstraction.Afin de permettre aux concepteurs d’utiliser les solutions proposĂ©es par des patrons de sĂ©curitĂ©, cette thĂšse propose une approche d’ingĂ©nierie dirigĂ©e par les modĂšles pour sĂ©curiser des applications via l’intĂ©gration de patrons de sĂ©curitĂ©. Nous avons choisi comme contexte d’application de notre approche, les applications Ă  base de composants qui visent Ă  faciliter le dĂ©veloppement d’applications Ă  partir de l’assemblage de briques logicielles prĂ©fabriquĂ©es appelĂ©es composants. Le processus proposĂ© assure la sĂ©paration entre l’expertise du domaine d’application et l’expertise de sĂ©curitĂ©, toutes les deux Ă©tant nĂ©cessaires pour construire une application sĂ©curisĂ©e. La mĂ©thodologie proposĂ©e assure une intĂ©gration semi-automatique des patrons de sĂ©curitĂ© dans le modĂšle initial. Cette intĂ©gration est rĂ©alisĂ©e tout d’abord lors de la modĂ©lisation de l’application Ă  travers, dans un premier temps, l’élaboration de profils Ă©tendant les concepts du domaine avec les concepts de sĂ©curitĂ©. Dans un second temps, l’intĂ©gration se fait Ă  travers la dĂ©finition de rĂšgles, qui une fois appliquĂ©es, gĂ©nĂšrent une application sĂ©curisĂ©e. Finalement, cette intĂ©gration est assurĂ©e aussi au niveau de la gĂ©nĂ©ration du code fonctionnel de l’application en intĂ©grant le code non-fonctionnel relatif Ă  la sĂ©curitĂ© Ă  travers l’utilisation des aspects. L’utilisation de l’approche orientĂ©e aspect garantit que l’application des patrons de sĂ©curitĂ© est indĂ©pendante de toute application particuliĂšre. Le processus proposĂ© est dĂ©crit avec le standard SPEM.Ce travail a Ă©tĂ© concrĂ©tisĂ© par un outil nommĂ© SCRI-TOOL pour SeCurity patteRn Integration Tool. Cet outil permet aux dĂ©veloppeurs non experts en sĂ©curitĂ© d’intĂ©grer les diffĂ©rentes propriĂ©tĂ©s de sĂ©curitĂ© (intĂ©grĂ©es dans les patrons) dans une application Ă  base de composants. AïŹn d’illustrer l’utilisation de SCRI-TOOL, nous proposons une Ă©tude de cas portant sur le domaine des systĂšmes de soins distribuĂ©s. Le choix d’une telle Ă©tude de cas s’explique par l’importance des exigences en termes de sĂ©curitĂ© requises pour le bon fonctionnement d’une telle application. En effet, vue le grand nombre d’acteurs pouvant interagir, la sĂ©curitĂ© est une exigence critique dans de tels systĂšmes. Cette Ă©tude nous a permis de mettre en Ă©vidence l’importance de la gestion de la sĂ©curitĂ© Ă  un haut niveau d’abstraction et la façon d’appliquer la mĂ©thodologie proposĂ©e sur un cas rĂ©el

    GĂ©rer les informations temporelles dans et par les modĂšles informatiques

    No full text
    International audienceTemporal information proves to be prominent in many scientific problems. As regards Geography, temporal concerns are often in long or mean term interaction with spatial aspects and calendar issues. Practical and theoretical approaches necessarily cross-reference various viewpoints from several scientific communities. The use of formal models is a means to make languages and practices more accurate and efficient, hence leading to more efficiency (consistency, correction, reusability
). The will to access larger, more and more complex and heterogeneous pieces of information, leads to master the way to populate and query data warehouses and knowledge bases. With several paradigms, computer science, provides models which can express and help solving many current and forthcoming problems. This paper gives an overview of the state of art in the matter of temporal modelling, accompanied with some meta-model instances and some insight into practical applications.Les informations temporelles jouent un rÎle important dans une grande majorité de problÚmes scientifiques. En géographie, l'interaction avec les aspects spatiaux et la référence à des calendriers sur de longues périodes est fréquente. Les approches théoriques ou expérimentales croisent nécessairement différents points de vue de plusieurs communautés scientifiques. Pour préciser et unifier les langages et les pratiques, l'utilisation systématique de modÚles plus ou moins formels est une garantie d'efficacité (cohérence, correction, réutilisation, etc.). L'accÚs à des masses toujours plus importantes d'informations complexes et hétérogÚnes, la volonté de capitalisation des résultats nécessitent le peuplement et l'interrogation d'entrepÎts de données et de bases de connaissance. L'informatique produit des modÚles qui permettent de formuler et de résoudre un grand nombre de questions en la matiÚre. Le présent article donne un état de l'art sur le sujet ainsi que des exemples de modÚles assortis de références à des travaux applicatifs

    Adaptations dynamiques au contexte en informatique ambiante : propriétés logiques et temporelles

    Get PDF
    In ubiquitous computing, applications are built as a collaboration of computerized and communicating objects called devices. Because these devices can be mobile or subject to failures, this infrastructure evolves dynamically and unpredictably. Thus, to fit seamlessly into their environment and to provide the functionalities expected by users which are often more sustainable than the environment, applications must dynamically adapt to these changes. Each of these variable phenomena pursues its own dynamic. The challenge offered to adaptation mechanisms is to be able to consider them, with suitable dynamics.For this purpose, we propose an architectural model and an adaptation mechanism. The architectural model is based on four levels organized hierarchically according to their complexity and to the dynamics they can offer. We combine to this architectural model an adaptation mechanism. Based on the separation of concerns principle, our mechanism allows us to consider the variability of the system. Due to the unpredictability of the environment, the sets of adaptations that will be deployed by the upper levels of the architecture may not have been anticipated at design time. Also, thanks to some logical and temporal properties, these adaptations can be composed in non-anticipated way and with appropriate response time. The proposed mechanism, called cascaded aspects, is implemented using Aspects of Assembly and the WComp execution platform.En informatique ambiante, les applications sont construites en faisant interagir entre eux des objets informatisĂ©s et communicants appelĂ©s dispositifs. Parce que ces dispositifs peuvent ĂȘtre mobiles ou subir des pannes, cette infrastructure Ă©volue dynamiquement et de maniĂšre imprĂ©visible. Aussi, pour s’insĂ©rer de maniĂšre transparente dans leur environnement et fournir les fonctionnalitĂ©s attendues par les utilisateurs, bien souvent plus pĂ©rennes que l’environnement sur lequel elles reposent, les applications doivent s’adapter dynamiquement Ă  ces Ă©volutions. Ces phĂ©nomĂšnes variables poursuivant leur propre dynamique, le dĂ©fi proposĂ© aux mĂ©canismes d’adaptation est d’ĂȘtre capable de les prendre encompte, avec une dynamique adaptĂ©e Ă  chacun d’entre eux.Dans cette optique, nous proposons un modĂšle architectural ainsi qu’un mĂ©canisme d’adaptation. Le modĂšle architectural repose sur quatre niveaux organisĂ©s hiĂ©rarchiquement en fonction de leur complexitĂ© et de la dynamique qu’ils peuvent offrir. Nous lui associons un mĂ©canisme d’adaptation qui, Ă  partir du principe de sĂ©paration des prĂ©occupations permet d’exprimer la variabilitĂ© du systĂšme. En raison de l’imprĂ©visibilitĂ© de l’environnement, les ensembles d’adaptations qui seront dĂ©ployĂ©es par les niveaux supĂ©rieurs de l’architecture ne peuvent pas nĂ©cessairement ĂȘtre anticipĂ©s Ă  la conception. Aussi, grĂące Ă  un ensemble de propriĂ©tĂ©s logiques et temporelles, ces adaptations peuvent ĂȘtre composĂ©es de maniĂšre non-anticipĂ©e dans des temps de rĂ©ponse adaptĂ©s. Le mĂ©canisme d’adaptation proposĂ©, appelĂ© cascade d’aspects, est expĂ©rimentĂ© en se basant sur les Aspects d’Assemblages et la plateforme d’exĂ©cution WComp
    • 

    corecore