6 research outputs found

    Expression qualitative de politiques d'adaptation pour Fractal

    Get PDF
    National audienceLes plates-formes d'exĂ©cution rĂ©centes telles que Fractal ou Open- COM offrent de nombreuses facilitĂ©s pour assurer la prise en compte de propriĂ©tĂ©s extra-fonctionnelles (introspection, sondes, chargement dynamique, etc). Cependant, l'intĂ©gration de politiques d'adaptation reste dĂ©licate car elle nĂ©cessite de corrĂ©ler la configuration du systĂšme avec l'Ă©volution de son environnement. Le travail prĂ©sentĂ© dans cet article propose une description qualitative des Ă©volutions de l'environnement et une interprĂ©tation possible basĂ©e sur de la logique floue. L'article prĂ©sente Ă©galement une extension de la plate-formeFractal implĂ©mentant les mĂ©canismes nĂ©cessaires Ă  l'exĂ©cution de ces politiques d'adaptation de haut niveau. L'approche est illustrĂ©e Ă  l'aide d'un serveur HTTP qui modifie sa configuration (architecturale et locale) en fonction de plusieurs paramĂštres extra-fonctionnels tels que la charge du serveur et la dispersion des requĂȘtes

    La mise Ă  disposition des Ɠuvres et des informations sur les rĂ©seaux : rĂ©gulation juridique et rĂ©gulation technique

    Get PDF
    Technological developments lead to an exponential increase of the spread of works and information on the networks. Regulatory models from the analogical era based on physical medium scarcity and exclusivity are questioned by digital technology paradigms of copying, remixing and sharing. Copyright has been developed and adaptated at the same time than reproduction and dissemination technologies innovation, as an artificial corrective granting a limited monopoly of exploitation. But copyright can also lead to commons. We analyse how law and technology were conceptualised independently. Technical standards production process and the extension of exclusive rights are creating tensions between cultural industries and the public. This conception led to an intrication between regulation by law and technical protection measures, for the benefit of regulation by technology. Following research on lex informatica, we thus introduce a model based on the mutual influence between regulation by law and regulation by technology, toward legal categorisation redesign and an improved technical rights expression. The development of applications, ontologies and legal metadata allow to automate information and works exchanges management. Integrating regulation by law and regulation by technology, this model was built on the systematic analysis of various licensing models emerging on the networks, between access control and the constitution of Commons.Les dĂ©veloppements techniques entraĂźnent une croissance exponentielle de la circulation des Ɠuvres et informations sur les rĂ©seaux. Les modĂšles de rĂ©gulation de l'Ăšre analogique Ă©laborĂ©s sur la raretĂ© du support sont remis en question par le numĂ©rique, fondĂ© sur les paradigmes de la copie, de la rĂ©appropriation et du partage. Le droit d'auteur a Ă©tĂ© dĂ©veloppĂ© et adaptĂ© au rythme des innovations techniques de reproduction et de diffusion des Ɠuvres, comme un correctif artificiel accordant une exclusivitĂ© temporaire d'exploitation. Il peut aussi conduire aux biens communs. Nous analysons comment droit et technique ont d'abord Ă©tĂ© pensĂ©s de maniĂšre indĂ©pendante. Les processus d'Ă©laboration des normes et standards techniques et l'extension des droits exclusifs entraĂźnent des tensions entre les industries culturelles et le public. Cette conception conduit Ă  un enchevĂȘtrement de lois et mesures techniques de protection au profit de la rĂ©gulation technique. Nous proposons donc, dans la lignĂ©e de la lex informatica, un modĂšle fondĂ© sur l'influence rĂ©ciproque entre les disciplines, vers la reconception des catĂ©gories juridiques du droit d'auteur et vers une meilleure expression technique des droits. Le dĂ©veloppement d'applications, d'ontologies et de mĂ©tadonnĂ©es juridiques permet une automatisation de la rĂ©gulation des Ă©changes d'Ɠuvres et d'informations. Mettant en Ɠuvre une intĂ©gration plus Ă©quilibrĂ©e du droit et de la technique, ce modĂšle est notamment fondĂ© sur l'analyse de licences et modĂšles contractuels qui se dĂ©veloppent sur Internet, entre contrĂŽle d'accĂšs et biens communs

    Modélisation graphique probabiliste pour la maßtrise des risques, la fiabilité et la synthÚse de lois de commande des systÚmes complexes

    Get PDF
    Mes travaux de recherche sont menĂ©s au Centre de Recherche en Automatique de Nancy (CRAN), dans le dĂ©partement IngĂ©nierie des SystĂšmes Eco-Techniques (ISET) sous la responsabilitĂ© de B. Iung et de A. Thomas et le dĂ©partement ContrĂŽle - Identification - Diagnostic (CID) sous la responsabilitĂ© de D. Maquin et de G. Millerioux.L’objectif principal de mes recherches est de formaliser des mĂ©thodes de construction de modĂšles probabilistes reprĂ©sentant les bons fonctionnements et les dysfonctionnements d’un systĂšme industriel. Ces modĂšles ont pour but de permettre l’évaluation des objectifs de fonctionnement du systĂšme (exigences opĂ©rationnelles, performances) et les consĂ©quences en termes de fiabilitĂ© et de maĂźtrise des risques (exigences de sĂ»retĂ©). Ceci nĂ©cessite de modĂ©liser les impacts de l’environnement sur le systĂšme et sur ses performances, mais aussi l’impact des stratĂ©gies de commande et des stratĂ©gies de maintenance sur l’état de santĂ© du systĂšme.Pour plus de dĂ©tails.A travers les diffĂ©rents travaux de thĂšses et collaborations, j’ai exploitĂ© diffĂ©rents formalismes de modĂ©lisation probabilistes. Les apports majeurs de nos contributions se dĂ©clinent en 3 points :‱ La modĂ©lisation des consĂ©quences fonctionnelles des dĂ©faillances, structurĂ©e Ă  partir des connaissances mĂ©tiers. Nous avons dĂ©veloppĂ©s les principes de modĂ©lisation par RĂ©seau BayĂ©sien (RB) permettant de relier la fiabilitĂ© et les effets des Ă©tats de dĂ©gradation des composants Ă  l’architecture fonctionnelle du systĂšme. Les composants et les modes de dĂ©faillances sont alors dĂ©crits naturellement par des variables multi-Ă©tats ce qui est difficile Ă  modĂ©liser par les mĂ©thodes classiques de sĂ»retĂ© de fonctionnement. Nous proposons de reprĂ©senter le modĂšle selon diffĂ©rents niveaux d'abstraction en relation avec l’analyse fonctionnelle. La modĂ©lisation par un modĂšle probabiliste relationnel (PRM) permet de capitaliser la connaissance par la crĂ©ation des classes gĂ©nĂ©riques instanciĂ©es sur un systĂšme avec le principe des composants pris sur Ă©tagĂšre.‱ Une modĂ©lisation dynamique de la fiabilitĂ© des systĂšmes pris dans leur environnement. Nous avons contribuĂ© lors de notre collaboration avec Bayesia Ă  la modĂ©lisation de la fiabilitĂ© des systĂšmes par RĂ©seau BayĂ©sien Dynamique (RBD). Un RBD permet, grĂące Ă  la factorisation de la loi jointe, une complexitĂ© infĂ©rieure Ă  une ChaĂźne de Markov ainsi qu’un paramĂ©trage plus facile. La collaboration avec Bayesia a permis l’intĂ©gration dans Bayesialab (outil de modĂ©lisation) de ces extensions et notamment l’utilisation de paramĂštres variables dans le temps Ă©largissant la modĂ©lisation des RBD Ă  des processus Markoviens non homogĂšnes.‱ La synthĂšse de la loi de commande pour l’optimisation de la fiabilitĂ© du systĂšme. Nous travaillons sur l’intĂ©gration de la fiabilitĂ© dans les objectifs de commande des systĂšmes sous contrainte de dĂ©faillances ou de dĂ©fauts. Nous posons aujourd’hui le problĂšme dans un contexte gĂ©nĂ©ral de commande. Nous proposons une structuration du systĂšme de commande intĂ©grant des fonctions d’optimisation et des fonctions d’évaluation de grandeurs probabilistes liĂ©es Ă  la fiabilitĂ© du systĂšme. Nos travaux rĂ©cents sont focalisĂ©s sur l’intĂ©gration, dans la boucle d’optimisation de la commande, des facteurs issues d’une analyse de sensibilitĂ© de la fiabilitĂ© du systĂšme par rapport aux composants

    Informatique et culture scientifique du numérique

    Get PDF
    National audienceCe document transcrit les MOOC rĂ©alisĂ©s par le Learning Lab Inria, avec le soutien du MinistĂšre de l’éducation nationale et de la jeunesse, en partenariat avec le projet Class ́Code et l’UniversitĂ© CĂŽte d’Azur.Cette premiĂšre version reprend et remet en forme les contenus des MOOC, notamment en transcrivant les propos oraux des diffĂ©rents intervenants issus des supports multimĂ©dias, et en adaptant les contenus Ă  un mĂ©dia textuel. Les apports supplĂ©mentaires concernent modestement la partie surles logiciels libres et celle sur le son et la musique. En l’état, il manque encore un chapitre sur les implications et applications de l’informatique (bioinformatique, mĂ©decine, arts, etc.) et un autre sur l’architecture des ordinateurs et des rĂ©seaux. Cependant, le taux de recouvrement n’est pas nul car ces sujets sont Ă©galement abordĂ©s dans d’autres sections du manuel. Toutefois, le manuel reste exploitable comme tel et sera enrichi et amĂ©liorĂ© dans des versions suivantes

    Qu’est-ce que le travail scientifique des donnĂ©es ?

    Get PDF
    Puisant ses analyses et ses exemples dans des champs scientifiques variĂ©s, cet ouvrage (dont l’original est paru en 2015 chez MIT Press) offre une Ă©tude inĂ©dite des utilisations des donnĂ©es au sein des infrastructures de la connaissance – utilisations qui varient largement d’une discipline Ă  l’autre. Bien que le big data ait rĂ©guliĂšrement les honneurs de la presse des deux cĂŽtĂ©s de l’Atlantique, Christine L. Borgman met en Ă©vidence qu’il vaut mieux disposer des bonnes donnĂ©es qu’en avoir beaucoup. Elle montre Ă©galement que les little data peuvent s’avĂ©rer aussi prĂ©cieuses que les big data, et, que, dans bien des cas, il n’y a aucune donnĂ©e, parce que les informations pertinentes n’existent pas, sont introuvables ou sont indisponibles
 Au travers d’études de cas pratiques issus d’horizons divers, Christine L. Borgman met aussi en lumiĂšre que les donnĂ©es n’ont ni valeur ni signification isolĂ©ment : elles s’inscrivent au sein d’une infrastructure de la connaissance, c’est-Ă -dire d’un Ă©cosystĂšme de personnes, de pratiques, de technologies, d’institutions, d’objets matĂ©riels et de relations. Pour l’autrice, gĂ©rer les donnĂ©es et les exploiter sur le long terme requiert ainsi des investissements massifs dans ces infrastructures de la connaissance. L’avenir de la recherche, dans un monde en rĂ©seau, en dĂ©pend

    Qu’est-ce que le travail scientifique des donnĂ©es ?

    Get PDF
    Puisant ses analyses et ses exemples dans des champs scientifiques variĂ©s, cet ouvrage (dont l’original est paru en 2015 chez MIT Press) offre une Ă©tude inĂ©dite des utilisations des donnĂ©es au sein des infrastructures de la connaissance – utilisations qui varient largement d’une discipline Ă  l’autre. Bien que le big data ait rĂ©guliĂšrement les honneurs de la presse des deux cĂŽtĂ©s de l’Atlantique, Christine L. Borgman met en Ă©vidence qu’il vaut mieux disposer des bonnes donnĂ©es qu’en avoir beaucoup. Elle montre Ă©galement que les little data peuvent s’avĂ©rer aussi prĂ©cieuses que les big data, et, que, dans bien des cas, il n’y a aucune donnĂ©e, parce que les informations pertinentes n’existent pas, sont introuvables ou sont indisponibles
 Au travers d’études de cas pratiques issus d’horizons divers, Christine L. Borgman met aussi en lumiĂšre que les donnĂ©es n’ont ni valeur ni signification isolĂ©ment : elles s’inscrivent au sein d’une infrastructure de la connaissance, c’est-Ă -dire d’un Ă©cosystĂšme de personnes, de pratiques, de technologies, d’institutions, d’objets matĂ©riels et de relations. Pour l’autrice, gĂ©rer les donnĂ©es et les exploiter sur le long terme requiert ainsi des investissements massifs dans ces infrastructures de la connaissance. L’avenir de la recherche, dans un monde en rĂ©seau, en dĂ©pend
    corecore