6 research outputs found
Expression qualitative de politiques d'adaptation pour Fractal
National audienceLes plates-formes d'exĂ©cution rĂ©centes telles que Fractal ou Open- COM offrent de nombreuses facilitĂ©s pour assurer la prise en compte de propriĂ©tĂ©s extra-fonctionnelles (introspection, sondes, chargement dynamique, etc). Cependant, l'intĂ©gration de politiques d'adaptation reste dĂ©licate car elle nĂ©cessite de corrĂ©ler la configuration du systĂšme avec l'Ă©volution de son environnement. Le travail prĂ©sentĂ© dans cet article propose une description qualitative des Ă©volutions de l'environnement et une interprĂ©tation possible basĂ©e sur de la logique floue. L'article prĂ©sente Ă©galement une extension de la plate-formeFractal implĂ©mentant les mĂ©canismes nĂ©cessaires Ă l'exĂ©cution de ces politiques d'adaptation de haut niveau. L'approche est illustrĂ©e Ă l'aide d'un serveur HTTP qui modifie sa configuration (architecturale et locale) en fonction de plusieurs paramĂštres extra-fonctionnels tels que la charge du serveur et la dispersion des requĂȘtes
La mise Ă disposition des Ćuvres et des informations sur les rĂ©seaux : rĂ©gulation juridique et rĂ©gulation technique
Technological developments lead to an exponential increase of the spread of works and information on the networks. Regulatory models from the analogical era based on physical medium scarcity and exclusivity are questioned by digital technology paradigms of copying, remixing and sharing. Copyright has been developed and adaptated at the same time than reproduction and dissemination technologies innovation, as an artificial corrective granting a limited monopoly of exploitation. But copyright can also lead to commons. We analyse how law and technology were conceptualised independently. Technical standards production process and the extension of exclusive rights are creating tensions between cultural industries and the public. This conception led to an intrication between regulation by law and technical protection measures, for the benefit of regulation by technology. Following research on lex informatica, we thus introduce a model based on the mutual influence between regulation by law and regulation by technology, toward legal categorisation redesign and an improved technical rights expression. The development of applications, ontologies and legal metadata allow to automate information and works exchanges management. Integrating regulation by law and regulation by technology, this model was built on the systematic analysis of various licensing models emerging on the networks, between access control and the constitution of Commons.Les dĂ©veloppements techniques entraĂźnent une croissance exponentielle de la circulation des Ćuvres et informations sur les rĂ©seaux. Les modĂšles de rĂ©gulation de l'Ăšre analogique Ă©laborĂ©s sur la raretĂ© du support sont remis en question par le numĂ©rique, fondĂ© sur les paradigmes de la copie, de la rĂ©appropriation et du partage. Le droit d'auteur a Ă©tĂ© dĂ©veloppĂ© et adaptĂ© au rythme des innovations techniques de reproduction et de diffusion des Ćuvres, comme un correctif artificiel accordant une exclusivitĂ© temporaire d'exploitation. Il peut aussi conduire aux biens communs. Nous analysons comment droit et technique ont d'abord Ă©tĂ© pensĂ©s de maniĂšre indĂ©pendante. Les processus d'Ă©laboration des normes et standards techniques et l'extension des droits exclusifs entraĂźnent des tensions entre les industries culturelles et le public. Cette conception conduit Ă un enchevĂȘtrement de lois et mesures techniques de protection au profit de la rĂ©gulation technique. Nous proposons donc, dans la lignĂ©e de la lex informatica, un modĂšle fondĂ© sur l'influence rĂ©ciproque entre les disciplines, vers la reconception des catĂ©gories juridiques du droit d'auteur et vers une meilleure expression technique des droits. Le dĂ©veloppement d'applications, d'ontologies et de mĂ©tadonnĂ©es juridiques permet une automatisation de la rĂ©gulation des Ă©changes d'Ćuvres et d'informations. Mettant en Ćuvre une intĂ©gration plus Ă©quilibrĂ©e du droit et de la technique, ce modĂšle est notamment fondĂ© sur l'analyse de licences et modĂšles contractuels qui se dĂ©veloppent sur Internet, entre contrĂŽle d'accĂšs et biens communs
Modélisation graphique probabiliste pour la maßtrise des risques, la fiabilité et la synthÚse de lois de commande des systÚmes complexes
Mes travaux de recherche sont menĂ©s au Centre de Recherche en Automatique de Nancy (CRAN), dans le dĂ©partement IngĂ©nierie des SystĂšmes Eco-Techniques (ISET) sous la responsabilitĂ© de B. Iung et de A. Thomas et le dĂ©partement ContrĂŽle - Identification - Diagnostic (CID) sous la responsabilitĂ© de D. Maquin et de G. Millerioux.Lâobjectif principal de mes recherches est de formaliser des mĂ©thodes de construction de modĂšles probabilistes reprĂ©sentant les bons fonctionnements et les dysfonctionnements dâun systĂšme industriel. Ces modĂšles ont pour but de permettre lâĂ©valuation des objectifs de fonctionnement du systĂšme (exigences opĂ©rationnelles, performances) et les consĂ©quences en termes de fiabilitĂ© et de maĂźtrise des risques (exigences de sĂ»retĂ©). Ceci nĂ©cessite de modĂ©liser les impacts de lâenvironnement sur le systĂšme et sur ses performances, mais aussi lâimpact des stratĂ©gies de commande et des stratĂ©gies de maintenance sur lâĂ©tat de santĂ© du systĂšme.Pour plus de dĂ©tails.A travers les diffĂ©rents travaux de thĂšses et collaborations, jâai exploitĂ© diffĂ©rents formalismes de modĂ©lisation probabilistes. Les apports majeurs de nos contributions se dĂ©clinent en 3 points :âą La modĂ©lisation des consĂ©quences fonctionnelles des dĂ©faillances, structurĂ©e Ă partir des connaissances mĂ©tiers. Nous avons dĂ©veloppĂ©s les principes de modĂ©lisation par RĂ©seau BayĂ©sien (RB) permettant de relier la fiabilitĂ© et les effets des Ă©tats de dĂ©gradation des composants Ă lâarchitecture fonctionnelle du systĂšme. Les composants et les modes de dĂ©faillances sont alors dĂ©crits naturellement par des variables multi-Ă©tats ce qui est difficile Ă modĂ©liser par les mĂ©thodes classiques de sĂ»retĂ© de fonctionnement. Nous proposons de reprĂ©senter le modĂšle selon diffĂ©rents niveaux d'abstraction en relation avec lâanalyse fonctionnelle. La modĂ©lisation par un modĂšle probabiliste relationnel (PRM) permet de capitaliser la connaissance par la crĂ©ation des classes gĂ©nĂ©riques instanciĂ©es sur un systĂšme avec le principe des composants pris sur Ă©tagĂšre.âą Une modĂ©lisation dynamique de la fiabilitĂ© des systĂšmes pris dans leur environnement. Nous avons contribuĂ© lors de notre collaboration avec Bayesia Ă la modĂ©lisation de la fiabilitĂ© des systĂšmes par RĂ©seau BayĂ©sien Dynamique (RBD). Un RBD permet, grĂące Ă la factorisation de la loi jointe, une complexitĂ© infĂ©rieure Ă une ChaĂźne de Markov ainsi quâun paramĂ©trage plus facile. La collaboration avec Bayesia a permis lâintĂ©gration dans Bayesialab (outil de modĂ©lisation) de ces extensions et notamment lâutilisation de paramĂštres variables dans le temps Ă©largissant la modĂ©lisation des RBD Ă des processus Markoviens non homogĂšnes.âą La synthĂšse de la loi de commande pour lâoptimisation de la fiabilitĂ© du systĂšme. Nous travaillons sur lâintĂ©gration de la fiabilitĂ© dans les objectifs de commande des systĂšmes sous contrainte de dĂ©faillances ou de dĂ©fauts. Nous posons aujourdâhui le problĂšme dans un contexte gĂ©nĂ©ral de commande. Nous proposons une structuration du systĂšme de commande intĂ©grant des fonctions dâoptimisation et des fonctions dâĂ©valuation de grandeurs probabilistes liĂ©es Ă la fiabilitĂ© du systĂšme. Nos travaux rĂ©cents sont focalisĂ©s sur lâintĂ©gration, dans la boucle dâoptimisation de la commande, des facteurs issues dâune analyse de sensibilitĂ© de la fiabilitĂ© du systĂšme par rapport aux composants
Informatique et culture scientifique du numérique
National audienceCe document transcrit les MOOC rĂ©alisĂ©s par le Learning Lab Inria, avec le soutien du MinistĂšre de lâĂ©ducation nationale et de la jeunesse, en partenariat avec le projet Class ÌCode et lâUniversitĂ© CĂŽte dâAzur.Cette premiĂšre version reprend et remet en forme les contenus des MOOC, notamment en transcrivant les propos oraux des diffĂ©rents intervenants issus des supports multimĂ©dias, et en adaptant les contenus Ă un mĂ©dia textuel. Les apports supplĂ©mentaires concernent modestement la partie surles logiciels libres et celle sur le son et la musique. En lâĂ©tat, il manque encore un chapitre sur les implications et applications de lâinformatique (bioinformatique, mĂ©decine, arts, etc.) et un autre sur lâarchitecture des ordinateurs et des rĂ©seaux. Cependant, le taux de recouvrement nâest pas nul car ces sujets sont Ă©galement abordĂ©s dans dâautres sections du manuel. Toutefois, le manuel reste exploitable comme tel et sera enrichi et amĂ©liorĂ© dans des versions suivantes
Quâest-ce que le travail scientifique des donnĂ©es ?
Puisant ses analyses et ses exemples dans des champs scientifiques variĂ©s, cet ouvrage (dont lâoriginal est paru en 2015 chez MIT Press) offre une Ă©tude inĂ©dite des utilisations des donnĂ©es au sein des infrastructures de la connaissance â utilisations qui varient largement dâune discipline Ă lâautre. Bien que le big data ait rĂ©guliĂšrement les honneurs de la presse des deux cĂŽtĂ©s de lâAtlantique, Christine L. Borgman met en Ă©vidence quâil vaut mieux disposer des bonnes donnĂ©es quâen avoir beaucoup. Elle montre Ă©galement que les little data peuvent sâavĂ©rer aussi prĂ©cieuses que les big data, et, que, dans bien des cas, il nây a aucune donnĂ©e, parce que les informations pertinentes nâexistent pas, sont introuvables ou sont indisponibles⊠Au travers dâĂ©tudes de cas pratiques issus dâhorizons divers, Christine L. Borgman met aussi en lumiĂšre que les donnĂ©es nâont ni valeur ni signification isolĂ©ment : elles sâinscrivent au sein dâune infrastructure de la connaissance, câest-Ă -dire dâun Ă©cosystĂšme de personnes, de pratiques, de technologies, dâinstitutions, dâobjets matĂ©riels et de relations. Pour lâautrice, gĂ©rer les donnĂ©es et les exploiter sur le long terme requiert ainsi des investissements massifs dans ces infrastructures de la connaissance. Lâavenir de la recherche, dans un monde en rĂ©seau, en dĂ©pend
Quâest-ce que le travail scientifique des donnĂ©es ?
Puisant ses analyses et ses exemples dans des champs scientifiques variĂ©s, cet ouvrage (dont lâoriginal est paru en 2015 chez MIT Press) offre une Ă©tude inĂ©dite des utilisations des donnĂ©es au sein des infrastructures de la connaissance â utilisations qui varient largement dâune discipline Ă lâautre. Bien que le big data ait rĂ©guliĂšrement les honneurs de la presse des deux cĂŽtĂ©s de lâAtlantique, Christine L. Borgman met en Ă©vidence quâil vaut mieux disposer des bonnes donnĂ©es quâen avoir beaucoup. Elle montre Ă©galement que les little data peuvent sâavĂ©rer aussi prĂ©cieuses que les big data, et, que, dans bien des cas, il nây a aucune donnĂ©e, parce que les informations pertinentes nâexistent pas, sont introuvables ou sont indisponibles⊠Au travers dâĂ©tudes de cas pratiques issus dâhorizons divers, Christine L. Borgman met aussi en lumiĂšre que les donnĂ©es nâont ni valeur ni signification isolĂ©ment : elles sâinscrivent au sein dâune infrastructure de la connaissance, câest-Ă -dire dâun Ă©cosystĂšme de personnes, de pratiques, de technologies, dâinstitutions, dâobjets matĂ©riels et de relations. Pour lâautrice, gĂ©rer les donnĂ©es et les exploiter sur le long terme requiert ainsi des investissements massifs dans ces infrastructures de la connaissance. Lâavenir de la recherche, dans un monde en rĂ©seau, en dĂ©pend