Thèses en Ligne

    Lixiviation des polymères irradiés : caractérisation de la solution et complexation des actinides

    No full text
    The first aim of this work is to study the degradation of an industrial polyesterurethane (PURm) by radio-oxidation and then by leaching in an alkaline aqueous solution. The second aim is to measure the complexing power of hydrosoluble degradation products (HDP) with actinides. To reach these goals, PURm was first characterized and then radio-oxidized at room temperature with gamma rays up to 10 MGy. Second, it was leached at pH 13.3 at different temperature values. Numerous analytical techniques were employed in order to characterize the HDP. Europium(III) was used as an analogue of actinides(III) and the behavior of HDP with europium(III) was analyzed by time-resolved luminescence spectroscopy (TRLS). Whatever the received dose by PURm, the two main HDP are adipic acid and butane-1,4-diol. The leaching data acquired at 40 and 60°C, on the 1 MGy radio-oxidized PURm, correlate with the model given by Yoon et al. (1997). On the contrary, the data at room temperature (22°C in average) are not in agreement with the model. Nevertheless, it seems that the plateau which was reached after a long period of leaching is the same whatever the temperature used in this study. The results allow to conclude that the predominant mechanism occurring during the leaching of unirradiated and radio-oxidized PURm in an alkaline medium is the hydrolysis of the soft segments ester groups. The complexation of europium(III) by HDP in alkaline medium was demonstrated. The measurement of the complexing power and the identification of ligands was achieved under certain conditions.L’objectif de ce travail est d’étudier la dégradation d’un polyesteruréthane industriel (PURm) par radio-oxydation puis par lixiviation en solution aqueuse à pH basique, dans le but d’évaluer le pouvoir complexant des produits de dégradation hydrosolubles (PDH) avec les actinides. Afin d’atteindre ces objectifs, le PURm a été caractérisé puis radio-oxydé à température ambiante sous rayonnements gamma jusqu’à 10 MGy. Il a ensuite été lixivié à pH 13,3 à différentes températures. De nombreuses techniques analytiques ont été employées afin de caractériser les PDH obtenus. De l’europium(III), simulant les actinides(III), a été mis en solution avec les PDH et l’interaction Eu-PDH a été analysée par spectrofluorimétrie laser à résolution temporelle (SLRT). Quelle que soit la dose reçue par le PURm, l’acide adipique et le butane-1,4-diol sont les deux PDH majoritaires. Les données de lixiviation acquises à 40 et 60°C, sur le PURm radio-oxydé jusqu’à 1 MGy, corrèlent avec le modèle proposé par Yoon et al. (1997). Par contre, les données à température ambiante (22°C en moyenne) ne sont pas en accord avec ce modèle. Il semble néanmoins que le taux de dégradation maximal atteint par le polymère soit similaire quelle que soit la température employée dans cette étude. Les résultats obtenus permettent de conclure que le mécanisme prédominant lors de la lixiviation en milieu basique du PURm non irradié et radio-oxydé est l’hydrolyse des groupes esters des segments souples. La complexation de l’europium(III) par les PDH à pH basique a été mise en évidence. La détermination de la constante de complexation et l’identification des ligands, dans certaines conditions, ont été réalisées

    Les transmissions du savoir juridique durant la période impériale romaine (27 avant J.C – 565 après J.C)

    No full text
    Our thesis work is about the question of the transmission of legal knowledge during the imperial period Roman (27 BC - 565 AD). The starting point of our reflection was to note the crisis that the transmission of knowledge, particularly legal knowledge, is currently experiencing. This issue is indeed at the heart of the concerns of the political class, economists and even educators. Where does education go? This was Jean Piaget's question in 1972. Everyone asks themselves these timeless questions: What is the best way to transmit? Should we favour a literary, technical, popular, artistic, scientific culture? By what means and methods? Should theory or practice be promoted in the educational process? What autonomy and requirements should be expected of the student? How to avoid school failure? What strategies should be put in place to support student success? The education crisis naturally affects legal studies. If law education is in crisis today, it is largely due to the hesitation between two conceptions of law: the modern, subjective and idealistic conception and the post-modern, objective and realistic conception. In the first, the transmission of legal knowledge is oriented towards theory, while in the second, practice prevails. While since its inception, the Faculty of Law has, under the influence of humanism, given a premium to theory, a change has taken place since the beginning of the 20th century. Following the industrial revolution, the old worldview based on truth and disinterested culture was erased in favour of a vision of humanity oriented towards work and practical efficiency. In this climate of tension around a contested teaching, it seems desirable to summon history to help the present. Indeed, to quote Orwell:" (...) who commands the past commands the future", which is to say that cutting the thread of time that unites past and present, as modern people have been able to do, deprives us of necessarily any experience that makes us "travellers without luggage". This will involve, to paraphrase Maurice Tardif, to demonstrate that all the problems currently posed by education are initial problems that can only be usefully analyzed by going back 2500 years to observe their genesis. If Mesopotamia provides us with an illustration of humanity's first teaching, Rome was a precursor in the field of law. The civilizations preceding Rome, whether eastern or western, have not known teaching of real law but only a passive transmission of legal knowledge. The question of the transmission of the right will be considered in our work, as the title suggests, in Rome and for the imperial period. What does that mean? We will try to draw the realities of the transmissions of the legal knowledge during the imperial era and throughout the territory occupied by Rome, whether in the West or in the West as in the East. The Empire succeeded two great periods: the Monarchy and the Republic. The Monarchy begins with the foundation of Rome in 753 BC and ends in 509 BC with the exile of the last king Etruscan Tarquin the Great. The Republic begins in 509 and ends in 27 BC. The Roman Empire began as follows in -27. The question of its completion is more complex. Indeed, in the West, it is certain that the Roman Empire officially ended - in law and not in fact - in 476 with the deposition of the last Western emperor Romulus Augustus by the barbarian king Odoacre. In the East, Roman domination did not end until 1453. Yet - and even if there is controversy among romantics on this issue - it can be said that we cannot speak of the Roman Empire until Justinian's death in 565. After that date, we will no longer speak of the Roman Empire of the East but of the Byzantine Empire. We will then limit ourselves to studying the teaching of law from -27 to 565. We will recall by way of introduction that during the Republican period, the law was transmitted according to the Ius est ars boni et aequi. Indeed, law was not yet a technique monopolized by power, but was speculative. The student "trained on the job", followed his teacher to the forum and gathered the answers he needed. provided to the litigants who questioned him. Teaching and case law were thus closely linked and because the law was not yet constituted in science, teaching was done through casuistry. These were cases that were subject to the wisdom of the teacher and his pupils and the judicial decisions that had to be commented on. Under the Empire, a real teaching of legal science appeared. We will focus on consequently over the imperial period since it will have seen the birth and then the decline of an academic education from the right. First, we will focus on legal education as it was conceived during the first part of the empire, the High Empire, which extended from 27 BC to 284 AD. (I). This period at during which the emperor is a princeps is distinguished by its apparent proximity to the Republican political system. During the time of the High Empire, we will see that the transmission of legal knowledge, left all is essentially practical and is carried out by means of the respondere docere or within the framework of rhetorical education (A). Yet, to carefully examine the legal literature of this period, in particular the Institutes of Gaius, we can suspect the presence of law schools (B). Late Antiquity (284-565) makes following the High Empire (II). It is during this period that we are certain that a real legal education. Several factors are contributing to a revolution in the transmission of legal knowledge during the Late Antiquity. First, of course, imperial absolutism, which leads to a power grab on legal education, which will result in the establishment of public schools by the authority under his direction and with law professors, the magistri iuris (A). The new schools of late antiquity law provide their students with legal knowledge organized around a study plan and transmitted by means of a particular pedagogy. It is to describe this process of active knowledge transmission that we are going to focus on (B).Notre travail de thèse concerne la question des transmissions du savoir juridique durant la période impériale romaine (27 avant J.C – 565 après J.C). Le point de départ de notre réflexion fut de constater la crise que connaît aujourd’hui la transmission des savoirs, en particulier juridique. Cette problématique est effectivement au coeur des préoccupations de la classe politique, des économistes ou encore des pédagogues. Où va l’éducation ? Telle était déjà l’interrogation de Jean Piaget en 1972. Chacun se pose ces questions intemporelles : Quel savoir transmettre ? Doit-on privilégier une culture littéraire, technique, populaire, artistique, scientifique ? Par quels moyens et méthodes ? Doit-on mettre en avant la théorie ou la pratique dans le processus éducatif ? Quelle autonomie et quelles exigences doit-on attendre de l’élève ? Comment éviter l’échec scolaire ? Quelles stratégies mettre en place afin de favoriser la réussite des élèves ? La crise de l’éducation touche bien entendu les études juridiques. Si l’enseignement du droit est aujourd’hui en crise, c’est en grande partie du fait de l’hésitation entre deux conceptions du droit : la conception moderne, subjective et idéaliste et la conception post-moderne, objective et réaliste. Dans la première, la transmission du savoir juridique est orientée du côté de la théorie alors que dans la seconde prime la pratique. Alors que depuis son origine, la faculté de droit accorde, sous l’influence de l’humanisme, une prime à la théorie, un changement s’est opéré depuis le début du XXe siècle. Suite à la révolution industrielle, l’ancienne conception du monde fondée sur la vérité et la culture désintéressée s’efface au profit d’une vision de l’humanité orientée vers le travail et l’efficacité pratique.Dans ce climat de tension autour d’un enseignement contesté, il semble souhaitable de convoquer l’histoire au secours du présent. En effet, pour reprendre Orwell : « (…) qui commande le passé commande l'avenir », ce qui revient à dire que couper le fil du temps qui unit passé et présent, comme ont pu le faire les modernes, nous prive nécessairement de toute expérience faisant de nous des « voyageurs sans bagages ». Il s’agira, pour paraphraser Maurice Tardif, de démontrer que l’ensemble des problématiques que pose l’enseignement actuellement sont des problèmes initiaux qui ne peuvent s’analyser utilement qu’en remontant 2500 ans en arrière pour observer leurs genèses. Si la Mésopotamie nous fournit l’illustration du premier enseignement de l’humanité, Rome fut précurseur en matière de droit. Les civilisations précédant Rome, qu’elles soient orientales ou occidentales, n’ont pas connu d’enseignement du droit véritable mais seulement une transmission passive du savoir juridique.La question de la transmission du droit sera, dans notre travail, envisagée, comme l’intitulé le laisse paraître, à Rome et pour la période impériale. Qu’est-ce à dire ? Nous tenterons de dessiner les réalités des transmissions du savoir juridique pendant l’époque impériale et sur l’ensemble du territoire occupé par Rome, que ce soit en Occident comme en Orient. L’Empire succède à deux grandes périodes : la Monarchie et la République. La Monarchie commence à la fondation de Rome en 753 avant notre ère et s’achève en 509 avant J.C. avec l’exil du dernier roi étrusque Tarquin le Superbe. La République débute en 509 et s’achève en 27 avant J.C. L’Empire romain débute ainsi en -27. La question de son achèvement est plus complexe. En effet, en occident, il est certain que l’Empire romain prend fin officiellement – en droit et non pas dans les faits – en 476 avec la déposition du dernier empereur d’occident Romulus Augustus par le roi barbare Odoacre. En Orient, la domination romaine ne prend fin qu’en 1453. Pourtant – et même s’il y a controverse parmi les romanistes quant à cette question – on peut affirmer qu’on ne peut parler d’Empire romain que jusqu’à la mort de Justinien en 565. Après cette date, on ne parlera plus d’Empire romain d’orient mais d’Empire byzantin. Nous nous bornerons alors à étudier l’enseignement du droit de -27 à 565.Nous rappellerons en guise d’introduction qu’au cours de la période républicaine, le droit se transmettait selon le Ius est ars boni et aequi. En effet, le droit n’était pas encore une technique accaparée par le pouvoir mais relevait de la spéculation. L’élève « se formait sur le tas », suivait son maître au forum et recueillait les réponses qu’il apportait aux plaideurs qui l’interrogeaient. Enseignement et jurisprudence étaient ainsi intimement liés et parce que le droit n’était pas encore constitué en science, l’enseignement passait par la casuistique. C’étaient des cas qui étaient soumis à la sagacité du maître et de ses élèves et les décisions judiciaires qu’il s’agissait de commenter.Sous l’Empire, apparaît un véritable enseignement de la science juridique. Nous nous concentrerons par conséquent sur la période impériale puisqu’elle aura vu la naissance puis le déclin d’un enseignement académique du droit. Dans un premier temps, nous nous concentrerons sur l’enseignement juridique tel qu’il était conçu durant la première partie de l’empire, le Haut-Empire qui se déploie de 27 avant notre ère à 284 après J.C. (I). Cette période au cours de laquelle l’empereur est un princeps se distingue par une apparente proximité avec le système politique républicain. Pendant le temps du Haut- Empire, nous constaterons que la transmission du savoir juridique, laissée toute entière à l’initiative privée, est essentiellement pratique s’effectuant au moyen du respondere docere ou dans le cadre de l’éducation rhétorique (A). Pourtant, à bien examiner la littérature juridique de cette période, en particulier les Institutes de Gaius, nous pouvons soupçonner la présence d’écoles de droit (B). L’Antiquité Tardive (284-565) fait suite au Haut-Empire (II). C’est durant cette période que nous sommes certains de l’apparition d’un véritable enseignement du droit. Plusieurs facteurs concourent à une révolution de la transmission du savoir juridique durant l’Antiquité Tardive. En premier lieu, bien évidemment, l’absolutisme impérial qui conduit à une emprise du pouvoir sur l’enseignement juridique ce qui aura pour conséquence l’avènement d’écoles publiques, instituées par l’autorité impériale, placées sous sa direction et dotées de professeurs de droit, les magistri iuris (A). Les nouvelles écoles de droit de l’Antiquité Tardive dispensent à leurs étudiants un savoir juridique organisé autour d’un plan d’étude et transmis au moyen d’une pédagogie particulière. C’est à décrire ce processus de transmission active du savoir juridique que nous allons nous attacher (B)

    Modélisation probabiliste en biologie cellulaire et moléculaire

    No full text
    The importance of stochasticity in gene expression has been widely shown recently. Wewill first review the most important related work to motivate mathematical models thattakes into account stochastic effects. Then, we will study two particular models where stochasticityinduce interesting behavior, in accordance with experimental results : a bursting dynamic in a self-regulating gene expression model ; and the emergence of heterogeneityfrom a homogeneous pool of protein by post-translational modification.In Chapter I, we studied a standard gene expression model, at three variables : DNA, messenger RNA and protein. DNA can be in two distinct states, ”ON“ and ”OFF“. Transcription(production of mRNA) can occur uniquely in the ”ON“ state. Translation (productionof protein) is proportional to the quantity of mRNA. Then, the quantity of proteincan regulate in a non-linear fashion these production rates. We used convergence theoremof stochastic processes to highlight different behavior of this model. Hence, we rigorously proved the bursting phenomena of mRNA and/or protein. Limiting models are then hybridmodel, piecewise deterministic with Markovian jumps. We studied the long time behaviorof these models and proved convergence toward a stationary state. Finally, we studied indetail a reduced model, explicitly calculated the stationary distribution and studied itsbifurcation diagram. Our two main results are 1) to highlight stochastic effects by comparisonwith deterministic model ; 2) To give back a theoretical tool to estimate non-linear regulation function through an inverse problem. In Chapter II, we studied a probabilistic version of an aggregation-fragmentation model. This version allows a definition of nucleation in agreement with biological model for Prion disease. To study the nucleation, we used a stochastic version of the Becker-Döring model. In this model, aggregation is reversible and through attachment/detachment of amonomer. The nucleation time is defined as a waiting time for a nuclei (aggregate of afixed size, this size being a parameter of the model) to be formed. In this work, we characterized the law of the nucleation time. The probability distribution of the nucleation timecan take various forms according parameter values : exponential, bimodal or Weibull. Wealso highlight two important phenomena for the mean nucleation time. Firstly, the mean nucleation time is a non-monotone function of the aggregation kinetic parameter. Secondly, depending of parameter values, the mean nucleation time can be strongly or very weakly correlated with the initial quantity of monomer. These characterizations are important for 1) explaining weak dependence in initial condition observed experimentally ; 2) deducingsome parameter values from experimental observations. Hence, this study can be directly applied to biological data. Finally, concerning a polymerization-fragmentation model, weproved a convergence theorem of a purely discrete model to hybrid model, which may beuseful for numerical simulations as well as a theoretical study.De nombreux travaux récents ont démontré l’importance de la stochasticité dans l’expression des gènes à différentes échelles. On passera tout d’abord en revue les principaux résultats expérimentaux pour motiver l’étude de modèles mathèmatiques prenant en comptedes effets aléatoires. On étudiera ensuite deux modèles particuliers où les effets aléatoires induisent des comportements intéressants, en lien avec des résultats expérimentaux : une dynamique intermittente dans un modèle d’auto-régulation de l’expression d’un gène ; et l’émergence d’hétérogénéité à partir d’une population homogène de protéines par modification post-traductionnelle. Dans le Chapitre I, nous avons étudié le modèle standard d’expression des gènes à trois variables : ADN, ARN messager et protéine. L’ADN peut être dans deux états, respectivement “ON“ et “OFF“. La transcription (production d’ARN messagers) peut avoir lieu uniquement dans l’état “ON“. La traduction (production de protéines) est proportionnelleà la quantité d’ARN messager. Enfin la quantité de protéines peut réguler de manière non-linéaire les taux de production précédent. Nous avons utilisé des théorèmesde convergence de processus stochastique pour mettre en évidence différents régimes de ce modèle. Nous avons ainsi prouvé rigoureusement le phénomène de production intermittente d’ARN messagers et/ou de protéines. Les modèles limites obtenues sont alors des modèles hybrides, déterministes par morceaux avec sauts Markoviens. Nous avons étudié le comportement en temps long de ces modèles et prouvé la convergence vers des solutions stationnaires. Enfin, nous avons étudié en détail un modèle réduit, calculé explicitement la solution stationnaire, et étudié le diagramme de bifurcation des densités stationnaires. Ceci a permis 1) de mettre en évidence l’influence de la stochasticité en comparant aux modèles déterministes ; 2) de donner en retour un moyen théorique d’estimer la fonctionde régulation par un problème inverse. Dans le Chapitre II, nous avons étudié une version probabiliste du modèle d’agrégation fragmentation. Cette version permet une définition de la nucléation en accord avec les modèles biologistes pour les maladies à Prion. Pour étudier la nucléation, nous avons utilisé une version stochastique du modèle de Becker-Dôring. Dans ce modèle, l’agrégation est réversible et se fait uniquement par attachement/détachement d’un monomère. Le temps de nucléation est définit comme le premier temps où un noyau (c’est-à-dire un agrégat de taille fixé, cette taille est un paramètre du mod`ele) est formé. Nous avons alors caractérisé la loi du temps de nucléation dans ce modèle. La distribution de probabilitédu temps de nucléation peut prendre différente forme selon les valeurs de paramètres : exponentielle, bimodale, ou de type Weibull. Concernant le temps moyen de nucléation, nous avons mis en évidence deux phénomènes importants. D’une part, le temps moyen denucl´eation est une fonction non-monotone du paramètre cinétique d’agrégation. D’autre part, selon la valeur des autres paramètres, le temps moyen de nucléation peut dépendre fortement ou très faiblement de la quantité initiale de monomère . Ces caractérisations sont importantes pour 1) expliquer des dépendances très faible en les conditions initiales,observées expérimentalement ; 2) déduire la valeur de certains paramètres d’observations expérimentales. Cette étude peut donc être appliqué à des données biologiques. Enfin, concernant un modèle de polymérisation-fragmentation, nous avons montré un théorème limite d’un modèle purement discret vers un modèle hybride, qui peut-être plus utile pourdes simulations numériques, ainsi que pour une étude théorique

    L’aide sociale par le chèque: Genèse et mise en oeuvre des politiques sociales et culturelles « ciblées » des collectivités territoriales

    No full text
    Social subsidies by vouchers: beginning and development of the social and cultural targeted policies by French local governmentsFrom the 90s in French local governments, social subsidies are often given to individuals by a system of vouchers. The first example of such a public policy has been created by the Regional Council of Rhône-Alpes in 1993 and was called the cultural voucher. At that time, it has been invented because Charles Millon the former president, wanted to build a "liberal cultural policy" by subsiding the public (it was made for the high schools students) instead of the cultural institutions. With this voucher, the students could go to the cinema, buy a book, attend a show or visit a museum.Politician at the time claimed the link with the school voucher which has been theorized by Milton Friedman and tested in a few states. It's also possible to establish a link with the cultural voucher which was invented by the economist Alan Peacock in the 60s. These tools of targeting were supposed to frame the public spending by introducing free choice in the mind of the users. They have been then used by the international financial institutions such as IMF and World Bank in the countries being the object of a recovery plan and freely in countries which wanted to innovate in their national public policies (Brazil, Mexico, the Netherlands, Sweden...)The thesis has shown that the introduction and the use of vouchers has grown up in French local governments. Interviewed politicians and civil servants has used the same arguments as the liberal economists and American searchers specialized into vouchers by denying the fact that it was about liberal devices.Nowadays, vouchers are used by 21 French regions on 22 and half of the French districts used them too, particularly by the social services for aged people or handicapped people to target the social subsidies.In fact, the essential question of this thesis is how local governments which deny the liberal filiation of vouchers have been able to spread them all over the French local public policies. By questioning the different actor, a new argument is appearing during the discussion. In France, vouchers are used as communication tools to increase the visibility of public aid. It's also considered as a tool of administrative simplification. These arguments tend to hide the liberal sense of the voucher and to make this kind of liberal policy more politically acceptable.On assiste depuis plus de 20 ans au sein des collectivités françaises à une multiplication des aides individuelles versées au moyen de chèques, de cartes ou de dispositifs non monétaires ciblés. Le premier chèque de ce type date de 1993 et est l’œuvre du Conseil Régional Rhône-Alpes dirigé à l’époque par Charles Millon avec le chèque culture destiné aux lycéens. A l’époque, il souhaitait créer une « politique libérale de la culture » et subventionner la demande plutôt que l’offre. Les lycéens rhônalpins pouvaient ainsi, grâce à ces chèques, avoir accès à une place de cinéma, s’offrir un livre, aller à un spectacle vivant et dans un musée. Les responsables politiques de l’époque revendiquent le lien avec le school voucher ou chèque éducation théorisé par Milton Friedman dans les année 60 et testé dans plusieurs Etats, on pourrait également citer un autre chèque inventé par Alan Peacock à la fin des année 60 : le cultural voucher. Ces dispositifs de ciblage des aides et d’encadrement de la dépense publique favorisant le libre-choix ont ensuite été récupérés et utilisés par les organisation financières internationales, FMI et Banque Mondiale en premier lieu, au sein des pays faisant l’objet de plan de redressements, puis plus librement par des pays souhaitant innover en terme de politiques publiques (Brésil, Mexique, Pays-Bas, Suède…)L’étude doctorale a démontré que les chèques se sont multipliés dans les collectivités, les élus et fonctionnaires ont utilisé strictement les mêmes arguments que les politistes américains tout en niant farouchement (à l’exception des pionniers comme Charles Millon) leur filiation libérale. Il se trouve que les chèques sont aujourd’hui utilisés par 21 régions sur 22 et par plus de la moitié des départements (particulièrement dans le cadre du versement des aides obligatoires comme l’APA ou la PCH à l’aide de chèques encadrés règlementairement comme les CESU ou les CAP) ainsi que dans de nombreuses communes.L’argument essentiel justifiant leur développement est le fait qu’ils permettent de rendre plus tangible, plus matérialisée l’aide publique versée tout en assurant une communication intéressante à la collectivité et à son exécutif (les couvertures des chèques comportent souvent la photo, quelques mots et la signature du Président). Les arguments de simplification administrative, de communication institutionnelle et de matérialisation de l’aide publique sont ainsi parvenus à masquer, dans le discours des acteurs une évidente filiation libérale, le chèque permettant un véritable libre-choix pour le bénéficiaire et permettant la mise en concurrence d’acteurs publics, privés ou associatifs

    Compte-rendu de la thèse de David Bourbonnaud<br />Janus sur les tréteaux de la diplomatie<br />La circulation théâtrale, reflet de láction culturelle extérieure

    No full text
    Présentation des grandes orientations de la thèse et de son terrain d'enquête

    Le sérieux et le manifeste en droit judiciaire privé

    No full text
    An increasing number of statutes relies on the concepts of serious argument and obvious evaluation for their application. Yet no satisfying definition of these concepts has still been found. For if it is usually assumed that these concepts depend on the obviousness of the Law and of the disputed facts, a careful examination of the case law shows well enough that this view is false: one often judges an evaluation obvious only after having demonstrated its truth through a complex argumentation and a long reasoning (Part I).Thus, the thesis argues that the concepts refer not to the obviousness of the Law and the disputed events but to the certainty of these. Here the Law refers to a question of jurisprudence: is the case easy or hard? This new definition leads to the discussion of skepticism regarding the Law.Once a definition that fits the case law has been built, it is necessary to identify the reasons, both legal and pratical, for the use of the concepts in procedural law (Part II).From this it becomes possible to build a critical look on the statutes that use the concepts of serious argument and obvious evaluation for their application: is this use justified or should the statutes be changed? It will also be possible to consider that the appplication of statutes that do not refer to these concepts actually depends on them, or at least should depend on them.Les caractères sérieux et manifeste sont des concepts bien connus des processualistes qui suscitent toujours la défiance et la circonspection. Ils connaissent pourtant un succès législatif spectaculaire et interviennent dans l’application d’un grand nombre de textes dont l’importance pratique et juridique n’est plus à démontrer.Encore considérés comme la clé la plus insaisissable des dispositifs dans lesquels ils sont intégrés, ces concepts appellent une étude synthétique. Faisant le lien entre des analyses doctrinales éparses qui ne s’y intéressent qu’au sein d’une procédure identifiée, la thèse tente d’en dégager une définition généralement et globalement opérante.Un examen attentif de la jurisprudence conduit à rejeter la définition classique fondée sur l’évidence du fait et du droit et à lui substituer une définition fondée sur le concept plus large de certitude (Partie I). Ce faisant, la thèse sauvegarde des concepts qui sont souvent considérés comme de simples notions fonctionnelles : qu’un moyen puisse être non sérieux sans que cela ne « saute aux yeux » n’implique pas qu’il s’agisse là d’une qualification purement subjective.La réflexion glisse alors imperceptiblement vers la théorie du droit et se tourne vers la question de la certitude en droit. Une connaissance objective des règles de droit est-elle possible ou l’attribution du caractère manifeste à une solution ou du caractère sérieux à un moyen n’est-elle qu’un leurre ?A la recherche de la définition jurisprudentielle succède naturellement un examen critique de celle-ci, qui passe par sa confrontation aux fonctions des concepts au sein des textes et mécanismes qui y font référence (Partie II). Véritables facteurs de rationalisation des procédures lorsqu’ils sont définis à partir du critère de certitude, les concepts étudiés occupent une place essentielle au sein de notre droit processuel et vont s’avérer déterminants pour assurer la bonne administration de la justice et l’intelligibilité de la jurisprudence

    Récepteur radiofréquence basé sur l'échantillonnage parcimonieux pour de l'extraction de caractéristiques dans les applications de radio cognitive

    No full text
    This work deals with the topic of radiofrequency receivers based on Compressive Sampling for feature extraction in Cognitive Radio. Compressive Sampling is a paradigm shift in analog to digital conversion that bypasses the Nyquist sampling frequency under assumption of spectral sparsity of the signal. In this work, estimations are carried out on the compressed samples due to the prohibitive cost of signal reconstruction.After a state-of-the-art on Compressive Sampling in Cognitive Radio and a discussion on different compressive receiver architectures, our first contribution is a study of the mixing codes of a particular receiver, the Modulated Wideband Converter. A high-level analysis on properties of the sensing matrix, coherence to reduce the number of measurement and isometry for noise robustness,is carried out and validated by a simulation platform.Then, parametric estimation based on compressed samples is tackled through the prism of the Cramér-Rao lower bound on unbiased estimators. A closed form expression of the bound is established under certain assumptions and enables to dissociate the effects of compression and diversity creation. The influence of Compressive Sampling on estimation bounds, in particular coupling between parameters and spectral leakage, is illustrated by the example.Cette thèse traite de la conception de récepteurs radiofréquences basés sur l'acquisition compressée pour de l'estimation paramétrique en radio cognitive. L'acquisition compressée est un changement du paradigme de la conversion analogique-numérique qui permet de s'affranchir de la fréquence d'échantillonnage de Nyquist sous hypothèse d'occupation parcimonieuse du spectre.Dans ces travaux, les estimations sont effectuées sur les échantillons compressés vu le coût prohibitif de la reconstruction du signal d'entrée. Après avoir dressé un état de l'art de l'acquisition compressée pour la radio cognitive et passé en revue différentes architectures de récepteurs, la première contribution concerne l'étude des codes de mélange pour une architecture particulière, le convertisseur modulé à large bande (MWC). Une analyse haut niveau des propriétés de la matrice d'acquisition, à savoir la cohérence pour réduire le nombre de mesures et l'isométrie pour la robustesse au bruit, est menée puis validée par une plateforme de simulation.Ensuite, l'estimation paramétrique à partir des échantillons compressés est abordée à travers la borne de Cramér-Rao sur la variance d'un estimateur non biaisé. Une forme analytique de la borne est établie sous certaines hypothèses et permet de dissocier les effets de la compression et de la création de diversité.L'influence du processus d'acquisition, notamment le couplage entre paramètres et la fuite spectrale, est illustrée par l'exemple

    Apprentissage à partir de données multimodales pour la classification et la prédiction de la maladie d'Alzheimer

    No full text
    Alzheimer’s disease (AD) is the first cause of dementia worldwide, affecting over 20 million people. Its diagnosis at an early stage is essential to ensure a proper care of patients, and to develop and test novel treatments. AD is a complex disease that has to be characterized by the use of different measurements: cognitive and clinical tests, neuroimaging including magnetic resonance imaging (MRI) and positron emission tomography (PET), genotyping, etc. There is an interest in exploring the discriminative and predictive capabilities of these diverse markers, which reflect different aspects of the disease and potentially carry complementary information, from an early stage of the disease. The objective of this PhD thesis was thus to assess the potential and to integrate multiple modalities using machine learning methods, in order to automatically classify patients with AD and predict the development of the disease from the earliest stages. More specifically, we aimed to make progress toward the translationof such approaches toward clinical practice. The thesis comprises three main studies. The first one tackles the differential diagnosis between different forms of dementia from MRI data. This study was performed using clinical routine data, thereby providing a more realistic evaluationscenario. The second one proposes a new framework for reproducible evaluation of AD classification algorithms from MRI and PET data. Indeed, while numerous approaches have been proposed for AD classification in the literature, they are difficult to compare and to reproduce. The third part is devoted to the prediction of progression to AD in patients with mild cognitive impairment through the integration of multimodal data, including MRI, PET, clinical/cognitive evaluations and genotyping. In particular, we systematically assessed the added value of neuroimaging over clinical/cognitive data only. Since neuroimaging is more expensive and less widely available, this is important to justify its use as input of classification algorithms.La maladie d’Alzheimer (MA) est la première cause de démence dans le monde, touchant plus de 20 millions de personnes. Son diagnostic précoce est essentiel pour assurer une prise en charge adéquate des patients ainsi que pour développer et tester de nouveaux traitements. La MA est une maladie complexe qui nécessite différentes mesures pour être caractérisée : tests cognitifs et cliniques, neuroimagerie, notamment l’imagerie par résonance magnétique (IRM) et la tomographie par émission de positons (TEP), génotypage, etc. Il y a un intérêt à explorer les capacités discriminatoires et prédictives à un stade précoce de ces différents marqueurs, qui reflètent différents aspects de la maladie et peuvent apporter des informations complémentaires. L’objectif de cette thèse de doctorat était d’évaluer le potentiel et d’intégrer différentes modalités à l’aide de méthodes d’apprentissage statistique, afin de classifier automatiquement les patients atteints de la MA et de prédire l’évolution de la maladie dès ses premiers stades. Plus précisément, nous visions à progresser vers une future application de ces approches à la pratique clinique.La thèse comprend trois études principales. La première porte sur le diagnostic différentiel entre différentes formes de démence à partir des données IRM.Cette étude a été réalisée à l’aide de données de routine clinique, ce qui a permis d’obtenir un scénario d’évaluation plus réaliste. La seconde propose un nouveau cadre pour l’évaluation reproductible des algorithmes de classification de la MA à partir des données IRM et TEP. En effet, bien que de nombreuses approches aient été proposées dans la littérature pour la classification de la MA, elles sont difficiles à comparer et à reproduire. La troisième partie est consacrée à la prédiction de l’évolution de la maladie d’Alzheimer chez les patients atteints de troubles cognitifs légers par l’intégration de données multimodales, notamment l’IRM, la TEP, des évaluations cliniques et cognitives, et le génotypage. En particulier, nous avons systématiquement évalué la valeur ajoutée de la neuroimagerie par rapport aux seules données cliniques/cognitives. Comme la neuroimagerie est plus coûteuse et moins répandue, il est important de justifier son utilisation dans les algorithmes de classification

    Sonde optomécanique pour la microscopie AFM rapide

    No full text
    National audienceIn the field of microscopy, the Atomic Force Microscope (AFM) is one of the few that can see atoms. It works like a blind man using his cane to probe his environment, but on a micrometric scale: a tip with a few atoms at its end is scanned over a sample to characterize it. Invented in 1986, the AFM has only known incremental developments as it still uses the same type of tip: cantilevers (i.e. vibrating levers). This thesis presents a new type of AFM tip, an optomechanical (OM) probe, and developments on the instrument to exploit its performance. Indeed, the OM probes tested in this thesis operate at frequencies greater than 100 MHz and show a remarkable detection limit of 4.5×10-17m.Hz-0.5, lower than for any other AFM probe. It consists of a suspended silicon ring with a radius of 10 µm, acting as a mechanical and optical gallery mode resonator. Finally, a first AFM image is realized with an OM probe.Dans le domaine de la microscopie, le microscope à force atomique (AFM) est un des seuls qui permet de voir des atomes. Il fonctionne comme un aveugle utilise sa canne pour sonder son environnement, mais à l’échelle micrométrique : une pointe dont l'extrémité est composée de quelques atomes est balayée sur un échantillon pour le caractériser. Inventé en 1986, l’AFM a connu depuis des développements incrémentaux car utilisant toujours le même type de pointe : les leviers vibrants. Cette thèse présente un nouveau type de pointe AFM : une sonde optomécanique (OM). Sont aussi présentés les développements sur l’instrument pour exploiter les performances de cette nouvelle sonde. En effet, les sondes OM caractérisées dans cette thèse fonctionnent à plus de 100 MHz et démontrent une limite de détection remarquable de 4.5×10-17m.Hz-0.5, plus basse que toute autre sonde AFM. La s! onde OM est constituée d'un anneau de silicium suspendu d'un rayon de 10 µm, agissant comme un résonateur mécanique et optique à mode de galerie. Enfin, une première image AFM est réalisée avec une sonde OM

    Génotypage de variations de structure avec des données de séquençage longues lectures

    No full text
    Structural Variants (SVs) are genomic rearrangements of more than 50 base pairs. Since SVs can reach several thousand base pairs, they can have huge impacts on genome functions, studying SVs is, therefore, of great interest. Recently, a new generation of sequencing technologies has been developed and produce long read data of tens of thousand of base pairs which are particularly useful for spanning over SV breakpoints. So far, bioinformatics methods have focused on the SV discovery problem with long read data. However, no method has been proposed to specifically address the issue of genotyping SVs with long read data. The purpose of SV genotyping is to assess for each variant of a given input set which alleles are present in a newly sequenced sample. This thesis proposes a new method for genotyping SVs with long read data, based on the representation of each allele sequences. We also defined a set of conditions to consider a read as supporting an allele. Our method has been implemented in a tool called SVJedi. Our tool has been validated on both simulated and real human data and achieves high genotyping accuracy. We show that SVJedi obtains better performances than other existing long read genotyping tools and we also demonstrate that SV genotyping is considerably improved with SVJedi compared to other approaches, namely SV discovery and short read SV genotyping approaches.Les variants de structure (SVs) sont des réarrangements génomiques de plus de 50 paires de base et restent encore aujourd'hui peu étudiés malgré les impacts importants qu'ils peuvent avoir sur le fonctionnement des génomes. Récemment, les technologies de séquençage de troisième génération ont été développées et produisent des données de longues lectures qui s'avèrent très utiles car elles peuvent chevaucher les réarrangements. À l'heure actuelle, les méthodes bioinformatiques se sont concentrées sur le problème de la découverte de SVs avec des données de longues lectures. Aucune méthode n'a cependant été proposée pour répondre spécifiquement à la question du génotypage de SVs avec ce même type de données. L'objectif du génotypage de SVs vise pour un ensemble de SVs donné à évaluer les allèles présents dans un nouvel échantillon séquencé. Cette thèse propose une nouvelle méthode pour génotyper des SVs avec des longues lectures et repose sur la représentation des séquences des allèles. Notre méthode a été implémentée dans l'outil SVJedi. Nous avons testé notre outil à la fois sur des données simulées et réelles afin de valider notre méthode. SVJedi obtient une précision élevée qui dépasse les performances des autres outils de génotypage de SVs, notamment des outils de détection de SVs et des outils de génotypage de SVs de lectures courtes
    Thèses en Ligneis based in FR
    Repository Dashboard
    Do you manage Thèses en Ligne? Access insider analytics, issue reports and manage access to outputs from your repository in the CORE Repository Dashboard!