804 research outputs found

    Application des surfaces de réponse pour l’analyse fiabiliste d’une structure spatiale

    Get PDF
    Cette communication présente une application des surfaces de réponse pour l’analyse de la fiabilité d’une structure satellite. Les méta-modèles sont construits par régression itérative où seul les termes significatifs sont sélectionnés parmi une liste de régresseurs potentiels préalablement déterminée par une analyse de sensibilité. Les méta-modèles sont ensuite vérifiés par une méthode de bootstrap où les variations observées sur les prédictions sont prises en compte dans le calcul des probabilités de défaillance afin de valider le résultat

    Pertinence d'une sélection des pesticides à mesurer dans un réseau de surveillance de la qualité des eaux superficielles à l'aide d'une méthode simplifiée d'évaluation des risques

    Get PDF
    L'une des difficultés rencontrées couramment dans la conception des réseaux de mesure - au moins en ce qui concerne les micropolluants - porte sur la sélection des paramètres à mesurer. C'est notamment le cas pour les pesticides, dont plusieurs centaines sont utilisées en agriculture, mais qu'il est impossible de surveiller dans les eaux en totalité pour des raisons à la fois techniques et économiques. C'est la raison pour laquelle les autorités françaises ont fait procéder à la mise au point d'une méthode de sélection des matières actives utilisées en agriculture basée sur l'évaluation du risque. Dans cette méthode, l'exposition est figurée par un rang combinant les données relatives aux usages des matières actives (superficie, dose par ha) et leurs caractéristiques physico-chimiques. Le danger est représenté par la toxicité, soit pour l'homme, soit pour les espèces aquatiques. Cette approche a été appliquée à l'échelle nationale et dans un certain nombre de régions françaises, dont l'Alsace et la Lorraine. Les résultats des mesures de pesticides réalisées ensuite pendant un an ont été confrontés aux indices d'exposition obtenus. Les substances détectées le plus fréquemment correspondent effectivement à celles dotées des rangs d'exposition les plus élevés (ajustement exponentiel, r2≈0.82) ; cependant, le diuron apparaît à une fréquence plus élevée que celle attendue, en raison de ses usages non agricoles. La corrélation est moins bonne pour les substances dont les rangs d'exposition sont proches de la valeur considérée comme significative pour les eaux superficielles, ce qui peut provenir soit de l'utilisation de données erronées lors de la sélection, soit d'un poids insuffisant attribué à certains facteurs dans la méthode de sélection, soit enfin d'aléas météorologiques.Monitoring of micropollutants is a rather recent activity (10-15 years), at least in surface waters; because of the need for sophisticated analytical methods and of the potential number of analytes, this type of activity is confronted with important economic constraints, which require that one make a selection among the range of substances to monitor. Among organic micropollutants, pesticides constitute a well-identified category, since they are used mainly in agriculture; this use on broad surfaces may have important impacts on the quality of surface water. Various methods have been used to select those pesticides likely to have the greatest impacts on water quality; some of these methods might be considered to be "hazard assessment", whereas others correspond to simplified "risk assessment" methods (this appears particularly true for pesticides, of which several hundreds are used in agriculture). Recently, a French panel of experts mandated by different Ministries designed a selection method called SIRIS, which allows one to define three different lists of pesticides according to the media to be monitored (surface or ground-water) and to the monitoring objectives (ecosystem protection, drinking water production). This paper deals with the application of the SIRIS method at a regional level, in the context of a permanent survey of river quality.As a simplified risk assessment method, SIRIS combines data on hazard and exposure; hazard is estimated by a single parameter, either toxicity for aquatic species or acceptable daily intake (ADI). Exposure represents the probability that a transfer to water bodies may occur; for surface water, this probability is influenced by the crop acreage, the applied dose (kg/ha), the solubility, the pesticide half-life, the hydrolysis and the distribution coefficient between water and organic matter (Koc). These factors are considered in this hierarchical order, and for each substance a score is assigned to each of these factors among three possible values ("o"=slight, "m"=medium, "d"=high, according to the relative influence on transfer); finally exposure is estimated by a relative rank obtained by a combination of these values following a "penalisation" principle. Two tables are available for applying this approach at a regional level: the first contains the values (o,m,d) assigned to more than 300 substances by the expert panel for solubility, half-life, etc., and should be completed with crop acreage and dose. The second table provides the ranks corresponding to the different combinations of o,m,d values. A final rank of 35 was considered by consensus to be a pragmatic threshold for the transfer to surface water. This method was applied in 1996 in two regions in France (Alsace and Lorraine) separately; most of the selected chemicals (but unfortunately not all, due to technical constraints) were then analysed monthly in surface waters (24 sampling points, yielding 144 samples in Alsace and 169 in Lorraine). Occurrences fell between 0% and 60% in Alsace, and between 0% and 90% in Lorraine; in both regions, the most frequently detected chemicals were atrazine and diuron.The relevance of the selection method may be discussed under several aspects: the choice of the factors, their order, the position of thresholds corresponding to o,m,d values, the value of the overall threshold, and the availability of the data. Some pesticides are not ranked only because no data were available concerning their solubility, hydrolysis rate or Koc, but the relative importance of such gaps cannot be appreciated with the current set of data. Other items may be assessed through the comparison of the exposure rank versus the occurrence. This relationship takes an exponential shape, with some anomalies: for example, the occurrence of diuron in Alsace is higher than expected, based on its exposure rank. This situation can be explained by the fact that there are non-agricultural uses of this substance, such that the exposure rank appears to be underestimated. For other substances, like aldicarb and chlorpyrifos-ethyl, discrepancies are observed between the exposure rank and occurrences, when comparing with substances with higher exposure ranks. This anomaly may be due to poor data quality. For carbendazime, the occurrence in Lorraine appears underestimated, probably because of a dry period deficit after the application. Finally, chlortoluron received the same rank in the 2 regions, but is more frequently detected in Lorraine; crop acreage may have been overestimated in Alsace. However, the dataset is still limited to one year of sampling; some discrepancies may appear less important when more data are available. For chemicals with ranks > 50, there is a good exponential fit between ranks and occurrences (y=0.0235*e0.0739x ; r2=0.82). This observation means that pesticides with ranks >50 are systematically encountered in surface waters; however, the current threshold (35) should be maintained, because some substances with ranks <50 are also detected. Thus, the SIRIS method appears to be a good tool for selecting agricultural pesticides for monitoring purposes at a regional level

    Apprentissage sur Données Massives; trois cas d'usage avec R, Python et Spark.

    Get PDF
    International audienceManagement and analysis of big data are systematically associated with a data distributed architecture in the Hadoop and now Spark frameworks. This article offers an introduction for statisticians to these technologies by comparing the performance obtained by the direct use of three reference environments: R, Python Scikit-learn, Spark MLlib on three public use cases: character recognition, recommending films, categorizing products. As main result, it appears that, if Spark is very efficient for data munging and recommendation by collaborative filtering (non-negative factorization), current implementations of conventional learning methods (logistic regression, random forests) in MLlib or SparkML do not ou poorly compete habitual use of these methods (R, Python Scikit-learn) in an integrated or undistributed architectureLa gestion et l'analyse de données massives sont systématiquement associées à une architecture de données distribuées dans des environnements Hadoop et maintenant Spark. Cet article propose aux statisticiens une introduction à ces technologies en comparant les performances obtenues par l'utilisation élémentaire de trois environnements de référence : R, Python Scikit-learn, Spark MLlib sur trois cas d'usage publics : reconnaissance de caractères, recommandation de films, catégorisation de produits. Comme principal résultat, il en ressort que si Spark est très performant pour la préparation des données et la recommandation par filtrage collaboratif (factorisation non négative), les implémentations actuelles des méthodes classiques d'apprentissage (régression logistique, forêts aléatoires) dans MLlib ou SparkML ne concurrencent pas ou mal une utilisation habituelle de ces méthodes (R, Python Scikit-learn) dans une architecture intégrée au sens de non distribuée

    Evaluation des incertitudes associées à la mesure granulométrique d'un aérosol par technique SMPS

    No full text
    National audienceLa détermination de la granulométrie en nombre d'un aérosol (concentration en nombre de particules en fonction du diamètre) à partir de mesures effectuées par un SMPS (Scanning Mobility Particle Sizer) est un problème mathématiquement mal posé. Une procédure d'inversion pour l'estimation de ce mesurande fonctionnel est proposée ainsi qu'une méthodologie pour propager l'incertitude résultant à la fois des erreurs de mesure et du manque de connaissances sur la physique sous-jacente au processus de mesure. L'inversion consiste en la décomposition du signal sur une base d'ondelettes discrètes couplée à des techniques de régularisation. Une comparaison entre la méthode développée et une technique de régularisation standard avec contraintes de lissage lorsque l'on considère une distribution de taille simulée avec des pics larges et étroits est proposée. Les résultats montrent un meilleur accord entre la reconstruction moyenne calculée par simulations de Monte-Carlo et la granulométrie originale pour la nouvelle procédure d'inversion

    Approche fiabiliste pour l’optimisation locale d’un problème couplé fluide-structure

    Get PDF
    Le projet OSYCAF (Optimisation d’un Système Couplé fluide/structure représentant une Aile Flexible) a pour objectif de proposer une méthodologie d’optimisation multidisciplinaire dans un contexte aéronautique. Plus précisément, il s’agit d’optimiser une aile d’avion en tenant compte des interactions fluide-structure. Les modèles de mécanique des fluides et des structures sont des disciplines devant communiquer entre elles et avec l’optimiseur global. L’optimisation est réalisée sur deux niveaux : par rapport aux paramètres globaux, communs aux deux disciplines, et par rapport aux paramètres locaux, propres à chacune. Le travail présente l’optimisation de la structure par rapport aux paramètres locaux. Dans ce cadre, il est proposé d’introduire des incertitudes probabilistes permettant de tenir compte de contraintes de fiabilité

    Analyse de la fiabilité d’une structure spatiale

    Get PDF
    L’analyse de la fiabilité des grandes structures est difficile car le nombre de variables aléatoires d’entrée et le nombre de réponses à traiter sont généralement grands. Lorsque le comportement mécanique de la structure n’est pas fortement non-linéaire, les surfaces de réponse présentent des outils intéressants pour évaluer la fiabilité. Ce papier expose une stratégie de résolution appliquée à une structure spatiale. Elle consiste à simplifier le problème initial dans le but de conserver l’information essentielle. Pour cela, la réduction s’appuie sur la sélection des variables les plus pertinentes. Un indicateur d’erreur est utilisé pour valider la précision des résultats. Des tirages de Monte Carlo viennent corroborer certains résultats

    Comparaison de différentes approches de l'évaluation supervisée

    Get PDF
    La sélection d’instances pour la classification suivant le plus proche voisin est un problème classique d’apprentissage statistique. Placé dans le cadre de la sélection d’hypothèses, ce problème possède deux caractéristiques : premièrement l’ensemble des hypothèses est structuré et, deuxièmement, il dépend des données. Nous proposons des critères d’évaluation non paramétriques tenant compte de ces caractéristiques, notre objectif étant de comparer des sous-ensembles d’instances de cardinaux différents sans recourir à l’ajustement d’un paramètre extérieur. Pour cela, nous nous intéressons aux approches régularisantes de l’évaluation. Nous explorons successivement trois approches de l’évaluation statistique régularisée : l’approche SRM (pour Structural Risk Minimisation), l’approche BIC (pour Bayesian Information Criterion) et l’approche MDL (pour Minimum Description Length). Nous proposons ainsi trois nouveaux critères d’évaluation régularisée de l’intérêt d’un sous-ensemble d’instances. Tous trois autorisent la comparaison d’ensembles d’instances de tailles différentes. Tous trois sont non paramétriques. Nous procédons à une comparaison qualitative des critères, basée sur des données réelles et synthétiques, et démontrons le fait suivant : le critère MDL est plus fin que le critère BIC, lui-même plus fin que le critère SRM.Instance selection for the nearest neighbor rule is a classical topic in statistical learning. Within the context of hypothesis selection, the characteristics of this problem is that: the set of hypotheses is structured and depends on the data. We thus propose specific nonparametric criteria. We aim at comparing sets of instances of varying size without introducing an extra parameter. Balancing approaches give tools to solve this problem. Three approaches are considered successively : the SRM (standing for Structural Risk Minimization) approach, the BIC (standing for Bayesian Information Criterion) approach end the MDL (standing for Minimum Description Length) approach. The exploration of each one leads to the definition of a regularized criterion. Each criterion permits the comparison of sets of instances of various size. Each criterion is nonparametric. We make use of real and synthetic datasets to prove the following point: the MDL criterion is finer than the BIC criterion which, in turn, is finer than the SRM criterion

    Un nouveau critère pour la sélection de l'ordre d'un modèle

    Get PDF
    H. AKAIKE (1973) a proposé le critère AIC (Akaike Information Criterion) pour l'estimation de l'ordre k d'un modèle statistique paramétré, incluant ce terme k dans une pénalisation de la vraisemblance. Il améliore ainsi le principe du maximum de vraisemblance. Néanmoins, la sélection par ce critère conduit asymptotiquement à une surestimation stricte de l'ordre. C'est pourquoi nous proposons l'emploi d'un nouveau critère convergent pour deux modèles paramétrés : un modèle autorégressif (AR) et un modèle de Markov. De façon générale, les critères utilisés sont composés d'un terme de logvraisemblance mesurant l'adéquation du modèle aux observations et d'un terme de pénalisation dépendant de la taille de l'échantillon et du nombre de paramètres libres du modèle. Les performances du nouveau critère sont étudiées sur des simulations, et comparées aux critères traditionnels AIC, BIC et φ

    Déconvolution adaptative pour le contrôle non destructif par ultrasons

    Get PDF
    This thesis deals with the ultrasonic non destructive testing of industrial parts. During real experiments, the signals received by the acoustic transducer are analyzed to detect the discontinuities of the part under test. This analysis can be a difficult task due to digital acquisition, propagation effects and echo overlapping if discontinuities are close. Sparse deconvolution is an inverse method that aims to estimate the precise positions of the discontinuities. The underlying hypothesis of this method is a sparse distribution of the solution, which means there are a few number of discontinuities. In the literature, deconvolution is addressed by a linear time-invariant model as a function of propagation distance, which in reality does not hold.The purpose of this thesis is therefore to develop a model and associated methods in order to cancel the effects of acquisition, propagation and echo overlapping. The first part is focused on the direct model development. In particular, we build a linear time-variant model that takes into account dispersive attenuation. This model is validated with experimental data acquired from attenuative materials. The second part of this work concerns the development of efficient sparse deconvolution algorithms, addressing the minimization of a least squares criterion penalized by a L0 pseudo-norm. Specific algorithms are developed for up-sampled deconvolution, and more robust exploration strategies are built for data containing oscillating waveforms. By using synthetic and experimental data, we show that the developed methods lead to better results compared to standard approaches for a competitive computation time. The proposed methods are then applied to real non destructive testing problems where they confirm their efficiency.Nous nous intéressons au contrôle non destructif par ultrasons des matériaux industriels. En pratique, les signaux réceptionnés par le transducteur ultrasonore sont analysés pour détecter les discontinuités de la pièce inspectée. L'analyse est néanmoins rendue difficile par l'acquisition numérique, les effets de la propagation ultrasonore et la superposition des échos lorsque les discontinuités sont proches. La déconvolution parcimonieuse est une méthode inverse qui permet d'aborder ce problème afin de localiser précisément les discontinuités. Ce procédé favorise les signaux parcimonieux, c'est à dire ne contenant qu'un faible nombre de discontinuités. Dans la littérature, la déconvolution est généralement abordée sous l'hypothèse d'un modèle invariant en fonction de la distance de propagation, modalité qui n'est pas appropriée ici car l'onde se déforme au cours de son parcours et en fonction des discontinuités rencontrées. Cette thèse développe un modèle et des méthodes associées qui visent à annuler les dégradations dues à l'instrumentation et à la propagation ultrasonore, tout en résolvant des problèmes de superposition d'échos. Le premier axe consiste à modéliser la formation du signal ultrasonore en y intégrant les phénomènes propres aux ultrasons. Cette partie permet de construire un modèle linéaire mais non invariant, prenant en compte l'atténuation et la dispersion. L'étape de modélisation est validée par des acquisitions avec des matériaux atténuants. La deuxième partie de cette thèse concerne le développement de méthodes de déconvolution efficaces pour ce problème, reposant sur la minimisation d'un critère des moindres carrés pénalisé par la pseudo-norme L0. Nous avons développé des algorithmes d'optimisation spécifiques, prenant en compte, d'une part, un modèle de trains d'impulsions sur-échantillonné par rapport aux données, et d'autre part le caractère oscillant des formes d'onde ultrasonores. En utilisant des données synthétiques et expérimentales, ces algorithmes associés à un modèle direct adapté aboutissent à de meilleurs résultats comparés aux approches classiques pour un coût de calcul maîtrisé. Ces algorithmes sont finalement appliqués à des cas concrets de contrôle non destructif où ils démontrent leur efficacité

    Discrimination robuste par méthode à noyaux

    Get PDF
    This thesis aims at finding classification rnodeIs which include explanatory elements. More specifically the proposed solution consists in merging a regularization path algorithm called DRSVM with a kernel approach called KERNEL BASIS. The first part of the thesis focuses on improving an algorithm called DRSVM from a reformulation of the thanks to the suh-differential theory. The second part of the thesis describes the extension of DRSVM afgorithm under a KERNEL BASIS framework via a dictionary approach. Finally, a series of experiments are conducted in order to validate the interpretable aspect of the rnodel.La thèse porte sur l'intégration d éléments explicatifs au sein d'un modèle de classification. Plus précisément la solution proposée se compose de la combinaison entre un algorithme de chemin de régularisation appelé DRSVM et une approche noyau appelée KERNEL BASIS. La première partie de la thèse consiste en l'amélioration d'un algorithme appelé DRSVM à partir d'une reformulation du chemin via la théorie de la sous-différentielle. La seconde partie décrit l'extension de l'algorithme DRSVM au cadre KERNEL BASIS via une approche dictionnaire. Enfin une série d'expérimentation sont réalisées afin de valider l'aspect interprétable du modèle
    • …
    corecore