43 research outputs found

    Simulation de champs aléatoires invariants par rotation et homothétie

    Get PDF
    La notion de texture aléatoire est associée à la notion de stationnarité, donc d'invariance par translation. Or tous les modèles de texture connus ne sont pas stationnaires. Dans cet article, la notion plus générale d'invariance au second ordre pour un ensemble de transformations planes est étudiée. On s'intéresse en particulier à l'invariance par homothétie et par rotation d'un centre fixé. Pour la simulation de champs possédant cette invariance on propose la méthode du krigeage. On étudie théoriquement l'erreur de corrélation induite par la méthode de simulation

    Autoantibodies to Endothelial Cell Surface ATP Synthase, the Endogenous Receptor for Hsp60, Might Play a Pathogenic Role in Vasculatides

    Get PDF
    International audienceBACKGROUND: Heat shock protein (hsp) 60 that provides "danger signal" binds to the surface of resting endothelial cells (EC) but its receptor has not yet been characterized. In mitochondria, hsp60 specifically associates with adenosine triphosphate (ATP) synthase. We therefore examined the possible interaction between hsp60 and ATP synthase on EC surface. METHODOLOGY/PRINCIPAL FINDINGS: Using Far Western blot approach, co-immunoprecipitation studies and surface plasmon resonance analyses, we demonstrated that hsp60 binds to the β-subunit of ATP synthase. As a cell surface-expressed molecule, ATP synthase is potentially targeted by anti-EC-antibodies (AECAs) found in the sera of patients suffering vasculitides. Based on enzyme-linked immunosorbent assay and Western blotting techniques with F1-ATP synthase as substrate, we established the presence of anti-ATP synthase antibodies at higher frequency in patients with primary vasculitides (group I) compared with secondary vasculitides (group II). Anti-ATP synthase reactivity from group I patients was restricted to the β-subunit of ATP synthase, whereas those from group II was directed to the α-, β- and γ-subunits. Cell surface ATP synthase regulates intracellular pH (pHi). In low extracellular pH medium, we detected abnormal decreased of EC pHi in the presence of anti-ATP synthase antibodies, irrespective of their fine reactivities. Interestingly, soluble hsp60 abrogated the anti-ATP synthase-induced pHi down-regulation. CONCLUSIONS/SIGNIFICANCE: Our results indicate that ATP synthase is targeted by AECAs on the surface of EC that induce intracellular acidification. Such pathogenic effect in vasculitides can be modulated by hsp60 binding on ATP synthase which preserves ATP synthase activity

    A set of invariant and stable descriptors for 3D gray-levels objects

    Get PDF
    The description of 3D objects independently of their position and orientation, is an important and difficult problem in pattern analysis. In this paper, we deal with this problem by a pseudo-Fourier transform on the group of motions of the 3D Euclidean space, which we denote by M(3). This transform allows us to define 3D gray-levels object descriptors which are invariant and stable with respect to M(3). This method is applied to human bones automatic classification and description.La description d'objets tridimensionnels indépendamment de leur position et de leur orientation est un problème important et difficile de l'analyse de formes. Dans cet article, nous traitons ce problème à l'aide d'une pseudo-transformation de Fourier sur le groupe M(3) des déplacements de l'espace euclidien à trois dimensions. Celle-ci nous permet de définir des descripteurs de volumes à niveaux de gris stables et invariants par rapport à M(3). Cette méthode est appliquée à la classification et la description automatiques d'os humains

    Ultra-structural cell distribution of the melanoma marker iodobenzamide: improved potentiality of SIMS imaging in life sciences

    Get PDF
    BACKGROUND: Analytical imaging by secondary ion mass spectrometry (SIMS) provides images representative of the distribution of a specific ion within a sample surface. For the last fifteen years, concerted collaborative research to design a new ion microprobe with high technical standards in both mass and lateral resolution as well as in sensitivity has led to the CAMECA NanoSims 50, recently introduced onto the market. This instrument has decisive capabilities, which allow biological applications of SIMS microscopy at a level previously inaccessible. Its potential is illustrated here by the demonstration of the specific affinity of a melanoma marker for melanin. This finding is of great importance for the diagnosis and/or treatment of malignant melanoma, a tumour whose worldwide incidence is continuously growing. METHODS: The characteristics of the instrument are briefly described and an example of application is given. This example deals with the intracellular localization of an iodo-benzamide used as a diagnostic tool for the scintigraphic detection of melanic cells (e.g. metastasis of malignant melanoma). B16 melanoma cells were injected intravenously to C(57)BL(6)/J(1)/co mice. Multiple B16 melanoma colonies developed in the lungs of treated animals within three weeks. Iodobenzamide was injected intravenously in tumour bearing mice six hours before sacrifice. Small pieces of lung were prepared for SIMS analysis. RESULTS: Mouse lung B16 melanoma colonies were observed with high lateral resolution. Cyanide ions gave "histological" images of the cell, representative of the distribution of C and N containing molecules (e.g. proteins, nucleic acids, melanin, etc.) while phosphorus ions are mainly produced by nucleic acids. Iodine was detected only in melanosomes, confirming the specific affinity of the drug for melanin. No drug was found in normal lung tissue. CONCLUSION: This study demonstrates the potential of SIMS microscopy, which allows the study of ultra structural distribution of a drug within a cell. On the basis of our observations, drug internalization via membrane sigma receptors can be excluded

    Estimation statistique des fonctions d'appartenance d'ensembles flous

    No full text
    Nous présentons une méthode nouvelle d'estimation statistique des fonctions d'appartenance d'ensembles flous. Les observations sont les réponses binaires d'experts concernant l'appartenance ou la non appartenance de points (de sondage) à l'ensemble flou considéré. Nous modélisons la loi du processus des observations par un processus de Bernoulli "cohérent" régi par des règles de monotonie des réponses d'experts. Nous étudions les structures statistiques associées à un ou plusieurs experts : identifiabilité, exhaustivité, existence d'estimateur sans biais, etc. Dans le cas des nombres flous, nous proposons des estimateurs ponctuels dont nous étudions la convergence quand le nombre d'experts augmente. Nous donnons ensuite des estimateurs par région de confiance. Les résultats obtenus sont illustrés par des simulations.We introduce a new method for statistical estimation of fuzzy set membership functions. Observations are experts' binary findings on (polling) point membership or non-membership of the fuzzy set under consideration. We model the observation process law as a Bernoulli "coherent" process governed by monotonous rules from the experts' findings. We study the statistical structures of one or more experts : identifiability, exhaustivity, the existence of unbiased estimators and so on. In the case of fuzzy numbers, we propose fix-point estimators. We study their convergence in relation to the increasing number of experts' findings under consideration. We then give confidence area estimators. Some simulations illustrate these results.RENNES1-BU Sciences Philo (352382102) / SudocSudocFranceF

    Contribution Ă  l'Ă©galisation adaptative autodidacte multi-dimensionnelle (application au canal acoustique sous-marin)

    No full text
    Cette thèse s’articule autour d 'un dispositif dĂ©galisation adaptatif autodidacte capable de transiter de façon rĂ©versible d'une structure linĂ©aire Ă  un ERD en fonction de la sĂ©vĂ©ritĂ© du canal. LĂ©tude de ce dispositif est tout d'abord rĂ©alisĂ© dans un contexte mono-dimensionnel puis multi-dimensionnel. Cet Ă©galiseur s'avère très robuste et prĂ©sente d'excellentes performances en terme de temps de convergence et d'erreur rĂ©siduelle. Initialement introduit pour les transmissions Ă  flot continu, la carte de lĂ©galisation adaptative paraissait inenvisageable pour les transmissions par blocs. Moyennant un traitement itĂ©ratif Ă©ventuellement conjuguĂ© avec une approche basĂ©e sur le retournement temporel des sĂ©quences reçues, il est possible d'amĂ©liorer de façon notable les performances du dispositif de transmission sur des trames de longueur rĂ©duite. Cet Ă©galiseur a du reste Ă©tĂ© implĂ©mentĂ© sur un environnement DSP. Plusieurs campagnes d'essais en mer ont permis d'en valider le fonctionnement.RENNES1-BU Sciences Philo (352382102) / SudocSudocFranceF

    Mesurer la qualité des règles d'association (études formelles et expérimentales)

    No full text
    L'extraction de connaissances à partir de données vise à extraire des motifs contenus dans des entrepôts de données, dont la taille ne cesse de croître. C'est un processus complexe dans lequel plusieurs experts (métier, analyste, informaticien...) doivent coopérer afin de révéler des motifs qui seront évalués selon différents critères : validités, nouveauté, compréhensibilité, exploitabilité, etc. Or, ces dernier critères sont fortement liés au contexte applicatif et peuvent être formulés de différentes manières. De plus, les progrès techniques et méthodologiques permanents permettent de traiter des volumes de données de plus en plus importants. Par voie de conséquence, le nombre de motifs extraits est également de plus en plus grand, sans pour autant qu'ils soient tous valides - bien au contraire. Force est de constater que la validation de connaissances ne peut maintenant plus se faire sans assistance au décideur, ce dernier ayant bien souvent comme tâche la validation des motifs. Afin de permettre de procéder à cette tâche finale de validation lors du processus, un moyen couramment retenu est l'utilisation de fonctions quantifiant numériquement la pertinence des connaissances. De telles fonctions, dites mesures de qualité, mettent en avant une typologie de connaissance donnée, en induisant un ordre sur celles-ci. De nombreuses mesures ont été proposées, chacune étant liée à des situations précises. Nous adressons la problématique de l'évaluation objective de la qualité d'un type de motif particulier, les règlesd'association, par de telles mesures. Considérant que la sélection des bonnes règles repose sur l'utilisation d'une mesure adaptée, nous proposons une étude systématique de ces dernières, basée sur une analyse de propriétés formelles, énoncées selon des termes les plus compréhensibles possibles. De cette étude, on produit une classification d'un nombre important de mesures classiques, que nous confrontons à une classification expérimentale, obtenue en comparant les rangements induits par les mesures pour plusieurs jeux de données. L'étude des propriétés classiques et la définition de nouvelles nous a également permis de mettre en avant certaines particularités des mesures. Nous en déduisons un cadre généralisant la plupart d'entre elles. Nous appliquons également deux méthodes d'Aide Multicritère à la Décision afin de résoudre le problème de la sélection des règles pertinentes. La première approche se fonde sur la prise en compte d'un système de préférences exprimé par un expert de données sur les propriétés précédemment définies, en vue d'orienter le choix de mesure(s) adaptée(s) au contexte applicatif. La seconde approche adresse le problème de la prise en compte des valeurs potentiellement discordantes qu'expriment les mesures sur l'intérêt des règles, et construisons une vue agrégée de leur ordonnancement, en prenant en compte les écarts d'évaluation. Ces méthodes sont appliquées à des situations pratiques. Ce travail nous a aussi conduit au développement d'un outil spécifique performant, Herbs. Nous présentons les traitements qu'il permet d'effectuer, tant en termes de sélection de règles, d'analyse du comportement des mesures et de visualisation.Knowledge discovery in databases aims at extracting information contained in data warehouses. It is a complex process, in which several experts (those acquainted with data, analysts, processing specialists, etc.) must act together in order to reveal patterns, which will be evaluated according to several criteria: validity, novelty, understandability, exploitability, etc. Depending on the application field, these criteria may be related to differing concepts. In addition, constant improvements made in the methodological and technical aspects of data mining allow one to deal with ever-increasing databases. The number of extracted patterns follows the same increasing trend, without them all being valid, however. It is commonly assumed that the validation of the knowledge mined cannot be performed by a decision maker, usually in charge of this step in the process, without some automated help. In order to carry out this final validation task, a typical approach relies on the use of functions which numerically quantify the pertinence of the patterns. Since such functions, called interestingness measures, imply an order on the patterns, they highlight some specific kind of information. Many measures have been proposed, each of them being related to a particular category of situations. We here address the issue of evaluating the objective interestingness of the particular type of patterns that are association rules, through the use of such measures. Considering that the selection of good'' rules implies the use of appropriated measures, we propose a systematic study of the latter, based on formal properties expressed in the most straightforward terms. From this study, we obtain a clustering of many commonly-used measures which we confront with an experimental approach obtained by comparing the rankingsinduced by these measures on classical datasets. Analysing these properties enabled us to highlight some particularities of the measures. We deduce a generalised framework that includes a large majority of them. We also apply two Multicriteria Decision Aiding methods in order to solve the issue of retaining pertinent rules. The first approach takes into account a modelling of the preferences expressed by an expert in the field being mined about the previously defined properties. From this modelling, we establish which measures are the most adapted to the specific context. The second approach addresses the problem of taking into account the potentially differing values that the measures take, and builds an aggregated view of the ordering of the rules by taking into account the differences in evaluations. These methods are applied to practical situations. This work also led us to develop powerful dedicated software, Herbs. We present the processing it allows for rule selection purposes, as well as for the analysis of the behaviour of measures and visualisation aspects. Without any claim to exhaustiveness in our study, the methodology We propose can be extended to new measures or properties, and is applicable to other data mining contexts.LORIENT-BU (561212106) / SudocBREST-Télécom Bretagne (290192306) / SudocLENS-CRIL (624982203) / SudocSudocFranceF
    corecore