1,623 research outputs found

    On Probability Distributions for Trees: Representations, Inference and Learning

    Get PDF
    We study probability distributions over free algebras of trees. Probability distributions can be seen as particular (formal power) tree series [Berstel et al 82, Esik et al 03], i.e. mappings from trees to a semiring K . A widely studied class of tree series is the class of rational (or recognizable) tree series which can be defined either in an algebraic way or by means of multiplicity tree automata. We argue that the algebraic representation is very convenient to model probability distributions over a free algebra of trees. First, as in the string case, the algebraic representation allows to design learning algorithms for the whole class of probability distributions defined by rational tree series. Note that learning algorithms for rational tree series correspond to learning algorithms for weighted tree automata where both the structure and the weights are learned. Second, the algebraic representation can be easily extended to deal with unranked trees (like XML trees where a symbol may have an unbounded number of children). Both properties are particularly relevant for applications: nondeterministic automata are required for the inference problem to be relevant (recall that Hidden Markov Models are equivalent to nondeterministic string automata); nowadays applications for Web Information Extraction, Web Services and document processing consider unranked trees

    Preliminary results on epidemiology of coconut lethal yellowing in Ghana

    Full text link
    Epidemiological studies are of major importance in understanding the determinants of plant diseases in order to control the risks of their spreading. A research programme on the epidemiology of coconut lethal yellowing, or Cape Saint Paul Wilt Disease (CSPWD), in Ghana was launched in March 2007. The objective was to characterize the distribution and spread of the disease in space and time at various scales, and their relation with the environment. This article presents the general strategy used to evaluate the incidence of CSPWD along with the environmental, ecological and agronomical variables at regional level. A survey was undertaken on 1,166 plots of Coconut Sector Development Project (CSDP) planted with Malayan Yellow Dwarf (MYD) × Vanuatu Tall (VTT) hybrids in Western Region and Central Region. Preliminary results on the distribution of CSPWD and outside variables at regional scale, along with their relations, are given. (Résumé d'auteur

    Optimal Paths on the Space-Time SINR Random Graph

    Full text link
    We analyze a class of Signal-to-Interference-and-Noise-Ratio (SINR) random graphs. These random graphs arise in the modeling packet transmissions in wireless networks. In contrast to previous studies on the SINR graphs, we consider both a space and a time dimension. The spatial aspect originates from the random locations of the network nodes in the Euclidean plane. The time aspect stems from the random transmission policy followed by each network node and from the time variations of the wireless channel characteristics. The combination of these random space and time aspects leads to fluctuations of the SINR experienced by the wireless channels, which in turn determine the progression of packets in space and time in such a network. This paper studies optimal paths in such wireless networks in terms of first passage percolation on this random graph. We establish both "positive" and "negative" results on the associated time constant. The latter determines the asymptotics of the minimum delay required by a packet to progress from a source node to a destination node when the Euclidean distance between the two tends to infinity. The main negative result states that this time constant is infinite on the random graph associated with a Poisson point process under natural assumptions on the wireless channels. The main positive result states that when adding a periodic node infrastructure of arbitrarily small intensity to the Poisson point process, the time constant is positive and finite

    Évaluation des fonctions exécutives chez les étudiants du collégial

    Get PDF
    Recherche financé par l'Association des collèges privés du Québec (ACPQ) dans le cadre du programme de recherche et d’expérimentation pédagogique (PREP).Comprend des références bibliographiques

    Gestion en temps réel d'un réseau d'assainissement : vérification de l'optimalité et de l'applicabilité de la théorie des graphes par rapport à la programmation linéaire mixte

    Get PDF
    Dans le cas de la gestion en temps réel des réseaux d'assainissement, la première étape peut, par exemple, consister à vérifier qu'une manipulation des organes de contrôle tels que les vannes et pompes est capable de minimiser les déversements vers le milieu naturel. Cette gestion, que l'on appellera " gestion de référence ", permet de déterminer les stratégies de commande sur toute la durée de l'événement pluvieux connu à l'avance. Ce calcul se fait donc à la fin de l'événement pluvieux et permet de dire ce qui aurait pu être fait avec les organes de régulation en terme de minimisation des volumes déversés. La programmation linéaire par les graphes et la programmation linéaire mixte permettent de déterminer une solution optimale. Cet article s'intéresse à la vérification de l'optimalité et à l'applicabilité de la programmation linéaire par les graphes comparée à la programmation linéaire mixte dans le cas de la " gestion de référence " sur le réseau d'assainissement de Saverne (France). En comparant les volumes déversés par ces deux techniques d'optimisation sur 34 événements pluvieux, nous pouvons confirmer que l'approche par les graphes ne donne pas toujours le minimum global. Les résultats ont montré que la programmation linéaire mixte fournit des temps de calcul qui peuvent atteindre plus de 24 heures. Par contre, l'approche par les graphes permet un temps de calcul de l'ordre de 5 minutes en moyenne avec un minimum global en terme de volume déversé atteint qui n'excède pas 5% par rapport à la solution fournie par la programmation linéaire mixte.The first stage of real-time management of wastewater systems could, for example, consist of making sure that the use of controls such as valves and pumps can indeed minimise the discharge into the natural environment. This management step, referred to as reference management, is used to determine the control strategies over the entire duration of a rainfall event known in advance. The calculation is therefore performed at the end of the rainfall event and is used to determine what could have been done with the regulation components (e.g. in terms of minimising the volumes discharged). The calculation can also show whether or not it is necessary to control the valves and pumps during the rainfall occurrence (dynamic management) rather than fixing the flow rates in advance (static management) if the receiving body of water is to be protected from discharges.In the area of operational research, management controls can be determined with the help of linear programming. Here the aim is to minimise the linear function (f), generally called the cost function or objective function, under different linear constraints (g). There are several variants of linear programming. The first one is mixed linear programming, where some variables are required to be integers or even binary. Conventional calculation techniques such as branch-and-bound method provide a global minimum solution, but the calculation is very lengthy.Another variant of linear programming is graph programming. This optimisation technique consists of modelling the hydraulic behaviour of most of the constructions that can be found in wastewater systems (main drains, storm overflows, storm water basins, etc.). It has been applied to the wastewater system of Saverne in order to minimise the volumes discharged into the natural environment. In order to ensure that the constructions are modelled correctly and to optimise the functioning of the controls, saturation constraints had to be added to the choice of the arcs of the graph. The primal-dual algorithm no longer provides a global minimum solution when these constraints are added. In contrast, the calculation time is much shorter than that for mixed linear programming.This article is aimed at comparing the results in terms of the minimisation of the discharged volumes by means of linear programming with graphs and mixed linear programming, as part of the reference management applied to the wastewater system of Saverne. The final goal was to be able to select a compromise between the relevance or the accuracy of the results and the means to achieve them.We have shown that wastewater constructions such as main drains, storm basins and overflows can be modelled simply with the two techniques above. However, it is necessary to add binary variables in the case of mixed linear programming and a degree of arc saturation if the graph approach is used. The branch-and-bound algorithm used for mixed linear programming can be used to obtain a global minimum solution, with a very long calculation time. In contrast, even though the convergence time is very short for linear programming with graphs, the global minimum cannot be ensured because the algorithm used imposes independence with respect to the choice of the arcs to be saturated.Given the benefits and drawbacks of each approach, we have attempted to use the example of the wastewater system of Saverne to quantify the calculation time and the differences in terms of the discharged volume. The results have shown that mixed linear programming requires calculation times that can last over 24 h. In contrast, with the graph approach, the calculation takes approximately five minutes on average, with a global minimum in terms of volume that does not exceed 5% as compared to the solution obtained by mixed linear programming. We have shown that a solution requiring a much shorter calculation time is available and offers a compromise between exact determination and an optimised associated calculation time

    L'intérim : un secteur dual entre protection et précarité

    Get PDF
    Ce document de travail présente une analyse du secteur de l'intérim en France, à partir des règles qui l'encadrent, et des caractéristiques des entreprises et des intérimaires. La dynamique très favorable du secteur pendant les 15 dernières années s'est accompagnée d'une dynamique de concentration pour les plus grandes entreprises, qui n'a cependant pas fait disparaître les petites agences spécialisées, ce qui entraîne une segmentation accrue. On retrouve ce type de phénomène au niveau de la population des intérimaires, avec l'apparition d'un intérim spécialisé et qualifié, parallèle au maintien de l'intérim industriel comme outil de flexibilité massif. Globalement, malgré ces tendances récentes, l'intérim demeure par ailleurs synonyme d'une rémunération globale faible, compte tenu des interruptions nombreuses entre les missions ou du temps partiel, de conditions de travail difficiles, et d'un accès à la formation se limitant le plus souvent à des formation courtes d'adaptation.Intérim ; France ; Europe ; bas salaires ; qualité de l'emploi

    Prophylactic anti-coagulation in cancer palliative care: a prospective randomised study

    Get PDF
    Goals: The objective of this study was to determine utility of prophylactic anti-coagulation in cancer patients hospitalised for palliative care in a specialised centre. Materials and methods: Prospective 1:1 open randomised study was designed. Twenty patients aged 55 to 88years with advanced cancer and an estimated life expectancy of less than 6months were assigned to either receive treatment with 2,850/3,800U (70kg) of daily subcutaneous nadroparin or no treatment. Suspicion of venous thrombo-embolism (deep vein thrombosis and pulmonary embolism) was confirmed by echo-Doppler examination of the lower limbs and/or by spiral computed tomography scan of the lungs. Bleeding episodes were recorded. Platelet count was measured on days 7 and 14. Survival time from study entry was determined. Main results: One venous thrombo-embolism and one major bleeding occurred in the group receiving nadroparin, whereas two minor bleedings occurred in the control group. At 3months, nine of ten participants had died in the control group vs five of ten in the group receiving nadroparin (P = 0.141). Five participants could be discharged home (P = 0.141). Conclusions: Decision to administer prophylactic nadroparin in hospitalised cancer patients under palliative care remains a challenge. Better mobility score at admission and the likelihood to be discharged home may be useful for practical purposes. The observation of a potential influence of prophylactic nadroparin on survival deserves further studie

    Élaboration et validation d'un outil de dépistage des déficits du fonctionnement exécutif

    Get PDF
    Recherche financé par l'Association des collèges privés du Québec (ACPQ) dans le cadre du programme de recherche et d’expérimentation pédagogique (PREP).Comprend des références bibliographiques

    Influence des conditions d'anodisation dure de l'aluminium (AA6061-T6) sur la couche d'oxyde formée

    Get PDF
    L'anodisation est un procédé électrolytique permettant de produire un revêtement d'oxyde sur la surface d'un métal afin d'en augmenter la résistance à la corrosion et à l'abrasion. L'anodisation peut être effectuée à des températures basses afin d'obtenir des épaisseurs d'oxyde plus importantes. Le procédé porte alors le nom d'anodisation dure. Les pièces traitées peuvent atteindre des tolérances dimensionnelles très précises. Ainsi, lors du traitement, l'épaisseur d'oxyde déposée sur chacune des pièces se doit d'être la même pour toutes les faces de celles-ci. Dans ce projet, un alliage d'aluminium 6061-T6 extrudé a été utilisé afin d'étudier la variation d'épaisseurs de la couche d'oxyde entre les pièces dans une cellule d'anodisation industrielle, la variabilité des épaisseurs produites sur une même pièce et l'influence des paramètres d'opération sur la croissance de l'oxyde. Pour ce faire, des échantillons de forme cubique ont été anodisés dans une cellule industrielle et les épaisseurs de leurs différentes faces ont été mesurées. Des analyses sur l'homogénéité de l'électrolyte ont été conduites avec des tôles fabriquées du même alliage. Les microstructures de ces pièces ont aussi été analysées. L'étude a montré principalement qu'une agitation adéquate permettait de réduire la dispersion des épaisseurs d'oxyde produites et que le taux de croissance de l'oxyde était différent selon la micro structure

    Coma ; suivi de Écriture et incarnation

    Get PDF
    Coma raconte à la première personne l'histoire de Satô, un jeune Japonais qui, après la tentative de suicide de sa fiancée, a le sentiment d'avoir commis un grave péché sans pouvoir le nommer. Incapable de surmonter son angoisse, il s'enfuit en Chine et s'enferme dans un hôtel de Shanghai. Une année passe avant que la mère de sa fiancée ne vienne le trouver et lui intime de revenir au Japon dans l'espoir qu'il fasse sortir sa fille du coma. Or le retour à sa ville natale, dans un univers de mystère, de secret et de silence, provoque chez Satô des questionnements identitaires profonds qui lui font même douter de l'authenticité de ses souvenirs. S'enclenche alors un long processus au cours duquel les résistances du déni, du mensonge, du désir d'être autre et de la possibilité de l'être élaborent une fiction de plus en plus organisée. C'est en s'y abandonnant que le personnage-narrateur arrive à franchir la limite même de sa résistance et à comprendre son trouble. Le roman se termine au moment où Satô acceptera de se reconstruire comme personne. À l'intérieur du volet réflexif de ce mémoire, Écriture et incarnation, j'explore cette construction exigeante du personnage. Elle demande un amenuisement, une atténuation de ma voix propre, un maximum d'attention à la voix de l'autre: seule possibilité de ressentir de l'intérieur son trouble, sa faille, sa présence, et d'arriver à les décrire. Ma pratique passe donc par la déconstruction de mes repères personnels pour me permettre de créer un espace vide où il me sera possible de réapparaître en cet autre qui est le personnage, en réduisant au minimum l'interférence d'éléments qui pourraient me ramener à moi-même et créer de la résistance. De cette manière je crois pouvoir laisser surgir des idées et des émotions auxquelles je n'aurais pas eu accès autrement. Ainsi, depuis l'intuition première du personnage jusqu'à sa construction finale, il m'importe de ne paraître ni à travers lui ni à travers le texte, qui devra tout naturellement sembler écrit par Satô Kikuchi. En lien avec cette pratique, ma réflexion théorique cherche par ailleurs à comprendre comment mes expériences d'acteur et d'improvisateur peuvent être mises à contribution. Il s'agit plus précisément pour moi de reconnaître en elles et dans les théories du jeu d'acteur les concepts de transformation et de disparition de soi, d'identification au personnage et de dédoublement, que je mets en relation avec la construction et la représentation du personnage dans l'écriture. De cette façon, je cherche à développer une conception de l'écriture entièrement dynamisée par la création du personnage, et par son incarnation en processus d'écriture. Cette approche est ultimement portée par une éthique, c'est-à-dire une quête de vérité tant dans la représentation du personnage que dans l'appréhension du plus petit objet, de toutes choses aperçues un court instant, dans cet «aperçu fulgurant» dont parle Novarina. ______________________________________________________________________________ MOTS-CLÉS DE L’AUTEUR : Écriture, Amenuisement, Personnage, Incarnation, Improvisation, Méditation, Voyage
    • …
    corecore