96 research outputs found

    Aggregation bias, trade liberalisation and the J-curve in South Africa : exploring the bilateral real exchange rate - trade balance relationship

    Get PDF
    Includes bibliographical references (leaves 44-46).This paper investigates the short and long-run effects of openness on South Africa's non-gold merchandise trade balance at the bilateral and aggregate level. Openness is measured using bilateral real exchange rates and a measure of tariff protection, namely collection rates. Bilateral trade balance relationships are estimated for seven countries (France, Germany, Italy, Japan, the Netherlands. the UK and the USA) to test for heterogeneous responses in the relationship. The robustness of the results are assessed USl11g the Autoregressive Distributed Lag (ARDL) Approach to co-integration. We find strong evidence of aggregation bias. In all cases a real exchange rate depreciation improves the bilateral (and aggregate) trade balance, but the strength of the relationship differs across regions. We find evidence of J-curve behaviour in the cases of South African bilateral trade with the UK and the USA. Similar behaviour is not found using aggregate level data. Protection is shown to improve the trade balance in some cases, but not others

    Stevens-Johnson Syndrome Following Treatment With Carbamazepine for a Mood Disorder

    Get PDF
    A case of Stevens-Johnson Syndrome (SJS) induced by carbamazepine in a psychiatric patient with schizo-affective disorder is reported. The patient also had diabetes mellitus and was on glyburide which posed an initial dilemma at the onset of SJS as to the causative drug. In view of the expanding use of carbamazepine in psychiatric patients and the potentially lethal consequences of SJS, the authors suggest a risk management approach when initiating Carbamazepine therapy to reduce the incidence and morbidity of the syndrome

    Robust calibration of numerical models based on relative regret

    Get PDF
    Classical methods of parameter estimation usually imply the minimisation of an objective function, that measures the error between some observations and the results obtained by a numerical model. In the presence of random inputs, the objective function becomes a random variable, and notions of robustness have to be introduced. In this paper, we are going to present how to take into account those uncertainties by defining a family of calibration objectives based on the notion of relative-regret with respect to the best attainable performance given the uncertainties and compare it with the minimum in the mean sense, and the minimum of variance

    Integrated problem-based learning in the neuroscience curriculum – the SUNY Downstate experience

    Get PDF
    BACKGROUND: This paper reports the author's initial experience as Block Director in converting a Conventional Curriculum into a problem-based learning model (PBL) for teaching Psychopathology. As part of a wide initiative in curriculum reform, Psychopathology, which was a six-week course in the second-year medical school curriculum, became integrated into a combined Neuroscience block. The study compares curriculum conversion at State University of New York (SUNY), Downstate, with the experiences at other medical centres that have instituted similar curricula reform. METHODS: Student satisfaction with the Conventional and PBL components of the Neuroscience curriculum was compared using questionnaires and formal discussions between faculty and a body of elected students. The PBL experience in Psychopathology was also compared with that of the rest of the Neuroscience Block, which used large student groups and expert facilitators, while the Psychopathology track was limited to small groups using mentors differing widely in levels of expertise. RESULTS: Students appeared to indicate a preference toward conventional lectures and large PBL groups using expert facilitators in contrast to small group mentors who were not experts. Small PBL groups with expert mentors in the Psychopathology track were also rated favorably. CONCLUSION: The study reviews the advantages and pitfalls of the PBL system when applied to a Neuroscience curriculum on early career development. At SUNY, conversion from a Conventional model to a PBL model diverged from that proposed by Howard S. Barrows where student groups define the learning objectives and problem-solving strategies. In our model, the learning objectives were faculty-driven. The critical issue for the students appeared to be the level of faculty expertise rather than group size. Expert mentors were rated more favorably by students in fulfilling the philosophical objectives of PBL. The author, by citing the experience at other major Medical Faculties, makes a cautious attempt to address the challenges involved in the conversion of a Psychopathology curriculum into a PBL dominated format

    Are old-old patients with major depression more likely to relapse than young-old patients during continuation treatment with escitalopram?

    Get PDF
    <p>Abstract</p> <p>Background</p> <p>Escitalopram has shown efficacy and tolerability in the prevention of relapse in elderly patients with major depressive disorder (MDD). This <it>post-hoc </it>analysis compared time to relapse for <it>young-old </it>patients (n = 197) to that for <it>old-old </it>patients (n = 108).</p> <p>Method</p> <p>Relapse prevention: after 12-weeks open-label treatment, remitters (MADRS ≤12) were randomised to double-blind treatment with escitalopram or placebo and followed over 24-weeks. Patients were outpatients with MDD from 46 European centers aged ≥75 years (<it>old-old</it>) or 65-74 years of age (<it>young-old</it>), treated with escitalopram 10-20mg/day. Efficacy was assessed using the Montgomery Åsberg Depression Rating Scale (MADRS).</p> <p>Results</p> <p>After open-label escitalopram treatment, a similar proportion of <it>young-old </it>patients (78%) and <it>old-old </it>patients (72%) achieved remission. In the analysis of time to relapse based on the Cox model (proportional hazards regression), with treatment and age group as covariates, the hazard ratio was 4.4 for placebo <it>versus </it>escitalopram (χ<sup>2</sup>-test, df = 1, χ<sup>2</sup>= 22.5, p < 0.001), whereas the effect of age was not significant, with a hazard ratio of 1.2 for <it>old-old </it>versus <it>young-old </it>(χ<sup>2</sup>-test, df = 1, χ<sup>2 </sup>= 0.41, p = 0.520). Escitalopram was well tolerated in both age groups with adverse events reported by 53.1% of <it>young-old </it>patients and 58.3% of <it>old-old </it>patients. There was no significant difference in withdrawal rates due to AEs between age groups (χ<sup>2</sup>-test, χ<sup>2 </sup>= 1.669, df = 1, p = 0.196).</p> <p>Conclusions</p> <p><it>Young-old </it>and <it>old-old </it>patients with MDD had comparable rates of remission after open-label escitalopram, and both age groups had much lower rates of relapse on escitalopram than on placebo.</p

    Parameter control in the presence of uncertainties

    No full text
    De nombreux phénomènes physiques sont modélisés afin d'en mieux connaître les comportements ou de pouvoir les prévoir. Cependant pour représenter la réalité, de nombreux processus doivent être simplifiés, car ils sont souvent trop complexes, ou apparaissent à une échelle bien inférieure à celle de l'étude du phénomène. Au lieu de complétement les omettre, les effets de ces processus sont souventretranscrits dans les modèles à l'aide de paramétrisations, c'est-à-dire en introduisant des termes les quantifiant, et qui doivent être ensuite estimées. Les méthodes classiques d'estimation se basent sur la définition d'une fonction objectif qui mesure l'écart entre le modèle numérique et la réalité, qui est ensuite optimisée.Cependant, au delà de l'incertitude sur la valeur du paramètre à estimer, un autre type d'incertitude peut aussi être présent. Cela permet de représenter la variabilité intrinsèque de certains processusexternes, qui vont avoir un effet sur la modélisation. Ces variables vont être qualifiées d'environnementales. En les les modélisant à l'aide d'une variable aléatoire, la fonction objectif devient à son tour une variable aléatoire, que l'on va chercher à minimiser dans un certain sens. Si on omet ce caractère aléatoire, on peut se retrouver avec un paramètre optimal uniquement pour la valeur nominale du paramètre environnemental, et le modèle peut s'éloigner de la réalité pour d'autres réalisations. Ce problème d'optimisation sous incertitudes est souvent abordé en optimisant les premiers moments de la variable aléatoire, l'espérance en particulier.Dans cette thèse, nous nous intéressons plutôt à la notion de regret, qui mesure l'écart entre la fonction objectif et la valeur optimale qu'elle peut atteindre, pour la réalisation de la variable environnementale donnée. Cette idée de regret (additif ou bien relatif) nous permet de proposer une notion de robustesse à travers l'étude de sa probabilité de dépasser un certain seuil, ou inversement à travers le calcul de ses quantiles. À l'aide de ce seuil, ou de l'ordre du quantile choisi, on peut donc définir une familled'estimateurs basés sur le regret.Néanmoins, le calcul du regret, et donc des quantités dérivées peut vite devenir très coûteux, car il nécessite une optimisation par rapport au paramètre de contrôle. Nous proposons donc d'utiliser desprocessus Gaussiens (GP) afin de construire un modèle de substitution, et donc de réduire cette contrainte en pratique. Nous proposons aussi des méthodes itératives basées notamment sur la stratégie SUR (Stepwise Uncertainty Reduction, Réduction d'incertitudes séquentielle): le point à évaluer ensuite est choisi selon un critère permettant d'améliorer au mieux des quantités associées auregret-relatif.Enfin, nous appliquons les outils présentés dans cette thèse à un problème académique d'estimation de paramètre. Nous étudions ainsi la calibration sous incertitudes du paramètre de friction de fond d'unmodèle océanique, représentant la façade atlantique des côtes françaises, ainsi que la Manche dans un cadre d'expériences jumelles.To understand and to be able to forecast natural phenomena is increasingly important nowadays, as those predictions are often the basis of many decisions, whether economical or ecological. In order todo so, mathematical models are introduced to represent the reality at a specific scale, and are then implemented numerically. However in this process of modelling, many complex phenomena occurring at a smaller scale than the one studied have to be simplified and quantified. This often leads to the introduction of additional parameters, which then need to be properly estimated. Classical methods of estimation usually involve an objective function, that measures the distance between the simulations and some observations, which is then optimised. Such an optimisation require many runs of the numerical model and possibly the computation of its gradient, thus can be expensive to evaluate computational-wise.However, some other uncertainties can also be present, which represent some uncontrollable and external factors that affect the modelling. Those variables will be qualified as environmental. By modelling them with a random variable, the objective function is then a random variable as well, that we wish to minimise in some sense. Omitting the random nature of the environmental variable can lead to localised optimisation, and thus a value of the parameters that is optimal only for the fixed nominalvalue. To overcome this, the minimisation of the expected value of the objective function is often considered in the field of optimisation under uncertainty for instance.In this thesis, we focus instead on the notion of regret, that measures the deviation of the objective function from its optimal value given a realisation of the environmental variable. This regret (either additive or relative) translates a notion of robustness through its probability of exceeding a specified threshold. So, by either controlling the threshold or the probability, we can define a family of estimators based on this regret.The regret can quickly become expensive to evaluate since it requires an optimisation of the objective for every realisation of the environmental variable. We then propose to use Gaussian Processes (GP) in order to reduce the computational burden of this evaluation. In addition to that, we propose a few adaptive methods in order to improve the estimation: the next points to evaluate are chosensequentially according to a specific criterion, in a Stepwise Uncertainty Reduction (SUR) strategy.Finally, we will apply some of the methods introduced in this thesis on an academic problem of parameter estimation. We will study the calibration of the bottom friction of a model of the Atlantic ocean near the French coasts, while introducing some uncertainties in the forcing of the tide, and get a robust estimation of this friction parameter in a twin experiment setting

    Contrôle de paramètre en présence d'incertitudes

    No full text
    To understand and to be able to forecast natural phenomena is increasingly important nowadays, as those predictions are often the basis of many decisions, whether economical or ecological. In order todo so, mathematical models are introduced to represent the reality at a specific scale, and are then implemented numerically. However in this process of modelling, many complex phenomena occurring at a smaller scale than the one studied have to be simplified and quantified. This often leads to the introduction of additional parameters, which then need to be properly estimated. Classical methods of estimation usually involve an objective function, that measures the distance between the simulations and some observations, which is then optimised. Such an optimisation require many runs of the numerical model and possibly the computation of its gradient, thus can be expensive to evaluate computational-wise.However, some other uncertainties can also be present, which represent some uncontrollable and external factors that affect the modelling. Those variables will be qualified as environmental. By modelling them with a random variable, the objective function is then a random variable as well, that we wish to minimise in some sense. Omitting the random nature of the environmental variable can lead to localised optimisation, and thus a value of the parameters that is optimal only for the fixed nominalvalue. To overcome this, the minimisation of the expected value of the objective function is often considered in the field of optimisation under uncertainty for instance.In this thesis, we focus instead on the notion of regret, that measures the deviation of the objective function from its optimal value given a realisation of the environmental variable. This regret (either additive or relative) translates a notion of robustness through its probability of exceeding a specified threshold. So, by either controlling the threshold or the probability, we can define a family of estimators based on this regret.The regret can quickly become expensive to evaluate since it requires an optimisation of the objective for every realisation of the environmental variable. We then propose to use Gaussian Processes (GP) in order to reduce the computational burden of this evaluation. In addition to that, we propose a few adaptive methods in order to improve the estimation: the next points to evaluate are chosensequentially according to a specific criterion, in a Stepwise Uncertainty Reduction (SUR) strategy.Finally, we will apply some of the methods introduced in this thesis on an academic problem of parameter estimation. We will study the calibration of the bottom friction of a model of the Atlantic ocean near the French coasts, while introducing some uncertainties in the forcing of the tide, and get a robust estimation of this friction parameter in a twin experiment setting.De nombreux phénomènes physiques sont modélisés afin d'en mieux connaître les comportements ou de pouvoir les prévoir. Cependant pour représenter la réalité, de nombreux processus doivent être simplifiés, car ils sont souvent trop complexes, ou apparaissent à une échelle bien inférieure à celle de l'étude du phénomène. Au lieu de complétement les omettre, les effets de ces processus sont souventretranscrits dans les modèles à l'aide de paramétrisations, c'est-à-dire en introduisant des termes les quantifiant, et qui doivent être ensuite estimées. Les méthodes classiques d'estimation se basent sur la définition d'une fonction objectif qui mesure l'écart entre le modèle numérique et la réalité, qui est ensuite optimisée.Cependant, au delà de l'incertitude sur la valeur du paramètre à estimer, un autre type d'incertitude peut aussi être présent. Cela permet de représenter la variabilité intrinsèque de certains processusexternes, qui vont avoir un effet sur la modélisation. Ces variables vont être qualifiées d'environnementales. En les les modélisant à l'aide d'une variable aléatoire, la fonction objectif devient à son tour une variable aléatoire, que l'on va chercher à minimiser dans un certain sens. Si on omet ce caractère aléatoire, on peut se retrouver avec un paramètre optimal uniquement pour la valeur nominale du paramètre environnemental, et le modèle peut s'éloigner de la réalité pour d'autres réalisations. Ce problème d'optimisation sous incertitudes est souvent abordé en optimisant les premiers moments de la variable aléatoire, l'espérance en particulier.Dans cette thèse, nous nous intéressons plutôt à la notion de regret, qui mesure l'écart entre la fonction objectif et la valeur optimale qu'elle peut atteindre, pour la réalisation de la variable environnementale donnée. Cette idée de regret (additif ou bien relatif) nous permet de proposer une notion de robustesse à travers l'étude de sa probabilité de dépasser un certain seuil, ou inversement à travers le calcul de ses quantiles. À l'aide de ce seuil, ou de l'ordre du quantile choisi, on peut donc définir une familled'estimateurs basés sur le regret.Néanmoins, le calcul du regret, et donc des quantités dérivées peut vite devenir très coûteux, car il nécessite une optimisation par rapport au paramètre de contrôle. Nous proposons donc d'utiliser desprocessus Gaussiens (GP) afin de construire un modèle de substitution, et donc de réduire cette contrainte en pratique. Nous proposons aussi des méthodes itératives basées notamment sur la stratégie SUR (Stepwise Uncertainty Reduction, Réduction d'incertitudes séquentielle): le point à évaluer ensuite est choisi selon un critère permettant d'améliorer au mieux des quantités associées auregret-relatif.Enfin, nous appliquons les outils présentés dans cette thèse à un problème académique d'estimation de paramètre. Nous étudions ainsi la calibration sous incertitudes du paramètre de friction de fond d'unmodèle océanique, représentant la façade atlantique des côtes françaises, ainsi que la Manche dans un cadre d'expériences jumelles

    State-dependent Preconditioning for Data Assimilation

    No full text
    International audienc

    Contrôle de paramètre en présence d'incertitudes

    No full text
    To understand and to be able to forecast natural phenomena is increasingly important nowadays, as those predictions are often the basis of many decisions, whether economical or ecological. In order todo so, mathematical models are introduced to represent the reality at a specific scale, and are then implemented numerically. However in this process of modelling, many complex phenomena occurring at a smaller scale than the one studied have to be simplified and quantified. This often leads to the introduction of additional parameters, which then need to be properly estimated. Classical methods of estimation usually involve an objective function, that measures the distance between the simulations and some observations, which is then optimised. Such an optimisation require many runs of the numerical model and possibly the computation of its gradient, thus can be expensive to evaluate computational-wise.However, some other uncertainties can also be present, which represent some uncontrollable and external factors that affect the modelling. Those variables will be qualified as environmental. By modelling them with a random variable, the objective function is then a random variable as well, that we wish to minimise in some sense. Omitting the random nature of the environmental variable can lead to localised optimisation, and thus a value of the parameters that is optimal only for the fixed nominalvalue. To overcome this, the minimisation of the expected value of the objective function is often considered in the field of optimisation under uncertainty for instance.In this thesis, we focus instead on the notion of regret, that measures the deviation of the objective function from its optimal value given a realisation of the environmental variable. This regret (either additive or relative) translates a notion of robustness through its probability of exceeding a specified threshold. So, by either controlling the threshold or the probability, we can define a family of estimators based on this regret.The regret can quickly become expensive to evaluate since it requires an optimisation of the objective for every realisation of the environmental variable. We then propose to use Gaussian Processes (GP) in order to reduce the computational burden of this evaluation. In addition to that, we propose a few adaptive methods in order to improve the estimation: the next points to evaluate are chosensequentially according to a specific criterion, in a Stepwise Uncertainty Reduction (SUR) strategy.Finally, we will apply some of the methods introduced in this thesis on an academic problem of parameter estimation. We will study the calibration of the bottom friction of a model of the Atlantic ocean near the French coasts, while introducing some uncertainties in the forcing of the tide, and get a robust estimation of this friction parameter in a twin experiment setting.De nombreux phénomènes physiques sont modélisés afin d'en mieux connaître les comportements ou de pouvoir les prévoir. Cependant pour représenter la réalité, de nombreux processus doivent être simplifiés, car ils sont souvent trop complexes, ou apparaissent à une échelle bien inférieure à celle de l'étude du phénomène. Au lieu de complétement les omettre, les effets de ces processus sont souventretranscrits dans les modèles à l'aide de paramétrisations, c'est-à-dire en introduisant des termes les quantifiant, et qui doivent être ensuite estimées. Les méthodes classiques d'estimation se basent sur la définition d'une fonction objectif qui mesure l'écart entre le modèle numérique et la réalité, qui est ensuite optimisée.Cependant, au delà de l'incertitude sur la valeur du paramètre à estimer, un autre type d'incertitude peut aussi être présent. Cela permet de représenter la variabilité intrinsèque de certains processusexternes, qui vont avoir un effet sur la modélisation. Ces variables vont être qualifiées d'environnementales. En les les modélisant à l'aide d'une variable aléatoire, la fonction objectif devient à son tour une variable aléatoire, que l'on va chercher à minimiser dans un certain sens. Si on omet ce caractère aléatoire, on peut se retrouver avec un paramètre optimal uniquement pour la valeur nominale du paramètre environnemental, et le modèle peut s'éloigner de la réalité pour d'autres réalisations. Ce problème d'optimisation sous incertitudes est souvent abordé en optimisant les premiers moments de la variable aléatoire, l'espérance en particulier.Dans cette thèse, nous nous intéressons plutôt à la notion de regret, qui mesure l'écart entre la fonction objectif et la valeur optimale qu'elle peut atteindre, pour la réalisation de la variable environnementale donnée. Cette idée de regret (additif ou bien relatif) nous permet de proposer une notion de robustesse à travers l'étude de sa probabilité de dépasser un certain seuil, ou inversement à travers le calcul de ses quantiles. À l'aide de ce seuil, ou de l'ordre du quantile choisi, on peut donc définir une familled'estimateurs basés sur le regret.Néanmoins, le calcul du regret, et donc des quantités dérivées peut vite devenir très coûteux, car il nécessite une optimisation par rapport au paramètre de contrôle. Nous proposons donc d'utiliser desprocessus Gaussiens (GP) afin de construire un modèle de substitution, et donc de réduire cette contrainte en pratique. Nous proposons aussi des méthodes itératives basées notamment sur la stratégie SUR (Stepwise Uncertainty Reduction, Réduction d'incertitudes séquentielle): le point à évaluer ensuite est choisi selon un critère permettant d'améliorer au mieux des quantités associées auregret-relatif.Enfin, nous appliquons les outils présentés dans cette thèse à un problème académique d'estimation de paramètre. Nous étudions ainsi la calibration sous incertitudes du paramètre de friction de fond d'unmodèle océanique, représentant la façade atlantique des côtes françaises, ainsi que la Manche dans un cadre d'expériences jumelles
    corecore