367 research outputs found
An Empirical Analysis of Foreign Exchange Reserves in Emerging Asia
Over the past few years, the ability of the United States to finance its current account deficit has been facilitated by massive purchases of U.S. Treasury bonds and agency securities by Asian central banks. In this process, Asian central banks have accumulated large stockpiles of U.S.-dollar foreign exchange reserves. How far is the current level of reserves from that predicted by the standard macroeconomic determinants? The authors answer this question by using Pedroni's (1999) panel cointegration tests as the basis for the estimation of a long-run reserve-demand function in a panel of eight Asian emerging-market economies. This is a key innovation relative to the existing research on international reserves modelling: although the data are typically I(1), the literature ignores this fact and makes statistical inference based on unadjusted standard errors. While the authors find evidence of a positive structural break in the demand for international reserves by Asian central banks in the aftermath of the financial crisis of 1997-98, their results indicate that the actual level of reserves accumulated in 2003-04 was still in excess relative to that predicted by the model. Therefore, as long as historical relationships hold, a slowdown in the rate of accumulation of reserves is likely. This poses negative risks for the U.S. dollar. However, both the substantial capital losses that Asian central banks would incur if they were to drastically change their holding policy and the evidence that the currency composition of reserves evolves only gradually mitigate the risks of a rapid depreciation of the U.S. dollar triggered by Asian central banks.Econometric and statistical methods; International topics; Financial stability
Recommended from our members
Project Testbed: Argument Mapping and Deliberation Analytics
One key goal of the Catalyst project was to design metrics that could capture and represent aspects of the conversation’s structural quality, to assist harvesters and moderators. Many such metrics, alerts and visualizations were developed in the course of the project, but initial user testing has shown that users find it difficult to interpret abstract signals. Following that, we have both introduced new analytics that we felt could be more directly useful, and improved the representation of existing ones. We evaluated their usefulness in a smaller conversation and in experimental settings
Évaluation des métadonnées extraites par ExifTool aux fins de création d'une fiche LOM
Tiré de l'écran-titre (visionné le 27 juin 2017).Ces travaux font suite au travail de débroussaillage réalisé par Vincent François, de WebConforme, pour identifier les métadonnées présentes dans les documents, et pouvant être extraites par Alfresco. Nous avions relevé qu’Alfresco sélectionnait une partie des métadonnées détectées par l’outil ExifTool 1 de Phil Harvey, et qu’il serait pertinent de voir si un emploi direct d’ExifTool nous permettrait de récupérer plus de métadonnées, et d’en tirer une fiche LOM. Nous nous sommes donc concentrés sur les métadonnées contenues dans LOM
Les tableaux numériques interactifs: considérations d'interopérabilité
Tiré de l'écran-titre (visionné le 27 juin 2017).Une revue des fonctions offertes par plusieurs systèmes de tableaux numériques interactifs, selon leur pertinence pédagogique, et une analyse technique des normes émergentes d’interopérabilité
MUSE: The Bank of Canada's New Projection Model of the U.S. Economy
Staff projections provided for the Bank of Canada's monetary policy decision process take into account the integration of Canada's very open economy within the global economy, as well as its close real and financial linkages with the United States. To provide inputs for this projection, the Bank has developed several models, including MUSE, NEUQ (the New European Quarterly Model), and BoC-GEM (Bank of Canada Global Economy Model), to analyze and forecast economic developments in the rest of the world. The authors focus on MUSE, the model currently used to describe interaction among the principal U.S. economic variables, including gross domestic product, inflation, interest rates, and the exchange rate. Brief descriptions are also provided of NEUQ and BoC-GEM.
A Comparison of Parent and Teacher Ratings of Child Behaviours: the Pygmalion Effect Revisited
Early schooling experience is a reliable predictor of later school and professional adjustment. In the context of important investment made in the preschool curriculum to promote early academic achievement among children at risk of failure, the validity of screening and referring procedures is a rising issue. 384 children and their family participated in an 18 months longitudinal study from kindergarten to first grade. Results of the present study confirmed the value of screening protocol based on consensus between parents and teacher for greater attention to children needs. However, further results suggested that kindergarten’ teachers might be considered as a unique and valid informant to predict early academic achievement
Arrimage avec learning resource metadata initiative (LRMI)
Tiré de l'écran-titre (visionné le 27 juin 2017).Parmi ses travaux sur les métadonnées pour les ressources d’enseignement et d’apprentissage (RÉA), le GTN-Québec a misé sur une transition du standard IEEE 1484.12.1–2002 (LOM) vers la norme ISO 19788 (MLR). Nous observons l’émergence de normes concurrentes pour les métadonnées de RÉA, parmi lesquelles, le standard LRMI, soutenu par l’initiative Dublin Core et plusieurs acteurs importants de l’industrie informatique dont Microsoft et Google. Nous avons fait une étude sur les cas d’adoption de cette norme, dans le but de déterminer s’il serait stratégique de développer des outils appropriés pour l’importation, le traitement et l’exportation de métadonnées suivant cette norme. Notre étude montre une adoption limitée, visant surtout l’optimisation pour les
moteurs de recherche. Il demeure possible que cet objectif puisse motiver une adoption future du standard et nous recommandons de continuer à observer l’évolution des données LRMI
Perspectives sur l'utilisation des TI en éducation au Québec
Tiré de l'écran-titre (visionné le 27 juin 2017).Ce rapport identifie les tendances majeures dans le domaine de la technologie et des pratiques (l’infonuagique, les données, la mobilité et l’éducation ouverte), ainsi que les enjeux associés et les composantes d’un modèle d’écologie d’apprentissage
Un formalisme graphique de représentation de contraintes sémantiques pour UML
L'utilisation à grande échelle de UML dans l'industrie informatique est en train d'en faire une norme incontournable pour toute activité de modélisation conceptuelle requise par l'informatisation de systèmes d'information. Toutefois, UML a ses limites. En effet, l'expression de contraintes sémantiques se fait par OCL (Object Constraint Language), un langage basé sur la logique des prédicats du premier ordre. Les avantages d'avoir un formalisme formel, simple et graphique se perdent donc lorsque les contraintes associées au domaine doivent être décrites soit sous une forme textuelle, soit en logique des prédicats du 1er ordre. La méthodologie envisagée consiste donc en l'élaboration d'un formalisme graphique d'expression de contrainte de telle sorte que les contraintes ainsi exprimées puissent être automatiquement transformées en OCL. Les contraintes OCL peuvent alors être vérifiées afin qu'elles soient toutes satisfaites et qu'elles évitent l'introduction d'incohérence dans les données. Dans ce cas, le modélisateur pourra en être averti et pourra ajuster le modèle ou valider l'acquisition de données. Éventuellement, nous visons à ce que ces contraintes puissent s'assurer que la génération du code en tienne compte, d'où leur possible intégration à un outil de modélisation et de génération de code (outil CASE)
Recommended from our members
The impact of incongruent vs. congruent food brand pairings
The purpose of this study is to empirically examine the effect of congruity within a food brand constellation on consumer attitudes, positive electronic word-of mouth, and willingness to pass along via social media. The empirical context focuses on food brands that tend to be traditionally consumed while watching sport. The study of congruity within brand constellations is important as food companies spend large sums of money on endorsers in their message promotions. After watching a short video on baseball, a sample of 250 students was shown two fake food brands stimuli ads, one featuring a congruent pairing (chips and soda) and the other, incongruent (chips and kale smoothie). The findings suggest that congruent pairings lead to better positive brand attitudes and positive word-of-mouth towards the combined brand and that incongruent pairings incur more pass-along on social media.Advertisin
- …