221 research outputs found
Attitudes towards old age and age of retirement across the world: findings from the future of retirement survey
The 21st century has been described as the first era in human history when the world will no longer be young and there will be drastic changes in many aspects of our lives including socio-demographics, financial and attitudes towards the old age and retirement. This talk will introduce briefly about the Global Ageing Survey (GLAS) 2004 and 2005 which is also popularly known as “The Future of Retirement”. These surveys provide us a unique data source collected in 21 countries and territories that allow researchers for better understanding the individual as well as societal changes as we age with regard to savings, retirement and healthcare. In 2004, approximately 10,000 people aged 18+ were surveyed in nine counties and one territory (Brazil, Canada, China, France, Hong Kong, India, Japan, Mexico, UK and USA). In 2005, the number was increased to twenty-one by adding Egypt, Germany, Indonesia, Malaysia, Poland, Russia, Saudi Arabia, Singapore, Sweden, Turkey and South Korea). Moreover, an additional 6320 private sector employers was surveyed in 2005, some 300 in each country with a view to elucidating the attitudes of employers to issues relating to older workers. The paper aims to examine the attitudes towards the old age and retirement across the world and will indicate some policy implications
Recommended from our members
Flexible Models for Competing Risks and Weighted Analyses of Composite Endpoints
In many clinical studies the occurrence of different types of disease events over time is of interest. For example, in cardiovascular studies, disease events such as death, stroke or myocardial infarction are of interest. As another example, in central nervous system infections such as cryptococcal meningitis, unfavourable events such as death or neurological events and favourable events such as coma or fungal clearance are relevant. In statistical terminology, competing risks refer to data where the time and type of the first disease event are analysed. Such data arise naturally if a nonfatal disease event is of interest but is precluded by death in a substantial proportion of subjects. Competing risks are the topic of the first four chapters of this thesis. An alternative approach used in many randomized controlled clinical trials is to combine different harmful events to a single composite endpoint. The analysis of trials with a composite endpoints is the topic of the fifth chapter. This thesis is organised as follows:
Chapters 1 and 2 are introductory chapters and provide an overview of statistical approaches to competing risks and semi-nonparametric (SNP) density estimation. Two concepts that form the basis for the work in Chapters 3 and 4 are introduced here: the cumulative incidence function (CIF) and SNP densities. For competing risks data, the CIF describes the absolute risk of different event types depending on time and is the most important quantity for data description, prognostic modelling, and medical decision making. SNP densities are densities that can be expressed as the product of a squared polynomial (of variable degree) and a base density which is chosen as the standard normal or the exponential density in this work.
Chapter 3 presents a novel approach to CIF-estimation. The underlying statistical model is specified via a mixture factorization of the joint distribution of the event type and time and the time to event distributions conditional on the event type are modelled using SNP densities. One key strength of the approach is that it can handle arbitrary censoring and truncation. A stepwise forward algorithm for model estimation and adaptive selection of SNP polynomial degrees is presented, implemented in the statistical software R, evaluated in a sequence of simulation studies, and applied to data sets from clinical trials in central nervous system infections. The simulations demonstrate that the SNP approach frequently outperforms both parametric and nonparametric alternatives. They also support the use of “ad hoc” asymptotic inference to derive confidence intervals despite a lack of a formal mathematical verification for the relevant asymptotic properties.
Chapter 4 extends the work of Chapter 3 to regression modelling, i.e. the quantification of cov-ariate effects on the CIF. A careful discussion of interpretational and identifiability issues which are intrinsic to models based on the mixture factorization is provided and the usage of the model is only recommended in settings with sufficient follow-up relative to the timing of the events. A simulation study demonstrates that the proposed approach is competitive compared to common statistical models for competing risks in terms of accuracy of parameter estimates and predictions. However, it also shows that “ad hoc” asymptotic inference is only valid if sample size is large. The chapter also provides a suggestion for model diagnostics of the proposed model, an area that has been somewhat neglected for competing risks data.
Chapter 5 discusses the analysis of composite endpoints. A common critique of traditional analyses of composite endpoints is that all disease events are equally weighted whereas their clinical relevance may differ substantially. This chapter addresses this by introducing a framework for the weighted analysis of composite endpoints that handles both binary and time-to-event data. To address the difficulty in selecting an exact set of weights, it proposes a method for constructing simultaneous confidence intervals and tests that protect the familywise type I error in the strong sense across families of weights which satisfy flexible inequality and order constraints based on the theory of χ-2-distributions. It is then demonstrated in several simulation scenarios as well as applications that the proposed method achieves the nominal simultaneous overall coverage rate with lower efficiency loss compared to the standard Scheffe’s procedure.
Final remarks are given in Chapter 6 together with an outlook for potential future research directions
Attitudes towards old age and age of retirement across the world: findings from the future of retirement survey
The 21st century has been described as the first era in human history when the world will no longer be young and there will be drastic changes in many aspects of our lives including socio-demographics, financial and attitudes towards the old age and retirement. This talk will introduce briefly about the Global Ageing Survey (GLAS) 2004 and 2005 which is also popularly known as “The Future of Retirement”. These surveys provide us a unique data source collected in 21 countries and territories that allow researchers for better understanding the individual as well as societal changes as we age with regard to savings, retirement and healthcare. In 2004, approximately 10,000 people aged 18+ were surveyed in nine counties and one territory (Brazil, Canada, China, France, Hong Kong, India, Japan, Mexico, UK and USA). In 2005, the number was increased to twenty-one by adding Egypt, Germany, Indonesia, Malaysia, Poland, Russia, Saudi Arabia, Singapore, Sweden, Turkey and South Korea). Moreover, an additional 6320 private sector employers was surveyed in 2005, some 300 in each country with a view to elucidating the attitudes of employers to issues relating to older workers. The paper aims to examine the attitudes towards the old age and retirement across the world and will indicate some policy implications
Estimating and Correcting the Effects of Model Selection Uncertainty
Die meisten statistischen Analysen werden
in Unkenntnis des wahren Modells durchgeführt, d.h. dass das
Modell, das die Daten erzeugte, unbekannt ist und die Daten
zunächst dafür verwendet werden, mit Hilfe eines
Modellauswahlkriteriums ein Modell aus einer Menge plausibler
Modelle auszuwählen. Gewöhnlich werden die Daten dann verwendet, um
Schlüsse über einige Variablen zu ziehen. Dabei wird die
Modellunsicherheit, also die Tatsache, dass der
Modellauswahlschritt mit den gleichen Daten durchgeführt wurde,
ignoriert, obwohl man weiß, dass dies zu ungültigen
Schlussfolgerungen führt. Die vorliegende Arbeit untersucht einige
Aspekte des Problems sowohl aus bayesianischer als auch aus
frequentistischer Sicht und macht neue Vorschläge, wie mit dem
Problem umgegangen werden kann. Wir untersuchen bayesianische
Modellmittelung (Bayesian model averaging =BMA) und zeigen, dass
dessen frequentistisches Abschneiden nicht immer wohldefiniert ist,
denn in einigen Fällen ist es unklar, ob BMA wirklich bayesianisch
ist. Wir illustrieren diesen Punkt mit einer „vollständigen
bayesianische Modellmittelung“, die anwendbar ist, wenn die
interessierende Größe parametrisch ist. Wir stellen ein System vor,
das die Komplexität von Schätzern nach der Modellauswahl aufdeckt
(„post-model-selection Schätzer“) und untersuchen ihre
Eigenschaften im Kontext der linearen Regression für eine Vielzahl
an Modellauswahlprozeduren. Wir zeigen, dass kein
Modellauswahlkriterium gleichmäßig besser ist als alle anderen, im
Sinne der Risikofunktion. Schlüsselzutaten des Problems werden
identifiziert und verwendet, um zu zeigen, dass selbst konsistente
Modellauswahlkriterien das Problem der Modellauswahlunsicherheit
nicht lösen. Wir argumentieren außerdem, dass das Bedingen der
Analyse auf die Teilmenge des Stichprobenraumes, die zu einem
bestimmten Modell führte, unvollständig ist. Wir betrachten das
Problem aus frequentistischer Sicht. Obwohl Modellmittelung und
Modellauswahl normalerweise als zwei getrennte Herangehensweisen
betrachtet werden, schlagen wir vor, das zweite als Spezialfall der
Modellmittelung zu betrachten, in welcher die (zufälligen) Gewichte
den Wert 1 für das ausgewählte Modell annehmen und 0 für alle
anderen. Aus dieser Perspektive, und da die optimalen Gewichte in
der Praxis nicht bestimmt werden können, kann nicht erwartet
werden, dass eine der zwei Methoden die andere konsistent
übertrifft. Es führt uns dazu, alternative Gewichte für die
Mittelung vorzuschlagen, die dazu gedacht sind, die
post-model-selection Schätzung zu verbessern. Die Innovation
besteht darin, die Modellauswahlprozedur bei der Bestimmung der
Gewichte zu berücksichtigen. Wir vergleichen die verschiedenen
Methoden für einige einfache Fälle (lineare Regression und
Häufigkeitsschätzung). Wir zeigen, dass Bootstrapverfahren keine
guten Schätzer für die Eigenschaften der post-model-selection
Schätzer liefern. Zurückkehrend zur bayesianischen Sicht zeigen wir
auf, dass, solange die Analyse bedingt auf die Daten stattfindet,
Modellauswahlunsicherheit kein Problem ist, nur die Unsicherheit
des Modells an sich. Wenn jemand allerdings an den
frequentistischen Eigenschaften der bayesianischen
post-model-selection Schätzern interessiert ist, ist die Situation
analog zu der in der frequentistischen Analyse. Hier schlagen wir
wieder eine Alternative zur gewöhnlichen BMA vor, in der die
Gewichte von den Auswahlkriterien des Modells abhängen und somit
die Auswahlprozedur berücksichtigen. Wir zeigen außerdem, dass die
Eigenschaften von Modellmittelung und post-model-selection
Schätzern nur unter einem angenommenen wahren Modell hergeleitet
werden können. Unter einer solchen Annahme würde man allerdings
einfach das wahre Modell nehmen, ohne Modellwahl oder
Modellmittelung anzuwenden. Dieser Zirkelschluss macht es so
schwierig, mit dem Problem umzugehen. Traditionelle explorative
frequentistische Datenanalyse und Aufstellung eines Modells kann
als eine informelle Modellwahl betrachtet werden, in welcher die
genaue Modellauswahlprozedur schwierig zu rekonstruieren ist, was
es besonders schwierig macht, gültige Schlussfolgerungen zu ziehen.
Ohne die Debatte über Vor- und Nachteile der bayesianischen und
frequentistischen Methoden zu führen, möchten wir betonen, dass
bayesianische Methoden vorzuziehen sind, um
Modellauswahlunsicherheit zu vermeiden, solange die
frequentistischen Eigenschaften des resultierenden Schätzers nicht
von Interesse sind
- …