a historic review

Abstract

In Germany around 25 years ago nonparametric smoothing methods have found their way into statistics and with some delay also into biometry. In the early 1980's there has been what one might call a boom in theoretical and soon after also in computational statistics. The focus was on univariate nonparametric methods for density and curve estimation. For biometry however smoothing methods became really interesting in their multivariate version. This 'change of dimensionality' is still raising open methodological questions. No wonder that the simplifying paradigm of additive regression, realized in the generalized additive models (GAM), has initiated the success story of smoothing techniques starting in the early 1990's. In parallel there have been new algorithms and important software developments, primarily in the statistical programming languages S and R. Recent developments of smoothing techniques can be found in survival analysis, longitudinal analysis, mixed models and functional data analysis, partly integrating Bayesian concepts. All new are smoothing related statistical methods in bioinformatics.In this article we aim not only at a general historical overview but also try to sketch activities in the German-speaking world. Moreover, the current situation is critically examined. Finally a large number of relevant references is given.Vor rund 25 Jahren haben in Deutschland nichtparametrische Glättungsverfahren in die Statistik und etwas zeitverzögert auch in die Biometrie Eingang gefunden. In den frühen 1980er Jahren setzte ein regelrechter Boom in der theoretischen und bald auch rechenintensiven Statistik (engl. 'computational statistics') ein. Im Vordergrund standen univariate nichtparametrische Verfahren für die Dichte- und Kurvenschätzung. Wirklich interessant wurden Glättungsmethoden für die Biometrie jedoch erst in ihrer multivariaten Ausformung. Dieser 'Dimensionswechsel' wirft bis heute offene methodische Fragen auf. Es darf daher nicht wundern, dass das vereinfachende Paradigma der additiven Regression, realisiert in den generalisierten additiven Modellen (GAM), den Siegeszug der Glättungsverfahren Anfang der 1990er Jahre eingeleitet hat. Parallel dazu hat es neue Algorithmen und bedeutende Softwareentwicklungen, vor allem in den statistischen Programmiersprachen S und R, gegeben. Neuere Entwicklungen von Glättungsverfahren finden sich in der Überlebenszeitanalyse, der Longitudinalanalyse, den gemischten Modellen und in der Funktionaldatenanalyse, teilweise unter Einbeziehung Bayesianischer Konzepte. Ganz neu sind statistische Methoden mit Glättungsbezug in der Bioinformatik.In diesem Artikel wird nicht nur ein allgemeiner historischer Überblick gegeben, sondern auch versucht speziell die Aktivitäten im deutschsprachigen Raum zu skizzieren. Auch die derzeitige Situation wird einer kritischen Betrachtung unterzogen. Schlussendlich wird eine große Anzahl relevanter Literaturhinweise gegeben

Similar works

This paper was published in German Medical Science.

Having an issue?

Is data on this page outdated, violates copyrights or anything else? Report the problem now and we will take corresponding actions after reviewing your request.