6,357 research outputs found

    Systematic review about data quality and protocol compliance in clinical trials

    Get PDF
    Bei Investigator Initiated Trials (IITs) werden alternative risikoadaptierte Monitoring-Strategien in Abhängigkeit vom individuellen Studiendesign und dem Risikoprofil diskutiert, um bei oft restriktiven Ressourcen eine den gesetzlichen Vorgaben genügende Qualität der Studiendurchführung und der Daten zu gewährleisten. Aufgrund einer Literaturanalyse sollten in der vorliegenden Arbeit Untersuchungen ausgewertet werden, in denen quantitative Aussagen zu Datenqualität und Prüfplan-Compliance in klinischen Prüfungen gemacht wurden. Bei der Interpretation der Ergebnisse sollten die implementierten Qualitätssicherungsmaßnahmen berücksichtigt werden. Aufgrund einer systematischen Recherche in MEDLINE konnten 21 Publikationen identifiziert werden, bei denen die Daten- und Prozessqualität in klinischen Prüfungen untersucht, die Qualität durch Überprüfungen mit Source Data Verification vor Ort oder Überprüfung übermittelter Quelldaten in der Studienzentrale ermittelt wurde und quantitative Informationen zu den Bereichen Datenqualität, Protokoll-Compliance oder Defizite bei Einwilligungserklärungen vorlagen. Die Mehrzahl der Untersuchungen ist drei Organisationen zuzuordnen: European Organization für Research and Treatment of Cancer (EORTC) (n=7), National Cancer Institute (NCI) (n=7) und Untersuchungen der Trans-Tasman Radiation Oncology Group (TROG) (n=4). Darüber hinaus wurden drei Untersuchungen weiterer Studiengruppen identifiziert. Die Untersuchungen wurden im Zeitraum von 1981 bis 2003 publiziert. Überwiegend wurden in der Literatur onkologische Studien betrachtet (n=19), wobei die Radiotherapie im Vordergrund stand (n=8). Für die EORTC-Studien wurde in der Regel eine gute Datenqualität berichtet (80-90% korrekte Daten). Punktuelle Probleme wurden im Hinblick auf die Protokoll-Compliance und das Berichten von Nebenwirkungen/schwerwiegenden unerwünschten Ereignissen festgestellt. Eine gute Qualität wurde ebenfalls bzgl. des korrekten Einschlusses von Patienten beobachtet. Durch das NCI wurde ein standardisiertes Audit-System eingeführt und innerhalb von kooperativen Studiengruppen implementiert. Im Rahmen dieser Audits wurden verschiedene Kriterien überprüft und eine überwiegend gute Datenqualität und Protokoll-Compliance festgestellt. Mängel wurden in ca. 5% der Fälle im Hinblick auf die Einwilligungserklärung, die korrekte Anwendung der Einschlusskriterien, Protokollverletzungen, bei der Ermittlung des Zielkriteriums, der Erfassung der Toxizität, der adäquaten Datenlieferung und bei der Datenverifikation beobachtet. In einzelnen Untersuchungen ergaben sich Probleme mit der Behandlungscompliance (10-20%), bei Protokollabweichungen im Hinblick auf die Arzneimitteldosis (10%) und bei der Drug Accountability (15%). Von der TROG wurde ein Qualitätssicherungsprozess implementiert, der auf zentralem Monitoring von kopierten Quelldaten basiert. Durch den Qualitätssicherungsansatz der TROG konnten schwerwiegende Probleme mit der Protokoll-Compliance unter 10% gesenkt werden, ebenso konnte eine gute Datenqualität mit einer Fehlerrate unter 5% erreicht werden. Die korrekte Handhabung von Ein- und Ausschlusskriterien stellte in Einzelfällen ein Problem dar. Zusammenfassend kann festgestellt werden, dass die in dem Review erfassten Studiengruppen von einer guten Datenqualität und einer guten bis moderaten Protokoll-Compliance berichten. Diese basiert nach Aussage der Autoren im wesentlichen auf etablierten Qualitätssicherungs-Prozeduren, wobei das durchgeführte Audit ebenfalls einen potentiellen Einflussfaktor darstellt. Geringe Probleme wurden in der Regel im Hinblick auf die Einwilligungserklärung, die korrekte Handhabung der Ein- und Ausschlusskriterien und die Datenqualität beobachtet. In einzelnen Studien gab es jedoch Probleme mit der Protokoll-Compliance. Insgesamt hängen Anzahl und Art der Mängel von dem Studientyp, dem Qualitätsmanagement und der Organisation der Studiengruppe ab. Wissenschaftsbetrug wurde nur in sehr wenigen Fällen durch die Audits festgestellt. Die vorgelegten Informationen beziehen sich nahezu ausschließlich auf etablierte Studiengruppen; bezüglich Datenqualität und Protokoll-Compliance außerhalb der Studiengruppen liegen kaum Informationen in der Literatur vor. Bei der Bewertung der Ergebnisse sollte berücksichtigt werden, dass es sich zum Teil um Eigenauswertungen der Studiengruppen und nicht um unabhängige externe Prüfungen (z.B. externe Audits) handelt. Inwieweit die Ergebnisse einer konsequenten Überprüfung nach derzeitigen Good Clinical Practice (GCP) – Regeln standhalten würden, kann aus der Analyse nicht beantwortet werden. Aus der vorliegenden Literaturanalyse ergeben sich Konsequenzen für die Planung einer prospektiven kontrollierten Studie zum Vergleich unterschiedlicher Monitoring-Strategien. Wesentlicher Einflussfaktor für die Datenqualität und Protokollcompliance in einer klinischen Studie ist das Qualitätsmanagement. Dieses Qualitätsmanagement umfasst neben Monitoring zahlreiche andere Maßnahmen. Um zu einer Bewertung von Monitoringstrategien kommen zu können, müssen daher alle Qualitätssicherungsmaßnahmen im Rahmen einer Studie berücksichtigt werden. Für den Vergleich unterschiedlicher Monitoringstrategien sind geeignete Zielparameter zu definieren (z.B. schwerwiegende Defizite bzgl. Ein- und Ausschlusskriterien, Sicherheit). Die vorliegende Analyse ergibt, dass bei gutem Qualitätsmanagement ohne umfassendes vor Ort Monitoring schwerwiegende Fehler nur mit relativ niedriger Häufigkeit festgestellt wurden. Unterschiede zwischen Monitoringstrategien könnten, gegeben ein funktionierendes Qualitätsmanagementssystem, sich als quantitativ gering erweisen. Testet man auf Äquivalenz von Monitoringstrategien, sind nur niedrige Differenzen zu akzeptieren, was wiederum eine Auswirkung auf die Fallzahlplanung hat. Weiterhin muss berücksichtigt werden, dass zur Feststellung der Auswirkung unterschiedlicher Monitoringstrategien auf die Sicherheit der Patienten und die Validität der Daten im Rahmen einer kontrollierten Untersuchung ein unabhängiges Audit notwendig ist. Dabei ist zu berücksichtigen, dass ein Audit bereits einen möglichen Einflussfaktor für die Datenqualität und Protokoll-Compliance darstellen kann, und damit eine Bewertung des Nutzens einer Monitoringstrategie erschwert werden könnte. Schlüsselwörter: systematisches Review, Datenqualität, Protokoll-Compliance, klinische StudieFor Investigator Initiated Trials (IITs) alternative risk-adapted monitoring strategies are discussed in order to fulfill rules and regulations, taking into consideration the restricted resources. In this systematic review investigations, presenting quantitative data about data quality and protocol compliance in clinical trials, are analyzed. The results are discussed taking into account the quality assurance procedures implemented. Based on a systematic MEDLINE retrieval, 21 studies could be identified in which data and process quality in clinical trials were investigated and assessed by site visits with source data verification or review of copied source data in the study center and quantitative information about data quality and protocol compliance was available. The majority of investigations were performed by three organizations: European Organization for Research and Treatment of Cancer (EORTC) (n=7), National Cancer Institute (NCI) (n=7) and investigations of the Trans-Tasman Radiation Oncology Group (TROG) (n=4). In addition three investigations of other study groups were identified. The investigations were published between 1981 and 2003. In the majority of cases oncological trials were investigated (n=19) with a focus on radiotherapy trials (n=8). In the EORTC-trials an overall good data quality was assessed (80–90% correct data). Singular problems were found with respect to protocol compliance and reporting of adverse reactions and serious unexpected events. Good quality was also observed with respect to the correct inclusion of patients into trials. By the NCI a standardized audit system was introduced and implemented within cooperative study groups. In the context of these audits different criteria were assessed and a good data quality and protocol compliance were measured. Deficits occurred in about 5% of the cases with respect to informed consent, correct application of inclusion criteria, protocol compliance, assessment of outcome criteria, assessment of toxicity, adequate data reporting and data verification. In some investigations problems with treatment compliance (10-20%), drug dose deviations (10%) and drug accountability (15%) were identified. By the TROG a quality assurance procedure was implemented, based on central monitoring of copied source data. By this approach major problems with protocol compliance could be reduced to less than 10% together with a good data quality with an error rate under 5%. The correct handling of in- and exclusion criteria was a problem in individual cases. In summary we found out that good data quality and good to moderate protocol compliance were reported by the study groups that are included in the systematic review. Due to the authors this is mainly due to an established quality assurance system, taking into consideration that audits itself may be an influential factor. Generally, minor problems were observed with respect to informed consent, correct handling of in- and exclusion criteria and data quality, however, in some studies there were problems with protocol compliance. Overall, number and type of deficits depend on study type, quality management and organization of the study group. Fraud was detected only in very few cases. The available evidence refers mainly to established study groups; for data quality and protocol compliance outside these groups only few information is available. However, it should be taken into consideration, that the analysis was performed, at least partly, by the study groups themselves and is not based on independent audits (e.g. external audits). The analysis cannot answer the question whether the results would have been replicable if a strict review according to criteria of Good Clinical Practice (GCP) would have been performed. From the systematic review consequences have to be taken for planning a prospective controlled trial comparing different monitoring strategies. The main influence factor for data quality and protocol compliance in a clinical trial is the quality management system. Quality management covers several other measures apart from monitoring. In order to assess monitoring strategies, all quality assurance procedures within a clinical trial have to be taken into consideration. For the comparison of different monitoring strategies adequate outcome parameter have to be defined (e.g. severe deficits with respect to inclusion and exclusion criteria, safety). The analysis indicates that with good quality management and no extensive on-site monitoring severe errors were detected only at relative low frequency. It could well be that with an efficient quality management system differences between monitoring strategies would be small. In order to demonstrate statistical equivalence of monitoring strategies, only small differences can be accepted which again leads to consequences for the sample-size calculation. In addition, it must be taken into consideration that within a controlled trial an independent audit is necessary to assess the effect of different monitoring strategies on the safety of patients and the quality of data. Audits however may be a possible influence factor for data quality and protocol compliance and may complicate the evaluation of the benefit of a monitoring strategy. Keywords: systematic review, data quality, protocol compliance, clinical tria

    Sample of Integrated Labour Market Biographies (SIAB) 1975-2008

    Get PDF
    This datareport describes the Sample of Integrated Labour Market Biographies (SIAB) 1975-2008. Additional Information German version Here you can find a short discription of the sample.Integrierte Arbeitsmarktbiografien, Datenzugang, Stichprobe, Datenaufbereitung, Datenqualität

    Fallstudie zum Führungssystem für Stammdatenqualität bei der Bayer CropScience AG

    Get PDF
    Zusammenfassung: Zur Konsolidierung der Systemlandschaft führte die Bayer CropScience AG eine globale Harmonisierung der Geschäftsprozesse mit Stammdatenkonsolidierung durch. Die dabei ermittelten Defizite in den Unternehmensprozessen konnten auf mangelnde Datenqualität zurückgeführt werden. Zur langfristigen Verbesserung der Prozesseffizienz wurden Geschäftsregeln definiert, die die Daten qualitativ bewerten und Verbesserungsmaßnahmen nach sich ziehen. Ein Kennzahlensystem dient der Auswertung der Regeln. Zur kontinuierlichen Überwachung der Datenqualität und Steuerung von Maßnahmen sind Aufgaben und Verantwortung definiert, zugewiesen und in den Zielsystemen der Mitarbeiter veranker

    Cumulation of Cross-Section Surveys: Evaluation of Alternative Concepts for the Cumulated Continuous Household Budget Surveys (LWR) 1999 until 2003 Compared to the Sample Survey of Income and Expenditures (EVS) 2003

    Get PDF
    With the development of household budget systems and with regard to the requirements of the European Union with new EU-SILC approaches, the cumulation of cross-section surveys to an integrated information system is recently discussed and required. In particular the reconstruction of household budget surveys should deliver yearly results as well multi-annual sufficient large samples to allow in depth analyses. This study contributes by a general conceptual foundation of the cumulation of cross-sections and an application which in particular evaluates the new cumulation concept with actual large official samples: the cross sectional cumulation of five yearly Continuous Household Budget Surveys (Laufende Wirtschaftsrechnungen, LWR) which will be compared to the large quinquennial Sample Survey of Income and Expenditures (Einkommens- und Verbrauchsstichprobe, EVS) of the German Federal Statistical Office. Therewith the sensitivity of the cumulation concept with its alternatives is evaluated for private household consumption expenditures of selected expenditure groups. A recommendation concludes.cumulation of cross sections, temporary cumulation, adjustment by information theory, consumption expenditures, Continuous Household Budget Surveys (Laufende Wirtschaftsrechnungen, LWR), Sample Survey of Income and Expenditures (Einkommens- und Verbrauchsstichprobe, EVS) of the German Federal Statistical Office

    Cumulation of Cross-Section Surveys. Evaluation of Alternative Concepts for the Cumulated Continuous Household Budget Surveys (LWR) 1999 until 2003 compared to the Sample Survey of Income and Expenditures (EVS) 2003

    Get PDF
    With the development of household budget systems and with regard to the requirements of the European Union with new EU-SILC approaches, the cumulation of cross-section surveys to an integrated information system is recently discussed and required. In particular the reconstruction of household budget surveys should deliver yearly results as well multi-annual sufficient large samples to allow in depth analyses. This study contributes by a general conceptual foundation of the cumulation of cross-sections and an application which in particular evaluates the new cumulation concept with actual large official samples: the cross sectional cumulation of five yearly Continuous Household Budget Surveys (Laufende Wirtschaftsrechnungen, LWR) which will be compared to the large quinquennial Sample Survey of Income and Expenditures (Einkommens- und Verbrauchsstichprobe, EVS) of the German Federal Statistical Office. Therewith the sensitivity of the cumulation concept with its alternatives is evaluated for private household consumption expenditures of selected expenditure groups. A recommendation concludes.cumulation of cross sections, temporary cumulation, adjustment by information theory, consumption expenditures, Continuous Household Budget Surveys (Laufende Wirtschaftsrechnungen, LWR), Sample Survey of Income and Expenditures (Einkommensund Verbrauchsstichprobe, EVS) of the German Federal Statistical Office

    Cumulation of Cross-Section Surveys - Evaluation of Alternative Concepts for the Cumulated Continuous Household Budget Surveys (LWR) 1999 until 2003 compared to the Sample Survey of Income and Expenditures (EVS) 2003

    Get PDF
    With the development of household budget systems and with regard to the requirements of the European Union with new EU-SILC approaches, the cumulation of cross-section surveys to an integrated information system is recently discussed and required. In particular the reconstruction of household budget surveys should deliver yearly results as well multi-annual sufficient large samples to allow in depth analyses. This study contributes by a general conceptual foundation of the cumulation of cross-sections and an application which in particular evaluates the new cumulation concept with actual large official samples: the cross sectional cumulation of five yearly Continuous Household Budget Surveys (Laufende Wirtschaftsrechnungen, LWR) which will be compared to the large quinquennial Sample Survey of Income and Expenditures (Einkommens- und Verbrauchsstichprobe, EVS) of the German Federal Statistical Office. Therewith the sensitivity of the cumulation concept with its alternatives is evaluated for private household consumption expenditures of selected expenditure groups. A recommendation concludes.cumulation of cross sections, temporary cumulation, adjustment by information theory, consumption expenditures, Continuous Household Budget Surveys (Laufende Wirtschaftsrechnungen, LWR), Sample Survey of Income and Expenditures (Einkommensund Verbrauchsstichprobe, EVS) of the German Federal Statistical Office

    Stammdatenmanagement: Datenqualität für Geschäftsprozesse

    Get PDF
    Zusammenfassung: Stammdatenmanagement ist eine Unternehmensfunktion, die sämtliche Planungs-, Überwachungs- und Bereitstellungsaktivitäten für Stammdaten umfasst und deren Ziel die Sicherung der Stammdatenqualität ist. Stammdaten von hoher Qualität sind die Voraussetzung, damit Unternehmen verschiedene strategische Anforderungen erfüllen können. Dieser Beitrag beschreibt diejenigen Bereiche, die beim Aufbau eines unternehmensweiten Stammdatenmanagements zu gestalten sin

    Datenqualität als kritischer Erfolgsfaktor bei Datenmigrationen

    Get PDF
    In der vorliegenden Bachelorarbeit wird der Einfluss der Datenqualität auf den Erfolg einer Datenmigration untersucht. Zu diesem Thema wurde in der Forschung bis heute erst wenig geforscht. Die meisten Autorenwerke legen Ihren Fokus auf die Wichtigkeit der Datenqualität in Data-Warehouse-Systemen. Diese Arbeit versucht eine Antwort auf die Frage, welche Auswirkung die Datenqualität auf den Erfolg einer Datenmigration hat, herzuleiten. Eine Datenmigration kommt zu Stande, wenn ein Unternehmen beschliesst, ein altes System abzulösen und durch ein neues zu ersetzen. Das Ergebnis ist eine Aussage darüber, inwiefern die Datenqualität den Erfolg einer Datenmigration beeinflusst. Im theoretischen Teil werden die grundlegenden Begriffe dieser Arbeit definiert, sowie die Relevanz der Datenqualität aufgezeigt. Darauf basierend werden im empirischen Teil dieser Forschungsarbeit ein mündliches Experteninterview sowie eine quantitative Erhebung durchgeführt. Aufgrund der empirischen Untersuchung ist es möglich, eine Handlungsempfehlung an Migrationsprojekte abgeben zu können. Die Empfehlungen basieren auf der bestehenden Literatur, den Aussagen aus der Expertenbefragung und den Resultaten der quantitativen Untersuchung. Die Auswertung der quantitativen Untersuchung zeigt, dass die Datenqualität den Migrationserfolg zu 49.4% beeinflusst. Dies weist darauf hin, dass die Datenqualität ein sehr wichtiger Faktor ist, um ein Migrationsprojekt zum Erfolg zu führen. Für die quantitative Untersuchung wurden acht Datenqualitätskriterien und sieben Erfolgskriterien herangezogen. Das Ergebnis dieser quantitativen Untersuchung wurde mittels einem Strukturgleichungsmodell erlangt. Weiter zeigt das Experteninterview, dass die Datenbereinigung möglichst früh im Projekt angegangen werden muss. Dabei ist es wichtig, dass sich ein Team um die Beauftragung und Überwachung der Datenbereinigungen kümmert. Die Datenqualität ist in der heutigen Zeit ein wichtiges Thema. Diese Arbeit zeigt, dass die Datenqualität bei einer Datenmigration eine wichtige Rolle spielt und nicht ausser Acht gelassen werden darf. Ohne eine akzeptable Datenqualität ist eine Datenmigration unmöglich. Zum Schluss wird eine Handlungsempfehlung an Unternehmen mit Migrationsprojekten abgegeben. Diese erläutert, wie ein Migrationsprojekt in Zukunft, in Bezug auf die Datenqualität, besser unterstützt werden kann. Es ist wichtig, die Datenqualität früh im Projekt zu integrieren. In Bezug auf die Datenmigration und die Datenqualität müssen Qualitätskennzahlen definiert werden. Die Kennzahlen müssen überwacht werden, damit im Falle einer Nichterfüllung noch vor der Datenmigration reagiert werden kann. Das Bestehen einer Data Governance im Unternehmen ist sowohl in Bezug auf eine Datenmigration als auch im Geschäftsalltag ein wichtiges Element. In der Data Governance werden Richtlinien und Regeln an die Daten definiert. Dadurch ist es möglich, auch nach der Datenmigration, eine hohe Datenqualität zu gewährleisten
    corecore