481 research outputs found

    Prognoseparameter bei soliden Tumoren und Systemerkrankungen

    Get PDF
    Solid tumors and malignant systemic diseases are two of the most severe burdens of the world. The incidence rate of more than 11 million cases per year is considerably high. For this reason new methods and knowledge are required. By the methods developed and relations given in this dissertation a big step forward in cancer research is realized. New possibilities to measure gene expression of pseudogene rich gene families were established. Furthermore multifaceted gene expression profiles for prognostic parameters such as HMGA2, HMGB1, uPA, PAI1, Her2neu were established, analysed, and discussed. The presented work underlines the significantly high influence of HMG proteins in cancer development. New approaches and starting points for further analyses are identified and are the basis to upgrade diagnosis, prognosis, and therapy of cancer patients

    SEM demonstration of elastic fibres in the integument of small and densely-haired mammals

    Get PDF
    The combination of SEM and autoclave methods gave a clear three-dimensional demonstration of integumental elastic fibres in small densely-haired mammals. The specific organisation of a fine and spongy elastic network was characterized by uniformly thin elastic fibres which were homogeneously distributed between both hair follicle types throughout the whole dermis. All the hair follicles were connected with each other by elastic fibres along their complete intradermal length. The advantage of such a specific elastic dermis construction is that all hair follicles can be moved together and simultaneously along the entire body, so that a better and rapid insulation is achieved after erection of the hair follicles during very low temperatures

    Analysis of consumer information brochures on osteoporosis prevention and treatment

    Get PDF
    Purpose: Evidence-based consumer information is a prerequisite for informed decision making. So far, there are no reports on the quality of consumer information brochures on osteoporosis. In the present study we analysed brochures on osteoporosis available in Germany

    AI-enhanced diagnosis of challenging lesions in breast MRI: a methodology and application primer

    Get PDF
    Computer-aided diagnosis (CAD) systems have become an important tool in the assessment of breast tumors with magnetic resonance imaging (MRI). CAD systems can be used for the detection and diagnosis of breast tumors as a “second opinion” review complementing the radiologist’s review. CAD systems have many common parts such as image pre-processing, tumor feature extraction and data classification that are mostly based on machine learning (ML) techniques. In this review paper, we describe the application of ML-based CAD systems in MRI of the breast covering the detection of diagnostically challenging lesions such as non-mass enhancing (NME) lesions, multiparametric MRI, neo-adjuvant chemotherapy (NAC) and radiomics all applied to NME. Since ML has been widely used in the medical imaging community, we provide an overview about the state-ofthe-art and novel techniques applied as classifiers to CAD systems. The differences in the CAD systems in MRI of the breast for several standard and novel applications for NME are explained in detail to provide important examples illustrating: (i) CAD for the detection and diagnosis, (ii) CAD in multi-parametric imaging (iii) CAD in NAC and (iv) breast cancer radiomics. We aim to provide a comparison between these CAD applications and to illustrate a global view on intelligent CAD systems based on ANN in MRI of the breast

    Systematic review about data quality and protocol compliance in clinical trials

    Get PDF
    Bei Investigator Initiated Trials (IITs) werden alternative risikoadaptierte Monitoring-Strategien in Abhängigkeit vom individuellen Studiendesign und dem Risikoprofil diskutiert, um bei oft restriktiven Ressourcen eine den gesetzlichen Vorgaben genügende Qualität der Studiendurchführung und der Daten zu gewährleisten. Aufgrund einer Literaturanalyse sollten in der vorliegenden Arbeit Untersuchungen ausgewertet werden, in denen quantitative Aussagen zu Datenqualität und Prüfplan-Compliance in klinischen Prüfungen gemacht wurden. Bei der Interpretation der Ergebnisse sollten die implementierten Qualitätssicherungsmaßnahmen berücksichtigt werden. Aufgrund einer systematischen Recherche in MEDLINE konnten 21 Publikationen identifiziert werden, bei denen die Daten- und Prozessqualität in klinischen Prüfungen untersucht, die Qualität durch Überprüfungen mit Source Data Verification vor Ort oder Überprüfung übermittelter Quelldaten in der Studienzentrale ermittelt wurde und quantitative Informationen zu den Bereichen Datenqualität, Protokoll-Compliance oder Defizite bei Einwilligungserklärungen vorlagen. Die Mehrzahl der Untersuchungen ist drei Organisationen zuzuordnen: European Organization für Research and Treatment of Cancer (EORTC) (n=7), National Cancer Institute (NCI) (n=7) und Untersuchungen der Trans-Tasman Radiation Oncology Group (TROG) (n=4). Darüber hinaus wurden drei Untersuchungen weiterer Studiengruppen identifiziert. Die Untersuchungen wurden im Zeitraum von 1981 bis 2003 publiziert. Überwiegend wurden in der Literatur onkologische Studien betrachtet (n=19), wobei die Radiotherapie im Vordergrund stand (n=8). Für die EORTC-Studien wurde in der Regel eine gute Datenqualität berichtet (80-90% korrekte Daten). Punktuelle Probleme wurden im Hinblick auf die Protokoll-Compliance und das Berichten von Nebenwirkungen/schwerwiegenden unerwünschten Ereignissen festgestellt. Eine gute Qualität wurde ebenfalls bzgl. des korrekten Einschlusses von Patienten beobachtet. Durch das NCI wurde ein standardisiertes Audit-System eingeführt und innerhalb von kooperativen Studiengruppen implementiert. Im Rahmen dieser Audits wurden verschiedene Kriterien überprüft und eine überwiegend gute Datenqualität und Protokoll-Compliance festgestellt. Mängel wurden in ca. 5% der Fälle im Hinblick auf die Einwilligungserklärung, die korrekte Anwendung der Einschlusskriterien, Protokollverletzungen, bei der Ermittlung des Zielkriteriums, der Erfassung der Toxizität, der adäquaten Datenlieferung und bei der Datenverifikation beobachtet. In einzelnen Untersuchungen ergaben sich Probleme mit der Behandlungscompliance (10-20%), bei Protokollabweichungen im Hinblick auf die Arzneimitteldosis (10%) und bei der Drug Accountability (15%). Von der TROG wurde ein Qualitätssicherungsprozess implementiert, der auf zentralem Monitoring von kopierten Quelldaten basiert. Durch den Qualitätssicherungsansatz der TROG konnten schwerwiegende Probleme mit der Protokoll-Compliance unter 10% gesenkt werden, ebenso konnte eine gute Datenqualität mit einer Fehlerrate unter 5% erreicht werden. Die korrekte Handhabung von Ein- und Ausschlusskriterien stellte in Einzelfällen ein Problem dar. Zusammenfassend kann festgestellt werden, dass die in dem Review erfassten Studiengruppen von einer guten Datenqualität und einer guten bis moderaten Protokoll-Compliance berichten. Diese basiert nach Aussage der Autoren im wesentlichen auf etablierten Qualitätssicherungs-Prozeduren, wobei das durchgeführte Audit ebenfalls einen potentiellen Einflussfaktor darstellt. Geringe Probleme wurden in der Regel im Hinblick auf die Einwilligungserklärung, die korrekte Handhabung der Ein- und Ausschlusskriterien und die Datenqualität beobachtet. In einzelnen Studien gab es jedoch Probleme mit der Protokoll-Compliance. Insgesamt hängen Anzahl und Art der Mängel von dem Studientyp, dem Qualitätsmanagement und der Organisation der Studiengruppe ab. Wissenschaftsbetrug wurde nur in sehr wenigen Fällen durch die Audits festgestellt. Die vorgelegten Informationen beziehen sich nahezu ausschließlich auf etablierte Studiengruppen; bezüglich Datenqualität und Protokoll-Compliance außerhalb der Studiengruppen liegen kaum Informationen in der Literatur vor. Bei der Bewertung der Ergebnisse sollte berücksichtigt werden, dass es sich zum Teil um Eigenauswertungen der Studiengruppen und nicht um unabhängige externe Prüfungen (z.B. externe Audits) handelt. Inwieweit die Ergebnisse einer konsequenten Überprüfung nach derzeitigen Good Clinical Practice (GCP) – Regeln standhalten würden, kann aus der Analyse nicht beantwortet werden. Aus der vorliegenden Literaturanalyse ergeben sich Konsequenzen für die Planung einer prospektiven kontrollierten Studie zum Vergleich unterschiedlicher Monitoring-Strategien. Wesentlicher Einflussfaktor für die Datenqualität und Protokollcompliance in einer klinischen Studie ist das Qualitätsmanagement. Dieses Qualitätsmanagement umfasst neben Monitoring zahlreiche andere Maßnahmen. Um zu einer Bewertung von Monitoringstrategien kommen zu können, müssen daher alle Qualitätssicherungsmaßnahmen im Rahmen einer Studie berücksichtigt werden. Für den Vergleich unterschiedlicher Monitoringstrategien sind geeignete Zielparameter zu definieren (z.B. schwerwiegende Defizite bzgl. Ein- und Ausschlusskriterien, Sicherheit). Die vorliegende Analyse ergibt, dass bei gutem Qualitätsmanagement ohne umfassendes vor Ort Monitoring schwerwiegende Fehler nur mit relativ niedriger Häufigkeit festgestellt wurden. Unterschiede zwischen Monitoringstrategien könnten, gegeben ein funktionierendes Qualitätsmanagementssystem, sich als quantitativ gering erweisen. Testet man auf Äquivalenz von Monitoringstrategien, sind nur niedrige Differenzen zu akzeptieren, was wiederum eine Auswirkung auf die Fallzahlplanung hat. Weiterhin muss berücksichtigt werden, dass zur Feststellung der Auswirkung unterschiedlicher Monitoringstrategien auf die Sicherheit der Patienten und die Validität der Daten im Rahmen einer kontrollierten Untersuchung ein unabhängiges Audit notwendig ist. Dabei ist zu berücksichtigen, dass ein Audit bereits einen möglichen Einflussfaktor für die Datenqualität und Protokoll-Compliance darstellen kann, und damit eine Bewertung des Nutzens einer Monitoringstrategie erschwert werden könnte. Schlüsselwörter: systematisches Review, Datenqualität, Protokoll-Compliance, klinische StudieFor Investigator Initiated Trials (IITs) alternative risk-adapted monitoring strategies are discussed in order to fulfill rules and regulations, taking into consideration the restricted resources. In this systematic review investigations, presenting quantitative data about data quality and protocol compliance in clinical trials, are analyzed. The results are discussed taking into account the quality assurance procedures implemented. Based on a systematic MEDLINE retrieval, 21 studies could be identified in which data and process quality in clinical trials were investigated and assessed by site visits with source data verification or review of copied source data in the study center and quantitative information about data quality and protocol compliance was available. The majority of investigations were performed by three organizations: European Organization for Research and Treatment of Cancer (EORTC) (n=7), National Cancer Institute (NCI) (n=7) and investigations of the Trans-Tasman Radiation Oncology Group (TROG) (n=4). In addition three investigations of other study groups were identified. The investigations were published between 1981 and 2003. In the majority of cases oncological trials were investigated (n=19) with a focus on radiotherapy trials (n=8). In the EORTC-trials an overall good data quality was assessed (80–90% correct data). Singular problems were found with respect to protocol compliance and reporting of adverse reactions and serious unexpected events. Good quality was also observed with respect to the correct inclusion of patients into trials. By the NCI a standardized audit system was introduced and implemented within cooperative study groups. In the context of these audits different criteria were assessed and a good data quality and protocol compliance were measured. Deficits occurred in about 5% of the cases with respect to informed consent, correct application of inclusion criteria, protocol compliance, assessment of outcome criteria, assessment of toxicity, adequate data reporting and data verification. In some investigations problems with treatment compliance (10-20%), drug dose deviations (10%) and drug accountability (15%) were identified. By the TROG a quality assurance procedure was implemented, based on central monitoring of copied source data. By this approach major problems with protocol compliance could be reduced to less than 10% together with a good data quality with an error rate under 5%. The correct handling of in- and exclusion criteria was a problem in individual cases. In summary we found out that good data quality and good to moderate protocol compliance were reported by the study groups that are included in the systematic review. Due to the authors this is mainly due to an established quality assurance system, taking into consideration that audits itself may be an influential factor. Generally, minor problems were observed with respect to informed consent, correct handling of in- and exclusion criteria and data quality, however, in some studies there were problems with protocol compliance. Overall, number and type of deficits depend on study type, quality management and organization of the study group. Fraud was detected only in very few cases. The available evidence refers mainly to established study groups; for data quality and protocol compliance outside these groups only few information is available. However, it should be taken into consideration, that the analysis was performed, at least partly, by the study groups themselves and is not based on independent audits (e.g. external audits). The analysis cannot answer the question whether the results would have been replicable if a strict review according to criteria of Good Clinical Practice (GCP) would have been performed. From the systematic review consequences have to be taken for planning a prospective controlled trial comparing different monitoring strategies. The main influence factor for data quality and protocol compliance in a clinical trial is the quality management system. Quality management covers several other measures apart from monitoring. In order to assess monitoring strategies, all quality assurance procedures within a clinical trial have to be taken into consideration. For the comparison of different monitoring strategies adequate outcome parameter have to be defined (e.g. severe deficits with respect to inclusion and exclusion criteria, safety). The analysis indicates that with good quality management and no extensive on-site monitoring severe errors were detected only at relative low frequency. It could well be that with an efficient quality management system differences between monitoring strategies would be small. In order to demonstrate statistical equivalence of monitoring strategies, only small differences can be accepted which again leads to consequences for the sample-size calculation. In addition, it must be taken into consideration that within a controlled trial an independent audit is necessary to assess the effect of different monitoring strategies on the safety of patients and the quality of data. Audits however may be a possible influence factor for data quality and protocol compliance and may complicate the evaluation of the benefit of a monitoring strategy. Keywords: systematic review, data quality, protocol compliance, clinical tria

    Customized Nios II multi-cycle instructions to accelerate block-matching techniques

    Get PDF
    This study focuses on accelerating the optimization of motion estimation algorithms, which are widely used in video coding standards, by using both the paradigm based on Altera Custom Instructions as well as the efficient combination of SDRAM and On-Chip memory of Nios II processor. Firstly, a complete code profiling is carried out before the optimization in order to detect time leaking affecting the motion compensation algorithms. Then, a multi-cycle Custom Instruction which will be added to the specific embedded design is implemented. The approach deployed is based on optimizing SOC performance by using an efficient combination of On-Chip memory and SDRAM with regards to the reset vector, exception vector, stack, heap, read/write data (.rwdata), read only data (.rodata), and program text (.text) in the design. Furthermore, this approach aims to enhance the said algorithms by incorporating Custom Instructions in the Nios II ISA. Finally, the efficient combination of both methods is then developed to build the final embedded system. The present contribution thus facilitates motion coding for low-cost Soft-Core microprocessors, particularly the RISC architecture of Nios II implemented in FPGA. It enables us to construct an SOC which processes 50Ă—50 @ 180 fps

    Erstellung eines Leitfadens zur Verarbeitung und zum Anbau von ökologischem Dinkel

    Get PDF
    Ziel des Projekts war die Stärkung der Wertschöpfungskette für in Deutschland erzeugten Dinkel. Dazu sollten Basisspezifikationen für die Qualität von Speisedinkel und Empfehlungen für Anbau und bäckerische Verarbeitung erarbeitet werden, mit deren Hilfe in der Praxis die Produktionssicherheit und Produktqualität verbessert werden können. Grundlage dafür sollten die spezifischen Eigenschaften von Dinkel im Allgemeinen sowie den untersuchten Sorten im Besonderen sein. Zunächst wurden Praxis-Gebäckproben untersucht, um eine Zielqualität festzulegen. Darauf folgte die Untersuchung von rund 150 Praxis-Getreideproben aus ganz Deutschland. Dabei handelte es sich zur Hälfte um Dinkel der Sorte „Oberkulmer Rotkorn“, zur Hälfte um „Franckenkorn“. Bestimmt wurden die sensorischen Eigenschaften, Analysewerte sowie die rheologischen Eigenschaften. Außerdem wurden Vermahlungs- und Backversuche durchgeführt. Ein Standardverfahren zur Entspelzung und Vermahlung von Dinkel im Labormaßstab wurde entwickelt. Verschiedene Methoden und Mehltypen wurden bewertet im Hinblick darauf, wie aussagekräftig sie in Bezug auf die Proteinqualität des Dinkels sind. Für die Charakterisierung der Backqualität wurden Öko-Standard-Backversuche sowohl für Vollkornmehl als auch für Typenmehl angepasst für Dinkel entwickelt. Ergebnis aus dem Vergleich im Standard-Backversuch ist eine bessere Backqualität von „Franckenkorn“. „Oberkulmer Rotkorn“ zeigt stärkere Qualitätsschwankungen bei ungünstigen Witterungsverhältnissen im Anbau. Beide Sorten lassen sich jedoch mit angepasstem Vorgehen zufriedenstellend verbacken. Hierzu wurden Optimierungsversuche durchgeführt. Variiert wurden der Verarbeitungsprozess an sich (Teigruhezeit, Temperatur), der Zutateneinsatz sowie das eingesetzte Mehl (Mischung aus beiden Dinkelsorten). Eingesetzt wurden nur Zutaten, die entsprechend den Richtlinien der deutschen Öko-Anbauverbände zulässig sind. Für jede Probe wurden die Untersuchungsergebnisse in Verbindung mit Daten zu Standort und Anbaumaßnahmen ausgewertet. Ein Praxis-Leitfaden „Biodinkel“ wurde in der Reihe der FiBL-Merkblätter veröffentlicht

    Information fusion based techniques for HEVC

    Get PDF
    Aiming at the conflict circumstances of multi-parameter H.265/HEVC encoder system, the present paper introduces the analysis of many optimizations\u27 set in order to improve the trade-off between quality, performance and power consumption for different reliable and accurate applications. This method is based on the Pareto optimization and has been tested with different resolutions on real-time encoders

    Pre-processing techniques to improve HEVC subjective quality

    Get PDF
    Nowadays, HEVC is the cutting edge encoding standard being the most efficient solution for transmission of video content. In this paper a subjective quality improvement based on pre-processing algorithms for homogeneous and chaotic regions detection is proposed and evaluated for low bit-rate applications at high resolutions. This goal is achieved by means of a texture classification applied to the input frames. Furthermore, these calculations help also reduce the complexity of the HEVC encoder. Therefore both the subjective quality and the HEVC performance are improved
    • …
    corecore