73 research outputs found

    Konfigurierung von Oligonukleotid-Bibliotheken fĂŒr nukleinsĂ€urebasierte Nachweisverfahren

    Get PDF
    Zur Verbesserung der Einsetzbarkeit und zur Vereinfachung der Interpretation der Messergebnisse werden im Umfeld der Biosensorik intelligente bioinformatische Systeme benötigt. Am Beispiel der Konfigurierung von Sensoren fĂŒr die NukleinsĂ€ureanalytik wird die Notwendigkeit und der Nutzen von Bioinformatiksystemen gezeigt. Es wird vorgestellt wie Entwicklungszeiten reduziert, die QualitĂ€t der Sensoren verbessert und die Erstellung von Varianten vereinfacht werden kann. Mit nukleinsĂ€ureanalytischen Verfahren wie der DNA-Mikroarray-Technologie oder Mikrobead-basierten Methoden können genetische Informationen hoch spezifisch nachgewiesen werden. Die nukleinsĂ€ure-analytischen Nachweisverfahren können fĂŒr folgende Aufgabenstellungen eingesetzt werden: · Genotypisierung (Nachweis von Krankheitserregern in KörperflĂŒssigkeiten und -geweben zur medizinischen Diagnostik und zur QualitĂ€tssicherung bei Lebensmitteln, Nachweis gentechnisch verĂ€nderter Lebensmittel, Nachweis von Stoffen biologischen Ursprungs in Lebens-, Futter- und Genussmitteln, forensische Anwendungen) · Genexpressionsanalytik (Erkennung von Expressionsmustern beispielsweise in der Pharmakogenomik) Mit der Konfigurierungssoftware wurden bisher verschiedene Oligonukleotid-Bibliotheken unter anderem fĂŒr den Nachweis von Hepatitis-C Viren und fĂŒr den Nachweis von menschlichen Genen mit alternativen Spleiß-Varianten erstellt. Dabei konnte nachgewiesen werden, dass die automatischen Bibliotheken bessere Eigenschaften hinsichtlich der aufgrund von Datenbankabfragen bestimmten SpezifitĂ€t und SensitivitĂ€t haben als die auf konventionellem Weg erstellten Bibliotheken [2,4]. Inzwischen wurde ein Internet-Interface entwickelt, ĂŒber das die Konfigurierung von Bibliotheken als elektronische Dienstleistung angeboten wird. Die QualitĂ€t der automatisch erstellten Bibliotheken hinsichtlich der Hybridisierungssignale wird zur Zeit mit Partnern aus der Forschung und der Industrie evaluiert

    Automatische QualitÀtsverbesserung von Fraktur-Volltexten aus der Retrodigitalisierung am Beispiel der Zeitschrift Die Grenzboten

    Get PDF
    Den Geisteswissenschaften stehen nach und nach mehr computerbasierte Werkzeuge und Infrastrukturen der Digital Humanities zur VerfĂŒgung, fĂŒr die die Existenz und weitere Erstellung von Volltext mit guter QualitĂ€t eine unabdingbare Voraussetzung ist. Der Bedarf nach qualitativ hochwertigem Volltext aus Retrodigitalisierungsprojekten steigt daher stĂ€ndig an. Der zu Frakturschrift berechnete OCR-Volltext hat eine deutlich schlechtere QualitĂ€t als von Antiqua-Schrift berechneter.Daher ist fĂŒr das wissenschaftliche Arbeiten unkorrigierter und unstrukturierter OCR-Volltext von Frakturschrift hĂ€ufig wertlos. Da eine bedarfsgerechte Erzeugung von Volltext in der GrĂ¶ĂŸenordnungvon mehreren Millionen Seiten in Bezug auf Aufwand und Kosten effizient sein sollte, wird hier eine möglichst weitgehende Automatisierung der Nachbearbeitung von OCR-Volltext vorgestellt. An der Staats- und UniversitĂ€tsbibliothek Bremen (SuUB) wurde dazu ein Ansatz entwickelt, der sich durch Einfachheit auszeichnet: Eine Liste historischer bzw. dialekt- oder fachspezifischer Wortformen – eine der Voraussetzungen dieses Ansatzes – ist verhĂ€ltnismĂ€ĂŸig leicht erstellbar. Eineffizienter Algorithmus leistet den Abgleich von hier ca. 1,7 Millionen Wortformen gegen bei der Zeitschrift Die Grenzboten knapp 80 Millionen enthaltenen Wörtern und lĂ€sst sich auf verstĂ€ndliche und nachvollziehbare Art und Weise parametrisieren, d.h. auf die spezifischen Eigenschaften des jeweiligen Volltextprojektes einstellen. Die erreichbaren Ergebnisse sind stark abhĂ€ngig von der AusgangsqualitĂ€t des Volltextes sowie von dem Umfang und der QualitĂ€t der Liste der historischen Wortformen und dem verwendeten Fehlermodell. So können beispielsweise bestimmte Fehler nur mit einem den Kontext berĂŒcksichtigenden Ansatz korrigiert werden. Weiterhin wurde zusammen mit der Firma ProjectComputing mit Sitz in Canberra, Australien, der cloud service overProof1 umdie FunktionalitĂ€t der Nachkorrektur deutschsprachiger Frakturschrift erweitert. In einem Ausblick werden Bedarfe und Möglichkeiten fĂŒr die Zukunft aufgezeigt.Gradually, the humanities are provided with a number of computer based tools and scientific infrastructures of the digital humanities. As digital full text is strongly needed for these tools and infrastructures, the demand for high-quality full texts is constantly rising. OCRed full text from Gothic typeface texts is of considerably worse quality than OCRed full text from Antiqua. The value of uncorrected and unstructured OCR full text is fairly low. As multiple millions of pages need to be processed, the method should be efficient with respect to expenditure and costs. Therefore, we introduce an almost fully automated approach for the post correction of OCR full text. The approach developed at the Staats- und UniversitĂ€tsbibliothek Bremen (SuUB) is a straightforward one. One of the requirements, a list of historical word forms, was easily generated. An efficient algorithm carries out the matching of 1,7 million word forms against almost 80 million words taken from the historical journal Die Grenzboten. The parametrization of the algorithm, i.e. the adaption to the specific requirements of the full text project, is comprehensible and easy to understand. The results which can be achieved strongly depend on the initial quality of the full text, the dimension and quality of the list of historical word forms and the error model applied. For example, specific types of errors can only be corrected by taking context information into account. Furthermore, the cloud service overProof was enhanced by the ability to correct German Gothic typeset. This was done in a cooperation with the Australian company ProjectComputing. In the discussion, requirements and options for the future are presented

    Rationalizing the Optimization of Detergents for Membrane Protein Purification

    Get PDF
    Membrane protein purification by means of detergents is key to isolating membrane-bound therapeutic targets. The role of the detergent structure in this process, however, is not well understood. Detergents are optimized empirically, leading to failed preparations, and thereby raising costs. Here we evaluate the utility of the hydrophilic-lipophilic balance (HLB) concept, which was introduced by Griffin in 1949, for guiding the optimization of the hydrophobic tail in first-generation, dendritic oligoglycerol detergents ([G1] OGDs). Our findings deliver qualitative HLB guidelines for rationalizing the optimization of detergents. Moreover, [G1] OGDs exhibit strongly delipidating properties, regardless of the structure of the hydrophobic tail, which delivers a methodological enabling step for investigating binding strengths of endogenous lipids and their role for membrane protein oligomerization. Our findings will facilitate the analysis of challenging drug targets in the future

    Identifying Fishes through DNA Barcodes and Microarrays

    Get PDF
    Background: International fish trade reached an import value of 62.8 billion Euro in 2006, of which 44.6% are covered by the European Union. Species identification is a key problem throughout the life cycle of fishes: from eggs and larvae to adults in fisheries research and control, as well as processed fish products in consumer protection. Methodology/Principal Findings: This study aims to evaluate the applicability of the three mitochondrial genes 16S rRNA (16S), cytochrome b (cyt b), and cytochrome oxidase subunit I (COI) for the identification of 50 European marine fish species by combining techniques of ‘‘DNA barcoding’’ and microarrays. In a DNA barcoding approach, neighbour Joining (NJ) phylogenetic trees of 369 16S, 212 cyt b, and 447 COI sequences indicated that cyt b and COI are suitable for unambiguous identification, whereas 16S failed to discriminate closely related flatfish and gurnard species. In course of probe design for DNA microarray development, each of the markers yielded a high number of potentially species-specific probes in silico, although many of them were rejected based on microarray hybridisation experiments. None of the markers provided probes to discriminate the sibling flatfish and gurnard species. However, since 16S-probes were less negatively influenced by the ‘‘position of label’’ effect and showed the lowest rejection rate and the highest mean signal intensity, 16S is more suitable for DNA microarray probe design than cty b and COI. The large portion of rejected COI-probes after hybridisation experiments (.90%) renders the DNA barcoding marker as rather unsuitable for this high-throughput technology. Conclusions/Significance: Based on these data, a DNA microarray containing 64 functional oligonucleotide probes for the identification of 30 out of the 50 fish species investigated was developed. It represents the next step towards an automated and easy-to-handle method to identify fish, ichthyoplankton, and fish products

    DNA Microarrays for Identifying Fishes

    Get PDF
    In many cases marine organisms and especially their diverse developmental stages are difficult to identify by morphological characters. DNA-based identification methods offer an analytically powerful addition or even an alternative. In this study, a DNA microarray has been developed to be able to investigate its potential as a tool for the identification of fish species from European seas based on mitochondrial 16S rDNA sequences. Eleven commercially important fish species were selected for a first prototype. Oligonucleotide probes were designed based on the 16S rDNA sequences obtained from 230 individuals of 27 fish species. In addition, more than 1200 sequences of 380 species served as sequence background against which the specificity of the probes was tested in silico. Single target hybridisations with Cy5-labelled, PCR-amplified 16S rDNA fragments from each of the 11 species on microarrays containing the complete set of probes confirmed their suitability. True-positive, fluorescence signals obtained were at least one order of magnitude stronger than false-positive cross-hybridisations. Single nontarget hybridisations resulted in cross-hybridisation signals at approximately 27% of the cases tested, but all of them were at least one order of magnitude lower than true-positive signals. This study demonstrates that the 16S rDNA gene is suitable for designing oligonucleotide probes, which can be used to differentiate 11 fish species. These data are a solid basis for the second step to create a “Fish Chip” for approximately 50 fish species relevant in marine environmental and fisheries research, as well as control of fisheries products

    Optimization of Oligonucleotide Sets for DNA Microarrays

    No full text
    DNA microarrays or DNA chips are a rapidly developing technology in the domain of nucleic acid analytics. They facilitate rapid, parallel, cheap and highly specific and sensitive assays for the analysis of biodiversity or genetic profiles. Thousands of reactions with short nucleic acid molecules (so called oligonucleotides or oligos) have to be optimized, and parameters and criteria have to be considered. This chip design or configuration, is the subject of this work.The oligos are designed to detect the presence of a given set of target sequences. Provided that an oligo gives a signal by hybridization and the target sequence is in the sample, this signal is called true positive. The detection of non target sequences, e.g. human DNA within a virus assay, is called false positive signal or cross hybridization. A statistic on these types of signals determine the specificity and sensitivity of the oligos or a whole oligo set. Another criterion is the hybridization efficiency, which is influenced by a lot of properties of the oligo and the target sequence, like secondary structures. To detect and cover all variations of highly variable virus genomes it is necessary to design a combinatorily optimized oligo set. This work shows three approaches for this set cover problem , considering the above mentioned criteria and properties of the oligos or the whole set. These are a modified greedy search, a combination of gradient descent and competition and genetic algorithms.A web based bioinformatics system optiNA optimal Nucleic Acids was developed that enables the design of combinatorily optimized oligo sets. It reduces the development process to a few days, there is the possibility to process large amounts of sequence data and work with a lot of parameters and conditions and elements of the hybridization protocol can be used to parametrize optiNA. The error-prone manual work with large amounts of data is unnecessary

    ErklÀrvideos im Biologieunterricht

    No full text
    Mit dieser Feldstudie liegt eine direkt im schulischen Kontext entwickelte und durchgefĂŒhrte Studie vor. StĂ€rke dieser Studie ist, dass sie in Klassenstufe 8 einer Gesamtschule unter realen Schulbedingungen stattgefunden hat. Sie leistet damit einen wichtigen Beitrag zu der Frage nach der Lernwirksamkeit von ErklĂ€rvideos im Allgemeinen und spezifischer noch fĂŒr SchĂŒlerinnen und SchĂŒler unterschiedlicher Leistungsniveaus. Die Studie ergĂ€nzt die bisherige Forschung zum Einsatz von ErklĂ€rvideos, welche ihren Schwerpunkt im Bereich der Erwachsenenbildung (Hochschule und berufliche Fort- und Weiterbildung) hatte. Die getrennte Auswertung der Lernwirksamkeit von Videoproduktion und Videorezeption eröffnet sowohl fĂŒr die pĂ€dagogische Praxis in Schule, Hochschule und beruflicher Bildung als auch fĂŒr die wissenschaftliche Forschung weitere Perspektiven. Zentrale Ergebnisse der Studie sind: 1. Der Einsatz von ErklĂ€rvideos im Biologieunterricht ist fĂŒr SchĂŒlerinnen und SchĂŒler motivierend, was insbesondere bei SchĂŒlerinnen und SchĂŒlern im unteren Leistungsspektrum zu besseren Lernerfolgen fĂŒhren kann als ein Unterricht ohne Einsatz von ErklĂ€rvideos. 2. Negative Anspannung bei der Arbeit mit ErklĂ€rvideos kann zu einer Verschlechterung des Lernerfolgs fĂŒhren, wenn die Sorge um einen Misserfolg besonders hoch ist. Dies trifft hĂ€ufiger bei MĂ€dchen als bei Jungen zu

    Optimierung von Oligonukleotid-Bibliotheken fĂŒr DNA-Mikroarrays

    Get PDF
    DNA microarrays or DNA chips are a rapidly developing technology in the domain of nucleic acid analytics. They facilitate rapid, parallel, cheap and highly specific and sensitive assays for the analysis of biodiversity or genetic profiles. Thousands of reactions with short nucleic acid molecules (so called oligonucleotides or oligos) have to be optimized, and parameters and criteria have to be considered. This chip design or configuration, is the subject of this work.The oligos are designed to detect the presence of a given set of target sequences. Provided that an oligo gives a signal by hybridization and the target sequence is in the sample, this signal is called true positive. The detection of non target sequences, e.g. human DNA within a virus assay, is called false positive signal or cross hybridization. A statistic on these types of signals determine the specificity and sensitivity of the oligos or a whole oligo set. Another criterion is the hybridization efficiency, which is influenced by a lot of properties of the oligo and the target sequence, like secondary structures. To detect and cover all variations of highly variable virus genomes it is necessary to design a combinatorily optimized oligo set. This work shows three approaches for this set cover problem , considering the above mentioned criteria and properties of the oligos or the whole set. These are a modified greedy search, a combination of gradient descent and competition and genetic algorithms.A web based bioinformatics system optiNA optimal Nucleic Acids was developed that enables the design of combinatorily optimized oligo sets. It reduces the development process to a few days, there is the possibility to process large amounts of sequence data and work with a lot of parameters and conditions and elements of the hybridization protocol can be used to parametrize optiNA. The error-prone manual work with large amounts of data is unnecessary

    Managementprognosen, AnalystenschÀtzungen und Eigenkapitalkosten

    No full text
    Die Arbeit teilt sich auf in drei Module: Im ersten Modul werden Eigenschaften und Determinanten der Managementprognosen der DAX und MDAX-Unternehmen. Es werden prÀzisere Prognosen abgegeben, wenn das Unternehmen 1) einen geringeren Anteil an immateriellem Vermögen, 2) eine geringere Marktkapitalisierung, 3) eine geringere VolatilitÀt der Ergebnisse sowie 4) einen höheren Bedarf an externer Finanzierung besitzt. Ziel des zweiten Moduls ist die Beantwortung der Frage, ob die QualitÀt der Investor Relations und die QualitÀt der GeschÀftsberichte den Fehler und die Streuung der AnalystenschÀtzungen beeinflusst. Die Ergebnisse zeigen, dass lediglich die IR-QualitÀt einen Einfluss auf die AnalystenschÀtzungen besitzt. Im dritten Modul untersuche ich den Zusammenhang zwischen der QualitÀt der freiwilligen Berichterstattung und den Eigenkapitalkosten. Es zeigt sich, dass die QualitÀt der Investor Relations einen signifikanten Einfluss auf die Eigenkapitalkosten besitzt\it besitzt

    Molecular MRI imaging of glioblastoma models

    No full text
    • 

    corecore