64 research outputs found

    Chance and Necessity in Evolution: Lessons from RNA

    Full text link
    The relationship between sequences and secondary structures or shapes in RNA exhibits robust statistical properties summarized by three notions: (1) the notion of a typical shape (that among all sequences of fixed length certain shapes are realized much more frequently than others), (2) the notion of shape space covering (that all typical shapes are realized in a small neighborhood of any random sequence), and (3) the notion of a neutral network (that sequences folding into the same typical shape form networks that percolate through sequence space). Neutral networks loosen the requirements on the mutation rate for selection to remain effective. The original (genotypic) error threshold has to be reformulated in terms of a phenotypic error threshold. With regard to adaptation, neutrality has two seemingly contradictory effects: It acts as a buffer against mutations ensuring that a phenotype is preserved. Yet it is deeply enabling, because it permits evolutionary change to occur by allowing the sequence context to vary silently until a single point mutation can become phenotypically consequential. Neutrality also influences predictability of adaptive trajectories in seemingly contradictory ways. On the one hand it increases the uncertainty of their genotypic trace. At the same time neutrality structures the access from one shape to another, thereby inducing a topology among RNA shapes which permits a distinction between continuous and discontinuous shape transformations. To the extent that adaptive trajectories must undergo such transformations, their phenotypic trace becomes more predictable.Comment: 37 pages, 14 figures; 1998 CNLS conference; high quality figures at http://www.santafe.edu/~walte

    Towards the understanding of transcriptional and translational regulatory complexity

    Get PDF
    Considering the same genome within every cell, the observed phenotypic diversity can only arise from highly regulated mechanisms beyond the encoded DNA sequence. We investigated several mechanisms of protein biosynthesis and analyzed DNA methylation patterns, alternative translation sites, and genomic mutations. As chromatin states are determined by epigenetic modifications and nucleosome occupancy,we conducted a structural superimposition approach between DNA methyltransferase 1 (DNMT1) and the nucleosome, which suggests that DNA methylation is dependent on accessibility of DNMT1 to nucleosome–bound DNA. Considering translation, alternative non–AUG translation initiation was observed. We developed reliable prediction models to detect these alternative start sites in a given mRNA sequence. Our tool PreTIS provides initiation confidences for all frame–independent non–cognate and AUG starts. Despite these innate factors, specific sequence variations can additionally affect a phenotype. We conduced a genome–wide analysis with millions of mutations and found an accumulation of SNPs next to transcription starts that could relate to a gene–specific regulatory signal. We also report similar conservation of canonical and alternative translation sites, highlighting the relevance of alternative mechanisms. Finally, our tool MutaNET automates variation analysis by scoring the impact of individual mutations on cell function while also integrating a gene regulatory network.Da sich in jeder Zelle die gleiche genomische Information befindet, kann die vorliegende phänotypische Vielfalt nur durch hochregulierte Mechanismen jenseits der kodierten DNA– Sequenz erklärt werden. Wir untersuchten Mechanismen der Proteinbiosynthese und analysierten DNA–Methylierungsmuster, alternative Translation und genomische Mutationen. Da die Chromatinorganisation von epigenetischen Modifikationen und Nukleosompositionen bestimmt wird, führten wir ein strukturelles Alignment zwischen DNA–Methyltransferase 1 (DNMT1) und Nukleosom durch. Dieses lässt vermuten, dass DNA–Methylierung von einer Zugänglichkeit der DNMT1 zur nukleosomalen DNA abhängt. Hinsichtlich der Translation haben wir verlässliche Vorhersagemodelle entwickelt, um alternative Starts zu identifizieren. Anhand einer mRNA–Sequenz bestimmt unser Tool PreTIS die Initiationskonfidenzen aller alternativen nicht–AUG und AUG Starts. Auch können sich Sequenzvarianten auf den Phänotyp auswirken. In einer genomweiten Untersuchung von mehreren Millionen Mutationen fanden wir eine Anreicherung von SNPs nahe des Transkriptionsstarts,welche auf ein genspezifisches regulatorisches Signal hindeuten könnte. Außerdem beobachteten wir eine ähnliche Konservierung von kanonischen und alternativen Translationsstarts, was die Relevanz alternativer Mechanismen belegt. Auch bewertet unser Tool MutaNET mit Hilfe von Scores und eines Genregulationsnetzwerkes automatisch den Einfluss einzelner Mutationen auf die Zellfunktion

    Bioinformatics

    Get PDF
    This book is divided into different research areas relevant in Bioinformatics such as biological networks, next generation sequencing, high performance computing, molecular modeling, structural bioinformatics, molecular modeling and intelligent data analysis. Each book section introduces the basic concepts and then explains its application to problems of great relevance, so both novice and expert readers can benefit from the information and research works presented here

    In vitro and in silico epitope-paratope mapping

    Get PDF

    A Multiobjective Approach Applied to the Protein Structure Prediction Problem

    Get PDF
    Interest in discovering a methodology for solving the Protein Structure Prediction problem extends into many fields of study including biochemistry, medicine, biology, and numerous engineering and science disciplines. Experimental approaches, such as, x-ray crystallographic studies or solution Nuclear Magnetic Resonance Spectroscopy, to mathematical modeling, such as minimum energy models are used to solve this problem. Recently, Evolutionary Algorithm studies at the Air Force Institute of Technology include the following: Simple Genetic Algorithm (GA), messy GA, fast messy GA, and Linkage Learning GA, as approaches for potential protein energy minimization. Prepackaged software like GENOCOP, GENESIS, and mGA are in use to facilitate experimentation of these techniques. In addition to this software, a parallelized version of the fmGA, the so-called parallel fast messy GA, is found to be good at finding semi-optimal answers in reasonable wall clock time. The aim of this work is to apply a Multiobjective approach to solving this problem using a modified fast messy GA. By dividing the CHARMm energy model into separate objectives, it should be possible to find structural configurations of a protein that yield lower energy values and ultimately more correct conformations

    PRETICTIVE BIOINFORMATIC METHODS FOR ANALYZING GENES AND PROTEINS

    Get PDF
    Since large amounts of biological data are generated using various high-throughput technologies, efficient computational methods are important for understanding the biological meanings behind the complex data. Machine learning is particularly appealing for biological knowledge discovery. Tissue-specific gene expression and protein sumoylation play essential roles in the cell and are implicated in many human diseases. Protein destabilization is a common mechanism by which mutations cause human diseases. In this study, machine learning approaches were developed for predicting human tissue-specific genes, protein sumoylation sites and protein stability changes upon single amino acid substitutions. Relevant biological features were selected for input vector encoding, and machine learning algorithms, including Random Forests and Support Vector Machines, were used for classifier construction. The results suggest that the approaches give rise to more accurate predictions than previous studies and can provide valuable information for further experimental studies. Moreover, seeSUMO and MuStab web servers were developed to make the classifiers accessible to the biological research community. Structure-based methods can be used to predict the effects of amino acid substitutions on protein function and stability. The nonsynonymous Single Nucleotide Polymorphisms (nsSNPs) located at the protein binding interface have dramatic effects on protein-protein interactions. To model the effects, the nsSNPs at the interfaces of 264 protein-protein complexes were mapped on the protein structures using homology-based methods. The results suggest that disease-causing nsSNPs tend to destabilize the electrostatic component of the binding energy and nsSNPs at conserved positions have significant effects on binding energy changes. The structure-based approach was developed to quantitatively assess the effects of amino acid substitutions on protein stability and protein-protein interaction. It was shown that the structure-based analysis could help elucidate the mechanisms by which mutations cause human genetic disorders. These new bioinformatic methods can be used to analyze some interesting genes and proteins for human genetic research and improve our understanding of their molecular mechanisms underlying human diseases

    Selected Works in Bioinformatics

    Get PDF
    This book consists of nine chapters covering a variety of bioinformatics subjects, ranging from database resources for protein allergens, unravelling genetic determinants of complex disorders, characterization and prediction of regulatory motifs, computational methods for identifying the best classifiers and key disease genes in large-scale transcriptomic and proteomic experiments, functional characterization of inherently unfolded proteins/regions, protein interaction networks and flexible protein-protein docking. The computational algorithms are in general presented in a way that is accessible to advanced undergraduate students, graduate students and researchers in molecular biology and genetics. The book should also serve as stepping stones for mathematicians, biostatisticians, and computational scientists to cross their academic boundaries into the dynamic and ever-expanding field of bioinformatics

    Methoden zur Strukturvorhersage von Transmembranproteinen und die Berechnung der Langzeitdynamik von Helices

    Get PDF
    Transmembrane proteins play crucial roles in biological systems as active or passive channels and receptors. Experimentally only few structures could be determined so far. Gaining structural insights enables besides a general understanding of biological mechanisms also further processing such as in drug design. Due to the lack of experimental data, reliable theoretical predictions would be of high value. However, for the same reason, missing data, the knowledge-based class of prediction methods that is well established for soluble proteins can not be applied. The goal of predicting transmembrane protein structures with ab initio methods demands locating the free energy minimum. Main difficulties here are, first, the computational costs of explicitly calculating all involved interactions and, second, providing an algorithm that is capable of finding the minimum within an extremely complex and rugged energy landscape. We have developed promising energy functions that describe the interactions of amino acids on a residue level, reducing computational costs while still containing most information on the atomistic level. We have also found a way to describe the interaction of the residues with its surrounding in a realistic manner by distinguishing residues exposed to the environment from those buried within helices using a sphere algorithm. The sphere algorithm can also be applied for a different purpose: one can measure how densely sidechains are packed for certain helical conformations, and thereby get an estimate of the sidechain entropy. In addition, overcrowding effects can be identified which are not well-described by the energy functions due to the pairwise calculation. To determine the absolute free energy minimum, we assume the helices to be located on an equidistance grid with slightly larger distances than to be expected. Optimizing the helices on the grid provides a starting point that should enable common minimizing algorithms, gradient-based or not, to find the absolute minimum beyond the grid. To simulate the dynamics of the helices on large time scales, we split them into rigid body dynamics and internal dynamics in terms of the dihedrals. The former one is well-known with its inherent problem of numerical drift and plenty of approaches to it, among which we have chosen the quaternions to represent the rotation of the rigid bodies. The latter one requires a detailed analysis of the torque size exerted on the dihedrals caused by the forces acting on the residues.In dieser Arbeit werden neue Methoden zur dreidimensionalen Strukturvorhersage von Transmembranproteinen vorgestellt. Die Methoden setzen die Kenntnis der Primär- und der Sekundärstruktur der Proteine voraus. Transmembranproteine spielen eine wesentliche Rolle in einer Vielzahl biologischer Prozesse in ihrer Funktion als aktive und passive Kanäle und als Rezeptoren. Fehlfaltungen und andere Störungen ihrer Funktion können am Entstehen von Krankheiten wie z.B. Alzheimer beteiligt sein. Einige Krankheitserreger docken an Transmembranproteine an. Zudem sind sie das Ziel von ca. 50% aller Medikamente. Das Wissen über die Struktur der Transmembranproteine bietet die Grundlage für die weitere Verarbeitung, z.B. in den Methoden des Drug-Designs. Experimentell konnten trotz ihrer Bedeutung und trotz großer Anstrengungen bisher nur wenige Strukturen bestimmt werden. Dies ist bedingt durch technische Schwierigkeiten in der Erzeugung zwei- oder dreidimensionaler Protein-Kristalle. Die Kristalle können mittels Röntgenbeugung bzw. Elektronenmikroskopie Aufschluß über die Struktur geben. Die Struktur kleinerer Transmembranproteine wie z.B. Glycophorin A konnten mit Hilfe der Kernspinresonanz-Spektroskopie gelöst werden, bei der keine Kristallisation der Proteine benötigt wird. Andere spektroskopische Methoden wie Infrarot-Spektroskopie lieferten weitere strukturell-funktionale Informationen. Aufgrund der experimentellen Schwierigkeiten wären verlässliche, theoretische Vorhersagen von hohem Wert. Statistische und Homologie-Methoden, welche für lösliche Proteine sehr erfolgreich sind, können aufgrund der geringen Anzahl gelöster Strukturen noch nicht angewendet werden. Eine Ab-initio-Strukturvorhersage ist die Suche nach derjenigen Struktur mit der geringsten freien Enthalpie, die mit höchster Wahrscheinlichkeit in der Natur zu finden ist. Diese Art der Strukturvorhersage beinhaltet die Berechnung der freien Enthalpie einer gegebenen Struktur und dem Suchen im Raum der möglichen Strukturen nach derjenigen mit der minimalen Enthalpie. Bei den hier vorgestellten Methoden handelt es sich um ein Multi-Skalen- Verfahren, das es erlaubt, die Suche nach der nativen Struktur in verschiedenen Genauigkeiten bzw. Geschwindigkeiten durchzuführen. Eine erste Eingrenzung möglicher Strukturen wird mittels der Reduktion auf ein Residuenmodell und der Beschränkung auf ideale Helices erreicht. Hierdurch werden Freiheitsgrade und die Anzahl der zu berechnenden Wechselwirkungen wesentlich verringert. Die Ergebnisse dieser reduzierten Betrachtung dienen dann als Ausgangspunkt für die Verfeinerung durch atomistische MD-Simulationen der gesamten Proteine und ihrer Umgebung. Die zu berechnende Energie setzt sich zusammen aus den Wechselwirkungen der Aminosäuren untereinander und den Wechselwirkungen der Aminosäuren mit ihrer Umgebung. Umgebung können die drei Phasen der wässrigen Lösung, der Lipidkopfgruppen und die der Lipidketten sein. Die Grundidee ist, die Wechselwirkungsenergien der Aminosäuren im atomistischen Detail zu berechnen und die Ergebnisse mit einer mathematischen Funktion anzunähern. Die Verwendung dieser in der Anwendung weit weniger zeitaufwendigen, angenäherten Funktionen ist der Übergang zu der Residuenskala. Insbesondere bei der Residuen-Residuen-Wechselwirkung werden im wesentlichen Beiträge zur inneren Energie berechnet. Der entropische Anteil ist schwierig vorherzusehen, da er eigentlich erst aus der Gesamtsituation heraus berechenbar wird. Die Entropie ist eine Funktion der Gesamtzahl der für ein System bei gegebenem Energieintervall erreichbaren Zustände. Einige entropische Beiträge können abgeschätzt werden, andere sind relativ konstant. Es bleiben jedoch Beiträge, die einem Residuenmodell nicht zugänglich sind. Um die Wechselwirkung der Aminosäuren im atomistischen Detail zu berechnen, verwenden wir kurze MD-Simulationen von jeweils zwei Aminosäuren. Diese werden für eine ausreichende Anzahl verschiedener Abstände und Orientierungen der betreffenden Aminosäuren durchgeführt. 1 Es gibt verschiede Möglichkeiten, die Energiewerte durch Fit-Funktionen anzunähern. In dieser Arbeit wird ein Satz von einfachen, eindimensionalen und winkelparametrisierten Polynomfunktionen verwendet, die ohne Aufwand differenziert werden können. Anstelle einer Funktion je Residuenpaar, welche die Residuen in allen Orientierungen und Abständen beschreibt, sind es mehrere, rein abstandsabhängige Funktionen, welche die Residuen in jeweils einer bestimmten Orientierung beschreiben. Nach Einführung eines Maximalwertes für die in Betracht gezogenen Energien ist die Fitprozedur stabil und kann automatisiert werden. Die Daten der Fitfunktionen sind im atomistischen Detail berechnet worden, beim Durchsuchen des Konformationsraumes ist die Verwendung der Fitfunktionen jedoch wesentlich schneller als explizite Berechnungen. Um die Wechselwirkung eines Proteins mit seiner Umgebung in einem Residuum- Modell zu berechnen, werden zwei Informationen benötigt. Erstens muss die Wechselwirkung der Residuen mit der jeweiligen Umgebung bekannt sein. Hierfür werden Literaturwerte für die freien Lösungs-Enthalpien der Residuen in Wasser und Chloroform verwendet. Diese wurden in unserer Arbeitsgruppe von Gu et al.[38] durch MD-Simulationen und Methoden der Multiconfiguration-Thermodynamic- Integration berechnet und sind in guter Übereinstimmung mit den existierenden experimentellen Werten. Der Übergang in der Kopfgruppenregion wird durch eine Funktion der hierfür üblichen Form angenähert. Zweitens müssen Residuen, welche ihrer Umgebung ausgesetzt sind, von denen unterschieden werden, die zwischen den Helices "begraben" sind, von denen also keine Wechselwirkung mit der Umgebung zu erwarten ist. Diese Unterscheidung wird insbesondere bei größeren Systemen wesentlich. Hierfür verwenden wir einen einfachen Kugelalgorithmus. Jedem Residuum wird eine Kugel zugeordnet, 1 Aus technischen Gründen werden Tripeptide in helikaler Konformation (G-X-G) simuliert, von denen die äußeren beiden Glycine als Attrappen mitgeführt werden und keine Auswirkung auf die Energiewerte haben. mit dem Mittelpunkt an der Position des Ca-Atoms. Für die Radien werden ebenfalls Literaturwerte genommen. Die Kugeln von Residuen, welche vergraben sind, werden vollständig von anderen Kugeln überlappt. Kugeln von Residuen an der Oberfläche der Proteine haben freie Oberflächen, welche nicht von anderen Kugeln überlappt werden - umso größere, je mehr sie der Umgebung ausgesetzt sind. Wir betrachten daher die Wechselwirkung mit der Umgebung als proportional zu der freien Oberfläche, die einem Residuum zugeordnet werden kann. Die Implementierung des Kugelalgorithmus basiert auf einer vektoriellen Integration in Kugelkoordinaten. Die ideale Größe der Kugeln hängt mit der Additivität der Lipophilizitäten zusammen. Diese wird zur Zeit von Gu et al. untersucht, indem die oben erwähnten Methoden zur Bestimmung der Lipophilizitäten auf Peptide mit mehreren Aminosäuren angewendet werden. Der Vergleich mit diesen Ergebnissen sollte eine Optimierung der Kugelradien ermöglichen. Es hat sich herausgestellt, dass der Kugelalgorithmus in leicht modifizierter Form weitere sinnvolle Anwendungen gestattet. Wir bezeichnen einen Überlapp zweier Kugeln als Überlapp erster Ordnung usw. Je größer der Überlapp einer höheren Ordnung ist, desto dichter sind die Residuen gepackt. Eine höhere Dichte schränkt die Zahl möglicher Konformationen für einen bestimmten Energiebereich ein, d.h. sie führt zu einer geringeren Entropie und damit zu einer höheren freien Enthalpie. Daher ermöglicht die Berechnung des Überlapps höherer Ordnung eine Abschätzung der Seitenkettenentropie. Wird ein bestimmter Grenzwert der Dichte überschritten, wird die freie Enthalpie der Helices stark zunehmen, da nicht mehr ausreichend Raum für die Residuen vorhanden ist. Nach der notwendigen Skalierung ist hiermit auch bei Überschreiten eines Grenzwertes ein Indikator für zu dichte Packungen gegeben, welche bei der üblichen paarweisen Berechnung des Residuenpotentials nicht erfasst werden können. Skaliert werden könnte der Algorithmus durch den Vergleich mit MD-Simulationen ganzer Helices. Für die Abschätzung der Seitenkettenentropie müssen Überlapp und Seitenkettenbeweglichkeit in den Simulationen miteinander verglichen werden. Des Weiteren muß der Grenzwert des Überlapps bestimmt werden, ab dem mit einem drastischen Energieanstieg aufgrund zu hoher Dichte der Seitenketten zu rechnen ist. Schliesslich bedarf es einer Skalierung des Überschreitens dieses Grenzwertes. Diese Skalierungen stehen noch aus. Trotz seiner konzeptuellen Einfachheit stellt der Kugelalgorithmus ein vielseitiges Hilfsmittel auf der Ebene des Residuenmodells dar. Das aus zwei identischen Transmembranhelices gebildete Glycophorin A ist ein ideales Testsystem mit bekannter Struktur um die bislang vorgestellten Methoden zu prüfen. Wenn man Glycophorin A als starren Körper mit den ihm eigenen Symmetrien betrachtet, hat man einen fünfdimensionalen Konformationsraum, den man vollständig durchsuchen kann, ohne die im folgenden dargestellten Suchmethoden verwenden zu müssen. Die Residuen-Umgebung-Wechselwirkung als auch der Dichte-Packung-Algorithmus favorisieren die Umgebung der nativen Struktur. Die Residuen-Residuen-Wechselwirkung dagegen identifiziert eine andere Region als absolutes Minimum. Gründe hierfür können u.a. sein, dass die Residuen-Residuen-Funktionen bislang nur für parallele Helices berechnet wurden und die Verkippung der Helices nicht ausreichend gut beschrieben wurde. Ein weiterer Faktor ist, dass die Funktionen Vakuumwechselwirkungen ohne polarisierbares Medium dazwischen beschreiben. Die Verwendung von im Vakuum berechneten Werten ist nicht immer sinnvoll. Zum Einen sind Teile der Helices durch Lipide voneinander getrennt, zum Anderen werden die Residuen häufig durch andere Residuen abgeschirmt. Hinzu kommt noch der Faktor, dass die Energien paarweise berechnet wurden und eine Abweichung in der Seitenkettenmobilität zu erwarten ist, wenn die Residuen in helikale Strukturen eingebettet sind. Dies sollte ebenfalls die Energiewerte beeinflussen. Park et al.[43] konnten durch eine Verschiebung der Residuenpositionen von den Ca-Positionen zu den geometrischen Zentren der Seitenketten die Qualität der Energiefunktionen deutlich verbessern. Ein ähnliches Vorgehen führte auch in dieser Arbeit zu einer wesentlichen Verbesserung der Ergebnisse. Dieser Schritt ist analog einer Kombination aus Dämpfungsterm und einer Beschränkung der Seitenkettenmobilität. Die Einführung eines Entfernungs-Grenzwertes, der alle Wechselwirkungen gleich Null setzt wenn die Entfernung oberhalb des Grenzwertes liegt, führte zu einer weiteren Verbesserung. Obwohl aufgrund dieser Modifikationen die Qualität der Energiefunktionen deutlich verbessert werden konnte, ist es zweifelhaft, ob zu dem aktuellen Stand für größere Systeme wie Bakteriorhodopsin verlässliche Ergebnisse zu erwarten wären. Insbesondere die Verkippung bis hin zu antiparallelen Helices spielt bei Bakteriorhodopsin eine noch wesentlichere Rolle. Die weiteren Methoden werden daher nur grundsätzlich beschrieben und einige einfache Tests duchgeführt. Die ursprüngliche Idee für die Suche nach dem absoluten Minimum war eine Kombination aus einer Monte-Carlo Suche und einem genetischen Algorithmus. Es stellte sich heraus, dass dieses Vorgehen nicht der Komplexität der Energielandschaft gewachsen ist. Auch Methoden, die auf einer Gradientenbildung beruhen, sind dieser Aufgabe allein nicht gewachsen. Um in der weitläufigen und zerklüfteten Energielandschaft nicht in einem lokalen Minimum hängen zu bleiben, bedarf es einer Hilfestellung. Eine erfolgreiche Anwendung existierender Minimierungsalgorithmen ist nur dann zu erwarten, wenn die Anfangskonformation so geschickt gewählt wird, dass keine groben Hindernissse den Algorithmus stören können. Den Konformationsraum vollständig zu durchsuchen, ist zu aufwendig; andererseits dürfen keine Regionen unabgetastet bleiben. Wir betrachten die Energielandschaft zunächst aus der Vogelperspektive, indem wir die Helices auf einem Equidistanzgitter plazieren, deren Abstand größer ist als der zu erwartende Abstand im Protein. Die Helices auf diesem Gitter zu optimieren, um sie dann loszulassen und dem Minimierungsalgorithmus zu übergeben, ist längst nicht so aufwendig wie das Durchsuchen des gesamten Konformationsraumes und gleichzeitig ausreichend vollständig. Um die Helices auf dem Gitter zu optimieren, werden die in Frage kommenden Helices in Dreier-Kombinationen systematisch abgetastet. Aus diesen Dreier-Scans lassen sich dann die minimalen Konformationen des gesamten Proteins rekombinieren. Praktisch bedeutet dies für die Untersuchung eines Proteins, dessen Struktur gänzlich unbekannt ist, dass zunächst die möglichen Gitteranordnungen bestimmt werden müssen. Die möglichen Gittertypen hängen von der Anzahl der Helices ab. Die Helices werden in allen Permutationen den Gitterpunkten zugeordnet. Ausscheidungskriterium ist die Länge der Peptidkette zwischen den Helices. Für die in Frage kommenden Helix-Dreier-Kombinationen werden dann systematische Energieberechnungen auf der Basis des entwickelten Residuenpotentials durchgeführt und in "Karten" abgespeichert. Die Wahl von Helix-Trios für das systematische Durchsuchen erlaubt, ausgehend von den Konformationen minimaler Energie des Ausgangstrios, die darauffolgenden Helices schnell und zuverlässig in Konformationen ebenfalls minimaler Energie hinzuzufügen. Da die Berechnung der Karten und die Rekombination nur auf der Residuen-Residuen-Wechselwirkung beruht, wird dem Minimierungsalgorithmus ein Ensemble möglicher Konformationen übergeben 2.Der letzte Schritt der Strukturbestimmung wäre das Hinzufügen der zuvor vernachlässigten Residuen und der Seitenketten und die Übergabe der resultierenden Protein-Konformationen an ein MD-Programm, um die Struktur im atomistischen Detail zu verfeinern. Abschließend werden einige Ansätze für eine Helix-Dynamik auf größeren Zeitskalen vorgestellt, die es ermöglichen sollen, die Dynamik von Proteinen über die zeitlichen Begrenzungen von MD-Simulationen hinaus zu beschreiben. Die Zeiträume, über die gegenwärtig mit MD ein System von ungefähr 100 000 Atomen simuliert werden kann, bewegen sich in der Größenordnung von einigen 10 Nanosekunden. Die Funktion der Proteine ist häufig mit einer teilweise großräumigen Konformationsänderung verbunden. Bei der Verschiebung von Helices kann beispielsweise zwischen offenen und geschlossenen Zustand von Kanälen hin- und hergeschaltet werden, wie bei dem spannungsgesteuertem K+ Kanal KvAP. Andere Proteine, wie Bakteriorhodopsin und Ca2+ATPase, schalten durch Strukturänderung zwischen aktivem und ruhenden Zustand hin und her. Bakteriorhodopsin durchläuft durch die Absorption eines Photons einen Zyklus, bei dem ein Proton entgegen eines äußeren Gradienten durch das Protein gepumpt wird. Unser Ansatz besteht aus einem Zwei-Schritt-Algorithmus. Im ersten Schritt werden die Helices als starre Körper betrachtet und für ein bestimmtes Zeitintervall werden die Bewegungsgleichungen starrer Körper gelöst. Die Berechnung der internen Dynamik, welche sich innerhalb des Residuenmodells auf die Verbiegung der Helices beschränkt, wird im zweiten Schritt berechnet. Hierfür müssen die Kräfte, welche auf die Residuen wirken, in Drehmomente umgerechnet werden, welche auf die Bindungen zwischen den Rückgrat-Atomen wirken. Die wesentlichen Freiheitsgrade der Peptidgeometrie sind jeweils die beiden Torsionwinkel der Bindungen des Protein-Rückgrats an die Ca-Atome. Für deren Auslenkung von der idealen Helix-Konformation werden die Bewegungsgleichungen gelöst - unter der Annahme, dass die Gleichungen entkoppeln. 2 Im Prinzip können die gleichen Methoden auch auf der atomistischen Skala angewendet werden
    corecore