44 research outputs found

    Soft Computing Techiniques for the Protein Folding Problem on High Performance Computing Architectures

    Get PDF
    The protein-folding problem has been extensively studied during the last fifty years. The understanding of the dynamics of global shape of a protein and the influence on its biological function can help us to discover new and more effective drugs to deal with diseases of pharmacological relevance. Different computational approaches have been developed by different researchers in order to foresee the threedimensional arrangement of atoms of proteins from their sequences. However, the computational complexity of this problem makes mandatory the search for new models, novel algorithmic strategies and hardware platforms that provide solutions in a reasonable time frame. We present in this revision work the past and last tendencies regarding protein folding simulations from both perspectives; hardware and software. Of particular interest to us are both the use of inexact solutions to this computationally hard problem as well as which hardware platforms have been used for running this kind of Soft Computing techniques.This work is jointly supported by the FundaciónSéneca (Agencia Regional de Ciencia y Tecnología, Región de Murcia) under grants 15290/PI/2010 and 18946/JLI/13, by the Spanish MEC and European Commission FEDER under grant with reference TEC2012-37945-C02-02 and TIN2012-31345, by the Nils Coordinated Mobility under grant 012-ABEL-CM-2014A, in part financed by the European Regional Development Fund (ERDF). We also thank NVIDIA for hardware donation within UCAM GPU educational and research centers.Ingeniería, Industria y Construcció

    Optimización de algoritmos bioinspirados en sistemas heterogéneos CPU-GPU.

    Get PDF
    Los retos científicos del siglo XXI precisan del tratamiento y análisis de una ingente cantidad de información en la conocida como la era del Big Data. Los futuros avances en distintos sectores de la sociedad como la medicina, la ingeniería o la producción eficiente de energía, por mencionar sólo unos ejemplos, están supeditados al crecimiento continuo en la potencia computacional de los computadores modernos. Sin embargo, la estela de este crecimiento computacional, guiado tradicionalmente por la conocida “Ley de Moore”, se ha visto comprometido en las últimas décadas debido, principalmente, a las limitaciones físicas del silicio. Los arquitectos de computadores han desarrollado numerosas contribuciones multicore, manycore, heterogeneidad, dark silicon, etc, para tratar de paliar esta ralentización computacional, dejando en segundo plano otros factores fundamentales en la resolución de problemas como la programabilidad, la fiabilidad, la precisión, etc. El desarrollo de software, sin embargo, ha seguido un camino totalmente opuesto, donde la facilidad de programación a través de modelos de abstracción, la depuración automática de código para evitar efectos no deseados y la puesta en producción son claves para una viabilidad económica y eficiencia del sector empresarial digital. Esta vía compromete, en muchas ocasiones, el rendimiento de las propias aplicaciones; consecuencia totalmente inadmisible en el contexto científico. En esta tesis doctoral tiene como hipótesis de partida reducir las distancias entre los campos hardware y software para contribuir a solucionar los retos científicos del siglo XXI. El desarrollo de hardware está marcado por la consolidación de los procesadores orientados al paralelismo masivo de datos, principalmente GPUs Graphic Processing Unit y procesadores vectoriales, que se combinan entre sí para construir procesadores o computadores heterogéneos HSA. En concreto, nos centramos en la utilización de GPUs para acelerar aplicaciones científicas. Las GPUs se han situado como una de las plataformas con mayor proyección para la implementación de algoritmos que simulan problemas científicos complejos. Desde su nacimiento, la trayectoria y la historia de las tarjetas gráficas ha estado marcada por el mundo de los videojuegos, alcanzando altísimas cotas de popularidad según se conseguía más realismo en este área. Un hito importante ocurrió en 2006, cuando NVIDIA (empresa líder en la fabricación de tarjetas gráficas) lograba hacerse con un hueco en el mundo de la computación de altas prestaciones y en el mundo de la investigación con el desarrollo de CUDA “Compute Unified Device Arquitecture. Esta arquitectura posibilita el uso de la GPU para el desarrollo de aplicaciones científicas de manera versátil. A pesar de la importancia de la GPU, es interesante la mejora que se puede producir mediante su utilización conjunta con la CPU, lo que nos lleva a introducir los sistemas heterogéneos tal y como detalla el título de este trabajo. Es en entornos heterogéneos CPU-GPU donde estos rendimientos alcanzan sus cotas máximas, ya que no sólo las GPUs soportan el cómputo científico de los investigadores, sino que es en un sistema heterogéneo combinando diferentes tipos de procesadores donde podemos alcanzar mayor rendimiento. En este entorno no se pretende competir entre procesadores, sino al contrario, cada arquitectura se especializa en aquella parte donde puede explotar mejor sus capacidades. Donde mayor rendimiento se alcanza es en estos clústeres heterogéneos, donde múltiples nodos son interconectados entre sí, pudiendo dichos nodos diferenciarse no sólo entre arquitecturas CPU-GPU, sino también en las capacidades computacionales dentro de estas arquitecturas. Con este tipo de escenarios en mente, se presentan nuevos retos en los que lograr que el software que hemos elegido como candidato se ejecuten de la manera más eficiente y obteniendo los mejores resultados posibles. Estas nuevas plataformas hacen necesario un rediseño del software para aprovechar al máximo los recursos computacionales disponibles. Se debe por tanto rediseñar y optimizar los algoritmos existentes para conseguir que las aportaciones en este campo sean relevantes, y encontrar algoritmos que, por su propia naturaleza sean candidatos para que su ejecución en dichas plataformas de alto rendimiento sea óptima. Encontramos en este punto una familia de algoritmos denominados bioinspirados, que utilizan la inteligencia colectiva como núcleo para la resolución de problemas. Precisamente esta inteligencia colectiva es la que les hace candidatos perfectos para su implementación en estas plataformas bajo el nuevo paradigma de computación paralela, puesto que las soluciones pueden ser construidas en base a individuos que mediante alguna forma de comunicación son capaces de construir conjuntamente una solución común. Esta tesis se centrará especialmente en uno de estos algoritmos bioinspirados que se engloba dentro del término metaheurísticas bajo el paradigma del Soft Computing, el Ant Colony Optimization “ACO”. Se realizará una contextualización, estudio y análisis del algoritmo. Se detectarán las partes más críticas y serán rediseñadas buscando su optimización y paralelización, manteniendo o mejorando la calidad de sus soluciones. Posteriormente se pasará a implementar y testear las posibles alternativas sobre diversas plataformas de alto rendimiento. Se utilizará el conocimiento adquirido en el estudio teórico-práctico anterior para su aplicación a casos reales, más en concreto se mostrará su aplicación sobre el plegado de proteínas. Todo este análisis es trasladado a su aplicación a un caso concreto. En este trabajo, aunamos las nuevas plataformas hardware de alto rendimiento junto al rediseño e implementación software de un algoritmo bioinspirado aplicado a un problema científico de gran complejidad como es el caso del plegado de proteínas. Es necesario cuando se implementa una solución a un problema real, realizar un estudio previo que permita la comprensión del problema en profundidad, ya que se encontrará nueva terminología y problemática para cualquier neófito en la materia, en este caso, se hablará de aminoácidos, moléculas o modelos de simulación que son desconocidos para los individuos que no sean de un perfil biomédico.Ingeniería, Industria y Construcció

    The dynamics of complex systems. Studies and applications in computer science and biology

    Get PDF
    Our research has focused on the study of complex dynamics and on their use in both information security and bioinformatics. Our first work has been on chaotic discrete dynamical systems, and links have been established between these dynamics on the one hand, and either random or complex behaviors. Applications on information security are on the pseudorandom numbers generation, hash functions, informationhiding, and on security aspects on wireless sensor networks. On the bioinformatics level, we have applied our studies of complex systems to theevolution of genomes and to protein folding

    Stochastic modelling of bacterial dynamics : adhesion & range expansion

    Get PDF
    Bacteria, as one of the three domains in the tree of life, play an important role in many phenomena such as biocorrosion, pipe clogging and infections. Since treatment with antibiotics or mechanical removal can be difficult, it is paramount to understand the initial attachment to a substrate and the subsequent colony growth. To this end, this thesis investigates first the adhesion process of Staphylococcus aureus by Monte Carlo simulations and helps to reveal that the bacterium uses different binding mechanisms on hydrophobic and hydrophilic substrates. On hydrophobic substrates, the bacterium's macromolecules bind freely. Subsequently, the bacteria show large cell-to-cell variation in adhesion forces but only small variations by repetitions with the same cell. On hydrophilic substrates, the macromolecules need to overcome a potential barrier. This leads to a comparable variability between repetitions with the same cell and the cell-to-cell variance. As a second model system, I investigated the competitive range expansion of microbial colonies with heterogeneous mechanical interactions by stochastic simulations. This is, for instance, realised by a network of piliated bacteria such as Neisseria gonorrhoeae. The simulations reveal that a heterogeneous susceptibility to division generated pushing significantly affects the competition dynamics of growing bacteria. Furthermore, homogeneous pushing leads to a small but standing variation of a disadvantaged subpopulation inside the expanding colony.Bakterien spielen in vielen Lebensbereichen wie beispielsweise Biokorrosion, Verstopfung von Rohren oder Infektionen eine zentrale Rolle. Da sich ihre Entfernung mittels Antibiotika oder mechanischer Methoden als schwierig erweisen kann, ist es wichtig die initiale Adhäsion und das nachfolgende Wachstum grundlegend zu verstehen. Zuerst wurde das Adhäsionsverhalten von Staphylococcus aureus auf hydrophilen und hydrophoben Oberflächen mittels Monte Carlo Simulationen untersucht. Es zeigt sich, dass die Adhäsion durch Makromoleküle der Zellwand vermittelt wird, von denen viele auf hydrophoben Oberflächen binden können. Dies resultiert in einer hohen Variabilität der Adhäsionskräfte innerhalb der Population, während Wiederholungen mit derselben Zelle ähnlich verlaufen. Auf hydrophilen Oberflächen selektiert jedoch eine Potentialbarriere stochastisch die bindenden Makromoleküle. Dies führt zu einer vergleichbaren Variabilität der Adhäsionskräfte zwischen Wiederholungen mit derselben Zelle und der Gesamtpopulation. Als zweites Modellsystem betrachtete ich das kompetitivem Koloniewachstum von pilierten Neisseria gonorrhoeae Bakterien. Zur Beschreibung dieser entwickelte ich ein minimales stochastisches Model von kompetitivem Koloniewachstum mit heterogenen mechanischen Wechselwirkungen. Die Simulationen zeigen, dass eine heterogene Suszeptibilität der Bakterien gegenüber Kräften, welche durch Zellteilung generiert werden, das kompetitive Wachstum maßgeblich beeinflussen

    Using MapReduce Streaming for Distributed Life Simulation on the Cloud

    Get PDF
    Distributed software simulations are indispensable in the study of large-scale life models but often require the use of technically complex lower-level distributed computing frameworks, such as MPI. We propose to overcome the complexity challenge by applying the emerging MapReduce (MR) model to distributed life simulations and by running such simulations on the cloud. Technically, we design optimized MR streaming algorithms for discrete and continuous versions of Conway’s life according to a general MR streaming pattern. We chose life because it is simple enough as a testbed for MR’s applicability to a-life simulations and general enough to make our results applicable to various lattice-based a-life models. We implement and empirically evaluate our algorithms’ performance on Amazon’s Elastic MR cloud. Our experiments demonstrate that a single MR optimization technique called strip partitioning can reduce the execution time of continuous life simulations by 64%. To the best of our knowledge, we are the first to propose and evaluate MR streaming algorithms for lattice-based simulations. Our algorithms can serve as prototypes in the development of novel MR simulation algorithms for large-scale lattice-based a-life models.https://digitalcommons.chapman.edu/scs_books/1014/thumbnail.jp

    Physicochemical modulation of huntingtin aggregation on lipid membranes: Implications for Huntington\u27s disease

    Get PDF
    Huntington disease is a genetic, neurodegenerative disease caused by an expanded polyglutamine (polyQ) in the first exon of the huntingtin (htt) protein, facilitating its aggregation, leading to the formation of a diverse population of potentially toxic aggregate species, such as oligomers, fibrils, and annular aggregates. Htt interacts with a variety of membranous structures within the cell, and the first seventeen amino acids (Nt17) of htt directly flanking the polyQ domain is an amphipathic alpha-helix (AH) lipid-binding domain. AHs are also known to detect membrane curvature. Nt17 also promotes diverse aggregate species of htt and undergoes a number of posttranslational modifications that can modulate htt\u27s toxicity, subcellular localization, and trafficking of vesicles. To get in-depth mechanistic insights of huntingtin aggregation, both chemical and physical modulators of the aggregation process were explored. Specifically, the importance of htt acetylation and the role of membrane curvature on htt aggregation were investigated using atomic force microscopy (AFM), which has become a robust technique to obtain physical insights into the formation of toxic protein aggregates associated with amyloid diseases on lipid membranes. Acetylation of htt exon 1, and synthetic truncated htt exon1 mimicking peptide (Nt 17Q35P10KK) was achieved using a selective covalent label sulfo-N-hydroxysuccinimide (NHSA) in molar ratios of 1x, 2x, and 3x NHSA per peptide. Htt acetylation was found to decrease fibril formation in solution and promoted the formation of larger globular aggregates. Acetylation strongly altered htt\u27s ability to bind lipid membranes. However, one of the several limitations associated with using these current flat, supported bilayers as model surfaces is the absence of membrane curvature, which can heavily influence the interaction of proteins at lipid interfaces. Using an AFM force reconstruction technique, silicon substrate, and silica nanobeads, model lipid bilayer system was developed and validated in which the underlying solid support is comprised of flat and curved regions to induce regions of curvature in the bilayer. This model bilayer system was exposed to Nt17Q35P10KK peptide, and this peptide preferentially bound and accumulated to curved membranes, consistent with the ability of AHs to sense membrane curvature

    A complex systems approach to education in Switzerland

    Get PDF
    The insights gained from the study of complex systems in biological, social, and engineered systems enables us not only to observe and understand, but also to actively design systems which will be capable of successfully coping with complex and dynamically changing situations. The methods and mindset required for this approach have been applied to educational systems with their diverse levels of scale and complexity. Based on the general case made by Yaneer Bar-Yam, this paper applies the complex systems approach to the educational system in Switzerland. It confirms that the complex systems approach is valid. Indeed, many recommendations made for the general case have already been implemented in the Swiss education system. To address existing problems and difficulties, further steps are recommended. This paper contributes to the further establishment complex systems approach by shedding light on an area which concerns us all, which is a frequent topic of discussion and dispute among politicians and the public, where billions of dollars have been spent without achieving the desired results, and where it is difficult to directly derive consequences from actions taken. The analysis of the education system's different levels, their complexity and scale will clarify how such a dynamic system should be approached, and how it can be guided towards the desired performance

    Polar Microbiology: Recent Advances and Future Perspectives

    Get PDF

    Book of abstracts

    Get PDF
    corecore