5 research outputs found

    BIOKIMIA DI ERA BIG DATA GENOMIK: TANTANGAN, APLIKASI DAN PELUANG INOVASI

    Get PDF
    The completion of human genome project at beginning of 21st century with the advancement of computer technology has transformed Biochemistry into a genomic era. Further, it is accelerated by parallel and massive genome sequencing technology known as next generation sequencing (NGS) that enhances the identification of genetic variants associated with complex diseases such as cancer, diabetes and Alzheimer. Currently, this knowledge has been driving the development of precision and personalized medicine. Wisely applied, it is believed that the explosion of genomic big data can be of great use in advancing the diagnosis, therapy and drug discovery to combat complex diseases

    High-Performance Modelling and Simulation for Big Data Applications

    Get PDF
    This open access book was prepared as a Final Publication of the COST Action IC1406 “High-Performance Modelling and Simulation for Big Data Applications (cHiPSet)“ project. Long considered important pillars of the scientific method, Modelling and Simulation have evolved from traditional discrete numerical methods to complex data-intensive continuous analytical optimisations. Resolution, scale, and accuracy have become essential to predict and analyse natural and complex systems in science and engineering. When their level of abstraction raises to have a better discernment of the domain at hand, their representation gets increasingly demanding for computational and data resources. On the other hand, High Performance Computing typically entails the effective use of parallel and distributed processing units coupled with efficient storage, communication and visualisation systems to underpin complex data-intensive applications in distinct scientific and technical domains. It is then arguably required to have a seamless interaction of High Performance Computing with Modelling and Simulation in order to store, compute, analyse, and visualise large data sets in science and engineering. Funded by the European Commission, cHiPSet has provided a dynamic trans-European forum for their members and distinguished guests to openly discuss novel perspectives and topics of interests for these two communities. This cHiPSet compendium presents a set of selected case studies related to healthcare, biological data, computational advertising, multimedia, finance, bioinformatics, and telecommunications

    Desarrollo de herramientas bioinformáticas fácilmente usables y accesibles vía web con aplicabilidad general en contextos farmacológicos, agrícolas, nutracéuticos y cosméticos.

    Get PDF
    El cribado virtual (virtual screening, VS) es una técnica computacional, empleada frecuentemente en bioinformática, cuyo objetivo es reducir un espacio químico de gran tamaño y complejidad en otro más reducido y manejable. Para esta tarea, el cribado virtual basado en ligandos (ligand-based virtual screening, LBVS) se ha convertido en una alternativa eficiente frente a otras técnicas más complejas computacionalmente tales como la Dinámica Molecular, puesto que permite encontrar rápidamente los compuestos más prometedores a un bajo coste computacional. En los últimos años, con el desarrollo del big data y de los paradigmas de supercomputación, han emergido numerosos servidores web que prestan servicios de LBVS y que aprovechan la computación de alto rendimiento (high performance computing, HPC) para mejorar sus prestaciones. Pero, a pesar de que la mejora del rendimiento es un punto importante, el principal factor de calidad de estos servidores sigue siendo la fiabilidad de sus predicciones. Esta tesis pretende analizar las características de los servidores de LBVS actuales, prestando especial atención a las tecnologías que emplean y al rendimiento que, en términos computacionales, extraen de las plataformas HPC. Una vez obtenidas las conclusiones de dicho análisis, el objetivo es desarrollar una herramienta web que solvente las debilidades de los servidores existentes aplicando técnicas no estudiadas hasta ahora en el campo de LBVS. Como resultado, se presentan los estudios teóricos realizados y la herramienta web BRUSELAS (Balanced, Rapid and Unrestricted Server for Extensive Ligand-Aimed Screening), la cual está disponible, de manera totalmente gratuita, en http://bio-hpc.eu/software/Bruselas. Como principales características diferenciadoras de BRUSELAS destacan la utilización de funciones de consenso para combinar las predicciones de varios algoritmos de similitud y farmacofóricos, el uso de descriptores moleculares y palabras clave para crear librerías dinámicamente y el filtrado de los resultados mediante filtros moleculares. Además, se ha implementado un potente módulo de análisis de resultados que permite su procesado tanto online como offline, mediante la conocida herramienta PyMOL, y la visualización de la salida generada por cada algoritmo de similitud. La nueva herramienta se ha aplicado a casos de estudio prácticos, como la búsqueda de anticoagulantes sanguíneos y de posibles fármacos para terapias contra el cáncer. Las tareas ejecutadas han dado lugar a interesantes resultados teóricos que pueden servir como base para la experimentación en etapas posteriores, ya sea in vitro o in vivo. En conclusión, se puede afirmar que BRUSELAS puede ser una herramienta muy útil en la etapa de búsqueda de compuestos candidatos a fármacos. Además, BRUSELAS proporciona a los usuarios nuevas funcionalidades que otros servidores web no proporcionan a través de una interfaz amigable y sin necesidad de tener grandes conocimientos en informática. Los resultados acumulados confirman que es una arquitectura fiable en cuanto a la calidad de las predicciones, y que tiene un rendimiento comparable al de otros servidores similares. Por lo tanto, BRUSELAS puede ser de gran ayuda en futuros estudios, ya sea utilizada de manera individual o colaborando con otras técnicas computacionalmente más costosas (p.ej. docking).Agricultura y VeterinariaMedicin

    High-Performance Modelling and Simulation for Big Data Applications

    Get PDF
    This open access book was prepared as a Final Publication of the COST Action IC1406 “High-Performance Modelling and Simulation for Big Data Applications (cHiPSet)“ project. Long considered important pillars of the scientific method, Modelling and Simulation have evolved from traditional discrete numerical methods to complex data-intensive continuous analytical optimisations. Resolution, scale, and accuracy have become essential to predict and analyse natural and complex systems in science and engineering. When their level of abstraction raises to have a better discernment of the domain at hand, their representation gets increasingly demanding for computational and data resources. On the other hand, High Performance Computing typically entails the effective use of parallel and distributed processing units coupled with efficient storage, communication and visualisation systems to underpin complex data-intensive applications in distinct scientific and technical domains. It is then arguably required to have a seamless interaction of High Performance Computing with Modelling and Simulation in order to store, compute, analyse, and visualise large data sets in science and engineering. Funded by the European Commission, cHiPSet has provided a dynamic trans-European forum for their members and distinguished guests to openly discuss novel perspectives and topics of interests for these two communities. This cHiPSet compendium presents a set of selected case studies related to healthcare, biological data, computational advertising, multimedia, finance, bioinformatics, and telecommunications
    corecore