11 research outputs found

    Variantes de la concatenación en computación con ADN

    Full text link
    Las principales aportaciones de esta Tesis Doctoral a la computación con ADN y en general, a las ciencias de la computación, se pueden clasificar en dos áreas básicas: una práctica o algorítmica y otra teórica o de modelización de operaciones sobre palabras y lenguajes. Más en detalle, las aportaciones prácticas y teóricas se pueden describir como sigue. Aportaciones prácticas. Se han diseñado bio-algoritmos evolutivos para el Problema del Camino de Hamilton dirigido y se han ideado nuevos esquemas de codificación de información en hebras de ADN más versátiles que los previos y que permiten implementar estrategias evolutivas. Estas primeras aportaciones están motivadas por la limitación que presentan los esquemas de "fuerza bruta" existentes en la computación con ADN. Al intentar resolver instancias grandes de problemas complejos no se dispone del número suficiente de moléculas de ADN para seguir un esquema de fuerza bruta. Es necesario recurrir a técnicas de programación alternativas: algoritmos aproximados, heurísticas, programación dinámica, programación evolutiva. Se ha elegido esta última alternativa y se ha conseguido diseñar nuevos bio-algoritmos basados en nuevos esquemas de codificación que permiten este tipo de computación evolutiva. La evolución in vitro de moléculas (técnica de la química combinatoria) y la programación evolutiva han sido la fuente de inspiración para el diseño de estas estrategias de cómputo con ADN evolutivas. El algoritmo evolutivo para el Problema del Camino de Hamilton dirigido es el primer algoritmo completamente evolutivo propuesto en el área de la computación con ADN. En concreto, la evolución de secuencias se consigue "fragmentando y reensamblando" subcaminos a lo largo del grafo en un proceso cíclico. Se trata, por tanto, de un algoritmo iterativo de fragmentación y recombinación de hebras de ADN que codifican subcaminos a lo largo de un grafo. Los esquemas de codificación denominados I y II permiten "fragmentar y reensamblar" las soluciones de un problema siguiendo un esquema iterativo. Estos esquemas de codificación permiten codificar no sólo caminos a lo largo de un grafo sino que permiten también construir palabras binarias y simular las transiciones de un autómata finito. Estas aportaciones permiten definir el primer modelo de computación con ADN evolutiva. APORTACIONES TEÓRICAS: Modelización y estudio de la capacidad generativa de una operación denominada concatenación condicional o restringida empleada en un algoritmo evolutivo para el Problema del Camino de Hamilton presentado en la memoria. La concatenación de dos hebras de ADN es una operación análoga a la concatenación de dos palabras en la Teoría de lenguajes formales. Ahora bien, si dos cadenas de ADN sólo se pueden unir (ensamblar o concatenar) si el sufijo de una de ellas y el prefijo de la otra pertenecen a un conjunto especial, se tiene una operación de concatenación restringida similar a la restricción impuesta por unos contextos especiales. La concatenación condicional sufijo-prefijo o cola-cabeza se manifiesta también en la formación de las moléculas de colágeno que tienden a concatenarse o ensamblarse siguiendo la restricción de que la cola de una hebra de colágeno sólo se concatena con la cabeza de otra hebra de colágeno. Al añadir este tipo de restricción a la concatenación usual de lenguajes formales se obtienen resultados muy interesantes. En principio, las restricciones a la hora de aplicar la operación de concatenación no aportan gran poder computacional. Las secuencias o palabras que se obtienen tienen una complejidad pobre. Es más, las restricciones en los contextos del tipo prefijo-sufijo, cola-cabeza, etc., a la hora de concatenar dos secuencias no aumenta en nada la complejidad de las palabras obtenidas. Si se partía de palabras de un lenguaje regular, se sigue obteniendo un lenguaje regular. Si se partía de un lenguaje independiente del contexto, se sigue obteniendo un lenguaje independiente del contexto. En general, las familias de lenguajes son cerradas bajo la operación de concatenación condicional. Esta pobreza generativa se mantiene incluso cuando se itera la operación de concatenación condicional (análoga a la operación de Kleene pero ahora restringida). Estos son los "malos" resultados. Los "buenos" aparecen cuando se consideran gramáticas y reglas de reescritura. Ahora, el poder generativo surge al establecer la siguiente analogía. Una regla de reescritura A- w en la que un símbolo no terminal A se sustituye por una secuencia w se puede considerar como un doble concatenación. Si se parte de una forma sentencial genérica uAv, aplicar la regla A- w supone concatenar u con w, y el resultado uw, concatenarlo con v para obtener uwv. Si estas dos concatenaciones se consideran condicionales (es decir, sólo se podrán aplicar si se cumplen ciertas condiciones del tipo prefijo-sufijo en los contextos) la capacidad generativa de las gramáticas aumenta estrictamente. En concreto, la concatenación sufijo-prefijo aumenta la capacidad generativa de las gramáticas independientes del contexto a su máximo nivel: se convierten en gramáticas capaces de generar cualquier lenguaje de tipo 0 o recursivamente enumerable. En consecuencia, una operación surgida de la concatenación de hebras de ADN (la empleada en el algoritmo evolutivo para el Problema del Camino de Hamilton), que se ha denominado concatenación condicional, permite obtener modelos de cómputo en concreto, gramáticas universale

    Biología programable: 18 FAQs sobre biología sintética de un informático

    Get PDF
    La biología como tecnología que se utiliza para fabricar dispositivos y sistemas biológicos sintéticos

    Biocircuits engineering and bio-design automation: some recent results

    Get PDF

    EvoPER-An R package for applying evolutionary computation methods in the parameter estimation of individual-based models implemented in Repast

    Get PDF
    Individual-based models are complex and they normally have an elevated number of input parameters which must be tuned in order to reproduce the experimental or observed data as accurately as possible. Hence one of the weakest points of such kind of models is the fact that rarely the modeler has the enough information about the correct values or even the acceptable range for the input parameters. Therefore, several parameter combinations must be checked to find an acceptable set of input factors minimizing the deviations of simulated and observed data. In practice, most of the times, is computationally unfeasible to traverse the complete search space to check all parameter combination in order to find the best of them. That is precisely the kind of combinatorial problem suitable for evolutionary computation techniques. In this work we present the EvoPER, an R package for simplifying the parameter estimation using evolutionary computation techniques. The current version of EvoPER includes implementations of PSO, SA and ACO algorithms for parameter estimation of models generated with the open source agent-based modeling toolkit Repast

    Solving SAT in linear time with a neural-like membrane system

    Get PDF
    We present in this paper a neural-like membrane system solving the SAT problem in linear time. These neural Psystems are nets of cells working with multisets. Each cell has a finite state memory, processes multisets of symbol-impulses, and can send impulses (?excitations?) to the neighboring cells. The maximal mode of rules application and the replicative mode of communication between cells are at the core of the eficiency of these systems

    Probabilistic reasoning with an enzyme-driven DNA device

    Get PDF
    We present a biomolecular probabilistic model driven by the action of a DNA toolbox made of a set of DNA templates and enzymes that is able to perform Bayesian inference. The model will take single-stranded DNA as input data, representing the presence or absence of a specific molecular signal (the evidence). The program logic uses different DNA templates and their relative concentration ratios to encode the prior probability of a disease and the conditional probability of a signal given the disease. When the input and program molecules interact, an enzyme-driven cascade of reactions (DNA polymerase extension, nicking and degradation) is triggered, producing a different pair of single-stranded DNA species. Once the system reaches equilibrium, the ratio between the output species will represent the application of Bayes? law: the conditional probability of the disease given the signal. In other words, a qualitative diagnosis plus a quantitative degree of belief in that diagno- sis. Thanks to the inherent amplification capability of this DNA toolbox, the resulting system will be able to to scale up (with longer cascades and thus more input signals) a Bayesian biosensor that we designed previously

    BactoSim - an individual-based simulation environment for bacterial conjugation

    Get PDF
    BactoSim is an agent-based platform for simulating the con- jugation in spatially structured bacterial populations, which are the con- ditions typically found on naturally occurring colonies such as biofilms or in agar-based laboratory cultures. The model provides a set of key indicators which can be visualized in real time as the simulation evolves and saved as for further analysis

    Grammar-Guided Genetic Programming

    Get PDF
    Evolutionary computation (EC) is the study of computational systems that borrow ideas from and are inspired by natural evolution and adaptation (Yao & Xu, 2006, pp. 1-18). EC covers a number of techniques based on evolutionary processes and natural selection: evolutionary strategies, genetic algorithms and genetic programming (Keedwell & Narayanan, 2005)

    Using modular neural networks to model self-consciousness and self-representation for artificial entities

    Get PDF
    Self-consciousness implies not only self or group recognition, but also real knowledge of one’s own identity. Self-consciousness is only possible if an individual is intelligent enough to formulate an abstract self-representation. Moreover, it necessarily entails the capability of referencing and using this elf-representation in connection with other cognitive features, such as inference, and the anticipation of the consequences of both one’s own and other individuals’ acts. In this paper, a cognitive architecture for self-consciousness is proposed. This cognitive architecture includes several modules: abstraction, self-representation, other individuals'representation, decision and action modules. It includes a learning process of self-representation by direct (self-experience based) and observational learning (based on the observation of other individuals). For model implementation a new approach is taken using Modular Artificial Neural Networks (MANN). For model testing, a virtual environment has been implemented. This virtual environment can be described as a holonic system or holarchy, meaning that it is composed of autonomous entities that behave both as a whole and as part of a greater whole. The system is composed of a certain number of holons interacting. These holons are equipped with cognitive features, such as sensory perception, and a simplified model of personality and self-representation. We explain holons’ cognitive architecture that enables dynamic self-representation. We analyse the effect of holon interaction, focusing on the evolution of the holon’s abstract self-representation. Finally, the results are explained and analysed and conclusions drawn

    Context measure in qualitative reasoning

    Full text link
    This paper deals with a classical Artificial Intelligence problem, knowledge representation, though from an original and new angle, based on uncertainty processing, Information Theory and systems complexity, which provide a generic and fitting framework upon which to establish the validity and completeness requirements and quality criteria to be satisfied by all the representations. The objectives are clear - prevent errors occurring when formalizing knowledge and come as close as possible to reality -; however, the methods and techniques to do so are not. The adaptation of the representation to the information provided by the expert and the adaptation of the information represented to the system user environment are the two basic questions addressed by this study, which introduces concepts such as dissonance, confusion, nonspecificity and complexity
    corecore