646 research outputs found

    PROBLEMAS COMPETENCIALES DERIVADOS DE LA LEY 40/2010 DE ALMACENAMIENTO GEOLÓGICO DE DIÓXIDO DE CARBONO

    Get PDF
    El sistema de distribución de competencias establecido por la Ley 40/2010, de 29 de diciembre, de Almacenamiento Geológico de Dióxido de Carbono, que se caracteriza porque el Estado se atribuye competencias ejecutivas importantes, resulta complejo y difícil de justificar en los títulos constitucionales. El conflicto competencial ya ha sido planteado por tres CC. AA. (Aragón, Cataluña y Galicia) ante el Tribunal Constitucional y, sin perjuicio de la resolución que eventualmente recaiga, a simple vista no es fácil entender por qué el Estado se atribuye la competencia para otorgar las concesiones que la Ley regula, cuando tanto en materia de medio ambiente como de minas carece de competencias de ejecución. Además, el análisis de las competencias en juego manifiesta una problemática más amplia que la citada Ley suscita que tiene que ver con las dificultades de coordinación que pueden advertirse y que, sin duda, determinarán una pérdida de eficacia administrativa

    Contribución al modelado y diseño de moduladores sigma-delta en tiempo continuo de baja relación de sobremuestreo y bajo consumo de potencia

    Get PDF
    Continuous-Time Sigma-Delta modulators are often employed as analog-to-digital converters. These modulators are an attractive approach to implement high-speed converters in VLSI systems because they have low sensitivity to circuit imperfections compared to other solutions. This work is a contribution to the analysis, modelling and design of high-speed Continuous-Time Sigma-Delta modulators. The resolution and the stability of these modulators are limited by two main factors, excess-loop delay and sampling uncertainty. Both factors, among others, have been carefully analysed and modelled. A new design methodology is also proposed. It can be used to get an optimum high-speed Continuous-Time Sigma-Delta modulator in terms of dynamic range, stability and sensitivity to sampling uncertainty. Based on the proposed design methodology, a software tool that covers the main steps has been developed. The methodology has been proved by using the tool in designing a 30 Megabits-per-second Continuous-Time Sigma-Delta modulator with 11-bits of dynamic range. The modulator has been integrated in a 0.13-µm CMOS technology and it has a measured peak SNR of 62.5dB

    Solving SAT in linear time with a neural-like membrane system

    Get PDF
    We present in this paper a neural-like membrane system solving the SAT problem in linear time. These neural Psystems are nets of cells working with multisets. Each cell has a finite state memory, processes multisets of symbol-impulses, and can send impulses (?excitations?) to the neighboring cells. The maximal mode of rules application and the replicative mode of communication between cells are at the core of the eficiency of these systems

    Variantes de la concatenación en computación con ADN

    Full text link
    Las principales aportaciones de esta Tesis Doctoral a la computación con ADN y en general, a las ciencias de la computación, se pueden clasificar en dos áreas básicas: una práctica o algorítmica y otra teórica o de modelización de operaciones sobre palabras y lenguajes. Más en detalle, las aportaciones prácticas y teóricas se pueden describir como sigue. Aportaciones prácticas. Se han diseñado bio-algoritmos evolutivos para el Problema del Camino de Hamilton dirigido y se han ideado nuevos esquemas de codificación de información en hebras de ADN más versátiles que los previos y que permiten implementar estrategias evolutivas. Estas primeras aportaciones están motivadas por la limitación que presentan los esquemas de "fuerza bruta" existentes en la computación con ADN. Al intentar resolver instancias grandes de problemas complejos no se dispone del número suficiente de moléculas de ADN para seguir un esquema de fuerza bruta. Es necesario recurrir a técnicas de programación alternativas: algoritmos aproximados, heurísticas, programación dinámica, programación evolutiva. Se ha elegido esta última alternativa y se ha conseguido diseñar nuevos bio-algoritmos basados en nuevos esquemas de codificación que permiten este tipo de computación evolutiva. La evolución in vitro de moléculas (técnica de la química combinatoria) y la programación evolutiva han sido la fuente de inspiración para el diseño de estas estrategias de cómputo con ADN evolutivas. El algoritmo evolutivo para el Problema del Camino de Hamilton dirigido es el primer algoritmo completamente evolutivo propuesto en el área de la computación con ADN. En concreto, la evolución de secuencias se consigue "fragmentando y reensamblando" subcaminos a lo largo del grafo en un proceso cíclico. Se trata, por tanto, de un algoritmo iterativo de fragmentación y recombinación de hebras de ADN que codifican subcaminos a lo largo de un grafo. Los esquemas de codificación denominados I y II permiten "fragmentar y reensamblar" las soluciones de un problema siguiendo un esquema iterativo. Estos esquemas de codificación permiten codificar no sólo caminos a lo largo de un grafo sino que permiten también construir palabras binarias y simular las transiciones de un autómata finito. Estas aportaciones permiten definir el primer modelo de computación con ADN evolutiva. APORTACIONES TEÓRICAS: Modelización y estudio de la capacidad generativa de una operación denominada concatenación condicional o restringida empleada en un algoritmo evolutivo para el Problema del Camino de Hamilton presentado en la memoria. La concatenación de dos hebras de ADN es una operación análoga a la concatenación de dos palabras en la Teoría de lenguajes formales. Ahora bien, si dos cadenas de ADN sólo se pueden unir (ensamblar o concatenar) si el sufijo de una de ellas y el prefijo de la otra pertenecen a un conjunto especial, se tiene una operación de concatenación restringida similar a la restricción impuesta por unos contextos especiales. La concatenación condicional sufijo-prefijo o cola-cabeza se manifiesta también en la formación de las moléculas de colágeno que tienden a concatenarse o ensamblarse siguiendo la restricción de que la cola de una hebra de colágeno sólo se concatena con la cabeza de otra hebra de colágeno. Al añadir este tipo de restricción a la concatenación usual de lenguajes formales se obtienen resultados muy interesantes. En principio, las restricciones a la hora de aplicar la operación de concatenación no aportan gran poder computacional. Las secuencias o palabras que se obtienen tienen una complejidad pobre. Es más, las restricciones en los contextos del tipo prefijo-sufijo, cola-cabeza, etc., a la hora de concatenar dos secuencias no aumenta en nada la complejidad de las palabras obtenidas. Si se partía de palabras de un lenguaje regular, se sigue obteniendo un lenguaje regular. Si se partía de un lenguaje independiente del contexto, se sigue obteniendo un lenguaje independiente del contexto. En general, las familias de lenguajes son cerradas bajo la operación de concatenación condicional. Esta pobreza generativa se mantiene incluso cuando se itera la operación de concatenación condicional (análoga a la operación de Kleene pero ahora restringida). Estos son los "malos" resultados. Los "buenos" aparecen cuando se consideran gramáticas y reglas de reescritura. Ahora, el poder generativo surge al establecer la siguiente analogía. Una regla de reescritura A- w en la que un símbolo no terminal A se sustituye por una secuencia w se puede considerar como un doble concatenación. Si se parte de una forma sentencial genérica uAv, aplicar la regla A- w supone concatenar u con w, y el resultado uw, concatenarlo con v para obtener uwv. Si estas dos concatenaciones se consideran condicionales (es decir, sólo se podrán aplicar si se cumplen ciertas condiciones del tipo prefijo-sufijo en los contextos) la capacidad generativa de las gramáticas aumenta estrictamente. En concreto, la concatenación sufijo-prefijo aumenta la capacidad generativa de las gramáticas independientes del contexto a su máximo nivel: se convierten en gramáticas capaces de generar cualquier lenguaje de tipo 0 o recursivamente enumerable. En consecuencia, una operación surgida de la concatenación de hebras de ADN (la empleada en el algoritmo evolutivo para el Problema del Camino de Hamilton), que se ha denominado concatenación condicional, permite obtener modelos de cómputo en concreto, gramáticas universale

    Dynamic data driven applications systems (DDDAS) for multidisciplinary optimisation (MDO)

    Full text link
    [ES] Nowadays, the majority of optimisation processes that are followed to obtain new optimum designs involve expensive simulations that are costly and time comsuming. Besides, designs involving aerodynamics are usually highly constrained in terms of infeasible geometries to be avoided so that it is really important to provide the optimisers effective datum or starting points that enable them to reach feasible solutions. This MSc Thesis aims to continue the development of an alternative design methodology applied to a 2D airfoil at a cruise flight condition by combining concepts of Dynamic Data Driven Application Systems (DDDAS) paradigm with Multiobjec- tive Optimisation. For this purpose, a surrogate model based on experimental data has been used to run a multiobjective optimisation and the given optimum designs have been considered as starting points for a direct optimisation, saving number of evaluations in the process. Throughout this work, a technique for retrieving experi- mental airfoil lift and drag coefficients was conducted. Later, a new parametrisation technique using Class-Shape Transformation (CST) was implemented in order to map the considered airfoils into the design space. Then, a response surface model considering Radial Basis Functions (RBF) and Kriging approaches was constructed and the multiobjective optimisation to maximise lift and minimise drag was under- taken using stochastic algorithms, MOTSII and NSGA. Alternatively, a full direct optimisation from datum airfoil and a direct optimisation from optimum surrogate- based optimisation designs were performed with Xfoil and the results were compared. As an outcome, the developed design methodology based on the combination of surrogate-based and direct optimisation was proved to be more effective than a single full direct optimisation to make the whole process faster by saving number of evaluations. In addition, further work guidelines are presented to show potential directions in which to expand and improve this methodology.Patón Pozo, PJ. (2016). Dynamic data driven applications systems (DDDAS) for multidisciplinary optimisation (MDO). Universitat Politècnica de València. http://hdl.handle.net/10251/142210TFG

    ¿Está aprobado el plan de gestión del distrito de cuenca fluvial de Cataluña?

    Get PDF
    Pese a su publicación, cabe preguntarse si el Plan de Gestión del Distrito de cuenca fluvial de Cataluña está vigente, pues aún falta la preceptiva aprobación por el Gobierno español. El análisis del fallo de la STC 31/2010 no arroja luz sobre este interrogante pues ha declarado la constitucionalidad de la competencia exclusiva de la Generalidad sobre la planificación hidrológica de cuencas internas

    Detección en sistemas MIMO de alta dimensión: diseño conjunto con un sistema de codificación LDPC

    Get PDF
    En este proyecto, se hace un análisis comparativo de algoritmos de detección, teniendo en cuenta una posterior etapa de codificación de canal LDPC. Aunque el detector de máxima verosimilitud MLD es óptimo para los sistemas MIMO SDM en términos de BER, su complejidad, que crece exponencialmente con el número de antenas, lo hace inaplicable para un número elevado de éstas. Debido a ello, se proponen algoritmos de detección subóptimos que establecen un balance entre rendimiento y complejidad. Concretamente, en este proyecto se han implementado 2 algoritmos de detección lineal, algoritmo ZF y MMSE, con salida dura y blanda; 2 algoritmos con cancelación sucesiva de interferencias, ZF y MMSE con SIC, con salida dura y un algoritmo basado en la búsqueda del vector de símbolos que origina un ascenso monotónico en la función de verosimilitud, LAS, con salida dura. Pese a que en la literatura tradicional los detectores MIMO se han comparado mediante prestaciones de probabilidad de error de símbolo en detección, esto es, antes de del decodificador, en este proyecto se pretende demostrar que esto carece de sentido, y que aplicando un decodificador LDPC tras la etapa de detección con un detector de salida suave se consigue un rendimiento muy superior al de cualquier detector de salida dura. Esto se debe a que los sistemas modernos de codificación, capaces de alcanzar capacidad de canal, típicamente requieren una estimación suave de cada bit a la entrada. Por tanto, las consideraciones tradicionales de diseño de detectores MIMO han de reorientarse a estos requisitos.Ingeniería de Telecomunicació
    corecore