1,022 research outputs found

    Learning life cycle in autonomous intelligent systems

    Get PDF
    Autonomous Intelligent Systems (AIS) integrate planning, learning, and execution in a closed loop, showing an autonomous intelligent behavior. A Learning Life Cycle (LLC) for AISs is proposed. The LLC is based on three different learned operators' layers: Built-in Operators, Trained Base Operators and World Interaction Operators. The extension of the original architecture to support the new type of operators is presented. © 2008 International Federation for Information Processing.Facultad de Informátic

    JPEG with quadtree adaptive partitioning : Loss analysis

    Get PDF
    In this paper two images compression techniques with loss based on the method used by the compression Standard Joint Photographic Experts Groups (JPEG) and on the Quadtree adaptive partitioning method are presented and compared, and the loss produced studied. The ba seline JPEG algorithm will be ana lyzed, and op timizations emphasizing quantification and not modifying the standard restrictions will be proposed. The results obtained from the generalization in classes of images with very different characteristics will be analyzed; and blocks size effect in conflicting areas such as the borders will be considered.Facultad de Informátic

    JPEG with quadtree adaptive partitioning : Loss analysis

    Get PDF
    In this paper two images compression techniques with loss based on the method used by the compression Standard Joint Photographic Experts Groups (JPEG) and on the Quadtree adaptive partitioning method are presented and compared, and the loss produced studied. The baseline JPEG algorithm will be analyzed, and optimizations emphasizing quantification and not modifying the standard restrictions will be proposed. The results obtained from the generalization in classes of images with very different characteristics will be analyzed; and blocks size effect in conflicting areas such as the borders will be considered.Eje: Procesamiento distribuido y paralelo. Tratamiento de señalesRed de Universidades con Carreras en Informática (RedUNCI

    A stochastic rupture earthquake code based on the fiber bundle model (TREMOL v0.1): application to Mexican subduction earthquakes

    Get PDF
    In general terms, earthquakes are the result of brittle failure within the heterogeneous crust of the Earth. However, the rupture process of a heterogeneous material is a complex physical problem that is difficult to model deterministically due to numerous parameters and physical conditions, which are largely unknown. Considering the variability within the parameterization, it is necessary to analyze earthquakes by means of different approaches. Computational physics may offer alternative ways to study brittle rock failure by generating synthetic seismic data based on physical and statistical models and through the use of only few free parameters. The fiber bundle model (FBM) is a stochastic discrete model of material failure, which is able to describe complex rupture processes in heterogeneous materials. In this article, we present a computer code called the stochasTic Rupture Earthquake MOdeL, TREMOL. This code is based on the principle of the FBM to investigate the rupture process of asperities on the earthquake rupture surface. In order to validate TREMOL, we carried out a parametric study to identify the best parameter configuration while minimizing computational efforts. As test cases, we applied the final configuration to 10 Mexican subduction zone earthquakes in order to compare the synthetic results by TREMOL with seismological observations. According to our results, TREMOL is able to model the rupture of an asperity that is essentially defined by two basic dimensions: (1) the size of the fault plane and (2) the size of the maximum asperity within the fault plane. Based on these data and few additional parameters, TREMOL is able to generate numerous earthquakes as well as a maximum magnitude for different scenarios within a reasonable error range. The simulated earthquake magnitudes are of the same order as the real earthquakes. Thus, TREMOL can be used to analyze the behavior of a single asperity or a group of asperities since TREMOL considers the maximum magnitude occurring on a fault plane as a function of the size of the asperity. TREMOL is a simple and flexible model that allows its users to investigate the role of the initial stress configuration and the dimensions and material properties of seismic asperities. Although various assumptions and simplifications are included in the model, we show that TREMOL can be a powerful tool to deliver promising new insights into earthquake rupture processes.The authors are grateful to two anonymous reviewers and the editor for their relevant and constructive comments that have greatly contributed to improving the paper. M. Monterrubio-Velasco and J. de la Puente thank the European Union’s Horizon 2020 Programme under the ChEESE Project (https://cheese-coe.eu/, last access: 1 May 2019), grant agreement no. 823844, for partially funding this work. M. Monterrubio- Velasco and A. Aguilar-Meléndez thank CONACYT for support of this research project. Quetzalcoatl Rodríguez-Pérez was supported by the Mexican National Council for Science and Technology (CONACYT) (Catedras program, project 1126). This project has received funding from the European Union’s Horizon 2020 research and innovation program under Marie Skłodowska-Curie grant agreement no. 777778, MATHROCKS, and from the Spanish Ministry project TIN2016-80957-P. Initial funding for the project through grant UNAM-PAPIIT IN108115 is also gratefully acknowledged.Peer ReviewedPostprint (published version

    Learning life cycle in autonomous intelligent systems

    Get PDF
    Autonomous Intelligent Systems (AIS) integrate planning, learning, and execution in a closed loop, showing an autonomous intelligent behavior. A Learning Life Cycle (LLC) for AISs is proposed. The LLC is based on three different learned operators' layers: Built-in Operators, Trained Base Operators and World Interaction Operators. The extension of the original architecture to support the new type of operators is presented. © 2008 International Federation for Information Processing.Facultad de Informátic

    Evaluación subjetiva/objetiva de imágenes comprimidas con pérdida

    Get PDF
    La compresión de una imagen digital puede facilitar su procesamiento, almacenamiento y transmisión. A medida que los Departamentos de las grandes Organizaciones se vuelven cada vez más digitales y distribuidos, la cantidad de datos multimediales (en particular imágenes) que tienen, obligan a considerar su compresión para su almacenamiento y transmisión. El objetivo general de la compresión es representar una imagen con la menor cantidad posible de bits con la menor pérdida de calidad posible, acelerando así la transmisión y minimizando los requerimientos de almacenamiento. De manera alternativa, el objetivo es lograr la mejor fidelidad posible para una capacidad limitada disponible de almacenamiento. En el campo de las comunicaciones visuales se ha destinado mucho trabajo a la codificación de imágenes digitales, dirigido a reducir los requerimientos de la tasa de bits para la transmisión de las imágenes. La experiencia ha mostrado que cada esquema de codificación está sujeto a su propio y único conjunto de causas de pérdida que a menudo son difíciles de caracterizar. Esto se debe a la forma en la que se diseñan los esquemas de codificación para variar selectivamente la precisión de la representación; el observador puede ser insensible a los errores en algunas partes de la imagen pero no en otras. Una compresión considerable se puede lograr sólo mediante algoritmos con pérdida, los que no permiten la recuperación exacta de la imagen original. Esta pérdida de información hace que la compresión y otros algoritmos de procesamiento de imágenes con pérdida tengan problemas de confiabilidad debido a la potencial pérdida de calidad. Hay una necesidad de mediciones precisas de las perdidas subjetivas que puedan usarse para predecir la calidad de una imagen. El objetivo de este trabajo es determinar estas mediciones de la distorsión y probar que se pueden usar diferentes medidas objetivas para predecir la calidad subjetiva de una imagen. Se describirá enfoques para medir la calidad de las imágenes, como ser, razón señal-ruido (SNR), evaluación subjetiva, mediciones del error crudo, entropía, etc. La necesidad de este tipo de mediciones está particularmente reconocida en el área de la codificación de imágenes digitales. La existencia de mediciones de la distorsión subjetivamente relevantes que reflejen las evaluaciones de la calidad de una imagen que hace un espectador, harían considerablemente más fácil la tarea de diseñar y optimizar los esquemas de codificación. Estas distorsiones se comparan y contrastan con un conjunto de imágenes representativas de varios dominios de aplicación y se examina cuán buenas son las mediciones de distorsiones que se pueden obtener fácilmente para predecir las evaluaciones subjetivas, que son más caras en tiempo. Los ejemplos son de imágenes tradicionales que se utilizan en el área de procesamiento y compresión de imágenes comprimidas utilizando JPEG estándar [Wallace 1991 l.Eje: Sistema de tiempor real. Procesamiento de señalesRed de Universidades con Carreras en Informática (RedUNCI

    Optimización de técnicas de compresión. : Paralelización, análisis de la pérdida

    Get PDF
    Es notoria la importancia creciente de la compreslon de datos en la transmisión de información en redes. Aspectos como seguridad, reducción de tráfico, optimización del uso del canal, etc., justifican las tareas de investigación y desarrollo en este tema, así como la evolución de los recursos tecnológicos disponibles [Russo 1995]. En particular, por el volumen de información en juego, en los últimos años hay un esfuerzo muy notorio en la optimización de algoritmos para compresión de datos utilizando diferentes tecnologías en software y en hardware que implican paralelización de métodos aplicando por ejemplo sockets y PVM. Como se dijo anteriomlente la compresión de datos en particular de una imagen digital puede facilitar su transmisión, almacenamiento y procesamiento. Una compresión considerable (un radio de 5 a 10 veces) se puede lograr sólo mediante algoritmos con pérdida, los que no permiten la recuperación exacta de la imagen original.Eje: Procesamiento concurrente, paralelo y distribuido. Procesamiento de imágenes.Red de Universidades con Carreras en Informática (RedUNCI

    JPEG extendido con particionamiento y cuantificación adaptiva

    Get PDF
    En este trabajo se presenta la técnica de compresión de imágenes con pérdida basadas en el método usado por el Standard de compresión Joint Photographic Experts Groups (JPEG) extendiendo el método de particionamiento Quadtree y se plantea la utilización de la adaptación en el proceso de cuantificación. Se analiza el algoritmo JPEG baseline y se proponen optimizaciones que ponen énfasis en el particionamiento y la cuantificación Adaptiva. Los diferentes particionamientos adaptivos son utilizados para superar las dificultades presentadas por el particionamiento fijo del JPEG estándar, la adaptatividad de la cuantificación tiende a mejorar el radio de compresión y la calidad que se obtiene al utilizar cuantificación fija para todos los bloques de la imagen.Computación Gráfica y VisualizaciónRed de Universidades con Carreras en Informática (RedUNCI

    Learning by Collaboration in Intelligent Autonomous Systems

    Get PDF
    Very few learning systems applied to problem solving have focused on learning operator definitions from the interaction with a completely unknown environment. Autonomous Intelligent Systems (AIS) deal with that issue by means of architectures where learning is achieved by establishing plans, executing those plans in the environment, analyzing the results of the execution, and combining new evidence with prior evidence. This paper proposes a selective mechanism of learning allowing an AIS to learn new operators by receiving them from another AIS in a higher stage in the Learning Life Cycle (LLC) with more cycles of interaction in the environment. The proposed collaboration mechanism also considers how to deal with theory ponderation (operators ponderation) and how to include the new operators (provided for) in the set of theories of the receiver AIS. The experimental results show how using collaboration-based learning among AIS provides a better percentage of successful plans, plus an improved convergence rate, than the individual AIS alone.Publicado en IFIP Advances in Information and Communication Technology book series (IFIPAICT, vol. 331).Instituto de Investigación en Informátic
    corecore