4 research outputs found

    Modelado y diseño de sistemas complejos mediante técnicas de simulación

    Get PDF
    Actualmente, existe una gran demanda de los usuarios frente a los sistemas de gran escala, la cual requiere no solo procesar sus requerimientos de manera rápida sino que manejan una gran cantidad de datos. Este nuevo desafío ha llevado a que la tecnología tenga un crecimiento tanto en el diseño e implementación de nuevas arquitecturas de computadores, redes de alta velocidad, placas aceleradoras de GPU, etc. Los datos de gran volumen son generalmente representados mediante documentos Web que son procesados e indexados por los grandes motores de búsqueda como Google, Yahoo! o Bing. A su vez existen otros tipos de datos complejos como lo pueden ser las imágenes satelitales, imágenes médicas, etc. Adicionalmente, es necesario considerar el efecto que tiene el comportamiento de los usuarios sobre un sistema de gran escala, comportamiento frente a la publicidad, acciones sobre juegos, respecto a eventos mundiales como los terremotos, etc. Todos estos desafíos promueven el desarrollo de tecnologías y algoritmos que deben ser eficaces (en términos de calidad de recuperación de la información) y eficientes (en términos de tiempo de procesamiento). En este trabajo, se presentan los objetivos, trabajo realizado y desafíos que aborda el grupo de investigación interdisciplinario de la Universidad Nacional de San Luis, para abordar los temas que involucra el diseño de sistemas complejos y de gran escala para procesar grandes volúmenes de datos e información.Eje: Ingeniería de SoftwareRed de Universidades con Carreras en Informática (RedUNCI

    Modelado y diseño de sistemas complejos mediante técnicas de simulación

    Get PDF
    Actualmente, existe una gran demanda de los usuarios frente a los sistemas de gran escala, la cual requiere no solo procesar sus requerimientos de manera rápida sino que manejan una gran cantidad de datos. Este nuevo desafío ha llevado a que la tecnología tenga un crecimiento tanto en el diseño e implementación de nuevas arquitecturas de computadores, redes de alta velocidad, placas aceleradoras de GPU, etc. Los datos de gran volumen son generalmente representados mediante documentos Web que son procesados e indexados por los grandes motores de búsqueda como Google, Yahoo! o Bing. A su vez existen otros tipos de datos complejos como lo pueden ser las imágenes satelitales, imágenes médicas, etc. Adicionalmente, es necesario considerar el efecto que tiene el comportamiento de los usuarios sobre un sistema de gran escala, comportamiento frente a la publicidad, acciones sobre juegos, respecto a eventos mundiales como los terremotos, etc. Todos estos desafíos promueven el desarrollo de tecnologías y algoritmos que deben ser eficaces (en términos de calidad de recuperación de la información) y eficientes (en términos de tiempo de procesamiento). En este trabajo, se presentan los objetivos, trabajo realizado y desafíos que aborda el grupo de investigación interdisciplinario de la Universidad Nacional de San Luis, para abordar los temas que involucra el diseño de sistemas complejos y de gran escala para procesar grandes volúmenes de datos e información.Eje: Ingeniería de SoftwareRed de Universidades con Carreras en Informática (RedUNCI

    Microcontroller for the logic tasks

    Get PDF
    A new SM16 microcontroller architecture is proposed which is intended for the logic-intensive applications in the field-programmable gate array (FPGA). The microcontroller has the stack architecture which provides the implementation of the most of instructions for a single clock cycle. The short but fast programs are derived due to the 16-bit instructions, which code up to three independent operations, and intensive use of the threaded code style. The framework is developed which compiles the program, simulates it, and translates to the ROM. The developed SM16 core with additional three-stack blocks, hash-table, and instructions that accelerate the execution of parsing operations is used for efficient XML-document processing and can be frequently reconfigured to the given document grammar set. The parsing speed equals to one byte per 24 clock cycles
    corecore