4 research outputs found

    Modelado y diseño de sistemas complejos mediante técnicas de simulación

    Get PDF
    Actualmente, existe una gran demanda de los usuarios frente a los sistemas de gran escala, la cual requiere no solo procesar sus requerimientos de manera rápida sino que manejan una gran cantidad de datos. Este nuevo desafío ha llevado a que la tecnología tenga un crecimiento tanto en el diseño e implementación de nuevas arquitecturas de computadores, redes de alta velocidad, placas aceleradoras de GPU, etc. Los datos de gran volumen son generalmente representados mediante documentos Web que son procesados e indexados por los grandes motores de búsqueda como Google, Yahoo! o Bing. A su vez existen otros tipos de datos complejos como lo pueden ser las imágenes satelitales, imágenes médicas, etc. Adicionalmente, es necesario considerar el efecto que tiene el comportamiento de los usuarios sobre un sistema de gran escala, comportamiento frente a la publicidad, acciones sobre juegos, respecto a eventos mundiales como los terremotos, etc. Todos estos desafíos promueven el desarrollo de tecnologías y algoritmos que deben ser eficaces (en términos de calidad de recuperación de la información) y eficientes (en términos de tiempo de procesamiento). En este trabajo, se presentan los objetivos, trabajo realizado y desafíos que aborda el grupo de investigación interdisciplinario de la Universidad Nacional de San Luis, para abordar los temas que involucra el diseño de sistemas complejos y de gran escala para procesar grandes volúmenes de datos e información.Eje: Ingeniería de SoftwareRed de Universidades con Carreras en Informática (RedUNCI

    Modelado y diseño de sistemas complejos mediante técnicas de simulación

    Get PDF
    Actualmente, existe una gran demanda de los usuarios frente a los sistemas de gran escala, la cual requiere no solo procesar sus requerimientos de manera rápida sino que manejan una gran cantidad de datos. Este nuevo desafío ha llevado a que la tecnología tenga un crecimiento tanto en el diseño e implementación de nuevas arquitecturas de computadores, redes de alta velocidad, placas aceleradoras de GPU, etc. Los datos de gran volumen son generalmente representados mediante documentos Web que son procesados e indexados por los grandes motores de búsqueda como Google, Yahoo! o Bing. A su vez existen otros tipos de datos complejos como lo pueden ser las imágenes satelitales, imágenes médicas, etc. Adicionalmente, es necesario considerar el efecto que tiene el comportamiento de los usuarios sobre un sistema de gran escala, comportamiento frente a la publicidad, acciones sobre juegos, respecto a eventos mundiales como los terremotos, etc. Todos estos desafíos promueven el desarrollo de tecnologías y algoritmos que deben ser eficaces (en términos de calidad de recuperación de la información) y eficientes (en términos de tiempo de procesamiento). En este trabajo, se presentan los objetivos, trabajo realizado y desafíos que aborda el grupo de investigación interdisciplinario de la Universidad Nacional de San Luis, para abordar los temas que involucra el diseño de sistemas complejos y de gran escala para procesar grandes volúmenes de datos e información.Eje: Ingeniería de SoftwareRed de Universidades con Carreras en Informática (RedUNCI

    A high-performance interpretive approach to schema-directed parsing

    No full text

    WWW 2007 / Track: XML and Web Data Session: Parsing, Normalizing, and Storing XML ABSTRACT A High-Performance Interpretive Approach to Schema-Directed Parsing

    No full text
    XML delivers key advantages in interoperability due to its flexibility, expressiveness, and platform-neutrality. As XML has become a performance-critical aspect of the next generation of business computing infrastructure, however, it has become increasingly clear that XML parsing often carries a heavy performance penalty, and that current, widely-used parsing technologies are unable to meet the performance demands of an XML-based computing infrastructure. Several efforts have been made to address this performance gap through the use of grammar-based parser generation. While the performance of generated parsers has been significantly improved, adoption of the technology has been hindered by the complexity of compiling and deploying the generated parsers. Through careful analysis of the operations required for parsing and validation, we have devised a set of specialize
    corecore