26 research outputs found

    Indexación distribuida con restricción de recursos

    Get PDF
    En la actualidad, las organizaciones de todo tipo y tamaño tienen a su disposición grandes volúmenes de información a muy bajo costo. Aún más, aumentan su capacidad de generar datos y, por consiguiente, una necesidad intrínseca de almacenarlos y procesarlos. El paradigma actual para el gestión de datos masivos, conocido como Big Data, ofrece técnicas, algoritmos y plataformas desarrollados específicamente en este contexto. Una de las plataformas más utilizadas es Hadoop y su implementación del paradigma de programación MapReduce. En este trabajo se aborda el problema de la indexación distribuida con restricción de recursos. Se cuenta con un número máximo de nodos de computo con características de equipo de escritorio. Los experimentos variando el tamaño de la entrada muestran que se escala linealmente en las configuraciones estudiadas aunque el speedup resultante es bajo.Sociedad Argentina de Informática e Investigación Operativa (SADIO

    Métodos y algoritmos para procesamiento distribuido de gratos masivos y evolutivos

    Get PDF
    El desafío de representar datos en entornos digitales posee gran interés frente a la masiva adopción de Tecnologías de la Información por parte de las poblaciones a escala mundial. Estas representaciones cobran importancia central y las estructuras elegidas condicionan los algoritmos y métodos que se usan para su procesamiento. Los grafos (o redes) son una estructura de datos que permite gran expresividad de representación, han sido ampliamente estudiados y existen algoritmos bien conocidos para su procesamiento. Sin embargo, en un entorno de datos masivos aparecen retos que en muchos casos no admiten soluciones triviales. La escalabilidad y optimización de los algoritmos de procesamiento de redes son motivo de incesante trabajo. Decisiones como particionar la estructura en varios subgrafos, generar índices que resuman la información para realizar estimaciones o procesar cambios de la red a través del tiempo afectan de formas diversas los tiempos de cáculo de algunas métricas (ejemplo, de centralidad, distancias, etc.) o la necesidad de almacenamiento. En este plan se propone analizar cómo es posible combinar/rediseñar varias de estas técnicas para obtener ventajas en entornos distribuidos o en el contexto nativo en que se ejecutan estos procesos, estudiar cómo son afectados los recursos según las decisiones de diseño a adoptar y realizar pruebas para conjuntos de datos de composición y tamaños heterogéneos.Eje: Procesamiento distribuido y paralelo.Red de Universidades con Carreras en Informátic

    Grandes datos y algoritmos eficientes para búsquedas de escala web

    Get PDF
    El acceso a la información en tiempo y forma es un factor esencial en muchos procesos que ocurren en dominios diferentes: la academia, la industria, el entretenimiento, entre otros. En la actualidad, el enfoque más general para acceder a la información en la web es el uso de motores de búsqueda de gran escala. Éstos sistemas enfrentan constantes desafíos debido al crecimiento explosivo de contenido en la web y también de la cantidad de nuevos usuarios. Principalmente, aparecen nuevas necesidades de almacenamiento y procesamiento para satisfacer estrictas restricciones de tiempo: las consultas deben ser respondidas en pequeñas fracciones de tiempo, típicamente, milisegundos. Esta problemática tiene aún muchas preguntas abiertas y – mientras se intentan resolver cuestiones – aparecen nuevos desafíos. Existen necesidades puntuales de los servicios que recolectan y utilizan esta información tal como nuevas estructuras de datos y algoritmos altamente eficientes lo que brinda oportunidades únicas para avances científico/ tecnológicos en áreas como algoritmos, estructuras de datos, sistemas distribuidos y procesamiento de datos a gran escala, entre otras. En este proyecto se estudian, proponen, diseñan y evalúan estructuras de datos y algoritmos eficientes junto con el análisis de grandes datos que permitan aumentar procesos internos de un motor de busqueda con el objetivo de mejorar su performance y escalabilidad.Eje: Bases de Datos y Minería de DatosRed de Universidades con Carreras en Informática (RedUNCI

    Grandes datos y algoritmos eficientes para búsquedas de escala web

    Get PDF
    El acceso a la información en tiempo y forma es un factor esencial en muchos procesos que ocurren en dominios diferentes: la academia, la industria, el entretenimiento, entre otros. En la actualidad, el enfoque más general para acceder a la información en la web es el uso de motores de búsqueda de gran escala. Éstos sistemas enfrentan constantes desafíos debido al crecimiento explosivo de contenido en la web y también de la cantidad de nuevos usuarios. Principalmente, aparecen nuevas necesidades de almacenamiento y procesamiento para satisfacer estrictas restricciones de tiempo: las consultas deben ser respondidas en pequeñas fracciones de tiempo, típicamente, milisegundos. Esta problemática tiene aún muchas preguntas abiertas y – mientras se intentan resolver cuestiones – aparecen nuevos desafíos. Existen necesidades puntuales de los servicios que recolectan y utilizan esta información tal como nuevas estructuras de datos y algoritmos altamente eficientes lo que brinda oportunidades únicas para avances científico/ tecnológicos en áreas como algoritmos, estructuras de datos, sistemas distribuidos y procesamiento de datos a gran escala, entre otras. En este proyecto se estudian, proponen, diseñan y evalúan estructuras de datos y algoritmos eficientes junto con el análisis de grandes datos que permitan aumentar procesos internos de un motor de busqueda con el objetivo de mejorar su performance y escalabilidad.Eje: Bases de Datos y Minería de DatosRed de Universidades con Carreras en Informática (RedUNCI

    Grandes datos y algoritmos eficientes para búsquedas de escala web

    Get PDF
    El acceso a la información en tiempo y forma es un factor esencial en muchos procesos que ocurren en dominios diferentes: la academia, la industria, el entretenimiento, entre otros. En la actualidad, el enfoque más general para acceder a la información en la web es el uso de motores de búsqueda de gran escala. Éstos sistemas enfrentan constantes desafíos debido al crecimiento explosivo de contenido en la web y también de la cantidad de nuevos usuarios. Principalmente, aparecen nuevas necesidades de almacenamiento y procesamiento para satisfacer estrictas restricciones de tiempo: las consultas deben ser respondidas en pequeñas fracciones de tiempo, típicamente, milisegundos. Esta problemática tiene aún muchas preguntas abiertas y – mientras se intentan resolver cuestiones – aparecen nuevos desafíos. Existen necesidades puntuales de los servicios que recolectan y utilizan esta información tal como nuevas estructuras de datos y algoritmos altamente eficientes lo que brinda oportunidades únicas para avances científico/ tecnológicos en áreas como algoritmos, estructuras de datos, sistemas distribuidos y procesamiento de datos a gran escala, entre otras. En este proyecto se estudian, proponen, diseñan y evalúan estructuras de datos y algoritmos eficientes junto con el análisis de grandes datos que permitan aumentar procesos internos de un motor de busqueda con el objetivo de mejorar su performance y escalabilidad.Eje: Bases de Datos y Minería de DatosRed de Universidades con Carreras en Informática (RedUNCI

    Grandes datos y algoritmos eficientes para aplicaciones de escala web

    Get PDF
    La cantidad y variedad de información disponible online impone constantes desafíos en cuanto a técnicas eficientes para su almacenamiento y acceso. Muchos procesos en múltiples dominios requieren que este acceso se realice bajo restricciones de tiempo (eficiencia) y con parámetros de alta calidad (eficacia). En este escenario existen por un lado, necesidades puntuales de los servicios que recolectan y utilizan información de la más diversa y compleja naturaleza y por el otro, aparecen oportunidades únicas para avances científico/tecnológicos en áreas como algoritmos, estructuras de datos, sistemas distribuidos y procesamiento de datos a gran escala. Ejemplos concretos son las máquinas de búsqueda para la web, las redes sociales y los sistemas que generan grandes cantidades de datos como la telefonía móvil, entre otros. Esta problemática abre nuevos interrogantes constantemente y, mientras se intentan resolver, aparecen nuevos desafíos. Algunas de estas preguntas tienen que ver con nuevas estructuras de datos y algoritmos altamente eficientes. En este proyecto se estudian, proponen, diseñan y evalúan estructuras de datos y algoritmos eficientes junto con el análisis de grandes datos que permitan mejorar las prestaciones de los sistemas, tanto en eficiencia y escalabilidad como en eficacia.Eje: Bases de datos y Minería de datos.Red de Universidades con Carreras en Informática (RedUNCI

    Modelos y algoritmos para problemas de procesamiento en entornos de Big Data

    Get PDF
    La idea del procesamiento de datos masivos (Big Data) se ha desarrollado sostenidamente en los últimos años, estableciéndose como un nuevo paradigma para resolver problemas. Por un lado, el crecimiento en el poder de cómputo y almacenamiento habilita la posibilidad de manejar volúmenes de datos de varios órdenes de magnitud. Por el otro, generan la necesidad de contar no solamente con plataformas que permitan distribuir el procesamiento sino, además, con algoritmos que lo realicen de forma eficiente. Una de las primeras aplicaciones de Big Data son los motores de búsqueda de escala web, sistemas que procesan miles de millones de documentos y deben responder a los usuarios con estrictas restricciones de tiempo, típicamente, milisegundos. Análogamente, el procesamiento de grafos masivos provenientes del mapeo de la estructura de las redes sociales presenta desafíos de forma sostenida. Estos escenarios se caracterizan por una complejidad creciente en espacio y requieren soluciones cada vez más sofisticadas ya que la cantidad de datos y de usuarios crece conforme evolucionan en el tiempo. Además, han aparecido requerimientos para ofrecer respuestas sobre flujos de datos que ocurren en tiempo real (streaming) por lo que es un requisito considerar modelos que puedan tomar decisiones on-line utilizando estos datos. Este trabajo presenta las líneas de investigación que se proponen en el contexto de los datos masivos a partir del estudio, diseño y evaluación de estructuras de datos y algoritmos que operan eficientemente, ya sea sobre documentos, grafos sociales o interacciones de usuarios, entre otros.Eje: Bases de Datos y Minería de Datos.Red de Universidades con Carreras en Informátic

    Modelos y algoritmos para problemas de procesamiento en entornos de Big Data

    Get PDF
    La idea del procesamiento de datos masivos (Big Data) se ha desarrollado sostenidamente en los últimos años, estableciéndose como un nuevo paradigma para resolver problemas. Por un lado, el crecimiento en el poder de cómputo y almacenamiento habilita la posibilidad de manejar volúmenes de datos de varios órdenes de magnitud. Por el otro, generan la necesidad de contar no solamente con plataformas que permitan distribuir el procesamiento sino, además, con algoritmos que lo realicen de forma eficiente. Una de las primeras aplicaciones de Big Data son los motores de búsqueda de escala web, sistemas que procesan miles de millones de documentos y deben responder a los usuarios con estrictas restricciones de tiempo, típicamente, milisegundos. Análogamente, el procesamiento de grafos masivos provenientes del mapeo de la estructura de las redes sociales presenta desafíos de forma sostenida. Estos escenarios se caracterizan por una complejidad creciente en espacio y requieren soluciones cada vez más sofisticadas ya que la cantidad de datos y de usuarios crece conforme evolucionan en el tiempo. Además, han aparecido requerimientos para ofrecer respuestas sobre flujos de datos que ocurren en tiempo real (streaming) por lo que es un requisito considerar modelos que puedan tomar decisiones on-line utilizando estos datos. Este trabajo presenta las líneas de investigación que se proponen en el contexto de los datos masivos a partir del estudio, diseño y evaluación de estructuras de datos y algoritmos que operan eficientemente, ya sea sobre documentos, grafos sociales o interacciones de usuarios, entre otros.Eje: Bases de Datos y Minería de Datos.Red de Universidades con Carreras en Informátic

    Algoritmos eficientes para búsquedas a gran escala integrando datos masivos

    Get PDF
    El crecimiento explosivo de contenido en la web crea nuevas necesidades de almacenamiento, procesamiento y propone múltiples desafíos a los sistemas de búsquedas. Por un lado, existen necesidades puntuales de los servicios que recolectan y utilizan esta información y por el otro, aparecen oportunidades únicas para avances científico/tecnológicos en áreas como algoritmos, estructuras de datos, sistemas distribuidos y procesamiento de datos a gran escala, entre otras. El acceso a la información en tiempo y forma es un factor esencial en muchos procesos que ocurren en dominios diferentes: la academia, la industria, el entretenimiento, entre otros. En la actualidad, el enfoque más general para acceder a la información en la web es el uso de motores de búsqueda. listos son sistemas distribuidos de altas prestaciones que se basan en estructuras de datos y algoritmos altamente eficientes ya que operan bajo estrictas restricciones de tiempo: las consultas deben ser respondidas en pequeñas fracciones de tiempo, típicamente, milisegundos. Esta problemática tiene aún muchas preguntas abiertas y - mientras se intentan resolver cuestiones - aparecen nuevos desafíos . En este proyecto se estudian y evalúan estructuras de datos y algoritmos eficientes junto con el análisis de datos masivos para mejorar procesos internos de un motor de búsqueda.Eje: Base de Datos y Minería de DatosRed de Universidades con Carreras en Informática (RedUNCI
    corecore