26 research outputs found
Indexación distribuida con restricción de recursos
En la actualidad, las organizaciones de todo tipo y tamaño tienen a su disposición grandes
volúmenes de información a muy bajo costo. Aún más, aumentan su capacidad de generar datos y, por consiguiente, una necesidad intrÃnseca de almacenarlos y procesarlos. El paradigma actual para el gestión de datos masivos, conocido como Big Data, ofrece técnicas, algoritmos y plataformas desarrollados especÃficamente en este contexto. Una de las plataformas más utilizadas es Hadoop y su implementación del paradigma de programación MapReduce. En este trabajo se aborda el problema de la indexación distribuida con restricción de recursos. Se cuenta con un número máximo de nodos de computo con caracterÃsticas de equipo de escritorio. Los experimentos variando el tamaño de la entrada muestran que se escala linealmente en las configuraciones estudiadas aunque el speedup resultante es bajo.Sociedad Argentina de Informática e Investigación Operativa (SADIO
Métodos y algoritmos para procesamiento distribuido de gratos masivos y evolutivos
El desafÃo de representar datos en entornos digitales posee gran interés frente a la masiva adopción de TecnologÃas de la Información por parte de las poblaciones a escala mundial. Estas representaciones cobran importancia central y las estructuras elegidas condicionan los algoritmos y métodos que se usan para su procesamiento. Los grafos (o redes) son una estructura de datos que permite gran expresividad de representación, han sido ampliamente estudiados y existen algoritmos bien conocidos para su procesamiento. Sin embargo, en un entorno de datos masivos aparecen retos que en muchos casos no admiten soluciones triviales. La escalabilidad y optimización de los algoritmos de procesamiento de redes son motivo de incesante trabajo. Decisiones como particionar la estructura en varios subgrafos, generar Ãndices que resuman la información para realizar estimaciones o procesar cambios de la red a través del tiempo afectan de formas diversas los tiempos de cáculo de algunas métricas (ejemplo, de centralidad, distancias, etc.) o la necesidad de almacenamiento. En este plan se propone analizar cómo es posible combinar/rediseñar varias de estas técnicas para obtener ventajas en entornos distribuidos o en el contexto nativo en que se ejecutan estos procesos, estudiar cómo son afectados los recursos según las decisiones de diseño a adoptar y realizar pruebas para conjuntos de datos de composición y tamaños heterogéneos.Eje: Procesamiento distribuido y paralelo.Red de Universidades con Carreras en Informátic
Grandes datos y algoritmos eficientes para búsquedas de escala web
El acceso a la información en tiempo y forma es un factor esencial en muchos procesos que ocurren en dominios diferentes: la academia, la industria, el entretenimiento, entre otros. En la actualidad, el enfoque más general para acceder a la información en la web es el uso de motores de búsqueda de gran escala. Éstos sistemas enfrentan constantes desafÃos debido al crecimiento explosivo de contenido en la web y también de la cantidad de nuevos usuarios.
Principalmente, aparecen nuevas necesidades de almacenamiento y procesamiento para satisfacer estrictas restricciones de tiempo: las consultas deben ser respondidas en pequeñas fracciones de tiempo, tÃpicamente, milisegundos.
Esta problemática tiene aún muchas preguntas abiertas y – mientras se intentan resolver cuestiones – aparecen nuevos desafÃos. Existen necesidades puntuales de los servicios que recolectan y utilizan esta información tal como nuevas estructuras de datos y algoritmos altamente eficientes lo que brinda oportunidades únicas para avances cientÃfico/ tecnológicos en áreas como algoritmos, estructuras de datos, sistemas distribuidos y procesamiento de datos a gran escala, entre otras.
En este proyecto se estudian, proponen, diseñan y evalúan estructuras de datos y algoritmos eficientes junto con el análisis de grandes datos que permitan aumentar procesos internos de un motor de busqueda con el objetivo de mejorar su performance y escalabilidad.Eje: Bases de Datos y MinerÃa de DatosRed de Universidades con Carreras en Informática (RedUNCI
Grandes datos y algoritmos eficientes para búsquedas de escala web
El acceso a la información en tiempo y forma es un factor esencial en muchos procesos que ocurren en dominios diferentes: la academia, la industria, el entretenimiento, entre otros. En la actualidad, el enfoque más general para acceder a la información en la web es el uso de motores de búsqueda de gran escala. Éstos sistemas enfrentan constantes desafÃos debido al crecimiento explosivo de contenido en la web y también de la cantidad de nuevos usuarios.
Principalmente, aparecen nuevas necesidades de almacenamiento y procesamiento para satisfacer estrictas restricciones de tiempo: las consultas deben ser respondidas en pequeñas fracciones de tiempo, tÃpicamente, milisegundos.
Esta problemática tiene aún muchas preguntas abiertas y – mientras se intentan resolver cuestiones – aparecen nuevos desafÃos. Existen necesidades puntuales de los servicios que recolectan y utilizan esta información tal como nuevas estructuras de datos y algoritmos altamente eficientes lo que brinda oportunidades únicas para avances cientÃfico/ tecnológicos en áreas como algoritmos, estructuras de datos, sistemas distribuidos y procesamiento de datos a gran escala, entre otras.
En este proyecto se estudian, proponen, diseñan y evalúan estructuras de datos y algoritmos eficientes junto con el análisis de grandes datos que permitan aumentar procesos internos de un motor de busqueda con el objetivo de mejorar su performance y escalabilidad.Eje: Bases de Datos y MinerÃa de DatosRed de Universidades con Carreras en Informática (RedUNCI
Grandes datos y algoritmos eficientes para búsquedas de escala web
El acceso a la información en tiempo y forma es un factor esencial en muchos procesos que ocurren en dominios diferentes: la academia, la industria, el entretenimiento, entre otros. En la actualidad, el enfoque más general para acceder a la información en la web es el uso de motores de búsqueda de gran escala. Éstos sistemas enfrentan constantes desafÃos debido al crecimiento explosivo de contenido en la web y también de la cantidad de nuevos usuarios.
Principalmente, aparecen nuevas necesidades de almacenamiento y procesamiento para satisfacer estrictas restricciones de tiempo: las consultas deben ser respondidas en pequeñas fracciones de tiempo, tÃpicamente, milisegundos.
Esta problemática tiene aún muchas preguntas abiertas y – mientras se intentan resolver cuestiones – aparecen nuevos desafÃos. Existen necesidades puntuales de los servicios que recolectan y utilizan esta información tal como nuevas estructuras de datos y algoritmos altamente eficientes lo que brinda oportunidades únicas para avances cientÃfico/ tecnológicos en áreas como algoritmos, estructuras de datos, sistemas distribuidos y procesamiento de datos a gran escala, entre otras.
En este proyecto se estudian, proponen, diseñan y evalúan estructuras de datos y algoritmos eficientes junto con el análisis de grandes datos que permitan aumentar procesos internos de un motor de busqueda con el objetivo de mejorar su performance y escalabilidad.Eje: Bases de Datos y MinerÃa de DatosRed de Universidades con Carreras en Informática (RedUNCI
Grandes datos y algoritmos eficientes para aplicaciones de escala web
La cantidad y variedad de información disponible online impone constantes desafÃos en cuanto a técnicas eficientes para su almacenamiento y acceso.
Muchos procesos en múltiples dominios requieren que este acceso se realice bajo restricciones de tiempo (eficiencia) y con parámetros de alta calidad (eficacia). En este escenario existen por un lado, necesidades puntuales de los servicios que recolectan y utilizan información de la más diversa y compleja naturaleza y por el otro, aparecen oportunidades únicas para avances cientÃfico/tecnológicos en áreas como algoritmos, estructuras de datos, sistemas distribuidos y procesamiento de datos a gran escala.
Ejemplos concretos son las máquinas de búsqueda para la web, las redes sociales y los sistemas que generan grandes cantidades de datos como la telefonÃa móvil, entre otros.
Esta problemática abre nuevos interrogantes constantemente y, mientras se intentan resolver, aparecen nuevos desafÃos. Algunas de estas preguntas tienen que ver con nuevas estructuras de datos y algoritmos altamente eficientes.
En este proyecto se estudian, proponen, diseñan y evalúan estructuras de datos y algoritmos eficientes junto con el análisis de grandes datos que permitan mejorar las prestaciones de los sistemas, tanto en eficiencia y escalabilidad como en eficacia.Eje: Bases de datos y MinerÃa de datos.Red de Universidades con Carreras en Informática (RedUNCI
Modelos y algoritmos para problemas de procesamiento en entornos de Big Data
La idea del procesamiento de datos masivos (Big Data) se ha desarrollado sostenidamente en los últimos años, estableciéndose como un nuevo paradigma para resolver problemas. Por un lado, el crecimiento en el poder de cómputo y almacenamiento habilita la posibilidad de manejar volúmenes de datos de varios órdenes de magnitud. Por el otro, generan la necesidad de contar no solamente con plataformas que permitan distribuir el procesamiento sino, además, con algoritmos que lo realicen de forma eficiente.
Una de las primeras aplicaciones de Big Data son los motores de búsqueda de escala web, sistemas que procesan miles de millones de documentos y deben responder a los usuarios con estrictas restricciones de tiempo, tÃpicamente, milisegundos. Análogamente, el procesamiento de grafos masivos provenientes del mapeo de la estructura de las redes sociales presenta desafÃos de forma sostenida.
Estos escenarios se caracterizan por una complejidad creciente en espacio y requieren soluciones cada vez más sofisticadas ya que la cantidad de datos y de usuarios crece conforme evolucionan en el tiempo. Además, han aparecido requerimientos para ofrecer respuestas sobre flujos de datos que ocurren en tiempo real (streaming) por lo que es un requisito considerar modelos que puedan tomar decisiones on-line utilizando estos datos.
Este trabajo presenta las lÃneas de investigación que se proponen en el contexto de los datos masivos a partir del estudio, diseño y evaluación de estructuras de datos y algoritmos que operan eficientemente, ya sea sobre documentos, grafos sociales o interacciones de usuarios, entre otros.Eje: Bases de Datos y MinerÃa de Datos.Red de Universidades con Carreras en Informátic
Modelos y algoritmos para problemas de procesamiento en entornos de Big Data
La idea del procesamiento de datos masivos (Big Data) se ha desarrollado sostenidamente en los últimos años, estableciéndose como un nuevo paradigma para resolver problemas. Por un lado, el crecimiento en el poder de cómputo y almacenamiento habilita la posibilidad de manejar volúmenes de datos de varios órdenes de magnitud. Por el otro, generan la necesidad de contar no solamente con plataformas que permitan distribuir el procesamiento sino, además, con algoritmos que lo realicen de forma eficiente.
Una de las primeras aplicaciones de Big Data son los motores de búsqueda de escala web, sistemas que procesan miles de millones de documentos y deben responder a los usuarios con estrictas restricciones de tiempo, tÃpicamente, milisegundos. Análogamente, el procesamiento de grafos masivos provenientes del mapeo de la estructura de las redes sociales presenta desafÃos de forma sostenida.
Estos escenarios se caracterizan por una complejidad creciente en espacio y requieren soluciones cada vez más sofisticadas ya que la cantidad de datos y de usuarios crece conforme evolucionan en el tiempo. Además, han aparecido requerimientos para ofrecer respuestas sobre flujos de datos que ocurren en tiempo real (streaming) por lo que es un requisito considerar modelos que puedan tomar decisiones on-line utilizando estos datos.
Este trabajo presenta las lÃneas de investigación que se proponen en el contexto de los datos masivos a partir del estudio, diseño y evaluación de estructuras de datos y algoritmos que operan eficientemente, ya sea sobre documentos, grafos sociales o interacciones de usuarios, entre otros.Eje: Bases de Datos y MinerÃa de Datos.Red de Universidades con Carreras en Informátic
Algoritmos eficientes para búsquedas a gran escala integrando datos masivos
El crecimiento explosivo de contenido en la web crea nuevas necesidades de almacenamiento, procesamiento y propone múltiples desafÃos a los sistemas de búsquedas. Por un lado, existen necesidades puntuales de los servicios que recolectan y utilizan esta información y por el otro, aparecen oportunidades únicas para avances cientÃfico/tecnológicos en áreas como algoritmos, estructuras de datos, sistemas distribuidos y procesamiento de datos a gran escala, entre otras.
El acceso a la información en tiempo y forma es un factor esencial en muchos procesos que ocurren en dominios diferentes: la academia, la industria, el entretenimiento, entre otros. En la actualidad, el enfoque más general para acceder a la información en la web es el uso de motores de búsqueda. listos son sistemas distribuidos de altas prestaciones que se basan en estructuras de datos y algoritmos altamente eficientes ya que operan bajo estrictas restricciones de tiempo: las consultas deben ser respondidas en pequeñas fracciones de tiempo, tÃpicamente, milisegundos. Esta problemática tiene aún muchas preguntas abiertas y - mientras se intentan resolver cuestiones - aparecen nuevos desafÃos .
En este proyecto se estudian y evalúan estructuras de datos y algoritmos eficientes junto con el análisis de datos masivos para mejorar procesos internos de un motor de búsqueda.Eje: Base de Datos y MinerÃa de DatosRed de Universidades con Carreras en Informática (RedUNCI