11 research outputs found
Resumen extractivo de documentos : Un análisis comparativo de técnicas de puntuación
En el presente existe una cantidad inimaginable de información digital en distintos formatos, la gran mayoría en formato texto. Esto ha incrementado el interés en el estudio de técnicas que permiten identificar de manera automática las partes relevantes y dan como resultado un resumen automático. En esta tesina se desarrolló una técnica capaz de extraer las sentencias más representativas de un documento manteniendo el criterio de un usuario. El aprendizaje de ese criterio se realizó mediante una red neuronal, a partir de un conjunto de documentos previamente calificados por el usuario. La importancia de las oraciones se asigna en concordancia con la importancia que el usuario consideró para los documentos ingresados.Facultad de Informátic
Resumen extractivo de documentos : Un análisis comparativo de técnicas de puntuación
En el presente existe una cantidad inimaginable de información digital en distintos formatos, la gran mayoría en formato texto. Esto ha incrementado el interés en el estudio de técnicas que permiten identificar de manera automática las partes relevantes y dan como resultado un resumen automático. En esta tesina se desarrolló una técnica capaz de extraer las sentencias más representativas de un documento manteniendo el criterio de un usuario. El aprendizaje de ese criterio se realizó mediante una red neuronal, a partir de un conjunto de documentos previamente calificados por el usuario. La importancia de las oraciones se asigna en concordancia con la importancia que el usuario consideró para los documentos ingresados.Facultad de Informátic
Text pre-processing tool to increase the exactness of experimental results in summarization solutions
For years, and nowadays even more because of the ease of access to information, countless scientific documents that cover all branches of human knowledge are generated. These documents, consisting mostly of text, are stored in digital libraries that are increasingly consenting access and manipulation. This has allowed these repositories of documents to be used for research work of great interest, particularly those related to evaluation of automatic summaries through experimentation. In this area of computer science, the experimental results of many of the published works are obtained using document collections, some known and others not so much, but without specifying all the special considerations to achieve said results. This produces an unfair competition in the realization of experiments when comparing results and does not allow to be objective in the obtained conclusions.
This paper presents a text document manipulation tool to increase the exactness of results when obtaining, evaluating and comparing automatic summaries from different corpora. This work has been motivated by the need to have a tool that allows to process documents, split their content properly and make sure that each text snippet does not lose its contextual information. Applying the model proposed to a set of free-access scientific papers has been successful.XV Workshop Bases de Datos y Minería de Datos (WBDDM)Red de Universidades con Carreras en Informática (RedUNCI
Text pre-processing tool to increase the exactness of experimental results in summarization solutions
For years, and nowadays even more because of the ease of access to information, countless scientific documents that cover all branches of human knowledge are generated. These documents, consisting mostly of text, are stored in digital libraries that are increasingly consenting access and manipulation. This has allowed these repositories of documents to be used for research work of great interest, particularly those related to evaluation of automatic summaries through experimentation. In this area of computer science, the experimental results of many of the published works are obtained using document collections, some known and others not so much, but without specifying all the special considerations to achieve said results. This produces an unfair competition in the realization of experiments when comparing results and does not allow to be objective in the obtained conclusions.
This paper presents a text document manipulation tool to increase the exactness of results when obtaining, evaluating and comparing automatic summaries from different corpora. This work has been motivated by the need to have a tool that allows to process documents, split their content properly and make sure that each text snippet does not lose its contextual information. Applying the model proposed to a set of free-access scientific papers has been successful.XV Workshop Bases de Datos y Minería de Datos (WBDDM)Red de Universidades con Carreras en Informática (RedUNCI
Text pre-processing tool to increase the exactness of experimental results in summarization solutions
For years, and nowadays even more because of the ease of access to information, countless scientific documents that cover all branches of human knowledge are generated. These documents, consisting mostly of text, are stored in digital libraries that are increasingly consenting access and manipulation. This has allowed these repositories of documents to be used for research work of great interest, particularly those related to evaluation of automatic summaries through experimentation. In this area of computer science, the experimental results of many of the published works are obtained using document collections, some known and others not so much, but without specifying all the special considerations to achieve said results. This produces an unfair competition in the realization of experiments when comparing results and does not allow to be objective in the obtained conclusions.
This paper presents a text document manipulation tool to increase the exactness of results when obtaining, evaluating and comparing automatic summaries from different corpora. This work has been motivated by the need to have a tool that allows to process documents, split their content properly and make sure that each text snippet does not lose its contextual information. Applying the model proposed to a set of free-access scientific papers has been successful.XV Workshop Bases de Datos y Minería de Datos (WBDDM)Red de Universidades con Carreras en Informática (RedUNCI
Homogeneous Einstein metrics on Euclidean spaces are Einstein solvmanifolds
We show that homogeneous Einstein metrics on Euclidean spaces are Einstein
solvmanifolds, using that they admit periodic, integrally minimal foliations by
homogeneous hypersurfaces. For the geometric flow induced by the orbit-Einstein
condition, we construct a Lyapunov function based on curvature estimates which
come from real GIT.Comment: 23 page
Minería de datos y big data: aplicaciones en riesgo crediticio, salud y análisis de mercado
Esta línea de investigación se centra en el estudio y desarrollo de Sistemas Inteligentes para la resolución de problemas de Minería de Datos y Big Data utilizando técnicas de Aprendizaje Automático. Los sistemas desarrollados se aplican particularmente al procesamiento de textos y reconocimiento de patrones en imágenes.
En el área de la Minería de Datos se está trabajando, por un lado, en la generación de un modelo de fácil interpretación a partir de la extracción de reglas de clasificación que permita justificar la toma de decisiones y, por otro lado, en el desarrollo de nuevas estrategias para tratar grandes volúmenes de datos.
Con respecto al área de Big Data se están realizando diversos aportes usando el framework Spark Streaming. En esta dirección, se está investigando en una técnica de clustering dinámico que se ejecuta de manera distribuida. Además se ha implementado en Spark Streaming una aplicación que calcula el índice de Hurtz de manera online, actualizándolo cada pocos segundos con el objetivo de estudiar un cierto mercado de negocios.
En el área de la Minería de Textos se han desarrollado estrategias para resumir documentos a través de la extracción utilizando métricas de selección y técnicas de optimización de los párrafos más representativos. Además se han desarrollado métodos capaces de determinar la subjetividad de oraciones escritas en español.Eje: Bases de Datos y Minería de Datos.Red de Universidades con Carreras en Informátic
Minería de datos y big data: aplicaciones en riesgo crediticio, salud y análisis de mercado
Esta línea de investigación se centra en el estudio y desarrollo de Sistemas Inteligentes para la resolución de problemas de Minería de Datos y Big Data utilizando técnicas de Aprendizaje Automático. Los sistemas desarrollados se aplican particularmente al procesamiento de textos y reconocimiento de patrones en imágenes.
En el área de la Minería de Datos se está trabajando, por un lado, en la generación de un modelo de fácil interpretación a partir de la extracción de reglas de clasificación que permita justificar la toma de decisiones y, por otro lado, en el desarrollo de nuevas estrategias para tratar grandes volúmenes de datos.
Con respecto al área de Big Data se están realizando diversos aportes usando el framework Spark Streaming. En esta dirección, se está investigando en una técnica de clustering dinámico que se ejecuta de manera distribuida. Además se ha implementado en Spark Streaming una aplicación que calcula el índice de Hurtz de manera online, actualizándolo cada pocos segundos con el objetivo de estudiar un cierto mercado de negocios.
En el área de la Minería de Textos se han desarrollado estrategias para resumir documentos a través de la extracción utilizando métricas de selección y técnicas de optimización de los párrafos más representativos. Además se han desarrollado métodos capaces de determinar la subjetividad de oraciones escritas en español.Eje: Bases de Datos y Minería de Datos.Red de Universidades con Carreras en Informátic
Minería de datos y big data: aplicaciones en riesgo crediticio, salud y análisis de mercado
Esta línea de investigación se centra en el estudio y desarrollo de Sistemas Inteligentes para la resolución de problemas de Minería de Datos y Big Data utilizando técnicas de Aprendizaje Automático. Los sistemas desarrollados se aplican particularmente al procesamiento de textos y reconocimiento de patrones en imágenes.
En el área de la Minería de Datos se está trabajando, por un lado, en la generación de un modelo de fácil interpretación a partir de la extracción de reglas de clasificación que permita justificar la toma de decisiones y, por otro lado, en el desarrollo de nuevas estrategias para tratar grandes volúmenes de datos.
Con respecto al área de Big Data se están realizando diversos aportes usando el framework Spark Streaming. En esta dirección, se está investigando en una técnica de clustering dinámico que se ejecuta de manera distribuida. Además se ha implementado en Spark Streaming una aplicación que calcula el índice de Hurtz de manera online, actualizándolo cada pocos segundos con el objetivo de estudiar un cierto mercado de negocios.
En el área de la Minería de Textos se han desarrollado estrategias para resumir documentos a través de la extracción utilizando métricas de selección y técnicas de optimización de los párrafos más representativos. Además se han desarrollado métodos capaces de determinar la subjetividad de oraciones escritas en español.Eje: Bases de Datos y Minería de Datos.Red de Universidades con Carreras en Informátic
Sistemas inteligentes: aplicaciones en minería de datos y big data
Esta línea de investigación se centra en el estudio y desarrollo de Sistemas Inteligentes para la resolución de problemas de Minería de Datos y Big Data utilizando técnicas de Aprendizaje Automático. Los sistemas desarrollados se aplican particularmente al procesamiento de grandes volúmenes de información y al procesamiento de flujo de datos.
En el área de la Minería de Datos se está trabajando, por un lado, en la construcción de conjuntos de reglas de clasificación difusas que faciliten y permitan justificar la toma de decisiones y, por otro lado, en el diseño de técnicas de agrupamiento para flujos de datos con aplicación al análisis de trayectorias vehiculares para predecir congestión de tránsito.
Con respecto al área de Big Data se está trabajando en el diseño y desarrollo de algoritmos de selección de características en grandes bases de datos de muchas columnas.
Las implementaciones que se están llevando a cabo serán utilizadas en problemas de genómica molecular con el objetivo de determinar gene signatures. En esta misma línea se está trabajando sobre algoritmos de selección de características para el tratamiento de flujos de datos.
Por otro lado y como transferencia tecnológica concreta, se efectuó un análisis sobre la producción de leche en ganado bovino a partir de la base de datos de la Asociación de la Región Pampeana de Entidades de Control Lechero (ARPECOL).
En el área de la Minería de Textos se han desarrollado estrategias para resumir documentos a través de la extracción de los párrafos más representativos utilizando métricas de selección y técnicas de optimización.Eje: Base de Datos y Minería de Datos.Red de Universidades con Carreras en Informátic