1,903 research outputs found
Optimal Rules under Adjustment Cost and Infrequent Information
A large number of microeconomic decision variables such as investments, prices, inventories or employment are characterized by intermittent large adjustments. The behavior of those variables has been often modeled as following state-dependent rules. The optimality of such state-dependent rules depends crucially on the continuous observation of the relevant state, an assumption which is far from being fulfilled in practice. We propose an alternative model, where at least part of information about the relevant state variable is infrequent. We study several alternatives. We start with the special case where innovations are infrequent, but are readily observed. Only in this case are optimal rules state-dependent. We then explore the common case of infrequent and delayed information. It may arrive at deterministic times, like periodic macroeconomic statistics, or stochastically, when some events trigger announcements. Part of the relevant information may be continuously observed, while the other part is only observed infrequently. The resulting rules are time and state dependent, characterized by trigger and target points that are functions of the time spent since the last time of information arrival. We derive the conditions which characterize the optimal rules and provide numerical algorithms for each caseAdjustment costs, Infrequent information, Optimal rules
Participación popular y protesta social en el simulacro de Guerra de Independencia en Tonatico, Estado de México
Este trabajo tiene por objetivo analizar una festividad popular que se realiza cada año en el poblado de Tonatico, Estado de México, en forma de simulacro de Guerra de Independencia. En esta festividad se expresa un sentido cultural de rebeldía y sarcasmo que forma parte de los imaginarios colectivos patrios. El trabajo está dividido en cuatro partes. En la primera se intenta desarrollar una breve explicación de las festividades cívicas mexicanas desde el punto de vista de la reciente historiografía de la historia cultural patria. En la segunda se elabora una descripción acerca del origen y trayectoria histórica de las celebraciones cívicas y patrias en nuestro país, además de descubrir tanto su carácter formal y solemne como su aspecto popular. En la tercera se examinan los factores que han permitido una larga continuidad del simulacro en manos de los ciudadanos. Y, finalmente, se analiza el desarrollo del simulacro de Guerra de Independencia sobre una secuencia fotográfica, para mostrar el carácter popular, de irreverencia y protesta social que tiene lugar en Tonatico, el 26 y 27 de septiembre de cada año.Este trabajo tiene por objetivo analizar una festividad popular que se realiza cada año en el poblado de Tonatico, Estado de México, en forma de simulacro de Guerra de Independencia. En esta festividad se expresa un sentido cultural de rebeldía y sarcasmo que forma parte de los imaginarios colectivos patrios. El trabajo está dividido en cuatro partes. En la primera se intenta desarrollar una breve explicación de las festividades cívicas mexicanas desde el punto de vista de la reciente historiografía de la historia cultural patria. En la segunda se elabora una descripción acerca del origen y trayectoria histórica de las celebraciones cívicas y patrias en nuestro país, además de descubrir tanto su carácter formal y solemne como su aspecto popular. En la tercera se examinan los factores que han permitido una larga continuidad del simulacro en manos de los ciudadanos. Y, finalmente, se analiza el desarrollo del simulacro de Guerra de Independencia sobre una secuencia fotográfica, para mostrar el carácter popular, de irreverencia y protesta social que tiene lugar en Tonatico, el 26 y 27 de septiembre de cada año
Automatic text summarization with Maximal Frequent Sequences
En las últimas dos décadas un aumento exponencial de la información electrónica
ha provocado una gran necesidad de entender rápidamente grandes
volúmenes de información. En este libro se desarrollan los métodos automáticos
para producir un resumen. Un resumen es un texto corto que transmite la información
más importante de un documento o de una colección de documentos. Los
resúmenes utilizados en este libro son extractivos: una selección de las oraciones
más importantes del texto. Otros retos consisten en generar resúmenes de manera
independiente de lenguaje y dominio.
Se describe la identificación de cuatro etapas para generación de resúmenes
extractivos. La primera etapa es la selección de términos, en la que uno tiene
que decidir qué unidades contarían como términos individuales. El proceso de
estimación de la utilidad de los términos individuales se llama etapa de pesado
de términos. El siguiente paso se denota como pesado de oraciones, donde todas
las secuencias reciben alguna medida numérica de acuerdo con la utilidad de
términos. Finalmente, el proceso de selección de las oraciones más importantes
se llama selección de oraciones. Los diferentes métodos para generación de resúmenes
extractivos pueden ser caracterizados como representan estas etapas.
En este libro se describe la etapa de selección de términos, en la que la detección
de descripciones multipalabra se realiza considerando Secuencias Frecuentes
Maximales (sfms), las cuales adquieren un significado importante, mientras
Secuencias Frecuentes (sf) no maximales, que son partes de otros sf, no deben
de ser consideradas. En la motivación se consideró costo vs. beneficio: existen
muchas sf no maximales, mientras que la probabilidad de adquirir un significado
importante es baja. De todos modos, las sfms representan todas las sfs en el
modo compacto: todas las sfs podrían ser obtenidas a partir de todas las sfms
explotando cada sfm al conjunto de todas sus subsecuencias. Se presentan los nuevos métodos basados en grafos, algoritmos de agrupamiento
y algoritmos genéticos, los cuales facilitan la tarea de generación de
resúmenes de textos. Se ha experimentado diferentes combinaciones de las opciones
de selección de términos, pesado de términos, pesado de oraciones y
selección de oraciones para generar los resúmenes extractivos de textos independientes
de lenguaje y dominio para una colección de noticias. Se ha analizado
algunas opciones basadas en descripciones multipalabra considerándolas en los
métodos de grafos, algoritmos de agrupamiento y algoritmos genéticos. Se han
obtenido los resultados superiores al de estado de arte.
Este libro está dirigido a los estudiantes y científicos del área de Lingüística
Computacional, y también a quienes quieren saber sobre los recientes avances en
las investigaciones de generación automática de resúmenes de textos.In the last two decades, an exponential increase in the available electronic information
causes a big necessity to quickly understand large volumes of information.
It raises the importance of the development of automatic methods for
detecting the most relevant content of a document in order to produce a shorter
text. Automatic Text Summarization (ats) is an active research area dedicated to
generate abstractive and extractive summaries not only for a single document, but
also for a collection of documents. Other necessity consists in finding method for
ats in a language and domain independent way.
In this book we consider extractive text summarization for single document
task. We have identified that a typical extractive summarization method consists
in four steps. First step is a term selection where one should decide what units
will count as individual terms. The process of estimating the usefulness of the
individual terms is called term weighting step. The next step denotes as sentence
weighting where all the sentences receive some numerical measure according to
the usefulness of its terms. Finally, the process of selecting the most relevant sentences
calls sentence selection. Different extractive summarization methods can
be characterized how they perform these steps.
In this book, in the term selection step, we describe how to detect multiword
descriptions considering Maximal Frequent Sequences (mfss), which bearing important
meaning, while non-maximal frequent sequences (fss), those that are
parts of another fs, should not be considered. Our additional motivation was
cost vs. benefit considerations: there are too many non-maximal fss while their
probability to bear important meaning is lower. In any case, mfss represent all fss
in a compact way: all fss can be obtained from all mfss by bursting each mfs into
a set of all its subsequences.New methods based on graph algorithms, genetic algorithms, and clustering
algorithms which facilitate the text summarization task are presented. We
have tested different combinations of term selection, term weighting, sentence
weighting and sentence selection options for language-and domain-independent
extractive single-document text summarization on a news report collection. We
analyzed several options based on mfss, considering them with graph, genetic,
and clustering algorithms. We obtained results superior to the existing state-ofthe-
art methods.
This book is addressed for students and scientists of the area of Computational
Linguistics, and also who wants to know recent developments in the area of Automatic
Text Generation of Summaries
Automatic Generation of Text Summaries - Challenges, proposals and experiments
Los estudiantes e investigadores en el área de procesamiento deenguaje natural, inteligencia artificial, ciencias computacionales y lingüística computacional serán quizá los primeros interesados en este libro. No obstante, también se pretende introducir a público no especializado en esta prometedora área de investigación; por ello, hemos traducido al español algunos tecnicismos y anglicismos, propios de esta disciplina, pero sin dejar de mencionar, en todo momento, su término en inglés para evitar confusiones y lograr que aquellos lectores interesados puedan ampliar sus fuentes de conocimiento.Este libro presenta un método computacional novedoso, a nivel internacional, para la generación automática de resúmenes de texto, pues supera la calidad de los que actualmente se pueden crear. Es decir, es resultado de una investigación que buscó métodos y modelos computacionales lo menos dependientes del lenguaje y dominio
Reglas que describen la deserción y permanencia en los estudiantes de la UAP Tianguistenco de la UAEM
Se pretende encontrar cuál es el conjunto de reglas de conocimiento que pueden extraerse de aquellos estudiantes que han desertado o que permanecen en sus estudios universitarios tres años después de su ingreso. Se utilizó una base de datos inicial con 206 factores y 305 estudiantes de cuatro licenciaturas de la uap Tianguistenco de la uaem . Mediante árboles de decisión, fue posible determinar que con sólo 12 factores en 19 reglas se puede saber, con un 82.6% de soporte, si un estudiante tiene riesgo de desertar o no de sus estudios en los tres años posteriores
Analyzing community responses to HIV and AIDS : operational framework and typology
This paper presents a framework for analyzing the community response to HIV and AIDS. On the basis of a review of the literature, six criteria are proposed for characterizing such community responses: (1) the types of organizations and structures implementing the response, (2) the types of activities or services implemented and the beneficiaries of these, (3) the actors involved in and driving community responses, (4) the contextual factors that influence community responses, (5) the extent of community involvement in the response, and (6) the extent to which community responses involve wider partnerships and collaboration.Disability,Civil Society,Community Development and Empowerment,HIV AIDS,Health Monitoring&Evaluation
Calculating the Upper Bounds for Multi-Document Summarization using Genetic Algorithms
Over the last years, several Multi-Document Summarization (MDS) methods have been presented in Document Understanding Conference (DUC), workshops. Since DUC01, several methods have been presented in approximately 268 publications of the stateof-the-art, that have allowed the continuous improvement of MDS, however in most works the upper bounds were unknowns. Recently, some works have
been focused to calculate the best sentence combinations of a set of documents and in previous works we have been calculated the significance for single-document summarization task in DUC01 and DUC02 datasets. However, for MDS task has not performed an analysis of significance to rank the best
multi-document summarization methods. In this paper,
we describe a Genetic Algorithm-based method for
calculating the best sentence combinations of DUC01
and DUC02 datasets in MDS through a Meta-document
representation. Moreover, we have calculated three
heuristics mentioned in several works of state-of-the-art
to rank the most recent MDS methods, through the
calculus of upper bounds and lower bounds
- …