3,492 research outputs found

    El servicio civil como factor de combate a la corrupción.

    Get PDF
    El objetivo general es analizar cómo el servicio civil puede ayudar a reducir la corrupción en la administración pública en México, esto mediante la revisión de documentos y estudios que respalden este argumento. Y por otro lado también se analiza a la corrupción de manera teórica para así comprender el concepto de corrupción, de la misma forma se enfatiza en el análisis de la figura del servicio civil en la administración pública para así comprender cuales son los elementos necesarios con los que éste debe contar para combatir el fenómeno de la corrupción

    Modelos hidráulicos bidimensionales de lluvia directa aplicados al cálculo de eventos hidrológicos

    Get PDF
    Una de las principales preocupaciones a la hora de realizar cualquier proyecto de ingeniería es la adecuada determinación de los hidrogramas de avenida de los cursos de agua que lo afecten. Hoy en día es posible la simulación de modelos hidrológicos complejos de lluvia directa sobre malla 2D de elementos finitos, empleando los avances en cálculo vectorial que ofrece la tecnología CUDA (Arquitectura Unificada de Dispositivos de Cálculo), sin la necesidad de determinar subcuencas y tránsitos (como en HEC-HMS). Con los datos que ofrecen los Modelos Digitales del Terreno GRID del PNOA español (Plan Nacional de Ortofotografía Aérea) con precisión de 5 x 5 m y las Coberturas del Terreno SIG CORINE (Coordinación de Información del Medio Ambiente), que permite la evaluación de la rugosidad del suelo, se tiene la información necesaria para construir fácilmente este tipo de modelos. En este documento se presenta un procedimiento para delimitar fácilmente los cursos de agua principales y disponer en estas zonas un tamaño más pequeño de los elementos de la malla. El método propuesto permite una mejor definición de estas áreas después de unas pocas iteraciones, acelerando por tanto el proceso de construcción del modelo sin comprometer la calidad de los resultados. Para demostrar el método, se modelizaron dos cuencas completas mediante lluvia directa sobre una malla de elementos 2D. Se ensayaron diferentes niveles de precisión (variando el número de elementos) y se incluyeron dos presas, usando los datos del Modelo Digital del Terreno del PNOA. También se completó el cálculo hidrológico de ambas mediante HEC-HMS. En primer lugar se estudió la cuenca del río Zapardiel (cuenca del Duero, con superficie total de 1.450 km2, no presenta regulación artificial, pero sí algunas áreas de almacenamiento naturales). La segunda cuenca ensayada correspondió al río Zújar (cuenca del Guadiana, con superficie total de 8.500 km2, que incluye dos grandes presas: La Serena, con una capacidad de 3.200 hm3 y el Embalse del Zújar, situado aguas abajo de la primera, con un volumen útil de 300 hm3). Los resultados confirmaron que la forma de modelizar clásica con enfoque de subcuencas y tránsitos (tipo HEC-HMS) puede ser reemplazada por simulaciones de lluvia directa sobre malla 2D, por lo tanto reduciendo la incertidumbre inherente en la estimación de tiempos de concentración de subcuencas y parámetros de tránsito. Gracias a la disponibilidad de datos públicos de GRID PNOA y cobertura del terreno CORINE, actualmente es posible construir modelos de mallas de elementos 2D para simular lluvia directa sobre cuenca sin necesidad de costosos levantamientos topográficos. Con el hardware disponible hoy en día en ordenadores de uso general, se puede establecer un límite superior razonable para mallas 2D de 4 millones de elementos, lo que permite la correcta simulación de la lluvia directa en cuencas de hasta 10.000 km2. Para cuencas más grandes, este proceso se podría aplicar de forma repetida a varias zonas más pequeñas o en sucesivas secciones de la cuenca

    Modelización hidráulica del Passeig de Gràcia mediante InfoWoks ICM para la optimización de la disposición de imbornales

    Get PDF
    En febrero de 2014, BCASA (Barcelona Cicle de l'Aigua, S.A.) realizó un estudio del drenaje del Passeig de Gràcia de Barcelona mediante el modelo matemático InfoWorks ICM. El objetivo era el análisis de riesgos y la aplicación de medidas correctivas para minimizar estos, con la intensificación del drenaje en puntos estratégicos. Se obtuvieron resultados de afecciones en situación inicial y proyectada. En este modelo matemático se incluyeron tanto los elementos subterráneos de recogida del agua de lluvia (conductos, pozos y sumideros), como todas las superficies (calzadas, aceras, jardines...) por los que circula la precipitación hasta los imbornales

    La lealtad del joven residente a través de las variables que le vinculan con su destino turístico

    Get PDF
    En un contexto de turismo doméstico responsable y sostenible este trabajo tiene el objetivo de analizar el papel del apego al lugar, la familiaridad y la identidad de lugar en la formación de la lealtad del joven residente. La lealtad se define como la intención de visitar nuevamente el propio destino de residencia o de recomendarlo a otras personas. En el estudio no se incluyen aquellas variables de la empresa o del producto que son tradicionalmente tenidas en cuenta en el estudio de la formación de la lealtad en el sector turístico. Se constata que los niveles de todas las variables son altos y se genera un modelo causal que explica la formación de la lealtad exclusivamente a partir de las variables mencionadas. Aunque el análisis discriminante demuestra que no existen diferencias significativas en las respuestas de los jóvenes residentes en función del sexo, de la isla de residencia o de la cantidad de viajes realizados en el propio destino, en el trabajo se pone de manifiesto que sí existen algunas diferencias por razones de sexo en determinadas relaciones causales del modelo estructural propuesto

    Subspace Gaussian Mixture Models for Language Identification and Dysarthric Speech Intelligibility Assessment

    Get PDF
    En esta Tesis se ha investigado la aplicación de técnicas de modelado de subespacios de mezclas de Gaussianas en dos problemas relacionados con las tecnologías del habla, como son la identificación automática de idioma (LID, por sus siglas en inglés) y la evaluación automática de inteligibilidad en el habla de personas con disartria. Una de las técnicas más importantes estudiadas es el análisis factorial conjunto (JFA, por sus siglas en inglés). JFA es, en esencia, un modelo de mezclas de Gaussianas en el que la media de cada componente se expresa como una suma de factores de dimensión reducida, y donde cada factor representa una contribución diferente a la señal de audio. Esta factorización nos permite compensar nuestros modelos frente a contribuciones indeseadas presentes en la señal, como la información de canal. JFA se ha investigado como clasficador y como extractor de parámetros. En esta última aproximación se modela un solo factor que representa todas las contribuciones presentes en la señal. Los puntos en este subespacio se denominan i-Vectors. Así, un i-Vector es un vector de baja dimensión que representa una grabación de audio. Los i-Vectors han resultado ser muy útiles como vector de características para representar señales en diferentes problemas relacionados con el aprendizaje de máquinas. En relación al problema de LID, se han investigado dos sistemas diferentes de acuerdo al tipo de información extraída de la señal. En el primero, la señal se parametriza en vectores acústicos con información espectral a corto plazo. En este caso, observamos mejoras de hasta un 50% con el sistema basado en i-Vectors respecto al sistema que utilizaba JFA como clasificador. Se comprobó que el subespacio de canal del modelo JFA también contenía información del idioma, mientras que con los i-Vectors no se descarta ningún tipo de información, y además, son útiles para mitigar diferencias entre los datos de entrenamiento y de evaluación. En la fase de clasificación, los i-Vectors de cada idioma se modelaron con una distribución Gaussiana en la que la matriz de covarianza era común para todos. Este método es simple y rápido, y no requiere de ningún post-procesado de los i-Vectors. En el segundo sistema, se introdujo el uso de información prosódica y formántica en un sistema de LID basado en i-Vectors. La precisión de éste estaba por debajo de la del sistema acústico. Sin embargo, los dos sistemas son complementarios, y se obtuvo hasta un 20% de mejora con la fusión de los dos respecto al sistema acústico solo. Tras los buenos resultados obtenidos para LID, y dado que, teóricamente, los i-Vectors capturan toda la información presente en la señal, decidimos usarlos para la evaluar de manera automática la inteligibilidad en el habla de personas con disartria. Los logopedas están muy interesados en esta tecnología porque permitiría evaluar a sus pacientes de una manera objetiva y consistente. En este caso, los i-Vectors se obtuvieron a partir de información espectral a corto plazo de la señal, y la inteligibilidad se calculó a partir de los i-Vectors obtenidos para un conjunto de palabras dichas por el locutor evaluado. Comprobamos que los resultados eran mucho mejores si en el entrenamiento del sistema se incorporaban datos de la persona que iba a ser evaluada. No obstante, esta limitación podría aliviarse utilizando una mayor cantidad de datos para entrenar el sistema.In this Thesis, we investigated how to effciently apply subspace Gaussian mixture modeling techniques onto two speech technology problems, namely automatic spoken language identification (LID) and automatic intelligibility assessment of dysarthric speech. One of the most important of such techniques in this Thesis was joint factor analysis (JFA). JFA is essentially a Gaussian mixture model where the mean of the components is expressed as a sum of low-dimension factors that represent different contributions to the speech signal. This factorization makes it possible to compensate for undesired sources of variability, like the channel. JFA was investigated as final classiffer and as feature extractor. In the latter approach, a single subspace including all sources of variability is trained, and points in this subspace are known as i-Vectors. Thus, one i-Vector is defined as a low-dimension representation of a single utterance, and they are a very powerful feature for different machine learning problems. We have investigated two different LID systems according to the type of features extracted from speech. First, we extracted acoustic features representing short-time spectral information. In this case, we observed relative improvements with i-Vectors with respect to JFA of up to 50%. We realized that the channel subspace in a JFA model also contains language information whereas i-Vectors do not discard any language information, and moreover, they help to reduce mismatches between training and testing data. For classification, we modeled the i-Vectors of each language with a Gaussian distribution with covariance matrix shared among languages. This method is simple and fast, and it worked well without any post-processing. Second, we introduced the use of prosodic and formant information with the i-Vectors system. The performance was below the acoustic system but both were found to be complementary and we obtained up to a 20% relative improvement with the fusion with respect to the acoustic system alone. Given the success in LID and the fact that i-Vectors capture all the information that is present in the data, we decided to use i-Vectors for other tasks, specifically, the assessment of speech intelligibility in speakers with different types of dysarthria. Speech therapists are very interested in this technology because it would allow them to objectively and consistently rate the intelligibility of their patients. In this case, the input features were extracted from short-term spectral information, and the intelligibility was assessed from the i-Vectors calculated from a set of words uttered by the tested speaker. We found that the performance was clearly much better if we had available data for training of the person that would use the application. We think that this limitation could be relaxed if we had larger databases for training. However, the recording process is not easy for people with disabilities, and it is difficult to obtain large datasets of dysarthric speakers open to the research community. Finally, the same system architecture for intelligibility assessment based on i-Vectors was used for predicting the accuracy that an automatic speech recognizer (ASR) system would obtain with dysarthric speakers. The only difference between both was the ground truth label set used for training. Predicting the performance response of an ASR system would increase the confidence of speech therapists in these systems and would diminish health related costs. The results were not as satisfactory as in the previous case, probably because an ASR is a complex system whose accuracy can be very difficult to be predicted only with acoustic information. Nonetheless, we think that we opened a door to an interesting research direction for the two problems

    Index for asset value measure obtained from condition monitoring digitalized data interpretation. A railway asset management application

    Get PDF
    Hosted by the Johannes Kepler University, Linz, Austria. May 23-24, 2019The objective of any asset is to provide value to the organization, being the corner stone to get a highest possible economic benefit in a sustainable way. An effective asset value management demands method that allow measuring and comparing the expected value with the real value realized at any time during its life cycle for value informed decision-making. Digitalization is providing new data about events and states related to asset condition and risk, information that can be reinterpreted to generate value measure strategies. This paper presents a proposal of TVO (Total Value of Ownership) model where it is possible to quantify and measure the value, including its monitoring throughout the life cycle of the asset and/or system. Proposed TVO model is focused on Safety, one of the most relevant value factors for Industry and Infrastructure sectors. Asset events and states are intrinsically linked to the defined failure modes. Consequently, it is necessary to structure the system information around the failure modes that have been defined, in order to obtain a value measurement index. A railway use case is presented

    In Memorian: Francisco Javier Peñas Esteban (1951-2018)

    Full text link
    Contiene además: Editorial Número 37 de Relaciones Internacionale

    Radial derivatives as a test of pre-big bang events on the Planck data

    Get PDF
    Although the search for azimuthal patterns in cosmological surveys is useful to characterize some effects depending exclusively on an angular distance within the standard model, they are considered as a key distinguishing feature of some exotic scenarios, such as bubble collisions or conformal cyclic cosmology (CCC). In particular, the CCC is a non-stardard framework that predicts circular patterns on the cosmic microwave background intensity fluctuations. Motivated by some previous works that explore the presence of radial gradients, we apply a methodology based on the radial derivatives to the latest release of Planck data. The new approach allows exhaustive studies to be performed at all-sky directions at a HEALPIX resolution of Nside = 1024. Specifically, two different analyses are performed focusing on weight functions in both small (up to a 5-deg radius) and large scales. We present a comparison between our results and those shown by An, Meissner & Nurowski (2017) and An et al. (2018). In addition, a possible polarization counterpart of these circular patterns is also analysed for the most promising case. Taking into account the limitations to characterize the significance of the results, including the possibility of suffering a look-elsewhere effect, no strong evidence of the kind of circular patterns expected from CCC is found in the Planck data for either the small or the large scales.The authors would like to thank Spanish Agencia Estatal de Investigacion (AEI, MICIU) for the financial support provided under ´the projects with references ESP2017-83921-C2-1-R and AYA2017-90675-REDC, co-funded with European Union ‘Fondo Europeo de Desarrollo Regional’ (EU FEDER) funds, and also acknowledge the funding from Unidad de Excelencia Mar´ıa de Maeztu (MDM 2017-0765). AM-C acknowledges the postdoctoral contract from the University of the Basque Country UPV/EHU ‘Especializacion´ de personal investigador doctor’ program, and the financial Support from the Spanish Ministry MINECO, MCIU/AEI/FEDER grant (PGC2018-094626-B-C21), the Basque Government grant (IT979-16). This research used resources of the National Energy Research Scientific Computing Center (NERSC), a U.S. Department of Energy Office of Science User Facility operated under Contract No. DEAC02-05CH11231
    corecore