282 research outputs found

    Use of multivariate statistical methods for the analysis of metabolomic data

    Full text link
    [ES] En las últimas décadas los avances tecnológicos han tenido como consecuencia la generación de una creciente cantidad de datos en el campo de la biología y la biomedicina. A día de hoy, las así llamadas tecnologías "ómicas", como la genómica, epigenómica, transcriptómica o metabolómica entre otras, producen bases de datos con cientos, miles o incluso millones de variables. El análisis de datos ómicos presenta una serie de complejidades tanto metodoló-gicas como computacionales que han llevado a una revolución en el desarrollo de nuevos métodos estadísticos específicamente diseñados para tratar con este tipo de datos. A estas complejidades metodológicas hay que añadir que, en la mayor parte de los casos, las restricciones logísticas y/o económicas de los proyectos de investigación suelen conllevar que los tamaños muestrales en estas bases de datos con tantas variables sean muy bajos, lo cual no hace sino empeorar las dificultades de análisis, ya que se tienen muchísimas más variables que observaciones. Entre las técnicas desarrolladas para tratar con este tipo de datos podemos encontrar algunas basadas en la penalización de los coeficientes, como lasso o elastic net, otras basadas en técnicas de proyección sobre estructuras latentes como PCA o PLS y otras basadas en árboles o combinaciones de árboles como random forest. Todas estas técnicas funcionan muy bien sobre distintos datos ómicos presentados en forma de matriz (IxJ). Sin embargo, en ocasiones los datos ómicos pueden estar expandidos, por ejemplo, al tomar medidas repetidas en el tiempo sobre los mismos individuos, encontrándonos con estructuras de datos que ya no son matrices, sino arrays tridimensionales o three-way (IxJxK). En estos casos, la mayoría de las técnicas citadas pierden parte de su aplicabilidad, quedando muy pocas opciones viables para el análisis de este tipo de estructuras de datos. Una de las técnicas que sí es útil para el análisis de estructuras three-way es N-PLS, que permite ajustar modelos predictivos razonablemente precisos, así como interpretarlos mediante distintos gráficos. Sin embargo, relacionado con el problema de la escasez de tamaño muestral relativa al desorbitado número de variables, aparece la necesidad de realizar una selección de variables relacionadas con la variable respuesta. Esto es especialmente cierto en el ámbito de la biología y la biomedicina, ya que no solo se quiere poder predecir lo que va a suceder, sino entender por qué sucede, qué variables están implicadas y, a poder ser, no tener que volver a recoger los cientos de miles de variables para realizar una nueva predicción, sino utilizar unas cuantas, las más importantes, para poder diseñar kits predictivos coste/efectivos de utilidad real. Por ello, el objetivo principal de esta tesis es mejorar las técnicas existentes para el análisis de datos ómicos, específicamente las encaminadas a analizar datos three-way, incorporando la capacidad de selección de variables, mejorando la capacidad predictiva y mejorando la interpretabilidad de los resultados obtenidos. Todo ello se implementará además en un paquete de R completamente documentado, que incluirá todas las funciones necesarias para llevar a cabo análisis completos de datos three-way. El trabajo incluido en esta tesis por tanto, consta de una primera parte teórico-conceptual de desarrollo de la idea del algoritmo, así como su puesta a punto, validación y comprobación de su eficacia; de una segunda parte empírico-práctica de comparación de los resultados del algoritmo con otras metodologías de selección de variables existentes, y de una parte adicional de programación y desarrollo de software en la que se presenta todo el desarrollo del paquete de R, su funcionalidad y capacidades de análisis. El desarrollo y validación de la técnica, así como la publicación del paquete de R, ha permitido ampliar las opciones actuales para el análisis[CA] En les últimes dècades els avançaments tecnològics han tingut com a conseqüència la generació d'una creixent quantitat de dades en el camp de la biologia i la biomedicina. A dia d'avui, les anomenades tecnologies "òmiques", com la genòmica, epigenòmica, transcriptòmica o metabolòmica entre altres, produeixen bases de dades amb centenars, milers o fins i tot milions de variables. L'anàlisi de dades 'òmiques' presenta una sèrie de complexitats tant metodolò-giques com computacionals que han portat a una revolució en el desenvolupament de nous mètodes estadístics específicament dissenyats per a tractar amb aquest tipus de dades. A aquestes complexitats metodològiques cal afegir que, en la major part dels casos, les restriccions logístiques i / o econòmiques dels projectes de recerca solen comportar que les magnituts de les mostres en aquestes bases de dades amb tantes variables siguen molt baixes, el que no fa sinó empitjorar les dificultats d'anàlisi, ja que es tenen moltíssimes més variables que observacions Entre les tècniques desenvolupades per a tractar amb aquest tipus de dades podem trobar algunes basades en la penalització dels coeficients, com lasso o elastic net, altres basades en tècniques de projecció sobre estructures latents com PCA o PLS i altres basades en arbres o combinacions d'arbres com random forest. Totes aquestes tècniques funcionen molt bé sobre diferents dades 'òmiques' presentats en forma de matriu (IxJ), però, en ocasions les dades òmiques poden estar expandits, per exemple, cuan ni ha mesures repetides en el temps sobre els mateixos individus, trobant-se amb estructures de dades que ja no són matrius, sinó arrays tridimensionals o three-way (IxJxK). En aquestos casos, la majoria de les tècniques mencionades perden tota o bona part de la seua aplicabilitat, quedant molt poques opcions viables per a l'anàlisi d'aquest tipus d'estructures de dades. Una de les tècniques que sí que és útil per a l'anàlisi d'estructures three-way es N-PLS, que permet ajustar models predictius raonablement precisos, així com interpretar-los mitjançant diferents gràfics. No obstant això, relacionat amb el problema de l'escassetat de mostres relativa al desorbitat nombre de variables, apareix la necessitat de realitzar una selecció de variables relacionades amb la variable resposta. Això és especialment cert en l'àmbit de la biologia i la biomedicina, ja que no només es vol poder predir el que va a succeir, sinó entendre per què passa, quines variables estan implicades i, si pot ser, no haver de tornar a recollir els centenars de milers de variables per realitzar una nova predicció, sinó utilitzar unes quantes, les més importants, per poder dissenyar kits predictius cost / efectius d'utilitat real. Per això, l'objectiu principal d'aquesta tesi és millorar les tècniques existents per a l'anàlisi de dades òmiques, específicament les encaminades a analitzar dades three-way, incorporant la capacitat de selecció de variables, millorant la capacitat predictiva i millorant la interpretabilitat dels resultats obtinguts. Tot això s'implementarà a més en un paquet de R completament documentat, que inclourà totes les funcions necessàries per a dur a terme anàlisis completes de dades three-way. El treball inclòs en aquesta tesi per tant, consta d'una primera part teorica-conceptual de desenvolupament de la idea de l'algoritme, així com la seua posada a punt, validació i comprovació de la seua eficàcia, d'una segona part empíric-pràctica de comparació dels resultats de l'algoritme amb altres metodologies de selecció de variables existents i d'una part adicional de programació i desenvolupament de programació en la qual es presenta tot el desenvolupament del paquet de R, la seua funcionalitat i capacitats d'anàlisi. El desenvolupament i validació de la tècnica, així com la publicació del paquet de R, ha permès ampliar les opcions actuals per a l'anàlis[EN] In the last decades, advances in technology have enabled the gathering of an increasingly amount of data in the field of biology and biomedicine. The so called "-omics" technologies such as genomics, epigenomics, transcriptomics or metabolomics, among others, produce hundreds, thousands or even millions of variables per data set. The analysis of 'omic' data presents different complexities that can be methodological and computational. This has driven a revolution in the development of new statistical methods specifically designed for dealing with these type of data. To this methodological complexities one must add the logistic and economic restrictions usually present in scientific research projects that lead to small sample sizes paired to these wide data sets. This makes the analyses even harder, since there is a problem in having many more variables than observations. Among the methods developed to deal with these type of data there are some based on the penalization of the coefficients, such as lasso or elastic net, others based on projection techniques, such as PCA or PLS, and others based in regression or classification trees and ensemble methods such as random forest. All these techniques work fine when dealing with different 'omic' data in matrix format (IxJ), but sometimes, these IxJ data sets can be expanded by taking, for example, repeated measurements at different time points for each individual, thus having IxJxK data sets that raise more methodological complications to the analyses. These data sets are called three-way data. In this cases, the majority of the cited techniques lose all or a good part of their applicability, leaving very few viable options for the analysis of this type of data structures. One useful tool for analyzing three-way data, when some Y data structure is to be predicted, is N-PLS. N-PLS reduces the inclusion of noise in the models and obtains more robust parameters when compared to PLS while, at the same time, producing easy-to-understand plots. Related to the problem of small sample sizes and exorbitant variable numbers, comes the issue of variable selection. Variable selection is essential for facilitating biological interpretation of the results when analyzing 'omic' data sets. Often, the aim of the study is not only predicting the outcome, but also understanding why it is happening and also what variables are involved. It is also of interest being able to perform new predictions without having to collect all the variables again. Because all of this, the main goal of this thesis is to improve the existing methods for 'omic' data analysis, specifically those for dealing with three-way data, incorporating the ability of variable selection, improving predictive capacity and interpretability of results. All this will be implemented in a fully documented R package, that will include all the necessary functions for performing complete analyses of three-way data. The work included in this thesis consists in a first theoretical-conceptual part where the idea and development of the algorithm takes place, as well as its tuning, validation and assessment of its performance. Then, a second empirical-practical part comes where the algorithm is compared to other variable selection methodologies. Finally, an additional programming and software development part is presented where all the R package development takes place, and its functionality and capabilities are exposed. The development and validation of the technique, as well as the publication of the R package, has opened many future research lines.Hervás Marín, D. (2019). Use of multivariate statistical methods for the analysis of metabolomic data [Tesis doctoral no publicada]. Universitat Politècnica de València. https://doi.org/10.4995/Thesis/10251/130847TESI

    Postprocesamiento CAM-ROBOTICA orientado al prototipado y mecanizado en células robotizadas complejas

    Full text link
    The main interest of this thesis consists of the study and implementation of postprocessors to adapt the toolpath generated by a Computer Aided Manufacturing (CAM) system to a complex robotic workcell of eight joints, devoted to the rapid prototyping of 3D CAD-defined products. It consists of a 6R industrial manipulator mounted on a linear track and synchronized with a rotary table. To accomplish this main objective, previous work is required. Each task carried out entails a methodology, objective and partial results that complement each other, namely: - It is described the architecture of the workcell in depth, at both displacement and joint-rate levels, for both direct and inverse resolutions. The conditioning of the Jacobian matrix is described as kinetostatic performance index to evaluate the vicinity to singular postures. These ones are analysed from a geometric point of view. - Prior to any machining, the additional external joints require a calibration done in situ, usually in an industrial environment. A novel Non-contact Planar Constraint Calibration method is developed to estimate the external joints configuration parameters by means of a laser displacement sensor. - A first control is originally done by means of a fuzzy inference engine at the displacement level, which is integrated within the postprocessor of the CAM software. - Several Redundancy Resolution Schemes (RRS) at the joint-rate level are compared for the configuration of the postprocessor, dealing not only with the additional joints (intrinsic redundancy) but also with the redundancy due to the symmetry on the milling tool (functional redundancy). - The use of these schemes is optimized by adjusting two performance criterion vectors related to both singularity avoidance and maintenance of a preferred reference posture, as secondary tasks to be done during the path tracking. Two innovative fuzzy inference engines actively adjust the weight of each joint in these tasks.Andrés De La Esperanza, FJ. (2011). Postprocesamiento CAM-ROBOTICA orientado al prototipado y mecanizado en células robotizadas complejas [Tesis doctoral no publicada]. Universitat Politècnica de València. https://doi.org/10.4995/Thesis/10251/10627Palanci

    Olive oil characterization using excitation-emission fluorescence spectroscopy and three-way methods of analysis

    Get PDF
    Els olis d'oliva contenen espècies fluorescents, com la vitamina E, les clorofil·les i productes d'oxidació formats degut a la seva degradació. Això fa que es pugui obtenir informació sobre la composició dels olis a partir de mesures de fluorescència. Aquesta informació es pot obtenir a partir de mesures directes, sense necessitat de realitzar cap etapa prèvia de dilució o addició de reactius. Això suposa grans avantatges respecte a altres tècniques que requereixen aquestes etapes, com les cromatogràfiques, ja que no es generen residus addicionals i es redueix el temps d'anàlisi. Tot i això les possibilitats de la fluorescència en l'anàlisi d'olis no estan molt estudiades i aquesta tècnica normalment no s'utilitza en els laboratoris de control de qualitat d'olis. L'actual instrumentació permet enregistrar un conjunt d'espectres de fluorescència a diferents longituds d'ona d'excitació en una única mesura. D'aquesta manera s'obté el que s'anomena matriu d'excitació-emissió de fluorescència. Matemàticament les matrius de fluorescència són matrius de números i s'anomenen dades de segon ordre. Els mètodes quimiomètrics que s'apliquen a les dades de segon ordre reben el nom de mètodes de tres vies, perquè les dades estan disposades en una estructura tridimensional. L'objectiu d'aquesta tesi ha estat caracteritzar olis d'oliva a partir de l'espectroscòpia de fluorescència d'excitació-emissió (EFEE) i de mètodes de tres vies.La primera part de la tesi inclou l'aplicació de mètodes d'anàlisi exploratòria de tres vies a un conjunt d'olis comercials (verges, purs i de sansa d'oliva). Concretament es van aplicar els mètodes anàlisi de components principals sobre la matriu desplegada (unfold-PCA), anàlisi paral·lela de factors (PARAFAC) i anàlisi d'agrupacions jerarquitzada (HCA). Aquests mètodes van permetre diferenciar entre els tipus d'olis en funció de les seves matrius de fluorescència. PARAFAC té l'avantatge que permet extreure els espectres subjacents de les principals famílies de compostos fluorescents.A continuació es va utilitzar un segon conjunt d'olis per a relacionar les seves matrius de fluorescència amb dos paràmetres de qualitat: l'índex de peròxids i K270. L'estudi es va fer comparant dos mètodes quimiomètrics: PARAFAC combinat amb regressió lineal múltiple i regressió per mínims quadrats parcials multi-via (N-PLS). N-PLS va proporcionar ajustos millors i errors de predicció més baixos. També es va veure que l'EFEE permet detectar olis verges degradats.La darrera part de la tesi conté l'aplicació de diversos mètodes de classificació de tres vies per a detectar adulteracions i discriminar olis en funció dels seu origen i tipus. En primer lloc es va estudiar la detecció d'adulteracions d'oli d'oliva verge extra amb olis de sansa (al 5%). Es van aplicar els estadístics Hotelling T2 i Q i els mètodes anàlisi discriminant lineal de Fisher (Fisher's LDA) i N-PLS discriminant. N-PLS discriminant va discriminar entre olis verges i adulterats amb un 100% de classificació correcta. A continuació es mostra que les diferències d'estabilitat entre els olis de les dues subregions de la denominació d'origen protegida "Siurana" es poden detectar a partir de les seves matrius de fluorescència. El mètode unfold-PLS discriminant va permetre discriminar entre els olis de les regions Camp de Tarragona i Montsant amb classificacions superiors al 90%.Finalment, es va aplicar l'algorisme factorització de matrius no negativa (NMF) a les matrius de fluorescència de tres conjunts d'olis diferents. En aquest estudi es mostra que aquest mètode és capaç de descompondre les matrius de fluorescència dels olis en parts positives que es poden relacionar amb algunes espècies fluorescents dels olis. També es van estudiar les possibilitats de NMF combinat amb Fisher's LDA per a classificar olis. Es van obtenir classificacions entre 90-100%.Olive oil contains fluorescent species, such as vitamin E, chlorophylls and oxidation products produced due to degradation. For this reason, fluorescence measurements can be used to obtain information about oil composition. This information can be obtained from direct measurements without needing any prior step of dilution of addition of reagents. This has great advantages with respect other techniques that require these steps, such as chromatographic, because no additional residues are generated and time of analysis is reduced. However the possibilities of fluorescence applied to olive oil analysis are not well studied and this technique is not normally used by the laboratories of olive oil quality control. The current instrumentation allows recording a set of fluorescence spectra at several excitation wavelengths in one measure. As a result, a fluorescence excitation-emission matrix is obtained. Mathematically, fluorescence matrices are matrices of numbers and are called second-order data. Chemometric methods applied to second-order data are called three-way methods, because the data are arranged in a three-dimensional structure. The objective of this thesis has been to characterize olive oils on the basis of excitation-emission fluorescence spectroscopy (EEFS) and three-way methods.The first part of the thesis includes the application of three-way exploratory methods of analysis to a set of commercial oils (virgin, pure and olive-pomace). The methods applied were unfold principal component analysis (unfold-PCA), parallel factor analysis (PARAFAC) and hierarchical cluster analysis (HCA). These methods enabled to distinguish between the oil types on the basis of their fluorescence matrices. PARAFAC has the advantage of providing the underlying spectra of the main families of fluorescent compounds.Next a second set of oils was considered for relating their fluorescence matrices with two quality parameters: peroxide value and K270. The study involved comparing two chemometric methods: PARAFAC combined with multiple lineal regression and multi-way partial least squares regression (N-PLS). N-PLS provided the best fits and the lowest prediction errors. It was also observed that EEFS can detect degraded virgin oils.The last part of the thesis contains the application of several three-way classification methods for detecting adulterations and discriminating between oils on the basis of their origin and type. Firstly, we studied the detection of extra virgin olive oil adulterations with olive-pomace oils (at 5% level). We applied Hotelling T2 and Q statistics and the methods Fisher's linear discriminant analysis and discriminant N-PLS. Discriminant N-PLS differentiated between virgin and adulterated oils with a 100% of correct classification. Next, it is shown that the different stability of the oils from the two subregions of the protected denomination of origin "Siurana" can be detected from their fluorescence matrices. The method discriminant unfold-PLS enabled to discriminate between the oils from the regions "Camp de Tarragona" and "Montsant" with classifications above 90%.Finally, we applied the algorithm non-negative matrix factorization (NMF) to the fluorescence matrices of three sets of olive oils. In this study it is shown that this method is able to decompose the fluorescence matrices of oils into positive parts that can be related with some fluorescence species of oils. We also studied the possibilities of NMF combined with Fisher's LDA for olive oil classification. We obtained classifications between 90-100%

    Estudi de la coautoria de publicacions científiques entre UPC i institucions de Xina

    Get PDF
    S'analitza la coautoria de la UPC amb autors vinculats a institucions de Xina, per totes les areas temàtiques i sense considerar límits cronològics o documentals.Postprint (author’s final draft

    Improvement of ms based e-nose performances by incorporation of chromatographic retention time as a new data dimension

    Get PDF
    Mejora del rendimiento de la nariz electrónica basada en espectrometría de masas mediante la incorporación del tiempo de retención cromatografico como una nueva dimensión de datosLa importancia del sentido de olor en la naturaleza y en la sociedad humana queda latente con el gran interés que se muestra en el análisis del olor y el gusto en la industria alimentaria. Aunque las aéreas mas interesadas son las de la alimentación y bebida, también se ha mostrado la necesitad para esta tecnología en otros campos como en el de la cosmética. Lamentablemente, el uso de los paneles sensoriales humanos o paneles caninos son costosos, propensos al cansancio, subjetivos, poco fiables e inadecuados para cuantificar, mientras que el análisis de laboratorio, a pesar de la precisión, imparcialidad y capacidad cuantitativa, necesita una labor intensa, con personal especializado y requiere de mucho tiempo. Debido a estos inconvenientes el concepto de olfato artificial generó un gran interés en entornos industriales.El término "nariz electrónica" se asocia con una serie de sensores de gases químicos, con una amplia superposición de selectividad para las mediciones de compuestos volátiles en combinación con los instrumentos informáticos de análisis de datos. La nariz electrónica se utiliza para proporcionar una información comparativa en vez de una cualitativa en un análisis, y porque la interpretación puede ser automatizada, el dispositivo es adecuado para el control de calidad y análisis. A pesar de algunos logros prometedores, los sensores de estado sólido de gas no han cumplido con sus expectativas. La baja sensibilidad y selectividad, la corta vida del sensor, la calibración difícil y los problemas de deriva han demostrado serias limitaciones. En un esfuerzo para mejorar los inconvenientes de los sensores de estado sólido, se han adoptado nuevos enfoques, utilizando diferentes sensores para la nariz electrónica. Sistemas de sensores ópticos, la espectrometría de movilidad iónica y la espectrometría infrarroja son ejemplos de técnicas que han sido probadas.Las narices electrónicas basadas en la espectrometría de masas (MS) aparecieron por primera vez en 1998 [B. Dittmann, S. y G. Nitz Horner. Adv. Food Sci. 20 (1998), p. 115], y representan un salto importante en la sensibilidad, retando a la nariz electrónica basada en sensores químicos. Este nuevo enfoque del concepto de una nariz electrónica usa sensores virtuales en forma de proporciones m/z. Una huella digital compleja y muy reproducible se obtiene en forma de un espectro de masas, que se procesa mediante algoritmos de reconocimiento de patrones para la clasificación y cuantificación. A pesar de que la nariz electrónica basada en la espectrometría de masas supera a la nariz electrónica clásica de sensores de estado sólido en muchos aspectos, su uso se limita actualmente a la instrumentación de laboratorio de escritorio. La falta de portabilidad no representará necesariamente un problema en el futuro, dado que espectrómetros de masas en miniatura se han fabricado ya en una fase de prototipado.Un inconveniente más crítico de la nariz electrónica basada en MS consiste en la manera en la que se analizan las muestras. La fragmentación simultánea de mezclas complejas de isómeros pueden producir resultados muy similares a raíz de este enfoque. Una nariz electrónica mejor sería la que combina la sensibilidad y el poder de identificación del detector de masas con la capacidad de separación de la cromatografía de gases. El principal inconveniente de este enfoque es de nuevo el coste y la falta de portabilidad de los equipos. Además de los problemas anteriores con la espectrometría de masas, el análisis de cromatografía de gases requiere mucho tiempo de medida.Para abordar estas cuestiones, se han reportado miniaturizaciones en cromatografía capilar de gases (GC) que hacen posible el GC-en-un-chip, CG-rápido y CG-flash que hacen uso de columnas cortas, reduciendo el tiempo de análisis a los tiempos de elución como segundos y, en algunos casos, se han comercializado. La miniaturización de la espectrometría de masas y cromatografía de gases tiene un gran potencial para mejorar el rendimiento, la utilidad y la accesibilidad de la nueva generación de narices electrónicas.Esta tesis se dedica al estudio y a la evaluación del enfoque del GC-MS para la nariz electrónica como un paso anterior al desarrollo de las tecnologías mencionadas anteriormente. El objetivo principal de la tesis es de estudiar si el tiempo de retención de una separación de cromatografía puede mejorar el rendimiento de la nariz electrónica basada en MS, mostrando que la adición de una tercera dimensión trae más información, ayudando a la clasificación de las pruebas. Esto se puede hacer de dos maneras: · comparando el análisis de datos de dos vías de espectrometría de masas con análisis de datos de dos vías de matrices desplegadas y concatenadas para los datos de tres vías y · comparando el análisis de datos de dos vías del espectrometría de masas con el análisis de datos de tres vías para el conjunto de datos tridimensionales.Desde el punto de vista de cromatografía, la meta será la de optimizar el método cromatográfico con el fin de reducir el tiempo de análisis a un mínimo sin dejar de tener resultados aceptables.Un paso importante en el análisis de datos multivariados de vías múltiples es el preprocesamiento de datos. Debido a este objetivo, el último objetivo será el de determinar qué técnicas de preprocesamiento son las mejores para y el análisis de dos y tres vías de datos.Con el fin de alcanzar los objetivos propuestos se crearon dos grupos de datos. El primero consiste en las mezclas de nueve isómeros de dimetilfenol y etilfenol. La razón de esta elección fue la similitud de los espectros de masas entre sí. De esta manera la nariz electrónica basada en espectrometría de masas sería retada por el conjunto de datos. También teniendo en cuenta el tiempo de retención de los nueve isómeros solos, las soluciones se hicieron, como si el conjunto de datos demostraría el reto si se usaría sólo el tiempo de retención. Por tanto, este conjunto de datos "artificiales" sostiene nuestras esperanzas en mostrar las mejoras de la utilización de ambas dimensiones, la MS (espectros de masas) y la GC (tiempo de retención).Veinte clases, representando las soluciones de los nueve isómeros se midieron en diez repeticiones cada una, por tres métodos cromatográficos, dando un total de 600 mediciones. Los métodos cromatográficos fueron diseñados para dar un cromatograma resuelto por completo, un pico coeluido y una situación intermediaria con un cromatograma resuelto parcialmente. Los datos fueron registrados en una matriz de tres dimensiones con las siguientes direcciones: (muestras medidas) x (proporción m/z) x (tiempo de retención). Por "colapsar" los ejes X e Y del tiempo de retención cromatográfica y los fragmentos m/z, respectivamente, se obtuvieron dos matrices que representan los espectros de masa regular y el cromatograma de iones totales, respectivamente. Estos enfoques sueltan la información traída por la tercera dimensión y el despliegue por lo que la matriz original 3D y la concatenación de las TIC y el espectro de masa media se han tenido en consideración como una forma de preservar la información adicional de la tercera dimensión en una matriz de dos dimensiones.Los datos fueron tratados mediante la alineación de picos, con una media de centrado y la normalización por la altura máxima y el área del pico, los instrumentos de pre-procesamiento que también fueron evaluados por sus logros.Para el análisis de datos de dos vías fueron utilizados el PCA, PLS-DA y fuzzyARTMAP. La agrupación de PCA y PARAFAC fueron evaluados por la relación intervariedad - intravariedad, mientras que los resultados mediante fuzzy ARTMAP fueron dados como el éxito de la las tasas de clasificación en porcentajes.Cuando PCA y PARAFAC se utilizaron, como era de esperar, el método de cromatografía resuelto (método 1) dio los mejores resultados globales, donde los algoritmos 2D funcionan mejor, mientras que en un caso más complicado (picos más coeluidos del método 3) pierden eficacia frente a métodos 3D.En el caso de PLS-DA y n-PLS, aunque los resultados no son tan concluyentes como los resultados del PCA y PARAFAC, tratándose de las diferencias mínimas, el modelo de vías múltiples PLS-DA ofrece un porcentaje de éxito en la predicción de ambos conjuntos de datos. También se recomienda el n-PLS en vez de utilizar datos desplegados y concatenados, ya que construye un modelo más parsimonioso.Para el análisis fuzzyARTMAP, la estrategia de votación empleada ha demostrado que al usar los espectros de masa media y la información del cromatograma de iones totales juntos se obtienen resultados más consistentes.En el segundo conjunto de datos se aborda el problema de la adulteración del aceite de oliva extra virgen con aceite de avellana, que debido a las similitudes entre los dos aceites es una de las más difíciles de detectar. Cuatro aceites extra virgen de oliva y dos aceites de avellana se midieron puros y en mezclas de 30%, 10%, 5% y 2% con los mismos objetivos mostrando que la adición de la extra dimensión mejora los resultados. Se han hechos cinco repeticiones para cada preparación, dando un total de 190 muestras: 4 aceites puros de oliva, 2 aceites puros de avellana y 32 adulteraciones de aceite de avellana en aceite de oliva, dando un total de 38 clases. Dos métodos cromatográficos fueron utilizados. El primero estaba dirigido a una completa separación de los componentes del aceite de oliva y empleó una separación con temperatura programable, mientras que el objetivo del segundo método fue un pico coeluido, por lo tanto fue contratada una temperatura constante de separación. Los datos fueron analizados por medio de la PCA, PARAFAC, PLS-DA y PLS-n.Como en el conjunto "artificial" de datos, el PCA y PARAFAC se analizaron por medio de la capacidad de clusterización, que mostró que los mejores resultados se obtienen con los datos desplegados seguido por los datos 3D tratados con el PARAFAC.Desde el punto de vista de optimización de la columna, los logros obtenidos por la columna corta está por debajo del enfoque de la columna larga, pero este caso demuestra una vez más que la adición de los incrementos de tercera dimensión mejoran la nariz electrónica basada en MS.Para el PLS-DA y n-PLS se evaluaron las tasas de éxito comparativamente, tanto para las corridas cromatográficas largas como para las cortas. Mientras que para la columna larga el mejor rendimiento es para los datos del cromatograma de iones totales (TIC), la columna corta muestra mejor rendimiento para los datos concatenados de los espectros de masa media y TIC. Además, la predicción de las tasas de éxito son las mismas para los datos TIC de columna larga como para los datos concatenados de la columna corta. Este caso es muy interesante porque demuestra que el enfoque PLS de la tercera dimensión mejora los resultados y, por otra parte, mediante el uso de la columna corta el tiempo de análisis se acorta considerablemente.Se esperan ciertos logros de la nariz electrónica. Por el momento, ninguno de esos enfoques se acercó lo suficiente para producir una respuesta positiva en los mercados. Los sensores de estado sólido tienen inconvenientes casi imposibles de superar. La nariz electrónica basada en espectrometría de masas tiene una falta de portabilidad y a veces sus logros son insuficientes, y el aparato del cromatógrafo de gases-espectrómetro de masas sufre problemas de portabilidad igual que espectrómetro de masas y toma mucho tiempo. El desarrollo de potentes algoritmos matemáticos durante los últimos años, junto con los avances en la miniaturización, tanto para MS y GC y mostrar cromatografía rápida cierta esperanza de una nariz electrónica mucho mejor.A través de este trabajo podemos afirmar que la adición del tiempo de retención cromatográfica como una dimensión extra aporta una ventaja sobre las actuales tecnologías de la nariz electrónica. Mientras que para los cromatogramas totalmente resueltos no se logran mejoras o la ganancia es mínima, sobre todo en la predicción, para una columna corta la información adicional mejora los resultados, en algunos casos, hacerlos tan bien como cuando una larga columna se utiliza. Esto es muy importante ya que las mediciones en un cromatógrafo de gases - espectrometro de masas se pueden optimizar para tramos muy cortos, una característica muy importante para una nariz electrónica. Esto permitiría el diseño de un instrumento de mayor rendimiento, adecuado para el control de calidad en líneas de productos

    Design and Evaluation of Efficient Medium Access Control Solutions for Vehicular Environments

    Full text link
    [EN] In recent years, advances in wireless technologies and improved sensing and computational capabilities have led to a gradual transition towards Intelligent Transportation Systems (ITS) and related applications. These applications aim at improving road safety, provide smart navigation, and eco-friendly driving. Vehicular Ad hoc Networks (VANETs) provide a communication structure for ITS by equipping cars with advanced sensors and communication devices that enable a direct exchange of information between vehicles. Different types of ITS applications rely on two types of messages: periodic beacons and event-driven messages. Beacons include information such as geographical location, speed, and acceleration, and they are only disseminated to a close neighborhood. Differently from beacons, event-driven messages are only generated when a critical event of general interest occurs, and it is spread within a specific target area for the duration of the event. The reliability of information exchange is one of the main issues for vehicularcommunications since the safety of people on the road is directly related to the effectiveness of these transmissions. A Medium Access Control (MAC) protocol must guarantee reliable beacon broadcasting within deadline bounds to all vehicles in the neighbourhood, thereby providing them timely notifications about unsafe driving conditions or other hazardous events. Moreover, infotainment and comfort applications require reliable unicast transmissions that must be taken into account. However, high node mobility, highly dynamic topology, and lack of a central control unit, are issues that make the design of a reliable MAC protocol for vehicular environments a very difficult and challenging task, especially when efficient broadcasting strategies are required. The IEEE 802.11p MAC protocol, an approved amendment to the IEEE 802.11 standard, is a random access protocol that is unable to provide guaranteed delay bounds with sufficient reliability in vehicular scenarios, especially under high channel usage. This problem is particularly serious when implementing (semi-) automated driving applications such as platooning, where inter-vehicle spacing is drastically reduced, and the control loop that manages and maintains the platoon requires frequent, timely and reliable exchange of status information (beacons). In this thesis novel protocols compatible with the IEEE 802.11 and 802.11p standards are proposed in order to optimally adjust the contention window size for unicast applications in Mobile Ad hoc Networks (MANETs) and VANETs. Experimental tests comparing our proposals to existing solutions show that the former are able to improve the packet delivery ratio and the average end-to-end delay for unicast applications. Concerning efficient message diffusion (broadcast) in VANET environments, we proposed token-based MAC solutions to improve the performance achieved by existing 802.11p driving safety applications in different vehicular environments, including highway, urban, and platooning scenarios. Experimental results show that the proposed solutions clearly outperform 802.11p when delay-bounded beacons and event notifications must be delivered.[ES] Recientemente, los avances en las tecnologías inalámbricas y las mejoras en términos de capacidades de sensorización y computación de los dispositivos electrónicos, han dado lugar a una transición gradual hacia servicios y aplicaciones de los Sistemas Inteligentes de Transporte (ITS). Estas aplicaciones tienen como objetivo mejorar la seguridad vial, proporcionar una navegación inteligente, y promover la conducción eco-eficiente. Las redes vehiculares ad hoc (VANETs) proporcionan una infraestructura de comunicaciones para ITS al equipar los coches con sensores avanzados y dispositivos de comunicación que permiten el intercambio directo de información entre vehículos. Los diferentes tipos de aplicaciones ITS se basan en dos tipos de mensajes: mensajes periódicos conocidos como beacons y mensajes asociados a eventos. Los mensajes periódicos incluyen información relativa a la ubicación geográfica, la velocidad y la aceleración, entre otros, y sólo son distribuidos entre los vehículos vecinos. A diferencia de estos beacons, los mensajes asociados a eventos sólo se generan cuando se produce un evento crítico de interés general, el cual se propaga dentro del área de interés de dicho evento y mientras éste siga activo. La fiabilidad del intercambio de información es uno de los principales problemas para las comunicaciones vehiculares, debido principalmente a que las aplicaciones de seguridad dependen directamente de la eficacia de estas transmisiones. Un protocolo de Control de Acceso al Medio (MAC) debe garantizar la difusión fiable de información a todos los vehículos vecinos dentro de unos límites máximos de retardo, proporcionándoles las notificaciones oportunas respecto a condiciones de conducción inseguras y otros eventos peligrosos. Por otra parte, las aplicaciones de información y entretenimiento, así como las aplicaciones orientadas al confort, también requieren transmisiones fiables extremoa-extremo. Sin embargo, la alta movilidad de los vehículos, la variabilidad de la topología, así como la falta de una unidad central de control, son factores que hacen que el diseño de un protocolo MAC fiable para entornos vehiculares sea una tarea especialmente compleja, especialmente cuando son necesarias estrategias de difusión eficientes. El protocolo MAC IEEE 802.11p, una modificación ya aprobada al estándar IEEE 802.11 original para entornos de comunicación vehiculares, es un protocolo de acceso que no es capaz de garantizar unos límites de retardo con la fiabilidad necesaria para estos entornos, especialmente en escenarios de alta utilización del canal inalámbrico. Este problema es particularmente importante a la hora de implementar aplicaciones de conducción (semi-)automática, como el caso de grupos de vehículos donde la separación entre vehículos se reduce drásticamente, y el sistema de control que gestiona y mantiene el grupo requiere de un intercambio frecuente de información fiable y acotado en retardo. En esta tesis se proponen nuevos protocolos MAC compatibles con los estándares IEEE 802.11 y 802.11p basados en el ajuste del tamaño de la ventana de contención para aplicaciones unicast en rede MANETs y VANETs. Los resultados experimentales obtenidos comparando nuestras propuestas con las soluciones existentes muestran que los protocolos propuestos son capaces de mejorar la tasa de entrega de paquetes y el retardo medio extremo-a-extremo para aplicaciones unicast. En lo que respecta a la difusión eficiente de mensajes broadcast en entornos VANET, se han propuesto soluciones MAC basadas en el uso de tokens que mejoran las prestaciones de aplicaciones de conducción segura basadas en el estándar 802.11p, tanto en autopistas, zonas urbanas, y escenarios con grupos de vehículos. Los resultados experimentales muestran que las soluciones propuestas superan claramente al protocolo 802.11p cuando es necesario entregar mensajes y notificaciones de eventos con restricc[CA] Recentment, els avan en les tecnologies sense fils i les millores en termes de capacitats de sensorització i computació dels dispositius electrònics, han donat lloc a una transició gradual cap a serveis i aplicacions dels sistemes intelligents de transport (ITS). Aquestes aplicacions tenen com a objectiu millorar la seguretat vial, proporcionar una navegació intelligent, i promoure la conducció ecoeficient. Les xarxes vehiculars ad hoc (VANET) proporcionen una infraestructura de comunicacions per a ITS, ja que equipen els cotxes amb sensors avançats i dispositius de comunicació que permeten l'intercanvi directe d'informació entre vehicles. Els diversos tipus d'aplicacions ITS es basen en dos classes de missatges: missatges periòdics coneguts com a beacons i missatges associats a esdeveniments. Els missatges periòdics inclouen informació relativa a la ubicació geogràfica, la velocitat i l'acceleració, entre uns altres, i només són distribuïts entre els vehicles veïns. A diferència d'aquests beacons, els missatges associats a esdeveniments només es generen quan es produeix un esdeveniment crític d'interès general, el qual es propaga dins de l àrea d'interès d'aquest esdeveniment i mentre aquest seguisca actiu. La fiabilitat de l'intercanvi d'informació és un dels principals problemes per a les comunicacions vehicular, principalment perquè les aplicacions de seguretat depenen directament de l'eficàcia d'aquestes transmissions. Un protocol de control d'accés al medi (MAC) ha de garantir la difusió fiable d'informació a tots els vehicles veïns dins d'uns límits màxims de retard, i proporcionar-los les notificacions oportunes respecte a condicions de conducció insegures i altres esdeveniments perillosos. D'altra banda, les aplicacions d'informació i entreteniment, com també les aplicacions orientades al confort, també requereixen transmissions fiables extrema-extrem. No obstant això, l'alta mobilitat dels vehicles, la variabilitat de la topologia, i la falta d'una unitat central de control, són factors que fan que el disseny d'un protocol MAC fiable per a entorns vehiculars siga una tasca especialment complexa, especialment quan són necessàries estratègies de difusió eficients. El protocol MAC IEEE 802.11p, una modificació ja aprovada a l'estàndard IEEE 802.11 original per a entorns de comunicació vehiculars, és un protocol d'accés que no és capa garantir uns límits de retard amb la fiabilitat necessària per a aquests entorns, especialment en escenaris d'alta utilització del canal sense fil. Aquest problema és particularment important a l'hora d'implementar aplicacions de conducció (semi)automàtica, com el cas de grups de vehicles en què la separació entre vehicles es redueix dràsticament, i el sistema de control que gestiona i manté el grup requereix un intercanvi freqüent d'informació fiable i delimitat en retard. En aquesta tesi es proposen nous protocols MAC compatibles amb els estàndards IEEE 802.11 i 802.11p basats en l'ajust de les dimensions de la finestra de contenció per a aplicacions unicast en xarxes MANET i VANET. Els resultats experimentals obtinguts comparant les nostres propostes amb les solucions existents mostren que els protocols proposats són capa de millorar la taxa de lliurament de paquets i el retard mitjà extrem-a-extrem per a aplicacions unicast. Pel que fa a la difusió eficient de missatges broadcast en entorns VANET, s'han proposat solucions MAC basades en l'ús de tokens que milloren les prestacions d'aplicacions de conducció segura basades en l'estàndard 802.11p, tant en autopistes, zones urbanes, i escenaris amb grups de vehicles. Els resultats experimentals mostren que les solucions proposades superen clarament el protocol 802.11p quan cal lliurar missatges i notificacions d'esdeveniments amb restriccions de latència.Balador, A. (2016). Design and Evaluation of Efficient Medium Access Control Solutions for Vehicular Environments [Tesis doctoral no publicada]. Universitat Politècnica de València. https://doi.org/10.4995/Thesis/10251/64073TESI

    Towards an Efficient Use of the BLAS Library for Multilinear Tensor Contractions

    Get PDF
    Mathematical operators whose transformation rules constitute the building blocks of a multi-linear algebra are widely used in physics and engineering applications where they are very often represented as tensors. In the last century, thanks to the advances in tensor calculus, it was possible to uncover new research fields and make remarkable progress in the existing ones, from electromagnetism to the dynamics of fluids and from the mechanics of rigid bodies to quantum mechanics of many atoms. By now, the formal mathematical and geometrical properties of tensors are well defined and understood; conversely, in the context of scientific and high-performance computing, many tensor- related problems are still open. In this paper, we address the problem of efficiently computing contractions among two tensors of arbitrary dimension by using kernels from the highly optimized BLAS library. In particular, we establish precise conditions to determine if and when GEMM, the kernel for matrix products, can be used. Such conditions take into consideration both the nature of the operation and the storage scheme of the tensors, and induce a classification of the contractions into three groups. For each group, we provide a recipe to guide the users towards the most effective use of BLAS.Comment: 27 Pages, 7 figures and additional tikz generated diagrams. Submitted to Applied Mathematics and Computatio

    12th International Conference on Vibrations in Rotating Machinery

    Get PDF
    Since 1976, the Vibrations in Rotating Machinery conferences have successfully brought industry and academia together to advance state-of-the-art research in dynamics of rotating machinery. 12th International Conference on Vibrations in Rotating Machinery contains contributions presented at the 12th edition of the conference, from industrial and academic experts from different countries. The book discusses the challenges in rotor-dynamics, rub, whirl, instability and more. The topics addressed include: - Active, smart vibration control - Rotor balancing, dynamics, and smart rotors - Bearings and seals - Noise vibration and harshness - Active and passive damping - Applications: wind turbines, steam turbines, gas turbines, compressors - Joints and couplings - Challenging performance boundaries of rotating machines - High power density machines - Electrical machines for aerospace - Management of extreme events - Active machines - Electric supercharging - Blades and bladed assemblies (forced response, flutter, mistuning) - Fault detection and condition monitoring - Rub, whirl and instability - Torsional vibration Providing the latest research and useful guidance, 12th International Conference on Vibrations in Rotating Machinery aims at those from industry or academia that are involved in transport, power, process, medical engineering, manufacturing or construction
    corecore