27 research outputs found

    Hybrid and dynamic static criteria models for test case prioritization of web application regression testing

    Get PDF
    In software testing domain, different techniques and approaches are used to support the process of regression testing in an effective way. The main approaches include test case minimization, test case selection, and test case prioritization. Test case prioritization techniques improve the performance of regression testing by arranging test cases in such a way that maximize fault detection could be achieved in a shorter time. However, the problems for web testing are the timing for executing test cases and the number of fault detected. The aim of this study is to increase the effectiveness of test case prioritization by proposing an approach that could detect faults earlier at a shorter execution time. This research proposed an approach comprising two models: Hybrid Static Criteria Model (HSCM) and Dynamic Weighting Static Criteria Model (DWSCM). Each model applied three criteria: most common HTTP requests in pages, length of HTTP request chains, and dependency of HTTP requests. These criteria are used to prioritize test cases for web application regression testing. The proposed HSCM utilized clustering technique to group test cases. A hybridized technique was proposed to prioritize test cases by relying on assigned test case priorities from the combination of aforementioned criteria. A dynamic weighting scheme of criteria for prioritizing test cases was used to increase fault detection rate. The findings revealed that, the models comprising enhanced of Average Percentage Fault Detection (APFD), yielded the highest APFD of 98% in DWSCM and 87% in HSCM, which have led to improve effectiveness prioritization models. The findings confirmed the ability of the proposed techniques in improving web application regression testing

    Optimization Techniques for Algorithmic Debugging

    Full text link
    [EN] Nowadays, undetected programming bugs produce a waste of billions of dollars per year to private and public companies and institutions. In spite of this, no significant advances in the debugging area that help developers along the software development process have been achieved yet. In fact, the same debugging techniques that were used 20 years ago are still being used now. Along the time, some alternatives have appeared, but there still is a long way for them to be useful enough to get into the software development process. One of them is algorithmic debugging, which abstracts the information the user has to investigate to debug the program, allowing them to focus on what is happening instead of how it is happening. This abstraction comes at a price: the granularity level of the bugs that can be detected allows for isolating wrongly implemented functions, but which part of them contains the bug cannot be found out yet. This thesis focusses on improving algorithmic debugging in many aspects. Concretely, the main aims of this thesis are to reduce the time the user needs to detect a programming bug as well as to provide the user with more detailed information about where the bug is located. To achieve these goals, some techniques have been developed to start the debugging sessions as soon as possible, to reduce the number of questions the user is going to be asked about, and to augment the granularity level of those bugs that algorithmic debugging can detect, allowing the debugger in this way to keep looking for bugs even inside functions. As a result of this thesis, three completely new techniques have been defined, an already existent technique has been improved, and two new algorithmic debugging search strategies have been defined that improve the already existent ones. Besides these theoretical results, a fully functional algorithmic debugger has been implemented that contains and supports all these techniques and strategies. This debugger is written in Java, and it debugs Java code. The election of this language is justified because it is currently one of the most widely extended and used languages. Also because it contains an interesting combination of unsolved challenges for algorithmic debugging. To further increase its usability, the debugger has been later adapted as an Eclipse plugin, so it could be used by a wider number of users. These two debuggers are publicly available, so any interested person can access them and continue with the research if they wish so.[ES] Hoy en día, los errores no detectados de programación suponen un gasto de miles de millones al año para las empresas e instituciones públicas y privadas. A pesar de esto, no ha habido ningún avance significativo en el área de la depuración que ayude a los desarrolladores durante la fase de desarrollo de software. De hecho, las mismas técnicas de depuración que se utilizaban hace 20 años se siguen utilizando ahora. A lo largo del tiempo, han surgido algunas alternativas, pero todavía queda un largo camino para que estas sean lo suficientemente útiles como para abrirse camino en el proceso de desarrollo de software. Una de ellas es la depuración algorítmica, la cual abstrae la información que el programador debe investigar para depurar el programa, permitiéndole de este modo centrarse en el qué está ocurriendo en vez de en el cómo. Esta abstracción tiene un coste: el nivel de granularidad de los errores que pueden detectarse nos permite como máximo aislar funciones mal implementadas, pero no averiguar qué parte de estas contiene el error. Esta tesis se centra en mejorar la depuración algorítmica en muchos aspectos. Concretamente, los principales objetivos de esta tesis son reducir el tiempo que el usuario necesita para detectar un error de programación así como proporcionar información más detallada de dónde se encuentra el error. Para conseguir estos objetivos, se han desarrollado técnicas para iniciar las sesiones de depuración lo antes posible, reducir el número de preguntas que se le van a realizar al usuario, y aumentar el nivel de granularidad de los errores que la depuración algorítmica puede detectar, permitiendo así seguir buscando el error incluso dentro de las funciones. Como resultado de esta tesis, se han definido tres técnicas completamente nuevas, se ha mejorado una técnica ya existente, y se han definido dos nuevas estrategias de depuración algorítmica que mejoran las previamente existentes. Además de los resultados teóricos, también se ha desarrollado un depurador algorítmico completamente funcional que contiene y respalda todas estas técnicas y estrategias. Este depurador está escrito en Java y depura código Java. La elección de este lenguaje se justifica debido a que es uno de los lenguajes más ampliamente extendidos y usados actualmente. También debido a que contiene una combinación interesante de retos todavía sin resolver para la depuración algorítmica. Para aumentar todavía más su usabilidad, el depurador ha sido posteriormente adaptado como un plugin de Eclipse, de tal manera que pudiese ser usado por un número más amplio de usuarios. Estos dos depuradores están públicamente disponibles para que cualquier persona interesada pueda acceder a ellos y continuar con la investigación si así lo deseara.[CA] Hui en dia, els errors no detectats de programació suposen una despesa de milers de milions a l'any per a les empreses i institucions públiques i privades. Tot i això, no hi ha hagut cap avanç significatiu en l'àrea de la depuració que ajude als desenvolupadors durant la fase de desenvolupament de programari. De fet, les mateixes tècniques de depuració que s'utilitzaven fa 20 anys es continuen utilitzant ara. Al llarg del temps, han sorgit algunes alternatives, però encara queda un llarg camí perquè estes siguen prou útils com per a obrir-se camí en el procés de desenvolupament de programari. Una d'elles és la depuració algorítmica, la qual abstrau la informació que el programador ha d'investigar per a depurar el programa, permetent-li d'esta manera centrar-se en el què està ocorrent en compte de en el com. Esta abstracció té un cost: el nivell de granularitat dels errors que poden detectar-se ens permet com a màxim aïllar funcions mal implementades, però no esbrinar quina part d'estes conté l'error. Esta tesi es centra a millorar la depuració algorítmica en molts aspectes. Concretament, els principals objectius d'esta tesi són reduir el temps que l'usuari necessita per a detectar un error de programació així com proporcionar informació més detallada d'on es troba l'error. Per a aconseguir estos objectius, s'han desenvolupat tècniques per a iniciar les sessions de depuració com més prompte millor, reduir el nombre de preguntes que se li formularan a l'usuari, i augmentar el nivell de granularitat dels errors que la depuració algorítmica pot detectar, permetent així continuar buscant l'error inclús dins de les funcions. Com resultat d'esta tesi, s'han definit tres tècniques completament noves, s'ha millorat una tècnica ja existent, i s'han definit dos noves estratègies de depuració algorítmica que milloren les prèviament existents. A més dels resultats teòrics, també s'ha desenvolupat un depurador algorítmic completament funcional que conté i protegix totes estes tècniques i estratègies. Este depurador està escrit en Java i depura codi Java. L'elecció d'este llenguatge es justifica pel fet que és un dels llenguatges més àmpliament estesos i usats actualment. També pel fet que conté una combinació interessant de reptes encara sense resoldre per a la depuració algorítmica. Per a augmentar encara més la seua usabilitat, el depurador ha sigut posteriorment adaptat com un plugin d'Eclipse, de tal manera que poguera ser usat per un nombre més ampli d'usuaris. Estos dos depuradors estan públicament disponibles perquè qualsevol persona interessada puga accedir a ells i continuar amb la investigació si així ho desitjara.Insa Cabrera, D. (2016). Optimization Techniques for Algorithmic Debugging [Tesis doctoral]. Universitat Politècnica de València. https://doi.org/10.4995/Thesis/10251/68506TESISPremios Extraordinarios de tesis doctorale

    Unsupervised video indexing on audiovisual characterization of persons

    Get PDF
    Cette thèse consiste à proposer une méthode de caractérisation non-supervisée des intervenants dans les documents audiovisuels, en exploitant des données liées à leur apparence physique et à leur voix. De manière générale, les méthodes d'identification automatique, que ce soit en vidéo ou en audio, nécessitent une quantité importante de connaissances a priori sur le contenu. Dans ce travail, le but est d'étudier les deux modes de façon corrélée et d'exploiter leur propriété respective de manière collaborative et robuste, afin de produire un résultat fiable aussi indépendant que possible de toute connaissance a priori. Plus particulièrement, nous avons étudié les caractéristiques du flux audio et nous avons proposé plusieurs méthodes pour la segmentation et le regroupement en locuteurs que nous avons évaluées dans le cadre d'une campagne d'évaluation. Ensuite, nous avons mené une étude approfondie sur les descripteurs visuels (visage, costume) qui nous ont servis à proposer de nouvelles approches pour la détection, le suivi et le regroupement des personnes. Enfin, le travail s'est focalisé sur la fusion des données audio et vidéo en proposant une approche basée sur le calcul d'une matrice de cooccurrence qui nous a permis d'établir une association entre l'index audio et l'index vidéo et d'effectuer leur correction. Nous pouvons ainsi produire un modèle audiovisuel dynamique des intervenants.This thesis consists to propose a method for an unsupervised characterization of persons within audiovisual documents, by exploring the data related for their physical appearance and their voice. From a general manner, the automatic recognition methods, either in video or audio, need a huge amount of a priori knowledge about their content. In this work, the goal is to study the two modes in a correlated way and to explore their properties in a collaborative and robust way, in order to produce a reliable result as independent as possible from any a priori knowledge. More particularly, we have studied the characteristics of the audio stream and we have proposed many methods for speaker segmentation and clustering and that we have evaluated in a french competition. Then, we have carried a deep study on visual descriptors (face, clothing) that helped us to propose novel approches for detecting, tracking, and clustering of people within the document. Finally, the work was focused on the audiovisual fusion by proposing a method based on computing the cooccurrence matrix that allowed us to establish an association between audio and video indexes, and to correct them. That will enable us to produce a dynamic audiovisual model for each speaker

    Tune your brown clustering, please

    Get PDF
    Brown clustering, an unsupervised hierarchical clustering technique based on ngram mutual information, has proven useful in many NLP applications. However, most uses of Brown clustering employ the same default configuration; the appropriateness of this configuration has gone predominantly unexplored. Accordingly, we present information for practitioners on the behaviour of Brown clustering in order to assist hyper-parametre tuning, in the form of a theoretical model of Brown clustering utility. This model is then evaluated empirically in two sequence labelling tasks over two text types. We explore the dynamic between the input corpus size, chosen number of classes, and quality of the resulting clusters, which has an impact for any approach using Brown clustering. In every scenario that we examine, our results reveal that the values most commonly used for the clustering are sub-optimal

    Novel Techniques in Sensory and Consumer Research Applied to Understand Gluten-Free Products Perception

    Full text link
    Tesis por compendio[ES] El trabajo de investigación realizado en esta tesis se ha centrado en la aplicación de técnicas recientes e innovadoras en el estudio de la percepción de productos sin gluten. Primero, se estudió cómo tratar la información que hay en Twitter para conocer las opiniones de los consumidores sobre "sin gluten". Los temas más relevantes fueron 5 productos (pan, tarta, galleta, pizza, cerveza), situaciones de consumo, recomendaciones, lugares y aspectos relacionados con la celiaquía. Para explorar automáticamente la información de Twitter, se estudió utilizar redes de co-ocurrencia, que fueron útiles para interpretar los tweets, representar los aspectos más relevantes (ocurrencia) y ponerlos en contexto y en relación con otros (co-ocurrencia). Se observó que es posible automatizar sin un pre-tratamiento manual, permitiendo analizar de forma efectiva gran cantidad de información disponible online. Después, se estudiaron diferentes panes comerciales sin gluten en cuanto al comportamiento en boca para entender mejor los factores involucrados en la percepción de textura. Los panes (5 sin gluten; 2 normales) se caracterizaron en cuanto a propiedades mecánicas, estructura, fragmentación, saliva incorporada y consistencia y adhesividad del bolo. Las sensaciones de textura variaron a lo largo de la masticación, dependiendo de su estructura inicial, propiedades mecánicas, fragmentación, formación de bolo o actividad oral. Posteriormente, se estudió cómo los cambios en la estructura de panes sin gluten obtenidos por modificaciones en panificación (tiempo de fermentación e hidratación) afectan al procesamiento y actividad oral y las sensaciones de textura, que variaron principalmente según el tiempo de fermentación. Especialmente al principio, las diferencias en las sensaciones de textura se explicaron por las diferencias en la estructura y fragmentación en boca. Por último, se estudió la atención visual (con eye-tracking) y la respuesta de consumidores celíacos a paquetes de pan sin gluten, observando que el tipo de marca y la presencia del logo de certificación sin gluten influían en lo que miran. Todos los panes les dieron confianza, sin afectar la presencia del logo, pero condicionando lo que miran. El tipo de marca afectó la confianza y la expectativa de aceptabilidad, que fueron más altas para marcas específicas de sin gluten. La aceptabilidad también se explicó por otras características de cada pan. Se estudió la atención visual (eye-tracking) y las motivaciones de niños celíacos y sus padres al comprar galletas en comparación con los no celíacos. El patrón de fijación cambió en niños y padres: los niños celíacos se fijaron más en ingredientes, palabras y símbolos sin gluten, y menos en la imagen de las galletas; los padres de niños celíacos se fijaron más en ingredientes y símbolo sin gluten, y menos en la imagen de la galleta, nombre, dibujo e información nutricional. Para todos los niños y padres, lo más importante fue elegir una galleta que les gustara, pero solo los niños celíacos mostraron interés en la marca y por probar un producto nuevo. Otro motivo importante para los padres fue la salud, pero por diferentes atributos (padres de celíacos: certificación sin gluten o lista corta de ingredientes; padres de no celíacos: bajo en azúcar o grasa). El precio o la confianza fueron relevantes solo para los padres de niños celíacos. Esta Tesis ha aportado conocimiento sobre el uso y la practicidad de técnicas recientes en ciencia sensorial y del consumidor. La investigación confirma que se puede conseguir una comprensión plena de la compleja respuesta del consumidor recabando información desde perspectivas muy distintas. Sin embargo, para responder a cuestiones específicas en investigación, cada una de estas técnicas (análisis de las redes sociales, estudio del procesado oral de los alimentos o la técnica eye-tracking) puede contribuir de forma individual a entender mejor la aceptabilidad o la elección de alimentos del consumidor.[CA] El treball de recerca realitzat en esta tesi s'ha centrat en l'aplicació de tècniques recents i innovadores en l'estudi de la percepció de productes sense glútens. Primer, es va estudiar com tractar la informació que hi ha en Twitter per a conéixer les opinions dels consumidors sobre "sense glútens". Els temes més rellevants van ser 5 productes (pa, pastís, galeta, pizza, cervesa), situacions de consum, recomanacions, llocs i aspectes relacionats amb la celiaquia. Per a explorar automàticament la informació de Twitter, es va estudiar utilitzar xarxes de co-ocurrència, que van ser útils per a interpretar els tuits, representar els aspectes més rellevants (ocurrència) i posar-los en context i en relació amb uns altres (co-ocurrència). Es va observar que és possible automatitzar sense un pre-tractament manual, permetent analitzar de manera efectiva gran quantitat d'informació disponible en línia. Després, es van estudiar diferents pans comercials sense glútens quant al comportament en boca per a entendre millor els factors involucrats en la percepció de textura. Els pans (5 sense glútens; 2 normals) es van caracteritzar quant a propietats mecàniques, estructura, fragmentació, saliva incorporada i consistència i adhesivitat de la bitla. Les sensacions de textura van variar al llarg de la masticació, depenent de la estructura inicial, propietats mecàniques, fragmentació, formació de bitla o activitat oral. Posteriorment, es va estudiar com els canvis en l'estructura de pans sense glútens obtinguts per modificacions en panificació (temps de fermentació i hidratació) afecten el processament i activitat oral i les sensacions de textura, que van variar principalment segons el temps de fermentació. Especialment al principi, les diferències en les sensacions de textura es van explicar per les diferències en l'estructura i fragmentació en boca. Finalment, es va estudiar l'atenció visual (amb eye-tracking) i la resposta de consumidors celíacs a paquets de pa sense gluten, observant que el tipus de marca i la presència del logotip de certificació sense gluten influïen en el que miren. Tots els pans els van donar confiança, sense afectar la presència del logotip, però condicionant el que miren. El tipus de marca va afectar la confiança i l'expectativa d'acceptabilitat, que van ser més altes per a marques específiques de sense glútens. L'acceptabilitat també es va explicar per altres característiques de cada pa. Es va estudiar l'atenció visual (eye-tracking) i les motivacions de xiquets celíacs i els seus pares en comprar galetes en comparació amb no celíacs. El patró de fixació va canviar en xiquets i pares: els xiquets celíacs es van fixar més en ingredients, paraules i símbols sense glútens, i menys en la imatge de les galetes; els pares de xiquets celíacs es van fixar més en ingredients i símbol sense gluten, i menys en la imatge de la galeta, nom, dibuix i informació nutricional. Per a tots els xiquets i pares, el més important va ser triar una galeta que els agradara, però només els xiquets celíacs van mostrar interés en la marca i per provar un producte nou. Un altre motiu important per als pares va ser la salut, però per diferents atributs (pares de celíacs: certificació sense gluten o llista curta d'ingredients; pares de no celíacs: baix en sucre o grassa). El preu o la confiança van ser rellevants solo per als pares de xiquets celíacs. Esta Tesi ha aportat coneixement sobre l'ús i la practicitat de tècniques recents en ciència sensorial i del consumidor. La investigació confirma que es pot aconseguir una comprensió plena de la complexa resposta del consumidor recaptant informació des de perspectives molt diferents. No obstant això, per a respondre a qüestions específiques en investigació, cada una d'estes tècniques (anàlisis de les xarxes socials, estudi del processament oral dels aliments o la tècnica eye-tracking) pot contribuir de manera individual a entendre millor l'acceptabilitat o l'elecció d'aliments del consumidor.[EN] The research of this thesis is focused on the application of recent and innovative techniques to study the perception of gluten-free products. First, it was studied how to manage the information available on Twitter to get consumers' opinions about "gluten-free". The most relevant topics when talking about gluten-free on Twitter were five products (bread, cake, cookie, pizza, beer), situations of consumption, recommendations, places, and aspects related to coeliac condition. To automatically explore the information from Twitter, the possibility to use co-occurrence networks was studied. Co-occurrence networks were useful for interpreting tweets' content, representing the most relevant aspects mentioned (occurrence) and putting them into context and in relation to others (co-occurrence). It was found that automated without manual pre-treatment of text is possible, as an efficient analysis of big amounts of online data. Secondly, different commercial gluten-free breads were studied in terms of in-mouth behaviour to better understand the factors involved in texture perception. The breads (5 gluten-free; 2 regular) were characterised regarding mechanical properties, structure, fragmentation, saliva incorporated, and bolus consistency and adhesiveness. Texture sensations varied along mastication, depending on their initial structure, mechanical properties, fragmentation pattern, bolus formation or oral activity. Subsequently, it was studied how changes in structure of gluten-free breads achieved by modifications in breadmaking (fermentation time and hydration) affect oral processing, oral activity and texture sensations. Oral behaviour and texture perception varied mostly according to the fermentation time. Especially at the beginning, differences in texture sensations were explained by the differences in structure and how it fragmented in mouth. Lastly, visual attention (with eye-tracking technique) and response of coeliac consumers to gluten-free bread packages were studied, finding that the type of brand and presence of gluten-free certification logo influenced the visual behaviour. All gluten-free breads were perceived as trustworthy, not being affected by the presence of gluten-free certification logo, but conditioning the visual behaviour. The type of brand affected trust and expected acceptability, being both higher for brands specific of gluten-free. Liking was also explained by other individual characteristics of breads. Visual behaviour and motivations of coeliac children and their parents when purchasing biscuits were studied in comparison to non-coeliac ones. Eye-tracking showed that fixation pattern changed for coeliac children and their parents. Coeliac children fixated more on ingredients, gluten-free words and symbols, and less on biscuit image. Parents of coeliac children fixated more on ingredients and the gluten-free symbol, and less on biscuit image, product name, cartoon, and nutritional information. For all children and parents, liking was the most important reason for choosing a biscuit, but only coeliac children showed interest in brand and unknown products. Other important motivation for parents was health, but the attributes were different (parents of coeliac group: having gluten-free certification or a short ingredients list; parents of non-coeliac group: low sugar or fat contents). Price or trust were relevant motivations only for parents of celiac children. On overall, this Thesis provided knowledge about the usage and practicality of recent techniques or approaches in sensory and consumer science. This investigation confirms that a full understanding of complex consumer's response can be achieved by gathering consumer's information from different perspectives. However, for answering specific research questions, these different tools (social media exploration, food oral processing approach or eye-tracking technique) can individually contribute to better understand consumer acceptability or food choice.Puerta Gil, P. (2022). Novel Techniques in Sensory and Consumer Research Applied to Understand Gluten-Free Products Perception [Tesis doctoral]. Universitat Politècnica de València. https://doi.org/10.4995/Thesis/10251/182293TESISCompendi

    The Second Conference on Lunar Bases and Space Activities of the 21st Century, volume 1

    Get PDF
    These papers comprise a peer-review selection of presentations by authors from NASA, LPI industry, and academia at the Second Conference (April 1988) on Lunar Bases and Space Activities of the 21st Century, sponsored by the NASA Office of Exploration and the Lunar Planetary Institute. These papers go into more technical depth than did those published from the first NASA-sponsored symposium on the topic, held in 1984. Session topics covered by this volume include (1) design and operation of transportation systems to, in orbit around, and on the Moon, (2) lunar base site selection, (3) design, architecture, construction, and operation of lunar bases and human habitats, and (4) lunar-based scientific research and experimentation in astronomy, exobiology, and lunar geology

    NOTIFICATION !!!

    Get PDF
    All the content of this special edition is retrieved from the conference proceedings published by the European Scientific Institute, ESI. http://eujournal.org/index.php/esj/pages/view/books The European Scientific Journal, ESJ, after approval from the publisher re publishes the papers in a Special edition

    NOTIFICATION !!!

    Get PDF
    All the content of this special edition is retrieved from the conference proceedings published by the European Scientific Institute, ESI. http://eujournal.org/index.php/esj/pages/view/books The European Scientific Journal, ESJ, after approval from the publisher re publishes the papers in a Special edition

    NOTIFICATION !!!

    Get PDF
    All the content of this special edition is retrieved from the conference proceedings published by the European Scientific Institute, ESI. http://eujournal.org/index.php/esj/pages/view/books The European Scientific Journal, ESJ, after approval from the publisher re publishes the papers in a Special edition

    NOTIFICATION !!!

    Get PDF
    All the content of this special edition is retrieved from the conference proceedings published by the European Scientific Institute, ESI. http://eujournal.org/index.php/esj/pages/view/books The European Scientific Journal, ESJ, after approval from the publisher re publishes the papers in a Special edition
    corecore