6 research outputs found

    User interface evaluation and empirically-based evolution of a prototype experience management tool

    No full text
    Abstract—Experience management refers to the capture, structuring, analysis, synthesis, and reuse of an organization’s experience in the form of documents, plans, templates, processes, data, etc. The problem of managing experience effectively is not unique to software development, but the field of software engineering has had a high-level approach to this problem for some time. The Experience Factory is an organizational infrastructure whose goal is to produce, store, and reuse experiences gained in a software development organization [6], [7], [8]. This paper describes The Q-Labs Experience Management System (Q-Labs EMS), which is based on the Experience Factory concept and was developed for use in a multinational software engineering consultancy [31]. A critical aspect of the Q-Labs EMS project is its emphasis on empirical evaluation as a major driver of its development and evolution. The initial prototype requirements were grounded in the organizational needs and vision of Q-Labs, as were the goals and evaluation criteria later used to evaluate the prototype. However, the Q-Labs EMS architecture, data model, and user interface were designed to evolve, based on evolving user needs. This paper describes this approach, including the evaluation that was conducted of the initial prototype and its implications for the further development of systems to support software experience management. Index Terms—Experience management, knowledge management, experience reuse, user interface evaluation, empirical study.

    User interface evaluation and empirically-based evolution of a prototype experience management tool

    No full text

    Search improvement within the geospatial web in the context of spatial data infrastructures

    Get PDF
    El trabajo desarrollado en esta tesis doctoral demuestra que es posible mejorar la búsqueda en el contexto de las Infraestructuras de Datos Espaciales mediante la aplicación de técnicas y buenas prácticas de otras comunidades científicas, especialmente de las comunidades de la Web y de la Web Semántica (por ejemplo, Linked Data). El uso de las descripciones semánticas y las aproximaciones basadas en el contenido publicado por la comunidad geoespacial pueden ayudar en la búsqueda de información sobre los fenómenos geográficos, y en la búsqueda de recursos geoespaciales en general. El trabajo comienza con un análisis de una aproximación para mejorar la búsqueda de las entidades geoespaciales desde la perspectiva de geocodificación tradicional. La arquitectura de geocodificación compuesta propuesta en este trabajo asegura una mejora de los resultados de geocodificación gracias a la utilización de diferentes proveedores de información geográfica. En este enfoque, el uso de patrones estructurales de diseño y ontologías en esta aproximación permite una arquitectura avanzada en términos de extensibilidad, flexibilidad y adaptabilidad. Además, una arquitectura basada en la selección de servicio de geocodificación permite el desarrollo de una metodología de la georreferenciación de diversos tipos de información geográfica (por ejemplo, direcciones o puntos de interés). A continuación, se presentan dos aplicaciones representativas que requieren una caracterización semántica adicional de los recursos geoespaciales. El enfoque propuesto en este trabajo utiliza contenidos basados en heurísticas para el muestreo de un conjunto de recursos geopesaciales. La primera parte se dedica a la idea de la abstracción de un fenómeno geográfico de su definición espacial. La investigación muestra que las buenas prácticas de la Web Semántica se puede reutilizar en el ámbito de una Infraestructura de Datos Espaciales para describir los servicios geoespaciales estandarizados por Open Geospatial Consortium por medio de geoidentificadores (es decir, por medio de las entidades de una ontología geográfica). La segunda parte de este capítulo desglosa la aquitectura y componentes de un servicio de geoprocesamiento para la identificación automática de ortoimágenes ofrecidas a través de un servicio estándar de publicación de mapas (es decir, los servicios que siguen la especificación OGC Web Map Service). Como resultado de este trabajo se ha propuesto un método para la identificación de los mapas ofrecidos por un Web Map Service que son ortoimágenes. A continuación, el trabajo se dedica al análisis de cuestiones relacionadas con la creación de los metadatos de recursos de la Web en el contexto del dominio geográfico. Este trabajo propone una arquitectura para la generación automática de conocimiento geográfico de los recursos Web. Ha sido necesario desarrollar un método para la estimación de la cobertura geográfica de las páginas Web. Las heurísticas propuestas están basadas en el contenido publicado por os proveedores de información geográfica. El prototipo desarrollado es capaz de generar metadatos. El modelo generado contiene el conjunto mínimo recomendado de elementos requeridos por un catálogo que sigue especificación OGC Catalogue Service for the Web, el estandar recomendado por deiferentes Infraestructuras de Datos Espaciales (por ejemplo, the Infrastructure for Spatial Information in the European Community (INSPIRE)). Además, este estudio determina algunas características de la Web Geoespacial actual. En primer lugar, ofrece algunas características del mercado de los proveedores de los recursos Web de la información geográfica. Este estudio revela algunas prácticas de la comunidad geoespacial en la producción de metadatos de las páginas Web, en particular, la falta de metadatos geográficos. Todo lo anterior es la base del estudio de la cuestión del apoyo a los usuarios no expertos en la búsqueda de recursos de la Web Geoespacial. El motor de búsqueda dedicado a la Web Geoespacial propuesto en este trabajo es capaz de usar como base un motor de búsqueda existente. Por otro lado, da soporte a la búsqueda exploratoria de los recursos geoespaciales descubiertos en la Web. El experimento sobre la precisión y la recuperación ha demostrado que el prototipo desarrollado en este trabajo es al menos tan bueno como el motor de búsqueda remoto. Un estudio dedicado a la utilidad del sistema indica que incluso los no expertos pueden realizar una tarea de búsqueda con resultados satisfactorios

    The Bird's Ear View: Audification for the Spectral Analysis of Heliospheric Time Series Data.

    Full text link
    The sciences are inundated with a tremendous volume of data, and the analysis of rapidly expanding data archives presents a persistent challenge. Previous research in the field of data sonification suggests that auditory display may serve a valuable function in the analysis of complex data sets. This dissertation uses the heliospheric sciences as a case study to empirically evaluate the use of audification (a specific form of sonification) for the spectral analysis of large time series. Three primary research questions guide this investigation, the first of which addresses the comparative capabilities of auditory and visual analysis methods in applied analysis tasks. A number of controlled within-subject studies revealed a strong correlation between auditory and visual observations, and demonstrated that auditory analysis provided a heightened sensitivity and accuracy in the detection of spectral features. The second research question addresses the capability of audification methods to reveal features that may be overlooked through visual analysis of spectrograms. A number of open-ended analysis tasks quantitatively demonstrated that participants using audification regularly discovered a greater percentage of embedded phenomena such as low-frequency wave storms. In addition, four case studies document collaborative research initiatives in which audification contributed to the acquisition of new domain-specific knowledge. The final question explores the potential benefits of audification when introduced into the workflow of a research scientist. A case study is presented in which a heliophysicist incorporated audification into their working practice, and the “Think-Aloud” protocol is applied to gain a sense for how audification augmented the researcher’s analytical abilities. Auditory observations are demonstrated to make significant contributions to ongoing research, including the detection of previously unidentified equipment-induced artifacts. This dissertation provides three primary contributions to the field: 1) an increased understanding of the comparative capabilities of auditory and visual analysis methods, 2) a methodological framework for conducting audification that may be transferred across scientific domains, and 3) a set of well-documented cases in which audification was applied to extract new knowledge from existing data archives. Collectively, this work presents a “bird’s ear view” afforded by audification methods—a macro understanding of time series data that preserves micro-level detail.PhDDesign ScienceUniversity of Michigan, Horace H. Rackham School of Graduate Studieshttp://deepblue.lib.umich.edu/bitstream/2027.42/111561/1/rlalexan_1.pd

    Conception et mise en place sur le web d'un système interactif d'aide à la décision utilisant des bases de connaissances

    Get PDF
    La facilité grandissante de la communication entre les intervenants d’une équipe de projet n’a pas résolu le problème de la capitalisation des connaissances malgré l’apparition de l’Internet. La construction d’une logique d’exécution adaptée aux projets lors de la phase de conception est souvent une étape répétitive. Nous chercherons à fournir une méthodologie de conception d’un outil d’aide à la décision basé sur des connaissances en ordonnancement dont le but est de générer des échéanciers. Ces connaissances seront capitalisées à une grande échelle grâce au Web. Notre premier objectif sera de stocker et gérer des connaissances portant sur la logique d’ordonnancement. Les planificateurs pourront contribuer à l’amélioration continue du système de décision en maintenant les connaissances sur une base publique. Nous mettrons ensuite en place un protocole d’évaluation et de consolidation des connaissances par des experts désignés au sein du système. Enfin nous présenterons l’outil d’aide à la décision basé sur les connaissances, pour la génération d’une logique d’ordonnancement. Nous développerons donc une méthodologie de conception d’un SIAD dans un environnement Web 2.0. Nous étudierons la conception de la base de connaissances, du système d’inférence, de l’outil d’ingénierie des connaissances et des comportements de l’interface. L’application de cette méthodologie aboutira sur la conception d’un prototype. Une validation sera effectuée à travers la construction d’une base de connaissances de 4000 activités permettant de s’assurer de la fonctionnalité du prototype. L’environnement Web permettra ensuite de le valider à grande échelle à travers des tests d’application effectués en simultané à travers le monde

    Proposta de metodologia para controle de qualidade em uma fábrica de software

    Get PDF
    Tese (doutorado) - Universidade Federal de Santa Catarina, Centro Tecnológico. Programa de Pós-graduação em Engenharia de ProduçãoA indústria de software vem, ao longo dos anos, evidenciando esforços, no sentido de acompanhar as mudanças no mercado devido à acirrada competitividade, decorrentes de uma demanda constante e crescente por produtos de alta qualidade. A permanência num mercado altamente dinâmico e exigente impulsiona as organizações na busca de tecnologias, técnicas e metodologias que possam apoiar suas atividades com o intuito de construir produtos de alta qualidade, dentro de orçamentos e cronogramas reais, com custos razoáveis sem, contudo, extrapolar os prazos de entrega nem comprometer a produtividade e a qualidade de seus produtos e processos. A preocupação com a qualidade tem levado as organizações a adotarem distintas abordagens que, se levadas a efeito de maneira sistemática podem contribuir grandemente para a solução dos problemas enfrentados pelas organizações de desenvolvimento de software. O objetivo principal deste trabalho é a proposição de uma abordagem que compreende a utilização combinada (integrada) de reuso sistemático, teste e inspeção de software, no contexto de fábrica de software, visando à melhoria da qualidade. A metodologia proposta é validada, aplicando o modelo UML Components utilizando-se como suporte computacional a ferramenta X-Packager, a qual descreve e empacota os assets gerados ao longo do processo de desenvolvimento. Pode-se destacar como contribuições deste trabalho, a sistematização da aplicação de atividades combinadas que levam à qualidade; um melhor entendimento dos conceitos e abordagens relacionados a tais atividades; um melhor entendimento dos modelos de qualidade de produto e de processo e das diversas abordagens de fábrica de software, que embora não sejam recentes, são extremamente atuais e têm merecido a atenção de profissionais, pesquisadores e empresas que atuam nesta área
    corecore