13 research outputs found

    Data Painter: A Tool for Colormap Interaction

    Get PDF
    The choice of a mapping from data to color should involve careful consideration in order to maximize the user understanding of the underlying data. It is desirable for features within the data to be visually separable and identifiable. Current practice involves selecting a mapping from predefined colormaps or coding specific colormaps using software such as MATLAB. The purposes of this paper are to introduce interactive operations for colormaps that enable users to create more visually distinguishable pixel based visualizations, and to describe our tool, Data Painter, that provides a fast, easy to use framework for defining these color mappings. We demonstrate the use of the tool to create colormaps for various application areas and compare to existing color mapping methods. We present a new objective measure to evaluate their efficacy

    Supporting the Integrated Visual Analysis of Input Parameters and Simulation Trajectories

    Get PDF
    The visualization of simulation trajectories is a well-established approach to analyze simulated processes. Likewise, the visualization of the parameter space that configures a simulation is a well-known method to get an overview of possible parameter combinations. This paper follows the premise that both of these approaches are actually two sides of the same coin: Since the input parameters influence the simulation outcome, it is desirable to visualize and explore both in a combined manner. The main challenge posed by such an integrated visualization is the combinatorial explosion of possible parameter combinations. It leads to insurmountably high simulation runtimes and screen space requirements for their visualization. The Visual Analytics approach presented in this paper targets this issue by providing a visualization of a coarsely sampled subspace of the parameter space and its corresponding simulation outcome. In this visual representation, the analyst can identify regions for further drill-down and thus finer subsampling. We aid this identification by providing visual cues based on heterogeneity metrics. These indicate in which regions of the parameter space deviating behavior occurs at a more fine-grained scale and thus warrants further investigation and possible re-computation. We demonstrate our approach in the domain of systems biology by a visual analysis of a rule-based model of the canonical Wnt signaling pathway that plays a major role in embryonic development. In this case, the aim of the domain experts was to systematically explore the parameter space to determine those parameter configurations that match experimental data sufficiently well

    Concurrent time-series selections using deep learning and dimension reduction

    Get PDF
    The objective of this work was to investigate from a user perspective linkage between a 1D time-series view of data and a 2D representation provided by dimension reduction techniques. Our hypothesis is that when such interaction happens seamlessly, the use of these linked views, compared to only interacting with the 1D time-series view, for the ubiquitous task of selection and labelling, is more efficient and effective both in terms of performance and user experience. To this end we examine different dimension reduction techniques (UMAP, t-SNE, PCA and Autoencoder) and evaluate each technique within our experimental setting. Results demonstrate that there is a positive impact on speed and accuracy through augmenting 1D views with a dimension reduction 2D view when these views are linked and linkage is supported through coordinated interaction

    Measuring South African social development: a case study of praxis in the Eastern Cape.

    Get PDF
    Masters Degree. University of KwaZulu-Natal, Durban.In South Africa, present levels of poverty and inequality are intolerably high, and there is both an incontestable imperative to enact, and an expressed commitment by the state to facilitate, social development. There is, however, little evident evaluation of how effective this undertaking has been. The aim of this research is to quantify and assess the social development praxis - ideology, process, and practice combined - of the mandated government Department of Social Development. The enquiry investigates the case of the Eastern Cape province, exploiting the public availability of the Eastern Cape Department of Social Development’s Annual Reports. The research first determines the scope of the Eatern Cape Department of Social Development activity by the measure of financial resource allocation across the categorical channels of Department of Social Development activity for the financial years 2007/2008 to 2017/2018. This enables in the second instance, establishing the changes in targeted social development outcomes by measuring the change in provincial inverse, multidimensional poverty over the study period. This was achieved using the data generated by all five waves of the National Income Dynamics Survey, and by computing a novel Multidimensional Poverty Index for the Eastern Cape using the Alkire-Foster metho. Utilizing a fractional response probit model to determine an empirical association between the explanatory variable of changes in Eastern Cape Department of Social Development financial resource allocation, and the changes in the outcome variable of targeted social development outcomes represented by the regional Multidimensional Poverty Index, the study estimated an empirical - but negligible - association between Eastern Cape Department of Social Development spending and the regional Multidimensional Poverty Index. This infers a limited impacty of Eastern Cape Department of Social Development praxis on multidimensional poverty. The research concludes that there is an evident insufficiency in the scope of the mechanism of state-led social development interventions as practiced in the Eastern Cape province and that redress of long-term deprivations and inequity of access to vital social goods, such as quality education, employment stability, and appropriate healthcare, has been inadequate. While this case evidence is not necessarily generalisable to the country, it is recommended that further investigation iteratively evaluates the outcomes of social development praxis in the other provinces

    Анализа, моделирање и предвидување на ризици во банкарски сектор со примена на економетриски методи и временски серии

    Get PDF
    Банкарскиот сектор се соочува со различни ризици кои можат да влијаат нa финансиската стабилност и перформансите на банките. Овие ризици произлегуваат и од внатрешни и од надворешни извори и бараат ефективни практики за управување со ризици за да се обезбе ди стабилна состојба на банкарскиот систем. Во овој магистерски труд е направена анализа на различните видови ризици кои се појавуваат во банкарскиот сектор и со користење на економетриски методи и анализа на временски серии направено е моделирање со цел предвидување на ризикот. Овие методи се применети на реални податоци од банкарскиот сектор во Република С. Македонија. Во воведниот дел на магистерскиот труд се опишани различните видови ризици во банкарскиот сектор. Претставени се основните случаи на ризични настани кои претставуваат значајна точка за процена на ризик во банкарското работење. Во втората глава на магистерскиот труд се опишани математичките модели кои се користат за анализа на ризиците. Опишани се модели кои користат статистичка анализа, анализа на временски серии со Box Jenkins методологијата и SARIMA моделот и други економетриски модели. Во третата глава е направена анализа на реални податоци од банкарскиот сектор во Република С. Македонија со користење на економетриски модели. Во четвртата глава е направена анализа на реални податоци од банкарскиот сектор во Република С. Македонија преку анализа на временски серии, со цел прогноза на ризиците. Во петтата глава е опишано управувањето со ризици

    Visualisation de l'information appliquée à l'analyse et à l'attribution de performances financières

    Get PDF
    Croesus Finansoft développe depuis 28 ans un logiciel intégré de gestion de portefeuille pour les firmes de courtages et les conseillers indépendants. Leur application est présentement utilisée par la plupart des grandes firmes au pays, incluant les financières CIBC, Banque Nationale, Valeurs Mobilières Desjardins et TD. L’application développée par l’entreprise doit donc gérer des tables de données contenant souvent plus d’un milliard de transactions. Pour l’entreprise, le défi est de taille. L’application doit offrir une vue cohérente des portefeuilles des investisseurs, en plus de guider les gestionnaires quant aux nouvelles possibilités d’investissement, au suivi des objectifs de placement, des calculs de rendement, de performance, etc. Malgré les différentes avancées technologiques, certaines de ces tâches sont encore très difficiles à effectuer, principalement à cause de la quantité de données impliquées. L’analyse des performances des portefeuilles d’investissements est particulièrement problématique dans ces circonstances. L’analyse de performances ne se limite pas simplement à comparer des rendements obtenus à différents moments dans le temps. Il s’agit d’un processus complexe qui demande la corrélation d’une multitude d’informations afin d’obtenir une vue complète de la situation. Les performances des investissements sont toujours évaluées par rapport à une référence, par exemple un indice de marché. L’attribution de performances tente d’expliquer d’où proviennent les écarts de rendement par rapport à cette référence. Est-ce explicable par le fait que les investisseurs ont choisi des titres ayant offert des rendements supérieurs à ceux de l’indice ? Ou encore parce qu’ils ont investi davantage dans les obligations à long terme, limitant ainsi leur exposition au risque ? L’outil développé par Croesus permet facilement de mesurer les performances d’un seul portefeuille ou d’un petit groupe de portefeuilles. Effectuer cette analyse pour tous les clients d’une succursale simultanément devient beaucoup plus complexe. Croesus ne supporte pas non plus l’attribution de performances. Pour les gestionnaires de l’entreprise, offrir ces fonctionnalités s’avère un enjeu de taille, surtout à cause de la quantité de données impliquées. Comment présenter ces informations à l’expert sans créer une surcharge d’information ? Comment permettre d’identifier facilement les problèmes dans les données, les tendances générales, les écarts par rapport aux références, de façon à ce que des actions concrètes puissent être mises en place afin de corriger la situation ? La visualisation permet de tirer profit de la capacité humaine à interpréter des images beaucoup plus rapidement et efficacement que des données numériques ou textuelles. Elle vise à augmenter les capacités de traitement de l’humain, de façon à ce qu’il soit conservé dans le processus d’analyse, contrairement aux processus de décisions automatisés. Bien que la visualisation soit un domaine actif de recherche depuis de nombreuses années, très peu de solutions adaptées à la réalité de la finance, et encore moins à l’analyse des performances, ont été présentées jusqu’à présent. Cette thèse explore différentes techniques de visualisation permettant de simplifier le processus d’analyse de performances financières dans le contexte de gestion de portefeuilles de l’application développée par Croesus. Elle présente les résultats de trois projets distincts réalisés au cours des dernières années, tous liés à l’analyse des performances financières. Le premier projet présente une technique d’interaction novatrice permettant de simplifier l’analyse des performances sur un graphique linéaire simple (line graph). Que ce soit pour comparer les rendements de plusieurs centaines de portefeuilles simultanément ou pour plusieurs centaines de titres d’un secteur d’activité, les graphiques linéaires sont rapidement surchargés d’information, rendant l’analyse plutôt complexe. L’outil proposé, VectorLens, permet d’explorer les données en offrant des techniques de sélection avancées. La principale contribution concerne la sélection angulaire. Dans la mesure où le graphique présente des rendements, la pente des droites encode l’essentiel de l’information. VectorLens tire profit de cette caractéristique et permet, en un seul mouvement, de sélectionner rapidement et efficacement les éléments en fonction de leur pente, moyennant une marge établie de façon dynamique. L’outil intègre également d’autres outils de sélection, incluant la sélection par zone (pinceau), la sélection par catégories, etc. Il est également possible de combiner plusieurs lentilles VectorLens pour effectuer des requêtes plus complexes. La technique a été comparée aux principales techniques de sélection de courbes dans le cadre d’une expérience contrôlée en laboratoire. Les résultats ont démontré que VectorLens offrait des performances supérieures ou égales dans la plupart des cas, en plus d’être préférée par la plupart des utilisateurs. Le deuxième projet propose une nouvelle technique de visualisation permettant de séparer efficacement les couches d’informations sur un graphique linéaire simple. Cette technique s’avère intéressante pour comparer les rendements de titres de différents secteurs, ou même les rendements de portefeuilles de différents clients, gestionnaires ou même succursales, par exemple. Plutôt que d’utiliser uniquement la couleur pour séparer les différents groupes d’éléments, cette technique consiste à exploiter l’espace inutilisé entre deux valeurs sur l’abscisse en compressant les courbes des différentes couches, de façon à éviter l’occlusion causée par le chevauchement des courbes. Plusieurs variantes tirant profit de ce concept ont été proposées et comparées à l’état de l’art dans le cadre d’une évaluation en laboratoire. Les résultats ont démontré que les techniques de compression, et plus particulièrement la technique superposée, permettaient d’effectuer les tâches de façon plus précise et avec un taux de succès globalement supérieur par rapport à l’état de l’art. Enfin, le troisième projet tente d’adresser le problème d’attribution de performances à grande échelle. Deux nouvelles techniques de visualisation, basées sur un graphique ternaire (ternary plot), ont été proposées afin de représenter sur un seul graphique la relation entre le rendement différentiel avec la référence et les effets expliquant cette différence. Un système complet, sous la forme d’un tableau de bord intégrant les visualisations proposées, a été développé et évalué avec quatre experts du domaine dans un contexte réel d’analyse. Les résultats ont démontré que les outils proposés permettent d’analyser un grand ensemble de portefeuilles, à différents niveaux, de façon simple et efficace. Les outils proposés révèlent clairement les écarts de performance, permettent d’identifier facilement la source du problème, et même la stratégie globale utilisée par les gestionnaires de comptes auprès de leurs clients et les comptes qui dévient de ces stratégies

    Similarity-aware query refinement for data exploration

    Get PDF

    A dynamic visual analytics framework for complex temporal environments

    Get PDF
    Introduction: Data streams are produced by sensors that sample an external system at a periodic interval. As the cost of developing sensors continues to fall, an increasing number of data stream acquisition systems have been deployed to take advantage of the volume and velocity of data streams. An overabundance of information in complex environments have been attributed to information overload, a state of exposure to overwhelming and excessive information. The use of visual analytics provides leverage over potential information overload challenges. Apart from automated online analysis, interactive visual tools provide significant leverage for human-driven trend analysis and pattern recognition. To facilitate analysis and knowledge discovery in the space of multidimensional big data, research is warranted for an online visual analytic framework that supports human-driven exploration and consumption of complex data streams. Method: A novel framework was developed called the temporal Tri-event parameter based Dynamic Visual Analytics (TDVA). The TDVA framework was instantiated in two case studies, namely, a case study involving a hypothesis generation scenario, and a second case study involving a cohort-based hypothesis testing scenario. Two evaluations were conducted for each case study involving expert participants. This framework is demonstrated in a neonatal intensive care unit case study. The hypothesis generation phase of the pipeline is conducted through a multidimensional and in-depth one subject study using PhysioEx, a novel visual analytic tool for physiologic data stream analysis. The cohort-based hypothesis testing component of the analytic pipeline is validated through CoRAD, a visual analytic tool for performing case-controlled studies. Results: The results of both evaluations show improved task performance, and subjective satisfaction with the use of PhysioEx and CoRAD. Results from the evaluation of PhysioEx reveals insight about current limitations for supporting single subject studies in complex environments, and areas for future research in that space. Results from CoRAD also support the need for additional research to explore complex multi-dimensional patterns across multiple observations. From an information systems approach, the efficacy and feasibility of the TDVA framework is demonstrated by the instantiation and evaluation of PhysioEx and CoRAD. Conclusion: This research, introduces the TDVA framework and provides results to validate the deployment of online dynamic visual analytics in complex environments. The TDVA framework was instantiated in two case studies derived from an environment where dynamic and complex data streams were available. The first instantiation enabled the end-user to rapidly extract information from complex data streams to conduct in-depth analysis. The second allowed the end-user to test emerging patterns across multiple observations. To both ends, this thesis provides knowledge that can be used to improve the visual analytic pipeline in dynamic and complex environments

    Comparaison et combinaison de rendus visuels et sonores pour la conception d'interfaces homme-machine (des facteurs humains aux stratégies de présentation à base de distorsion.)

    Get PDF
    Bien que de plus en plus de données sonores et audiovisuelles soient disponibles, la majorité des interfaces qui permettent d y accéder reposent uniquement sur une présentation visuelle. De nombreuses techniques de visualisation ont déjà été proposées utilisant une présentation simultanée de plusieurs documents et des distorsions permettant de mettre en relief l information plus pertinente. Nous proposons de définir des équivalents auditifs pour la présentation de plusieurs fichiers sonores en concurrence, et de combiner de façon optimale les stratégies audio et visuelles pour la présentation de documents multimédia. Afin d adapter au mieux ces stratégies à l utilisateur, nous avons dirigé nos recherches sur l étude des processus perceptifs et attentionnels impliqués dans l écoute et l observation d objets audiovisuels concurrents, en insistant sur les interactions entre les deux modalités.Exploitant les paramètres de taille visuelle et de volume sonore, nous avons étendu le concept de lentille grossissante, utilisée dans les méthodes focus+contexte visuelles, aux modalités auditive et audiovisuelle. A partir de ce concept, une application de navigation dans une collection de documents vidéo a été développée. Nous avons comparé notre outil à un autre mode de rendu dit de Pan&Zoom à travers une étude d utilisabilité. Les résultats, en particulier subjectifs, encouragent à poursuivre vers des stratégies de présentation multimodales associant un rendu audio aux rendus visuels déjà disponibles.Une seconde étude a concerné l identification de sons d environnement en milieu bruité en présence d un contexte visuel. Le bruit simule la présence de plusieurs sources sonores simultanées telles qu on pourrait les retrouver dans une interface où les documents audio et audiovisuels sont présentés ensemble. Les résultats de cette expérience ont confirmé l avantage de la multimodalité en condition de dégradation. De plus, au-delà des buts premiers de la thèse, l étude a confirmé l importance de la congruence sémantique entre les composantes visuelle et sonore pour la reconnaissance d objets et a permis d approfondir les connaissances sur la perception auditive des sons d environnement.Finalement, nous nous sommes intéressée aux processus attentionnels impliqués dans la recherche d un objet parmi plusieurs, en particulier au phénomène de pop-out par lequel un objet saillant attire l attention automatiquement. En visuel, un objet net attire l attention au milieu d objets flous et certaines stratégies de présentation visuelle exploitent déjà ce paramètre visuel. Nous avons alors étendu la notion de flou aux modalités auditives et audiovisuelles par analogie. Une série d expériences perceptives a confirmé qu un objet net parmi des objets flous attire l attention, quelle que soit la modalité. Les processus de recherche et d identification sont alors accélérés quand l indice de netteté correspond à la cible, mais ralentis quand il s agit d un distracteur, mettant ainsi en avant un phénomène de guidage involontaire. Concernant l interaction intermodale, la combinaison redondante des flous audio et visuel s est révélée encore plus efficace qu une présentation unimodale. Les résultats indiquent aussi qu une combinaison optimale n implique pas d appliquer obligatoirement une distorsion sur les deux modalités.Although more and more sound and audiovisual data are available, the majority of access interfaces are solely based on a visual presentation. Many visualization techniques have been proposed that use simultaneous presentation of multiple documents and distortions to highlight the most relevant information. We propose to define equivalent audio technique for the presentation of several competing sound files, and optimally combine such audio and visual presentation strategies for multimedia documents. To better adapt these strategies to the user, we studied attentional and perceptual processes involved in listening and watching simultaneous audio-visual objects, focusing on the interactions between the two modalities.Combining visual size and sound level parameters, we extended the visual concept of magnifying lens to auditory and audiovisual modalities. Exploiting this concept, a navigation application in a video collection has been developed. We compared our tool with another rendering mode called Pan & Zoom through a usability study. Results, especially subjective results, encourage further research to develop multimodal presentation strategies by combining an audio rendering to the visual renderings already available.A second study concerned the identification of environmental sounds in a noisy environment in the presence of a visual context. The noise simulated the presence of multiple competing sounds as would be observed in an interface where several multimedia documents are presented together. The experimental results confirmed the multimodality advantage in condition of audio degradation. Moreover, beyond the primary goals of the thesis, this study confirms the importance of the semantic congruency between visual and auditory components for object recognition and provides deeper knowledge about the auditory perception of environmental sounds.Finally, we investigated attentional processes involved in the search of a specific object among many, especially the pop-out phenomenon whereby a salient object automatically attracts attention. In vision, an sharp object attracts attention among blurred objects and some visual strategies already exploit this parameter to display the information. We extended by analogy the concept of visual blur to auditory and audiovisual modalities. A serie of experiments confirmed that a perceptual object among blurred objects attracts attention, regardless of the modality. The identification and search process is then accelerated when the sharpness parameter is applied to the target, but slow when it is applied to a distractor. These results highlight an involuntary attraction effect. Concerning the crossmodal interaction, a redundant combination of audio and visual blur proved to be more effective than a unimodal presentation. Results also indicate that optimal combination does not necessarily require a distortion of both modalities.PARIS11-SCD-Bib. électronique (914719901) / SudocSudocFranceF
    corecore