17 research outputs found

    Predictable mapping of streaming applications on multiprocessors

    Get PDF
    Het ontwerp van nieuwe consumentenelektronica wordt voortdurend complexer omdat er steeds meer functionaliteit in deze apparaten ge¨integreerd wordt. Een voorspelbaar ontwerptraject is nodig om deze complexiteit te beheersen. Het resultaat van dit ontwerptraject zou een systeem moeten zijn, waarin iedere applicatie zijn eigen taken binnen een strikte tijdslimiet kan uitvoeren, onafhankelijk van andere applicaties die hetzelfde systeem gebruiken. Dit vereist dat het tijdsgedrag van de hardware, de software, evenals hun interactie kan worden voorspeld. Er wordt vaak voorgesteld om een heterogeen multi-processor systeem (MPSoC) te gebruiken in moderne elektronische systemen. Een MP-SoC heeft voor veel applicaties een goede verhouding tussen rekenkracht en energiegebruik. Onchip netwerken (NoCs) worden voorgesteld als interconnect in deze systemen. Een NoC is schaalbaar en het biedt garanties wat betreft de hoeveelheid tijd die er nodig is om gegevens te communiceren tussen verschillende processoren en geheugens. Door het NoC te combineren met een voorspelbare strategie om de processoren en geheugens te delen, ontstaat een hardware platform met een voorspelbaar tijdsgedrag. Om een voorspelbaar systeem te verkrijgen moet ook het tijdsgedrag van een applicatie die wordt uitgevoerd op het platform voorspelbaar en analyseerbaar zijn. Het Synchronous Dataflow (SDF) model is erg geschikt voor het modelleren van applicaties die werken met gegevensstromen. Het model kan vele ontwerpbeslissingen modelleren en het is mogelijk om tijdens het ontwerptraject het tijdsgedrag van het systeem te analyseren. Dit proefschrift probeert om applicaties die gemodelleerd zijn met SDF grafen op een zodanige manier af te beelden op een NoC-gebaseerd MP-SoC, dat garanties op het tijdsgedrag van individuele applicaties gegeven kunnen worden. De doorstroomsnelheid van een applicatie is vaak een van de belangrijkste eisen bij het ontwerpen van systemen voor applicaties die werken met gegevensstromen. Deze doorstroomsnelheid wordt in hoge mate be¨invloed door de beschikbare ruimte om resultaten (gegevens) op te slaan. De opslagruimte in een SDF graaf wordt gemodelleerd door de pijlen in de graaf. Het probleem is dat er een vaste grootte voor de opslagruimte aan de pijlen van een SDF graaf moet worden toegewezen. Deze grootte moet zodanig worden gekozen dat de vereiste doorstroomsnelheid van het systeem gehaald wordt, terwijl de benodigde opslagruimte geminimaliseerd wordt. De eerste belangrijkste bijdrage van dit proefschrift is een techniek om de minimale opslagruimte voor iedere mogelijke doorstroomsnelheid van een applicatie te vinden. Ondanks de theoretische complexiteit van dit probleem presteert de techniek in praktijk goed. Doordat de techniek alle mogelijke minimale combinaties van opslagruimte en doorstroomsnelheid vindt, is het mogelijk om met situaties om te gaan waarin nog niet alle ontwerpbeslissingen zijn genomen. De ontwerpbeslissingen om twee taken van een applicatie op ´e´en processor uit te voeren, zou bijvoorbeeld de doorstroomsnelheid kunnen be¨invloeden. Hierdoor is er een onzekerheid in het begin van het ontwerptraject tussen de berekende doorstroomsnelheid en de doorstroomsnelheid die daadwerkelijk gerealiseerd kan worden als alle ontwerpbeslissingen zijn genomen. Tijdens het ontwerptraject moeten de taken waaruit een applicatie is opgebouwd toegewezen worden aan de verschillende processoren en geheugens in het systeem. Indien meerdere taken een processor delen, moet ook de volgorde bepaald worden waarin deze taken worden uitgevoerd. Een belangrijke bijdrage van dit proefschrift is een techniek die deze toewijzing uitvoert en die de volgorde bepaalt waarin taken worden uitgevoerd. Bestaande technieken kunnen alleen omgaan met taken die een ´e´en-op-´e´en relatie met elkaar hebben, dat wil zeggen, taken die een gelijk aantal keren uitgevoerd worden. In een SDF graaf kunnen ook complexere relaties worden uitgedrukt. Deze relaties kunnen omgeschreven worden naar een ´e´en-op-´e´en relatie, maar dat kan leiden tot een exponenti¨ele groei van het aantal taken in de graaf. Hierdoor kan het onmogelijk worden om in een beperkte tijd alle taken aan de processoren toe te wijzen en om de volgorde te bepalen waarin deze taken worden uitgevoerd. De techniek die in dit proefschrift wordt gepresenteerd, kan omgaan met de complexe relaties tussen taken in een SDF graaf zonder de vertaling naar de ´e´en-op-´e´en relaties te maken. Dit is mogelijk dankzij een nieuwe, effici¨ente techniek om de doorstroomsnelheid van SDF grafen te bepalen. Nadat de taken van een applicatie toegewezen zijn aan de processoren in het hardware platform moet de communicatie tussen deze taken op het NoC gepland worden. In deze planning moet voor ieder bericht dat tussen de taken wordt verstuurd, worden bepaald welke route er gebruikt wordt en wanneer de communicatie gestart wordt. Dit proefschrift introduceert drie strategie¨en voor het versturen van berichten met een strikte tijdslimiet. Alle drie de strategie¨en maken maximaal gebruik van de beschikbare vrijheid die moderne NoCs bieden. Experimenten tonen aan dat deze strategie¨en hierdoor effici¨enter omgaan met de beschikbare hardware dan bestaande strategie¨en. Naast deze strategie¨en wordt er een techniek gepresenteerd om uit de ontwerpbeslissingen die gemaakt zijn tijdens het toewijzen van taken aan de processoren alle tijdslimieten af te leiden waarbinnen de berichten over het NoC gecommuniceerd moeten worden. Deze techniek koppelt de eerder genoemde techniek voor het toewijzen van taken aan processoren aan de drie strategie¨en om berichten te versturen over het NoC. Tenslotte worden de verschillende technieken die in dit proefschrift worden ge¨introduceerd gecombineerd tot een compleet ontwerptraject. Het startpunt is een SDF graaf die een applicatie modelleert en een NoC-gebaseerd MP-SoC platform met een voorspelbaar tijdsgedrag. Het doel van het ontwerptraject is het op een zodanige manier afbeelden van de applicatie op het platform dat de doorstroomsnelheid van de applicatie gegarandeerd kan worden. Daarnaast probeert het ontwerptraject de hoeveelheid hardware die gebruikt wordt te minimaliseren. Er wordt een experiment gepresenteerd waarin drie verschillende multimedia applicaties (H.263 encoder/decoder en een MP3 decoder) op een NoCgebaseerd MP-SoC worden afgebeeld. Dit experiment toont aan dat de technieken die in dit proefschrift worden voorgesteld, gebruikt kunnen worden voor het ontwerpen van systemen met een voorspelbaar tijdsgedrag. Hiermee is het voorgestelde ontwerptraject het eerste traject dat een met een SDF-gemodelleerde applicatie op een NoC-gebaseerd MP-SoC kan afbeelden, terwijl er garanties worden gegeven over de doorstroomsnelheid van de applicatie

    The Effectiveness of Visualization Techniques for Supporting Decision-Making

    Get PDF
    Although visualization is beneficial for evaluating and communicating data, the efficiency of various visualization approaches for different data types is not always evident. This research aims to address this issue by investigating the usefulness of several visualization techniques for various data kinds, including continuous, categorical, and time-series data. The qualitative appraisal of each technique\u27s strengths, weaknesses, and interpretation of the dataset is investigated. The research questions include: which visualization approaches perform best for different data types, and what factors impact their usefulness? The absence of clear directions for both researchers and practitioners on how to identify the most effective visualization approach for a specific data type poses a significant research challenge. Our findings will help both professionals and researchers determine the most successful visualization approach for different data types, as well as identify topics for future study in the field of data visualization

    New visualization model for large scale biosignals analysis

    Get PDF
    Benefits of long-term monitoring have drawn considerable attention in healthcare. Since the acquired data provides an important source of information to clinicians and researchers, the choice for long-term monitoring studies has become frequent. However, long-term monitoring can result in massive datasets, which makes the analysis of the acquired biosignals a challenge. In this case, visualization, which is a key point in signal analysis, presents several limitations and the annotations handling in which some machine learning algorithms depend on, turn out to be a complex task. In order to overcome these problems a novel web-based application for biosignals visualization and annotation in a fast and user friendly way was developed. This was possible through the study and implementation of a visualization model. The main process of this model, the visualization process, comprised the constitution of the domain problem, the abstraction design, the development of a multilevel visualization and the study and choice of the visualization techniques that better communicate the information carried by the data. In a second process, the visual encoding variables were the study target. Finally, the improved interaction exploration techniques were implemented where the annotation handling stands out. Three case studies are presented and discussed and a usability study supports the reliability of the implemented work

    Problemas de la sincronización de relojes en clusters

    Get PDF
    Se presenta un trabajo orientado a resolver algunos aspectos del problema de sincronización de relojes en ambientes distribuidos. El objetivo inicial está dirigido a la estimación de rendimiento en estos ambientes, donde es necesario algún tipo de sincronización de relojes de las computadoras que se utilizan. El algoritmo básico que se utiliza es una modificación del algoritmo de Cristian, considerando necesario adaptarlo al entorno de un cluster o, al menos, de una red de interconexión sobre la que se tiene información y acceso relativamente exclusivo o previsible para todas las comunicaciones entre las computadoras que se sincronizan. Una de las ideas subyacentes es la de aislar la sincronización de la ejecución de la aplicación cuyo rendimiento se quiere evaluar. La finalidad de este requerimiento es evitar una intervención de la instrumentación sobre los valores a medir, o al menos saber qué error tendrán los mismos. El ambiente en el cual se realizan los experimentos es inicialmente el de los entornos de cómputo paralelo en clusters. Se ensayan diferentes métodos para la sincronización en valor inicial y frecuencia de los relojes.VIII Workshop de Procesamiento Distribuido y ParaleloRed de Universidades con Carreras en Informática (RedUNCI

    Problemas de la sincronización de relojes en clusters

    Get PDF
    Se presenta un trabajo orientado a resolver algunos aspectos del problema de sincronización de relojes en ambientes distribuidos. El objetivo inicial está dirigido a la estimación de rendimiento en estos ambientes, donde es necesario algún tipo de sincronización de relojes de las computadoras que se utilizan. El algoritmo básico que se utiliza es una modificación del algoritmo de Cristian, considerando necesario adaptarlo al entorno de un cluster o, al menos, de una red de interconexión sobre la que se tiene información y acceso relativamente exclusivo o previsible para todas las comunicaciones entre las computadoras que se sincronizan. Una de las ideas subyacentes es la de aislar la sincronización de la ejecución de la aplicación cuyo rendimiento se quiere evaluar. La finalidad de este requerimiento es evitar una intervención de la instrumentación sobre los valores a medir, o al menos saber qué error tendrán los mismos. El ambiente en el cual se realizan los experimentos es inicialmente el de los entornos de cómputo paralelo en clusters. Se ensayan diferentes métodos para la sincronización en valor inicial y frecuencia de los relojes.VIII Workshop de Procesamiento Distribuido y Paralel

    État des lieux des représentations dynamiques des temporalités des territoires

    Get PDF
    Le temps et ses caractéristiques ont toujours fait l’objet de grandes attentions pour comprendre les dynamiques des territoires. Aujourd’hui, que ce soit à cause des nouvelles capacités d’observation en temps réel, de l’accumulation des séries de données au cours du temps, ou à cause de la multiplication des rythmes, les temporalités à prendre en compte pour comprendre les dynamiques territoriales se multiplient et leurs imbrications se complexifient. Interroger les rythmes, les vitesses, les cycles de ces dynamiques, ou mettre en relation temporelle des phénomènes spatiaux tels que les évènements catastrophiques passés devient plus que jamais un enjeu pour comprendre et décider.Les jeux de méthodes mobilisables aujourd’hui pour représenter les temporalités des territoires sont en plein renouvellement, et imposent désormais bien souvent de franchir les fractures disciplinaires traditionnelles entre échelles, entre outils, entre formalismes. Les domaines d’applications potentiellement concernés, comme celui du développement durable des territoires, sont autant de domaines susceptibles de nourrir les questions associées à l’exploration des temporalités des territoires. Le projet "Représentation dynamique des temporalités des territoires" se veut un état des lieux de différents développements et solutions pour analyser et rendre compte des temporalités des territoires. Cet état des lieux est à entrées multiples, interrogeant à la fois des choix amont (modélisation) et des choix proprement liés à la question de la représentation. Le projet débouche sur un ensemble de résultats dont certains sont mis en ligne sur le site: http://www.map.cnrs.fr/jyb/puca/- Une grille de lecture de la collection d'applications analysée (voir onglet "47 applications"), grille où sont combinés des indicateurs généraux sur par exmeple le type de service rendu ou le type de dynamique spatiale analysée, et des indicateurs plus spécifiques au traitement des dimensions spatiales et temporelles. Cette grille est mise en place sur 47 applications identifiées et analysées,- Des visualisations récapitulatives conçues comme outils d'analyse comparative de la collection,- Une bibliographie structurée en relation avec la grille de lecture
    corecore