669 research outputs found

    Design, development and commercialization of new products supporting bank finance area

    Get PDF
    Tratta delle strategie attuate da Athena Consulting Srl, società di consulenza informatico-finanziaria che, dopo una ristrutturazione del suo modello di business e dopo aver sottoscritto un accordo di partnership con Mind Srl, è divenuta software house. In particolare vengono descritte le modalità di progettazione e di sviluppo dei prodotti nonché le azioni commerciali adottate dal management per penetrare il mercato dei prodotti software a supporto dell'"Area Finanza" per banche di primo e secondo livello. La tesi è disponibile sia in lingua inglese che italiana

    Applicazione di nuove soluzioni informatiche per la gestione multicentrica della qualitĂ  analitica in un laboratorio clinico

    Get PDF
    Il controllo di qualità (CQ) di un laboratorio clinico è l’insieme delle attività di misura e monitoraggio della qualità analitica, e rappresenta uno strumento essenziale per garantire il valore clinico del dato di laboratorio. L’approccio statistico del CQ permette di tenere sotto controllo fonti di possibile “errore”, come la variabilità biologica e analitica, garantendo così un’analisi di laboratorio precisa ed accurata ed un risultato finale attendibile. Il calcolo del bias, indice di un errore sistematico della prestazione analitica, e del coefficiente di variabilità (CV), indice di errori casuali, costituiscono due operazioni essenziali all’interno di un corretto programma di controllo di qualità al fine di garantire un basso livello di errore totale e raggiungere il traguardo analitico prefissato. La pianificazione e l’implementazione di un programma organizzato di CQ, basato sulla conoscenza delle performance dei sistemi analitici del laboratorio e sulle specifiche di qualità attuali, consentono di “contenere” la variabilità di processo entro i limiti di un errore massimo accettabile. Le gestione della qualità analitica di un laboratorio clinico è effettuata adottando diverse tipologie di programmi di CQ, come il controllo di qualità interno (CQI), la valutazione esterna di qualità (VEQ) e il controllo di qualità interno allargato (CQA). Quest’ultimo costituisce un importante strumento di confronto tra dati di controlli provenienti da laboratori diversi. La gestione multicentrica di un controllo di qualità interno “esteso” a laboratori affiliati, con il contributo di software esperti che permettono un aggiornamento in tempo reale sulla gestione dei propri dati e quelli degli altri laboratori, costituisce il tema centrale di questa tesi. Lo Unity Real Time ® 2.0, prodotto dalla ditta Bio-Rad e descritto in questo lavoro, è un esempio di software avanzato per la gestione del CQ che, oltre a fornire una serie di strumenti per la gestione real time del CQI, consente l’integrazione e l’invio dei dati di controllo a centri di calcolo che elaborano statistiche di confronto, grazie a sistemi di interfacciamento con i programmi per il controllo dei sistemi analitici del laboratorio. Queste nuove soluzioni informatiche costituiscono l’opportunità di creare “laboratori in rete” per la gestione della qualità analitica di più laboratori contemporaneamente e l’eventuale risoluzione di errori in tempo reale. Negli ultimi anni, la razionalizzazione delle aziende sanitarie della Regione Toscana ha imposto un riassetto dell’organizzazione dei laboratori clinici con conseguente accentramento delle analisi in laboratori multicentrici. Le soluzioni di connettività interlaboratorio costituiscono in questo senso il miglior strumento per una gestione omogenea del controllo della qualità analitica dei laboratori sul territorio

    Riqualificazione di un edificio storico a Pisa da destinare a museo per la conservazione di armi.

    Get PDF
    Il presente lavoro si prefigge il compito di definire le linee guida per la riqualificazione di un edificio storico in Pisa,”il Bastione del Parlascio”. L’edificio sarà destinato a Museo e a una zona per la sosta e per le informazioni. La proposta di tesi, nasce con la decisione di riqualificare un edificio storico oramai abbandonato e di poter collegare la struttura ai progetti PIUSS proposti dalla Regione Toscana. La tesi è suddivisa in 4 parti: Prima parte-Introduzione Storica, Seconda parte-Progetto di Riqualificazione, Terza parte-Calcolo strutturale del collegamento verticale, Quarta parte- Impianti Termotecnici. L’idea di partenza è quella di riuscire a creare un luogo di interesse per i turisti in una zona che è sempre stata al di fuori dai percorsi turistici.La prima parte è uno studio storico di Pisa e della sua cinta muraria. Nella Seconda parte si definisce il progetto architettonico di riqualificazione del Bastione partendo dal rilievo geometrico, da un’analisi dello stato di fatto e soprattutto dallo studio della funzionalità della struttura. La terza parte sviluppa il calcolo strutturale del collegamento verticale tra il piano terra e il percorso sulle mura. Tale calcolo segue le “Nuove Norme Tecniche per le Costruzioni 2008” ed è stato sopportato dall’utilizzo del software SAP.Nella parte quarta si affronta il calcolo di Impianti Termotecnici. Inizialmente si affrontano le problematiche sulla conservazione delle opere all’interno del museo, ed le cause di deterioramento. Visionata la normativa di riferimento vengono scelti i tipi di impianti da inserire e vengono calcolati i carichi termici delle varie Zone Ambiente con l’ausilio del software TERMUS. Con i valori ricavati dal software sono state dimensionate le varie centrali di trattamento dell’aria e le reti di distribuzione. Gli impianti sono suddivisi in 2 zone. La prima zona corrisponde all’ambiente Bar/Ingresso mentre la seconda zona corrisponde all’ambiente Museale

    Sviluppo di simulatori statistici e a scatteratori puntiformi per tomografia e interferometria differenziale SAR

    Get PDF
    Si sono sviluppati alcuni simulatori, sia statistici che a scatteratori puntiformi, per la tomografia e l'interferometria differenziale SAR

    A Simple Generative Model of Collective Online Behaviour

    Full text link
    Human activities increasingly take place in online environments, providing novel opportunities for relating individual behaviours to population-level outcomes. In this paper, we introduce a simple generative model for the collective behaviour of millions of social networking site users who are deciding between different software applications. Our model incorporates two distinct components: one is associated with recent decisions of users, and the other reflects the cumulative popularity of each application. Importantly, although various combinations of the two mechanisms yield long-time behaviour that is consistent with data, the only models that reproduce the observed temporal dynamics are those that strongly emphasize the recent popularity of applications over their cumulative popularity. This demonstrates---even when using purely observational data without experimental design---that temporal data-driven modelling can effectively distinguish between competing microscopic mechanisms, allowing us to uncover new aspects of collective online behaviour.Comment: Updated, with new figures and Supplementary Informatio
    • …
    corecore