67 research outputs found

    Progetto di un sistema per la conservazione a lungo termine e a norma di legge di documenti elettronici

    Get PDF
    NOT AVAILABLENell\u27articolo viene presentato il lavoro svolto dall\u27Istituto di Fisiologia Clinica del CNR per la progetta- zione di un sistema di gestione elettronica dei dati prodotti durante l\u27attivit? clinica. Per garantire una conservazione di lungo periodo e il rispetto dei termini di validit? legale, ? stato necessario utilizzare strumenti e metodi di prevenzione nei confronti dell\u27invecchiamento dei supporti, dell\u27obsolescenza dei formati software e della scadenza delle firme digitali. Il sistema ? stato progettato rispettando la normativa CNIPA e in con- formit? con lo standard ISO OAIS. Il risultato finale ? stato la realizzazione di un sistema molto semplice dal punto di vista architetturale, modulare e flessibile in vista di un\u27esportazione verso altri enti. Particolare attenzione ? stata posta agli strumenti di indicizzazione e all\u27utilizzo di software open source

    WEB semantico: lo stato dell'arte

    Get PDF
    Il termine “Web Semantico” indica la trasformazione del World Wide Web in un ambiente dove i documenti pubblicati sono associati a specifiche informazioni, i metadati, che ne specifichino il contesto semantico. Queste informazioni, aggiunte ai documenti, devono avere una forma tale da permettere l’interrogazione, l’interpretazione ed, in generale, l’elaborazione automatica, da parte dei computer, del contenuto dei documenti stessi. L’obiettivo principale del WS è fare in modo che le macchine riescano, autonomamente, ad estrarre e a dedurre nuova conoscenza. Scopo della tesi è quello di fare il “punto della situazione attuale” del Web Semantico. Il lavoro è strutturato in 4 parti: presentazione del Web attuale nei suoi vari aspetti, evidenziazione dei suoi limiti principali, esposizione delle tecnologie dell’architettura a livelli del WS e presentazione di un’applicazione, già operativa, che utilizza le tecniche finora sviluppate.ope

    Un approccio basato su DBpedia per la sistematizzazione della conoscenza sul Web

    Get PDF
    La tesi propone una strategia per la sistematizzazione della conoscenza sul Web basata sui concetti presenti in DBpedia e finalizzata alla riduzione dell'information overload. L'opportunità dell'utilizzo di DBpedia è sostenuta sia da aspetti puramente tecnici sia da valutazioni più teoriche. Essendo DBpedia collegata a un vasto corpus multilingue preannotato di carattere enciclopedico (Wikipedia), essa risulta tecnicamente molto adatta ad essere utilizzata per procedimenti automatici di Natural Language Processing e di Text Mining. In aggiunta, i concetti presenti in DBpedia sono il risultato di un consenso semantico raggiunto in maniera collaborativa dalla comunità degli internauti. Un criterio efficace di classificazione sul Web non può essere imposto dall'alto, ma deve seguire gli stessi principi di libertà e trasparenza che hanno da sempre costituito l'essenza di Internet. Il primo capitolo della tesi descrive Wikipedia come un frutto di quell'intelligenza collettiva e di quella cultura collaborativa che sembrano emergere come i tratti costitutivi delle comunità in Rete. Vengono esaminate le posizioni di diversi autori sui concetti di intelligenza collettiva (come Pierre Lévy, James Surowiecki, David Weinberger, Micheal Nielsen) e di cultura collaborativa (tra cui Yochai Benkler, Manuel Castells, Henry Jenkins, Eric Raymond, Raffaele Meo). È proposta un'analisi dei punti di forza e di debolezza di Wikipedia per cercare di capire come tali aspetti possano influenzare la sua validità quale corpus annotato per la classificazione dei documenti online. Il secondo capitolo prende in esame DBpedia, inserendola nel contesto più ampio dei Linked Open Data. Si focalizza sui meccanismi tecnici che permettono la trasformazione della conoscenza semi-strutturata presente in Wikipedia nella conoscenza strutturata di DBpedia. DBpedia è vista come lo strumento più adatto per costruire un'ontologia della Rete condivisa e distribuita e per sistematizzare la conoscenza presente su Internet. Nel terzo capitolo viene descritta una soluzione software basata sull'utilizzo di tecnologie semantiche in grado di classificare automaticamente i documenti sul Web sulla base delle risorse presenti in DBpedia. Sono esposti il funzionamento e la metodologia del software TellMeFirst (http://tellmefirst.polito.it), sviluppato dal tesista nell'arco del 2011-2012 all'interno del Dipartimento di Automatica ed Informatica del Politecnico di Torino e in virtù di un grant Working Capital da parte di Telecom Italia. Nel quarto capitolo è delineato un possibile scenario futuro, frutto di questo processo di classificazione. Ogni concetto presente in Wikipedia diventa un Gateway per un insieme di documenti ordinati secondo la loro attinenza all'argomento stesso. Ognuno di questi Gateway si può configurare come un motore di ricerca semantico su un sottoinsieme di documenti del Web, dove si possono effettuare ricerche specifiche per sottoargomento o per argomenti correlati. I DBpedia Gateways possono essere contenuti o linkati direttamente nelle pagine di Wikipedia, come punto di partenza per approfondire un argomento specific

    Atti del IX Convegno Annuale dell'Associazione per l'Informatica Umanistica e la Cultura Digitale (AIUCD). La svolta inevitabile: sfide e prospettive per l'Informatica Umanistica

    Get PDF
    Proceedings of the IX edition of the annual AIUCD conferenc

    Atti del IX Convegno Annuale AIUCD. La svolta inevitabile: sfide e prospettive per l'Informatica Umanistica.

    Get PDF
    La nona edizione del convegno annuale dell'Associazione per l'Informatica Umanistica e la Cultura Digitale (AIUCD 2020; Milano, 15-17 gennaio 2020) ha come tema “La svolta inevitabile: sfide e prospettive per l'Informatica Umanistica”, con lo specifico obiettivo di fornire un'occasione per riflettere sulle conseguenze della crescente diffusione dell’approccio computazionale al trattamento dei dati connessi all’ambito umanistico. Questo volume raccoglie gli articoli i cui contenuti sono stati presentati al convegno. A diversa stregua, essi affrontano il tema proposto da un punto di vista ora più teorico-metodologico, ora più empirico-pratico, presentando i risultati di lavori e progetti (conclusi o in corso) che considerino centrale il trattamento computazionale dei dati

    Machine Learning Algorithm for the Scansion of Old Saxon Poetry

    Get PDF
    Several scholars designed tools to perform the automatic scansion of poetry in many languages, but none of these tools deal with Old Saxon or Old English. This project aims to be a first attempt to create a tool for these languages. We implemented a Bidirectional Long Short-Term Memory (BiLSTM) model to perform the automatic scansion of Old Saxon and Old English poems. Since this model uses supervised learning, we manually annotated the Heliand manuscript, and we used the resulting corpus as labeled dataset to train the model. The evaluation of the performance of the algorithm reached a 97% for the accuracy and a 99% of weighted average for precision, recall and F1 Score. In addition, we tested the model with some verses from the Old Saxon Genesis and some from The Battle of Brunanburh, and we observed that the model predicted almost all Old Saxon metrical patterns correctly misclassified the majority of the Old English input verses

    Le fonti nelle società iperstoriche. Analisi e critica dei processi di dematerializzazione, archiviazione e fruizione delle fonti digitali e digitalizzate per una diffusione sociale della storia.

    Get PDF
    Nelle società iperstoriche in cui viviamo lo scambio informazionale che avviene all'interno di ciò che Floridi definisce infosfera è in grande parte veicolato da tecnologie ICT, oggi sempre più diffuse e ormai in grado di generare e condividere autonomamente dati e informazioni. Per quanto possa sembrare distante dalla propria disciplina, il concetto di dato deve attrarre l'attenzione dello storico perché è con i dati in quanto rappresentazioni originarie non interpretate di un fenomeno, che è possibile generare informazione, dunque fonti. Perché ogni fonte esista ha bisogno di un evento che la generi, così come ogni informazione ha bisogno di dati per essere generata e nel 2020 sono stati generati e scambiati circa 64,2 zettabyte di dati. Non esistono fonti storiche che non siano state prodotte attraverso l’utilizzo di una tecnologia e ogni fonte si manifesta a noi grazie ad un processo di iscrizione, che come ci dice Ferraris è anche oggi alla base della realizzazione di fonti digitali. La quantità di dati prodotti, dunque di iscrizioni, pone lo storico del presente e del futuro davanti ad un problema che è di natura sia quantitativa sia qualitativa. Un tempo l’oblio era la regola, oggi è l’eccezione. I processi di digitalizzazione hanno dunque un impatto determinante sulle discipline dell’archivistica e della storia, in particolar modo in riferimento alla gestione delle fonti, che in seguito ad un processo di dematerializzazione e rimediazione divengono oggi fruibili online attraverso strumenti digitali. La trasformazione delle fonti - siano esse digital born o fonti materiche ri-mediate - in oggetti digitali offre a storici, storiche, archivisti e archiviste, la possibilità di immaginare e teorizzare nuove forme di organizzazione e di diffusione del contenuto storico. Ora come mai prima, le fonti, la rappresentazione più pura della storia, possono divenire accessibili in modo semplice e diretto anche da fruitori non specializzati. Perché questo processo possa essere sviluppato nel modo migliore è necessario elaborare dei sistemi di archiviazione digitale che oltre ad assicurare il corretto e ordinato deposito delle fonti in tutte le fasi di vita di un archivio, tengano in considerazione anche l’accessibilità e la fruizione per un pubblico generalista. Per raggiungere questo obiettivo è necessario che professionisti con competenze differenti lavorino insieme, al fine di poter sviluppare al meglio ciò che già oggi le tecnologie ci offrono. Metadati, standard condivisi di metadatazione, utilizzo di vocabolari comuni come FOAF o DCMI e lo sviluppo del modello RDF, progettato per la rappresentazione integrata di informazioni originate da fonti multiple ed eterogenee, ci permettono di realizzare delle ontologie anche semantiche all’interno dell’archivio stesso. Gli Information Package, che altro non sono che set specifici di metadati, utilizzati in sistemi di gestione degli archivi digitali come OAIS, ci devono far riflettere in senso metastorico sui processi di spiegazione e narrazione che da sempre determinano la produzione storiografica. Questa riflessione ci porta inevitabilmente a doversi confrontare con una analisi e una critica di natura epistemologica dell’idea di fonte, sopratutto se osservata come una complessità narrativa. Storia e storiografia si sovrappongono in un sistema digitale che consente di mostrare la realtà storica nel suo medium originale. La possibilità di attribuire alle fonti nuove informazioni all’interno di un processo di neointermediazione digitale, unita ad un accesso telepistemico agli archivi dove la fonte entra all’interno dello spazio di lavoro del ricercatore, consente di immaginare e sviluppare innovativi modi di produzione storiografica e di diffusione della storia.In the hyperhistorical societies in which we live, the informational exchange that takes place within what Floridi defines as the infosphere is largely conveyed by ICT technologies, now increasingly widespread and now able to generate and share data and information independently. Although it may seem distant from one's own discipline, the concept of data must attract the attention of the historian because it is with data, as original uninterpreted representations of a phenomenon, that it is possible to generate information, hence sources. For any source to exist it needs an event that generates it, just as any information needs data to be generated and in 2020 about 64.2 zettabytes of data were generated and exchanged. There are no historical sources that have not been produced through the use of technology, and every source manifests itself to us thanks to a process of inscription, which, as Ferraris tells us, is also at the basis of the creation of digital sources today. The amount of data produced, therefore of inscriptions, poses the historian of the present and the future with a problem that is both quantitative and qualitative in nature. Once, oblivion was the rule, today it is the exception. The processes of digitization have a decisive impact on the disciplines of archiving and history, especially with regard to the management of sources, which, following a process of dematerialization and remediation, are now available online through digital tools. The transformation of sources - be they digital born or re-edited material sources - into digital objects offers historians, historians, archivists and archivists the possibility to imagine and theorize new forms of organization and dissemination of historical content. Now, as never before, sources, the purest representation of history, can become accessible in a simple and direct way even to non-specialized users. In order to develop this process in the best possible way, it is necessary to develop digital archiving systems that not only ensure the correct and orderly deposit of sources in all phases of the life of an archives, but also take into account accessibility and use by a general public. To reach this goal, it is necessary that professionals with different skills work together, in order to develop the best of what technologies already offer us today. Metadata, shared metadata standards, the use of common vocabularies such as FOAF or DCMI and the development of the RDF model, designed for the integrated representation of information originating from multiple and heterogeneous sources, allow us to create ontologies, including semantic ones, within the repository itself. The Information Packages, which are specific sets of metadata used in digital archives management systems like OAIS, should make us reflect in a meta-historical sense on the processes of explanation and narration that have always determined the historiographic production. This reflection inevitably leads us to an epistemological analysis and critique of the idea of source, especially if observed as a narrative complexity. History and historiography overlap in a digital system that allows to show the historical reality in its original medium. The possibility of attributing new information to the sources within a process of digital neo-intermediation, together with a telepistemic access to the archives where the source enters the researcher's working space, allows us to imagine and develop innovative ways of historiographic production and histor

    Le fonti nelle società iperstoriche. Analisi e critica dei processi di dematerializzazione, archiviazione e fruizione delle fonti digitali e digitalizzate per una diffusione sociale della storia.

    Get PDF
    Nelle società iperstoriche in cui viviamo lo scambio informazionale che avviene all'interno di ciò che Floridi definisce infosfera è in grande parte veicolato da tecnologie ICT, oggi sempre più diffuse e ormai in grado di generare e condividere autonomamente dati e informazioni. Per quanto possa sembrare distante dalla propria disciplina, il concetto di dato deve attrarre l'attenzione dello storico perché è con i dati in quanto rappresentazioni originarie non interpretate di un fenomeno, che è possibile generare informazione, dunque fonti. Perché ogni fonte esista ha bisogno di un evento che la generi, così come ogni informazione ha bisogno di dati per essere generata e nel 2020 sono stati generati e scambiati circa 64,2 zettabyte di dati. Non esistono fonti storiche che non siano state prodotte attraverso l’utilizzo di una tecnologia e ogni fonte si manifesta a noi grazie ad un processo di iscrizione, che come ci dice Ferraris è anche oggi alla base della realizzazione di fonti digitali. La quantità di dati prodotti, dunque di iscrizioni, pone lo storico del presente e del futuro davanti ad un problema che è di natura sia quantitativa sia qualitativa. Un tempo l’oblio era la regola, oggi è l’eccezione. I processi di digitalizzazione hanno dunque un impatto determinante sulle discipline dell’archivistica e della storia, in particolar modo in riferimento alla gestione delle fonti, che in seguito ad un processo di dematerializzazione e rimediazione divengono oggi fruibili online attraverso strumenti digitali. La trasformazione delle fonti - siano esse digital born o fonti materiche ri-mediate - in oggetti digitali offre a storici, storiche, archivisti e archiviste, la possibilità di immaginare e teorizzare nuove forme di organizzazione e di diffusione del contenuto storico. Ora come mai prima, le fonti, la rappresentazione più pura della storia, possono divenire accessibili in modo semplice e diretto anche da fruitori non specializzati. Perché questo processo possa essere sviluppato nel modo migliore è necessario elaborare dei sistemi di archiviazione digitale che oltre ad assicurare il corretto e ordinato deposito delle fonti in tutte le fasi di vita di un archivio, tengano in considerazione anche l’accessibilità e la fruizione per un pubblico generalista. Per raggiungere questo obiettivo è necessario che professionisti con competenze differenti lavorino insieme, al fine di poter sviluppare al meglio ciò che già oggi le tecnologie ci offrono. Metadati, standard condivisi di metadatazione, utilizzo di vocabolari comuni come FOAF o DCMI e lo sviluppo del modello RDF, progettato per la rappresentazione integrata di informazioni originate da fonti multiple ed eterogenee, ci permettono di realizzare delle ontologie anche semantiche all’interno dell’archivio stesso. Gli Information Package, che altro non sono che set specifici di metadati, utilizzati in sistemi di gestione degli archivi digitali come OAIS, ci devono far riflettere in senso metastorico sui processi di spiegazione e narrazione che da sempre determinano la produzione storiografica. Questa riflessione ci porta inevitabilmente a doversi confrontare con una analisi e una critica di natura epistemologica dell’idea di fonte, sopratutto se osservata come una complessità narrativa. Storia e storiografia si sovrappongono in un sistema digitale che consente di mostrare la realtà storica nel suo medium originale. La possibilità di attribuire alle fonti nuove informazioni all’interno di un processo di neointermediazione digitale, unita ad un accesso telepistemico agli archivi dove la fonte entra all’interno dello spazio di lavoro del ricercatore, consente di immaginare e sviluppare innovativi modi di produzione storiografica e di diffusione della storia.In the hyperhistorical societies in which we live, the informational exchange that takes place within what Floridi defines as the infosphere is largely conveyed by ICT technologies, now increasingly widespread and now able to generate and share data and information independently. Although it may seem distant from one's own discipline, the concept of data must attract the attention of the historian because it is with data, as original uninterpreted representations of a phenomenon, that it is possible to generate information, hence sources. For any source to exist it needs an event that generates it, just as any information needs data to be generated and in 2020 about 64.2 zettabytes of data were generated and exchanged. There are no historical sources that have not been produced through the use of technology, and every source manifests itself to us thanks to a process of inscription, which, as Ferraris tells us, is also at the basis of the creation of digital sources today. The amount of data produced, therefore of inscriptions, poses the historian of the present and the future with a problem that is both quantitative and qualitative in nature. Once, oblivion was the rule, today it is the exception. The processes of digitization have a decisive impact on the disciplines of archiving and history, especially with regard to the management of sources, which, following a process of dematerialization and remediation, are now available online through digital tools. The transformation of sources - be they digital born or re-edited material sources - into digital objects offers historians, historians, archivists and archivists the possibility to imagine and theorize new forms of organization and dissemination of historical content. Now, as never before, sources, the purest representation of history, can become accessible in a simple and direct way even to non-specialized users. In order to develop this process in the best possible way, it is necessary to develop digital archiving systems that not only ensure the correct and orderly deposit of sources in all phases of the life of an archives, but also take into account accessibility and use by a general public. To reach this goal, it is necessary that professionals with different skills work together, in order to develop the best of what technologies already offer us today. Metadata, shared metadata standards, the use of common vocabularies such as FOAF or DCMI and the development of the RDF model, designed for the integrated representation of information originating from multiple and heterogeneous sources, allow us to create ontologies, including semantic ones, within the repository itself. The Information Packages, which are specific sets of metadata used in digital archives management systems like OAIS, should make us reflect in a meta-historical sense on the processes of explanation and narration that have always determined the historiographic production. This reflection inevitably leads us to an epistemological analysis and critique of the idea of source, especially if observed as a narrative complexity. History and historiography overlap in a digital system that allows to show the historical reality in its original medium. The possibility of attributing new information to the sources within a process of digital neo-intermediation, together with a telepistemic access to the archives where the source enters the researcher's working space, allows us to imagine and develop innovative ways of historiographic production and histor
    corecore