36 research outputs found

    A service-orientated architecture for adaptive and collaborative e-learning systems

    Get PDF
    This research proposes a new architecture for Adaptive Educational Hypermedia Systems (AEHS). Architectures in the context of this thesis refer to the components of the system and their communications and interactions. The architecture addresses the limitations of AEHS regarding interoperability, reusability, openness, flexibility, and limited tools for collaborative and social learning. It presents an integrated adaptive and collaborative Web-based learning environment. The new e-learning environment is implemented as a set of independent Web services within a service-oriented architecture (SOA). Moreover, it uses a modern Learning Management System (LMS) as the delivery service and the user interface for this environment. This is a two-way solution, whereby adaptive learning is introduced via a widely adopted LMS, and the LMS itself is enriched with an external - yet integrated - adaptation layer. To test the relevance of the new architecture, practical experiments were undertaken. The interoperability, reusability and openness test revealed that the user could easily switch between various LMS to access the personalised lessons. In addition, the system was tested by students at the University of Nottingham as a revision guide to a Software Engineering module. This test showed that the system was robust; it automatically handled a large number of students and produced the desired adaptive content. However, regarding the use of the collaborative learning tools, the test showed low levels of such usage

    A service-orientated architecture for adaptive and collaborative e-learning systems

    Get PDF
    This research proposes a new architecture for Adaptive Educational Hypermedia Systems (AEHS). Architectures in the context of this thesis refer to the components of the system and their communications and interactions. The architecture addresses the limitations of AEHS regarding interoperability, reusability, openness, flexibility, and limited tools for collaborative and social learning. It presents an integrated adaptive and collaborative Web-based learning environment. The new e-learning environment is implemented as a set of independent Web services within a service-oriented architecture (SOA). Moreover, it uses a modern Learning Management System (LMS) as the delivery service and the user interface for this environment. This is a two-way solution, whereby adaptive learning is introduced via a widely adopted LMS, and the LMS itself is enriched with an external - yet integrated - adaptation layer. To test the relevance of the new architecture, practical experiments were undertaken. The interoperability, reusability and openness test revealed that the user could easily switch between various LMS to access the personalised lessons. In addition, the system was tested by students at the University of Nottingham as a revision guide to a Software Engineering module. This test showed that the system was robust; it automatically handled a large number of students and produced the desired adaptive content. However, regarding the use of the collaborative learning tools, the test showed low levels of such usage

    Supporting authoring of adaptive hypermedia

    Get PDF
    It is well-known that students benefit from personalised attention. However, frequently teachers are unable to provide this, most often due to time constraints. An Adaptive Hypermedia (AH) system can offer a richer learning experience, by giving personalised attention to students. The authoring process, however, is time consuming and cumbersome. Our research explores the two main aspects to authoring of AH: authoring of content and adaptive behaviour. The research proposes possible solutions, to overcome the hurdles towards acceptance of AH in education. Automation methods can help authors, for example, teachers could create linear lessons and our prototype can add content alternatives for adaptation. Creating adaptive behaviour is more complex. Rule-based systems, XML-based conditional inclusion, Semantic Web reasoning and reusable, portable scripting in a programming language have been proposed. These methods all require specialised knowledge. Hence authoring of adaptive behaviour is difficult and teachers cannot be expected to create such strategies. We investigate three ways to address this issue. 1. Reusability: We investigate limitations regarding adaptation engines, which influence the authoring and reuse of adaptation strategies. We propose a metalanguage, as a supplement to the existing LAG adaptation language, showing how it can overcome such limitations. 2. Standardisation: There are no widely accepted standards for AH. The IMSLearning Design (IMS-LD) specification has similar goals to Adaptive Educational Hypermedia (AEH). Investigation shows that IMS-LD is more limited in terms of adaptive behaviour, but the authoring process focuses more on learning sequences and outcomes. 3. Visualisation: Another way is to simplify the authoring process of strategies using a visual tool. We define a reference model and a tool, the Conceptual Adaptation Model (CAM) and GRAPPLE Authoring Tool (GAT), which allow specification of an adaptive course in a graphical way. A key feature is the separation between content, strategy and adaptive course, which increases reusability compared to approaches that combine all factors in one model

    The Knowledge Grid: A Platform to Increase the Interoperability of Computable Knowledge and Produce Advice for Health

    Full text link
    Here we demonstrate how more highly interoperable computable knowledge enables systems to generate large quantities of evidence-based advice for health. We first provide a thorough analysis of advice. Then, because advice derives from knowledge, we turn our focus to computable, i.e., machine-interpretable, forms for knowledge. We consider how computable knowledge plays dual roles as a resource conveying content and as an advice enabler. In this latter role, computable knowledge is combined with data about a decision situation to generate advice targeted at the pending decision. We distinguish between two types of automated services. When a computer system provides computable knowledge, we say that it provides a knowledge service. When computer system combines computable knowledge with instance data to provide advice that is specific to an unmade decision we say that it provides an advice-giving service. The work here aims to increase the interoperability of computable knowledge to bring about better knowledge services and advice-giving services for health. The primary motivation for this research is the problem of missing or inadequate advice about health topics. The global demand for well-informed health advice far exceeds the global supply. In part to overcome this scarcity, the design and development of Learning Health Systems is being pursued at various levels of scale: local, regional, state, national, and international. Learning Health Systems fuse capabilities to generate new computable biomedical knowledge with other capabilities to rapidly and widely use computable biomedical knowledge to inform health practices and behaviors with advice. To support Learning Health Systems, we believe that knowledge services and advice-giving services have to be more highly interoperable. I use examples of knowledge services and advice-giving services which exclusively support medication use. This is because I am a pharmacist and pharmacy is the biomedical domain that I know. The examples here address the serious problems of medication adherence and prescribing safety. Two empirical studies are shared that demonstrate the potential to address these problems and make improvements by using advice. But primarily we use these examples to demonstrate general and critical differences between stand-alone, unique approaches to handling computable biomedical knowledge, which make it useful for one system, and common, more highly interoperable approaches, which can make it useful for many heterogeneous systems. Three aspects of computable knowledge interoperability are addressed: modularity, identity, and updateability. We demonstrate that instances of computable knowledge, and related instances of knowledge services and advice-giving services, can be modularized. We also demonstrate the utility of uniquely identifying modular instances of computable knowledge. Finally, we build on the computing concept of pipelining to demonstrate how computable knowledge modules can automatically be updated and rapidly deployed. Our work is supported by a fledgling technical knowledge infrastructure platform called the Knowledge Grid. It includes formally specified compound digital objects called Knowledge Objects, a conventional digital Library that serves as a Knowledge Object repository, and an Activator that provides an application programming interface (API) for computable knowledge. The Library component provides knowledge services. The Activator component provides both knowledge services and advice-giving services. In conclusion, by increasing the interoperability of computable biomedical knowledge using the Knowledge Grid, we demonstrate new capabilities to generate well-informed health advice at a scale. These new capabilities may ultimately support Learning Health Systems and boost health for large populations of people who would otherwise not receive well-informed health advice.PHDInformationUniversity of Michigan, Horace H. Rackham School of Graduate Studieshttps://deepblue.lib.umich.edu/bitstream/2027.42/146073/1/ajflynn_1.pd

    Modelli e metodologie innovative per una soluzione di e-learning e knowledge management

    Get PDF
    2009 - 2010Il tema intorno al quale si concentrano le attività di ricerca svolte è IWT – Intelligent Web Teacher – un’innovativa piattaforma per l’apprendimento a distanza e, più in generale, per la rappresentazione e la gestione della conoscenza nata grazie alle esperienze nei progetti di ricerca nazionali ed internazionali del Polo di Eccellenza in Learning & Knowledge dell’Università di Salerno. IWT offre, come principale caratteristica distintiva, la capacità di erogare corsi personalizzati che, tenendo conto delle caratteristiche degli utenti e garantendo flessibilità al livello dei contenuti e dei modelli di apprendimento, risultano più efficaci ed efficienti dei percorsi formativi statici di e-learning “classico”. La capacità di erogare corsi personalizzati si basa fondamentalmente su una sofisticata modellazione sia della conoscenza dei domini di interesse e dei contenuti effettuata grazie ad ontologie e metadata, sia delle competenze acquisite e delle preferenze didattiche dell’utente per mezzo di un profilo utente che viene costantemente aggiornato. La validità dell'approccio IWT è stata avvalorata da un attento confronto con soluzioni, metodologie e modelli allo stato dell’arte e dai risultati ottenuti in molteplici attività di sperimentazione condotte in ambito universitario e aziendale e descritte nei seguenti lavori: N.Capuano, M.Gaeta, S.Miranda, F.Orciuoli and P.Ritrovato “LIA: an Intelligent Advisor for e-Learning”, M. Lytras, J. Carroll, E. Damiani, R. Tennyson (Eds.), Emerging Technologies and Information Systems for the Knowledge Society - Proceedings of the World Summit on the Knowledge Society (WSKS 2008), September 24-26, 2008, Athens, Greece, Lecture Notes in Computer Science Series, vol. 5288, pp. 187-196, Springer-Verlag, 2008 – 2nd Best Paper Award N.Capuano, S.Miranda and F.Orciuoli “IWT: A Semantic Web-based Educational System”, G. Adorni, M. Coccoli (Eds.) Proceedings of the IV Workshop of the AI*IA Working Group on Artificial Intelligence & e-Learning held in conjunction with the XI International Conference of the Italian Association for Artificial Intelligence (AI*IA 2009), December 12, 2009, Reggio Emilia, Italy, pp. 11-16, AI*IA, 2009 M.Gaeta, S.Miranda, F.Orciuoli, S.Paolozzi, A.Poce “An Approach To Personalized e-Learning”, submitted to Informatics Education Europe V Rome, Italy, November 3-5, 2010 Il risultato principale è legato ad un confronto tra le performance ottenute in termini di competenze acquisite dagli utenti erogando a gruppi di utenti disgiunti ma sui medesimi argomenti, sia corsi semplici che corsi personalizzati. Sulla sperimentazione condotta sono state fatte riflessioni interessanti che sembrano convincere che l’approccio della personalizzazione di IWT porti a risultati migliori rispetto all’approccio tipico dell’e-learning ovvero all’erogazione di percorsi sequenziali statici di contenuti. Attraverso la personalizzazione si riescono a coinvolgere in modo efficace anche utenti che, per esempio, abbiano già un bagaglio di competenze medio-alto e che, tipicamente, non risultano essere propensi a seguire percorsi di apprendimento in e-learning. Per contro, questo approccio pur se totalmente automatizzato, richiede un impegno in fase di start-up per definire correttamente i profili degli utenti, disegnare l’ontologia del dominio oggetto di formazione, intesa come una corretta rappresentazione semantica dei concetti e delle relazioni tra questi, definire i metadata delle risorse didattiche a disposizione, ovvero indicizzarle e descriverle in modo completo per poterle poi utilizzare nel modo più appropriato possibile. Le attività di ricerca sono state orientate allo studio sullo stato dell’arte, allo studio di modelli esistenti, alla ricerca di soluzioni, alla definizione di possibili metodologie capaci di produrre miglioramenti su questi aspetti chiave legati sia alla rappresentazione della conoscenza in termini di ontologie e di metadata, che alla rappresentazione dei profili utente in termini di competenze sul dominio oggetto di apprendimento e di preferenze relative alle modalità di utilizzo e fruizione di contenuti. Ovviamente l’approccio non è stato meramente applicativo, ma si è data attenzione alla ampia letteratura di settore per cercare di studiare problemi e soluzioni esistenti e definire qualcosa (anche dal punto di vista algoritmico) che sia in qualche modo valido e di interesse per la comunità scientifica. Alcuni spunti sono riportati nei seguenti lavori: N.Capuano, L.Dell'Angelo, S.Miranda, F.Orciuoli and F.Zurolo “Ontology extraction from existing educational content to improve personalized e-Learning experiences”, Proceedings of the III IEEE International Conference on Semantic Computing (ICSC 2009), September 14-16, 2009, Berkeley, CA, USA, pp. 577-582, IEEE Computer Society, 2009 G.Gianforme, S.Miranda, F.Orciuoli and S.Paolozzi “From Classic User Modeling to Scrutable User Modeling” on the 1st International Workshop on Ontology for e-Technologies 2009 (ICEIS 2009) F.Colace, S.Miranda, R.Piscopo, P.Ritrovato “Applicazione di aritmetica degli intervalli per la verifica dei contenuti in una piattaforma di e-learning”, Proceedings of VI Congresso della SIE-L, Società Italiana di e-Learning, Salerno, 16-18 settembre 2009 In sintesi, avendo individuato dei modelli con cui delineare ed aggiornare i profili utente e delle metodologie computazionalmente efficienti attraverso cui comprendere se, nell’ambito di una specifica tematica, ci siano o meno contenuti sufficienti a rispondere alle esigenze degli utenti, l’idea è quella di concentrare l’attenzione su due aspetti fondamentali che sono l’estrazione automatica di ontologie e la definizione automatica di metadata per i contenuti. La situazione maggiormente ricorrente è infatti quella in cui il materiale da impiegare per costruire i percorsi di apprendimento sia già disponibile, per cui, per poter sfruttare i benefici della personalizzazione, occorre costruire ontologie e metadata a posteriori (e generalmente a mano). Per automatizzare queste operazioni sono stati definiti dei metodi attraverso i quali è possibile estrarre ontologie direttamente dai contenuti (diverse tipologie e standard) e si sta lavorando a come definire contestualmente i metadata, ovvero fornire una descrizione formale dei contenuti in termini di parametri sia tecnologici che pedagogici e indicizzarli in termini semantici attraverso i concetti estratti e riportati nelle ontologie. In letteratura sono presenti molteplici approcci che riescono a caratterizzare in automatico gli aspetti tecnologici relativi al contenuto (formato, dimensioni, requisiti HW e SW per poterli visualizzare), rari ed incompleti sono invece i tentativi di descrizione degli aspetti pedagogici impiegati da standard riconosciuti come IMS Learning Object Metadata (tipologia di risorsa didattica, densità semantica, difficoltà, tempo per la comprensione, livello di interazione, etc.). Mettendo insieme elementi di teoria dell’informazione, con modelli di learning si è cercato di proporre un approccio alla risoluzione di questo problema. Approccio che, al momento, sembra funzionare in una sperimentazione su un archivio di circa 2000 learning object per l’insegnamento della matematica e dell’informatica e che, a breve, verrà esteso al di fuori dell’ambito e-learning e nell'ottica moderna della pubblicazione delle informazioni sul web secondo la logica dei Linked Data. Logica a cui stanno dando attenzione enti come IEEE, BBC, Governo USA, etc., che, ovviamente, hanno grandi esigenze di catalogazione automatica di documenti. [a cura dell'autore]IX n.s

    Semantic and pragmatic characterization of learning objects

    Get PDF
    Tese de doutoramento. Engenharia Informática. Universidade do Porto. Faculdade de Engenharia. 201

    XATA 2006: XML: aplicações e tecnologias associadas

    Get PDF
    Esta é a quarta conferência sobre XML e Tecnologias Associadas. Este evento tem-se tornado um ponto de encontro para quem se interessa pela temática e tem sido engraçado observar que os participantes gostam e tentam voltar nos anos posteriores. O grupo base de trabalho, a comissão científica, também tem vindo a ser alargada e todos os que têm colaborado com vontade e com uma qualidade crescente ano após ano. Pela quarta vez estou a redigir este prefácio e não consigo evitar a redacção de uma descrição da evolução da XATA ao longo destes quatro anos: 2003 Nesta "reunião", houve uma vintena de trabalhos submetidos, maioritariamente da autoria ou da supervisão dos membros que integravam a comissão organizadora o que não envalidou uma grande participação e acesas discussões. 2004 Houve uma participação mais forte da comunidade portuguesa mas ainda com números pouco expressivos. Nesta altura, apostou-se também numa forte participação da indústria, o que se traduziu num conjunto apreciável de apresentações de casos reais. Foi introduzido o processo de revisão formal dos trabalhos submetidos. 2005 Houve uma forte adesão nacional e internacional (Espanha e Brasil, o que para um evento onde se pretende privilegiar a língua portuguesa é ainda mais significativo). A distribuição geográfica em Portugal também aumentou, havendo mais instituições participantes. Automatizaram-se várias tarefas como o processo de submissão e de revisão de artigos. 2006 Nesta edição actual, e contrariamente ao que acontece no plano nacional, houve um crescimento significativo. Em todas as edições, tem sido objectivo da comissão organizadora, previlegiar a produção científica e dar voz ao máximo número de participantes. Nesse sentido, este ano, não haverá oradores convidados, sendo o programa integralmente preenchido com as apresentações dos trabalhos seleccionados. Apesar disso ainda houve uma taxa significativa de rejeições, principalmente devido ao elevado número de submissões. Foi introduzido também, nesta edição, um dia de tutoriais com o objectivo de fornecer competências mínimas a quem quer começar a trabalhar na área e também poder assistir de uma forma mais informada à conferência. Se analisarmos as temáticas, abordadas nas quatro conferências, percebemos que também aqui há uma evolução no sentido de uma maior maturidade. Enquanto que no primeiro encontro, os trabalhos abordavam problemas emergentes na utilização da tecnologia, no segundo encontro a grande incidência foi nos Web Services, uma nova tecnologia baseada em XML, no terceiro, a maior incidência foi na construção de repositórios, motores de pesquisa e linguagens de interrogação, nesta quarta edição há uma distribuição quase homogénea por todas as áreas temáticas tendo mesmo aparecido trabalhos que abordam aspectos científicos e tecnológicos da base da tecnologia XML. Desta forma, podemos concluir que a tecnologia sob o ponto de vista de utilização e aplicação está dominada e que a comunidade portuguesa começa a fazer contributos para a ciência de base.Microsoft
    corecore