4 research outputs found

    Lasting e-Learning by Advanced Services

    Get PDF
    Die Einbettung von Informations- und Kommunikationstechnologie (IKT) in Bildung und Wissenschaft verspricht seit vielen Jahren grundlegende Fortschritte auf dem Weg in die Wissensgesellschaft. Großzügige Subventionen flossen über Jahrzehnte in zeitlich begrenzte Projekte, um eine IKT-gestützte Lehre auf breiter Ebene zu etablieren. Trotzdem trat ein erhoffter nachhaltiger Effekt in dem erwarteten Maße nicht ein. Konkret wurde eine Weiternutzung der Entwicklungen selten erreicht. Im Rahmen der Forschungstätigkeit zur Untersuchung der technologischen und ökonomischen Nachhaltigkeit entstanden drei sekundäre E-Learning-Dienste, mit denen sich die vorliegende Arbeit thematisch beschäftigt. Einer Einführung in sekundäre E-Learning-Dienste folgt die ausführliche Beschreibung bekannter und neuer Aspekte ihrer Nachhaltigkeit. Aus ökonomischer Sicht werden zwei neue Dienste und der kalkulatorische Aspekt des Bildungscontrollings untersucht. In technischer Hinsicht wird gezeigt, welche Bedeutung effektive Algorithmen unter Effizienzgesichtspunkten haben. Es wird untersucht, inwieweit Nachhaltigkeit bei E-Learning beschränkt ist auf die ökonomischen Faktoren eines Geschäftsmodells und welchen Einfluss integrative Prozesse der Einbettung von IKT in Bildungsabläufe darstellen. Mit dem Calculation Object Model wird ein neuer Ansatz für das Kostencontrolling in Bildungsprozessen vorgestellt und evaluiert. Ein anderer Dienst zeigt die Einbettung nachhaltiger Dienste in Hochschulstrukturen anhand des Themas Lehrevaluation. Darüber hinaus wird mit dem Docolcc-Dienst ein neues innovatives Verfahren zur Plagiaterkennung eingeführt und die Notwendigkeit dieser Innovationen unter Nachhaltigkeitsgesichtspunkten vorgestellt. Alle Dienste wurden zur Evaluation implementiert und anhand der Nachhaltigkeitsaspekte eingestuft.In the last decade, the use of Information and Communication Technology (ICT) in the field of education and science was seen as one of the most important steps towards the knowledge society. Many efforts and large amounts of subsidies flew into timely restricted projects for deploying e-learning in a large scale. However, in many cases the expected improvement of the learning processes was not achieved. Moreover, these preparatory projects were not transferred into commercial and sustainable solutions. Missing sustainability with respect to pedagogics, didactics, technology, and economics shows the need of novel research for economists, computer scientists, and pedagogues. This thesis addresses secondary e-learning services, which were examined in the context of both technological and economical sustainability. Therefore, this thesis provides a set of metrics for sustainability, which were used to verify the sustainability of these services: Two services are examined from an economical perspective, whereas one project was examined with respect to the cost-controlling of educational activities. The technological examination shows that new principles, technological procedures, and algorithms are necessary, in order to reach sustainability in several e-learning services. Therefore, this thesis introduces a novel Calculation Object Model for cost-controlling of educational activities and services. A service for lecture evaluations, an important element for determining sustainability, shows how to integrate ICT in university structures. Additionally, the Docoloc service provides novel results in the field of automated recognition of text plagiarisms. All services were implemented and evaluated with respect to their sustainability. This dissertation proves how far sustainability of e-learning is basically not limited to economic factors of a business case, and how far ICT has to be embedded into the overall process chain of education in an integrative way

    Entwicklung eines Sprachverarbeitungs- und Bewertungssystems zur automatischen Vorkorrektur

    Get PDF
    Das Korrigieren schriftlicher Aufgaben nach Musterlösung stellt für eine lehrende Person - beispielsweise den Lehrer an einer Schule, den Tutor einer Studentengruppe oder den Mitarbeiter einer Universität - häufig eine mühsame und zeitintensive Aufgabe dar. Das Kontrollieren der Ergebnisse und Abgleichen mit der Musterlösung kann insbesondere bei sich wiederholenden und eindeutigen Lösungen sehr ermüdend sein. Die in Anspruch genommene Zeit könnte zur Vergabe von Lernhinweisen oder dem intensiveren Befassen mit der eigentlichen Korrektur weitaus besser genutzt werden. In diesem Zusammenhang existiert der Wunsch nach einem automatisierten System, das die Vorkorrektur übernimmt und die Lehrkraft entlastet. Korrekt gelöste Aufgaben könnten im Voraus von dem System mit voller Punktzahl bewertet werten, im Falle von Unklarheit könnte die Lehrkraft entscheiden, wie die eingesendete Lösung zu bewerten ist. Bei der riesigen Anzahl verschiedenartiger Aufgaben müssten Kategorien für Aufgabentypen und Lösungsmöglichkeiten erstellt werden. Diese Arbeit stellt ein Modell speziell für die "Aufgaben der Informatik 1" vor. Die Aufgaben wurden unter Berücksichtigung bereits existierender Ansätze in Kategorien eingeteilt. Ein System auf Grundlage von C# wurde zur automatischen Erstellung und Vorkorrektur der Aufgaben entwickelt und evaluiert.Correcting written exercises according to its sample solution is in many cases a laborious and time-consuming task for a teaching person - e.g. a teacher at a school, a tutor of a student group or a scientific researcher at a university. Especially regarding repetitive and clear solutions checking the result and comparing it to the sample solution can be very exhausting. This time spent could instead be used quite better for giving hints concerning the solution or intensifying attending the actual correction. In this context the request for an automated system taking care of pre-correction and reducing work for the teaching person arises. Exercises being solved correctly could be marked with maximum points - in case of unclarity the teaching person could decide how to rate the solution. For the huge amount of different exercise types, categories for exercise types and solution possibilities would have to be created. This work suggests a prototype specifically addressing "Aufgaben der Informatik 1". The exercises were categorized in consideration of already existing work. A system based on C# for automatic pre-correction of these exercises was developed and evaluated

    Technologies for Reusing Text from the Web

    Get PDF
    Texts from the web can be reused individually or in large quantities. The former is called text reuse and the latter language reuse. We first present a comprehensive overview of the different ways in which text and language is reused today, and how exactly information retrieval technologies can be applied in this respect. The remainder of the thesis then deals with specific retrieval tasks. In general, our contributions consist of models and algorithms, their evaluation, and for that purpose, large-scale corpus construction. The thesis divides into two parts. The first part introduces technologies for text reuse detection, and our contributions are as follows: (1) A unified view of projecting-based and embedding-based fingerprinting for near-duplicate detection and the first time evaluation of fingerprint algorithms on Wikipedia revision histories as a new, large-scale corpus of near-duplicates. (2) A new retrieval model for the quantification of cross-language text similarity, which gets by without parallel corpora. We have evaluated the model in comparison to other models on many different pairs of languages. (3) An evaluation framework for text reuse and particularly plagiarism detectors, which consists of tailored detection performance measures and a large-scale corpus of automatically generated and manually written plagiarism cases. The latter have been obtained via crowdsourcing. This framework has been successfully applied to evaluate many different state-of-the-art plagiarism detection approaches within three international evaluation competitions. The second part introduces technologies that solve three retrieval tasks based on language reuse, and our contributions are as follows: (4) A new model for the comparison of textual and non-textual web items across media, which exploits web comments as a source of information about the topic of an item. In this connection, we identify web comments as a largely neglected information source and introduce the rationale of comment retrieval. (5) Two new algorithms for query segmentation, which exploit web n-grams and Wikipedia as a means of discerning the user intent of a keyword query. Moreover, we crowdsource a new corpus for the evaluation of query segmentation which surpasses existing corpora by two orders of magnitude. (6) A new writing assistance tool called Netspeak, which is a search engine for commonly used language. Netspeak indexes the web in the form of web n-grams as a source of writing examples and implements a wildcard query processor on top of it.Texte aus dem Web können einzeln oder in großen Mengen wiederverwendet werden. Ersteres wird Textwiederverwendung und letzteres Sprachwiederverwendung genannt. Zunächst geben wir einen ausführlichen Überblick darüber, auf welche Weise Text und Sprache heutzutage wiederverwendet und wie Technologien des Information Retrieval in diesem Zusammenhang angewendet werden können. In der übrigen Arbeit werden dann spezifische Retrievalaufgaben behandelt. Unsere Beiträge bestehen dabei aus Modellen und Algorithmen, ihrer empirischen Auswertung und der Konstruktion von großen Korpora hierfür. Die Dissertation ist in zwei Teile gegliedert. Im ersten Teil präsentieren wir Technologien zur Erkennung von Textwiederverwendungen und leisten folgende Beiträge: (1) Ein Überblick über projektionsbasierte- und einbettungsbasierte Fingerprinting-Verfahren für die Erkennung nahezu identischer Texte, sowie die erstmalige Evaluierung einer Reihe solcher Verfahren auf den Revisionshistorien der Wikipedia. (2) Ein neues Modell zum sprachübergreifenden, inhaltlichen Vergleich von Texten. Das Modell basiert auf einem mehrsprachigen Korpus bestehend aus Pärchen themenverwandter Texte, wie zum Beispiel der Wikipedia. Wir vergleichen das Modell in mehreren Sprachen mit herkömmlichen Modellen. (3) Eine Evaluierungsumgebung für Algorithmen zur Plagiaterkennung. Die Umgebung besteht aus Maßen, die die Güte der Erkennung eines Algorithmus' quantifizieren, und einem großen Korpus von Plagiaten. Die Plagiate wurden automatisch generiert sowie mit Hilfe von Crowdsourcing manuell erstellt. Darüber hinaus haben wir zwei Workshops veranstaltet, in denen unsere Evaluierungsumgebung erfolgreich zur Evaluierung aktueller Plagiaterkennungsalgorithmen eingesetzt wurde. Im zweiten Teil präsentieren wir auf Sprachwiederverwendung basierende Technologien für drei verschiedene Retrievalaufgaben und leisten folgende Beiträge: (4) Ein neues Modell zum medienübergreifenden, inhaltlichen Vergleich von Objekten aus dem Web. Das Modell basiert auf der Auswertung der zu einem Objekt vorliegenden Kommentare. In diesem Zusammenhang identifizieren wir Webkommentare als eine in der Forschung bislang vernachlässigte Informationsquelle und stellen die Grundlagen des Kommentarretrievals vor. (5) Zwei neue Algorithmen zur Segmentierung von Websuchanfragen. Die Algorithmen nutzen Web n-Gramme sowie Wikipedia, um die Intention des Suchenden in einer Suchanfrage festzustellen. Darüber hinaus haben wir mittels Crowdsourcing ein neues Evaluierungskorpus erstellt, das zwei Größenordnungen größer ist als bisherige Korpora. (6) Eine neuartige Suchmaschine, genannt Netspeak, die die Suche nach gebräuchlicher Sprache ermöglicht. Netspeak indiziert das Web als Quelle für gebräuchliche Sprache in der Form von n-Grammen und implementiert eine Wildcardsuche darauf
    corecore