151 research outputs found

    Multilingual representations and models for improved low-resource language processing

    Get PDF
    Word representations are the cornerstone of modern NLP. Representing words or characters using real-valued vectors as static representations that can capture the Semantics and encode the meaning has been popular among researchers. In more recent years, Pretrained Language Models using large amounts of data and creating contextualized representations achieved great performance in various tasks such as Semantic Role Labeling. These large pretrained language models are capable of storing and generalizing information and can be used as knowledge bases. Language models can produce multilingual representations while only using monolingual data during training. These multilingual representations can be beneficial in many tasks such as Machine Translation. Further, knowledge extraction models that only relied on information extracted from English resources, can now benefit from extra resources in other languages. Although these results were achieved for high-resource languages, there are thousands of languages that do not have large corpora. Moreover, for other tasks such as machine translation, if large monolingual data is not available, the models need parallel data, which is scarce for most languages. Further, many languages lack tokenization models, and splitting the text into meaningful segments such as words is not trivial. Although using subwords helps the models to have better coverage over unseen data and new words in the vocabulary, generalizing over low-resource languages with different alphabets and grammars is still a challenge. This thesis investigates methods to overcome these issues for low-resource languages. In the first publication, we explore the degree of multilinguality in multilingual pretrained language models. We demonstrate that these language models can produce high-quality word alignments without using parallel training data, which is not available for many languages. In the second paper, we extract word alignments for all available language pairs in the public bible corpus (PBC). Further, we created a tool for exploring these alignments which are especially helpful in studying low-resource languages. The third paper investigates word alignment in multiparallel corpora and exploits graph algorithms for extracting new alignment edges. In the fourth publication, we propose a new model to iteratively generate cross-lingual word embeddings and extract word alignments when only small parallel corpora are available. Lastly, the fifth paper finds that aggregation of different granularities of text can improve word alignment quality. We propose using subword sampling to produce such granularities

    Soziologie der Privatheit: Informationelle Teilhabebeschränkung vom Reputation Management bis zum Recht auf Unberechenbarkeit

    Get PDF
    Trotz aller genealogischen Unschärfe und normativen Uneinigkeit hinsichtlich ihrer politischen Bewertung gilt die Praxis des Unterscheidens zwischen Privatem und Öffentlichem nicht nur als zentrales Strukturprinzip der Moderne, sondern ebenso als gegenwärtig soziodigital gefährdeter Strukturierungsmodus. Informationelle Privatheit, so scheint es, löst sich auf unter dem Ansturm von digital-vernetzter Selbst-Konstitution, allgegenwärtiger Datafizierung und den probabilistischen Vorhersageverfahren des maschinellen Lernens. Aber worum geht es überhaupt bei der informationellen Privatheit? Wie lässt sie sich theoretisch fassen, wie sich ihre europäisch-amerikanische Gesellschaftsgeschichte rekonstruieren - und was geschieht mit ihr unter den datafizierten Vergesellschaftungsbedingungen der Gegenwart? Die Soziologie hat auf diese Fragen bislang nur Teilantworten gefunden, und zwar nicht zuletzt deshalb, weil sie die Strukturierung von Gesellschaften mithilfe der Unterscheidung privat/öffentlich seit Habermas' Strukturwandel vordringlich ›von der öffentlichen Seite her‹ untersucht, die Privatheit hingegen allzu oft der normativ orientierten Sozialphilosophie und den Rechtswissenschaften überlassen hat. Die vorliegende Monographie schließt die verbliebene Lücke der soziologischen Theoriebildung und Forschung, indem sie zunächst eine Sozial- und Gesellschaftstheorie der Privatheit ausarbeitet, diese daraufhin in eine genealogische Rekonstruktion der Gesellschaftsgeschichte informationeller Privatheit ab dem 18. Jahrhundert überführt und schließlich in eine empirisch gesättigte Zeitdiagnose der Privatheit in der digitalen Gegenwartsgesellschaft einmündet

    Электронный учебно-методический комплекс по учебной дисциплине «Иностранный язык» для специальности 1-28 01 01 Экономика электронного бизнеса

    Get PDF
    Rezko Petr Nikolaevich, Venskovich Svetlana Vasilievna, Obukhovskaya Oksana Anatolyevna, Kopchak Elena Vladimirovna. Electronic educational and methodological complex for the academic discipline "Foreign language" for the specialty 1-28 01 01 Economics of e-businessЭлектронный учебно-методический комплекс по учебной дисциплине «Иностранный язык» предназначен для студентов специальности 1-28 01 01 Экономика электронного бизнеса дневной формы обучения. Материал представлен на требуемом методическом уровне и адаптирован к современным образовательным технологиям

    Popularität und Relevanz in der Suche

    Get PDF
    In diesem Open-Access-Buch wird mithilfe eines großangelegten Online-Experiments untersucht, wie sich die Anzeige von Zitationen oder Downloads auf die Relevanzbewertung in akademischen Suchsystemenauswirkt. Bei der Suche nach Informationen verwenden Menschen diverse Kriterien, anhand derer sie die Relevanz der Suchergebnisse bewerten. In diesem Buch wird erstmals eine systematische Übersicht über die Einflüsse im Prozess der Relevanzbewertung von Suchergebnissen in akademischen Suchsystemen aufgezeigt. Zudem wird ein anspruchsvolles und komplexes Methodenframework zur experimentellen Untersuchung von Relevanzkriterien vorgestellt. Dieses eignet sich für die weitergehende Erforschung von Relevanzkriterien im informationswissenschaftlichen Bereich

    Blockaden bei der Etablierung neuer Schlüsseltechnologien. Innovationsreport

    Get PDF
    Deutschland gilt als innovativ und im weltweiten Vergleich exzellent der Grundlagenforschung und Technologieentwicklung. Deutschland ist stark in seinen traditionellen Märkten, wie Maschinen- und Fahrzeugbau oder Elektrotechnik. Deutschland hat aber auch Probleme, wenn es um die schnelle und breite Umsetzung der innovativen Ideen und Ergebnisse der Forschung und Entwicklung in konkrete Anwendungen vor allem zur Etablierung neuer, zukunftsorientierter Schlüsseltechnologien geht. Auch die Diffusion der aus neuen Schlüsseltechnologien entstandenen Anwendungen am Markt stellt die Unternehmen und Unternehmer oftmals vor kaum oder schwer zu überwindende Blockaden. Gegenstand und Ziel der Untersuchung Zielsetzung des Projekts »Blockaden bei der Etablierung neuer Schlüsseltechnologien« war die Untersuchung der in Deutschland existierenden Innovationshemmnisse, welche die Etablierung neuer Schlüsseltechnologien und die Schaffung deutscher Vorreitermärkte (»lead markets«) bzw. die Ablösung traditioneller Exporttechnologien durch neue Schlüsseltechnologien blockieren oder erschweren. Es sollten dabei aber auch Faktoren identifiziert werden, welche sich besonders förderlich auswirken. Auf dieser Grundlage wurden spezifische Technologien bzw. Märkte identifiziert, wo Deutschland sein Diffusions- und Marktpotenzial noch nicht ausgeschöpft hat oder dies besonders gut gelungen ist. Durch eine Analyse der Faktoren, auf welche diese Defizite oder Erfolge zurückgeführt werden könnten, wurden schließlich politische Einflussmöglichkeiten eruiert, welche zum Abbau bestehender Blockaden und der Förderung positiver Faktoren beitragen können. Im Rahmen des Projekts wurde ein kombinierter Ansatz aus einer technologieübergreifenden Innovationssystemanalyse sowie dreier technologiespezifischer, vertiefender Fallstudien zur Untersuchung konkreter Schlüsseltechnologien gewählt. Der Innovationssystemansatz basierte auf einer umfassenden Literatur- und Datenanalyse und lieferte ein Untersuchungsraster für die drei Fallstudien. Dabei zielte die Innovationssystemanalyse primär auf das Erfassen und Strukturieren der zentralen hemmenden und fördernden Faktoren ab, welche in den Fallstudien konkret untersucht und bewertet wurden. Als Fallstudien wurden ausgewählt: Nanoelektronik als eine Querschnittstechnologie, Windenergie als eine Anwendungstechnologie, MP3-Player und Mini-Beamer als Anwendungen bzw. Produktinnovationen. Im Rahmen dieser Fallstudien wurden jeweils mehrere Experteninterviews mit relevanten Interessenvertretern sowie ein Workshop im Deutschen Bundestag in Berlin mit Vertretern aus Wissenschaft, Wirtschaft und Politik durchgeführt. Die Ergebnisse der drei Fallstudien wurden über das Untersuchungsraster harmonisiert, um abschließend die identifizierten Blockaden und abgeleiteten Maßnahmen bzw. Handlungsoptionen auf einer verallgemeinerten Basis vergleichend zu betrachten. Dabei wurden Blockaden mit geeigneten Maßnahmen in Beziehung gesetzt und mögliche Beiträge für involvierte Akteure identifiziert, mittels derer der Abbau bestehender Blockaden und die Etablierung neuer Schlüsseltechnologien unterstützt werden könnte. INHALT ZUSAMMENFASSUNG 5 I. EINLEITUNG 17 II. BLOCKADEN: EINE LITERATUR- UND DATENANALYSE 23 1. Innovationsdeterminanten 24 2. Innovationsarten und Innovationsphasen 30 3. Blockaden im internationalen Vergleich 43 3.1 Blockaden aus Sicht der Wirtschaft 43 3.2 Blockaden in der Kostendimension 50 3.3 Blockaden in der Wissensdimension 55 3.4 Blockaden in der Marktdimension 65 3.5 Blockaden in der institutionellen Dimension 71 3.6 Blockaden in weiteren Dimensionen 76 4. Zusammenfassung und Hypothesenbildung 78 III. INNOVATIVE SCHLÜSSELTECHNOLOGIEN 83 1. Indikatoren zur Bestimmung innovativer Schlüsseltechnologien 83 2. Auswahl dreier Fallbeispiele 88 3. Vorgehensweise für die Fallstudienanalyse 92 IV. FALLSTUDIE NANOELEKTRONIK 97 1. Technologiebeschreibung 97 1.1 Entwicklung und Stand der Nanoelektronik 97 1.2 Innovationssystem Nanoelektronik 102 2. Blockaden 109 2.1 Blockaden im Bereich »More Moore« 110 2.2 Blockaden im Bereich »More than Moore« 112 2.3 Blockaden im Bereich »Beyond CMOS« 114 2.4 Blockaden im »Innovationssystem Nanoelektronik« 115 2.5 Blockaden – eine Zusammenfassung 118 3. Akteursspezifische Maßnahmen 119 3.1 Maßnahmen im Bereich »More Moore« 119 3.2 Maßnahmen im Bereich »More than Moore« 127 3.3 Maßnahmen im Bereich »Beyond CMOS« 133 3.4 Maßnahmen im »Innovationssystem Nanoelektronik« 138 V. FALLSTUDIE WINDENERGIE 145 1. Technologiebeschreibung 145 1.1 Innovationssystem Windkraft 147 1.2 Entwicklung und Stand der Windenergie 150 2. Blockaden 160 2.1 Blockaden in der Forschung und Entwicklung 160 2.2 Blockaden bei der Umsetzung 165 2.3 Blockaden bei der Diffusion in die Breite 171 3. Akteursspezifische Massnahmen 177 3.1 Maßnahmen für die Politikakteure 177 3.2 Maßnahmen für die Wissenschaftsakteure 184 3.3 Maßnahmen für die Wirtschaftsakteure 185 VI. FALLSTUDIE MP3-PLAYER UND MINI-BEAMER 189 1. Technologiebeschreibung 189 1.1 Entwicklung und Stand der MP3-Technologie 189 1.2 Vergleich von MP3-Player und Mini-Beamer 200 2. Blockaden 202 2.1 Blockaden in der Kostendimension 203 2.2 Blockaden in der Wissensdimension 204 2.3 Blockaden in der Marktdimension 205 2.4 Blockaden in der institutionellen Dimension 208 2.5 Blockaden in weiteren Dimensionen 209 2.6 Blockaden – eine Zusammenfassung 209 3. Akteursspezifische Maßnahmen 212 VII. BLOCKADEN BEI DER ETABLIERUNG NEUER SCHLÜSSELTECHNOLOGIEN: EINE VERGLEICHENDE ANALYSE 217 1. Technologiespezifische und -übergreifende Blockaden 217 2. Zusammenfassung übergreifender Blockaden 228 3. Maßnahmen zum Abbau der Blockaden 231 VIII. LITERATUR 239 IX. ANHANG 245 1. Tabellenverzeichnis 245 2. Abbildungsverzeichnis 24

    Eine agentenbasierte Architektur für Programmierung mit gesprochener Sprache

    Get PDF
    Sprachgesteuerte Computersysteme werden heutzutage von Millionen von Nutzern verwendet; Chatbots, virtuelle Assistenten, wie Siri oder Google Assistant, und Smarthomes sind längst fester Bestandteil des Alltags vieler Menschen. Zwar erscheinen derartige Systeme inzwischen intelligent; tatsächlich reagieren sie aber nur auf einzelne Befehle, die zudem bestimmte Formulierungen erfordern. Die Nutzer sind außerdem auf vorgefertigte Funktionalitäten beschränkt; neue Befehle können nur von Entwicklern einprogrammiert und vom Hersteller zur Verfügung gestellt werden. In Zukunft werden Nutzer erwarten, intelligente Systeme nach ihren Bedürfnissen anzupassen, das heißt programmieren zu können. Das in dieser Arbeit beschriebene System ProNat ermöglicht Endnutzer-Programmierung mit gesprochener Sprache. Es befähigt Laien dazu, einfache Programme für unterschiedliche Zielsysteme zu beschreiben und deren Funktionalität zu erweitern. ProNat basiert auf PARSE, einer eigens entworfenen agentenbasierten Architektur für tiefes Sprachverständnis. Das System ermöglicht die Verwendung alltäglicher Sprache zur Beschreibung von Handlungsanweisungen. Diese werden von ProNat als Programm für ein Zielsystem interpretiert, das eine Anwendungsschnittstelle zur Endnutzer-Programmierung anbietet. Bisherige Ansätze zur Programmierung mit natürlicher Sprache ermöglichen nur die Erzeugung kurzer Programme anhand textueller Beschreibungen. Da die meisten Systeme monolithisch entworfen wurden, können sie zudem nur mit großem Aufwand adaptiert werden und sind überwiegend auf die Anwendung einer Technik (z. B. maschinelles Lernen) sowie auf eine Anwendungsdomäne festgelegt (z. B. Tabellenkalkulation). Ansätze, die gesprochene Sprache verarbeiten, können hingegen bisher nur einzelne Befehle erfassen. Um die Restriktionen bisheriger Ansätze aufzuheben, wird eine neuartige Architektur entworfen. Die Kernkomponenten der Architektur PARSE bilden unabhängige Agenten, die je einen bestimmten Aspekt der natürlichen Sprache analysieren. Die Kapselung in unabhängige Agenten ermöglicht es, je Teilaspekt zum Verständnis der Sprache eine andere Technik zu verwenden. Die Agenten werden nebenläufig ausgeführt. Dadurch können sie von Analyseergebnissen anderer Agenten profitieren; unterschiedliche Sprachanalysen können sich so gegenseitig unterstützen. Beispielsweise hilft es, sprachliche Referenzen wie Anaphern aufzulösen, um den Kontext des Gesagten zu verstehen; manche Referenzen können wiederum nur mithilfe des Kontextes aufgelöst werden. Ihr Analyseergebnisse hinterlegen die Agenten in einer geteilten Datenstruktur, einem Graphen. Die Architektur stellt sicher, dass keine Wettlaufsituationen eintreten und nur gültige Änderungen am Graphen durchgeführt werden. Die Agenten werden so lange wiederholt ausgeführt, bis keine oder nur noch zyklische Änderungen eintreten. Neben den Agenten gibt PARSE die Verwendung von Fließbändern zur Vor- und Nachverarbeitung vor. Zudem können externe Ressourcen, wie Wissensdatenbanken oder Kontextmodellierungen, angeschlossen werden. Das System ProNat entsteht, indem konkrete Agenten und Fließbandstufen für die Rahmenarchitektur PARSE bereitgestellt werden. Zusätzlich werden Informationen über die Anwendungsdomäne (das heißt die Anwendungsschnittstelle des Zielsystems und gegebenenfalls eine Modellierung der Systemumgebung) in Form von Ontologien als externe Ressource angebunden. Eine gesprochene Äußerung wird von ProNat vorverarbeitet, indem zunächst das Audiosignal in eine textuelle Wortsequenz überführt wird. Anschließend erfolgt eine grundlegende syntaktische Analyse, bevor ein initialer Graph als Analysegrundlage für die Agenten erzeugt wird. Die Interpretation des Gesagten als Programm obliegt den Agenten. Es wurden sechzehn Agenten entwickelt, die sich in drei Kategorien unterteilen lassen: Erstens, Agenten, die allgemeine Sprachverständnis-Analysen durchführen, wie die Disambiguierung von Wortbedeutungen, die Auflösung von sprachlichen Referenzen oder die Erkennung von Gesprächsthemen. Zweitens, Agenten, die das Gesagte auf programmatische Strukturen, wie Anwendungsschnittstellenaufrufe oder Kontrollstrukturen, untersuchen; hierzu zählt auch ein Agent, der aus verbalisierten Lehrsequenzen Methodendefinitionen synthetisiert. Da die Agenten unabhängig voneinander agieren, kann zur Lösung der jeweiligen Problemstellung eine beliebige Technik eingesetzt werden. Die Agenten zur Erkennung von Kontrollstrukturen verwenden beispielsweise Heuristiken, die auf syntaktischen Strukturen basieren, um ihre Analysen durchzuführen. Andere Agenten, wie die Agenten zur Disambiguierung von Wortbedeutungen oder zur Bestimmung der Gesprächsthemen, verwenden Wikipedia, Wordnet oder ähnliche Quellen und inferieren anhand dieser Informationen. Zuletzt verwenden einige Agenten, wie beispielsweise der Agent zur Erkennung von Lehrsequenzen, maschinelles Lernen. Die Interpretation einer gesprochenen Äußerung erfolgt dementsprechend mittels einer Kombination von sowohl regel- als auch statistik- und wissensbasierten Techniken. Dank der strikten Trennung der Agenten können diese einzeln (und zumeist unabhängig voneinander) evaluiert werden. Hierzu wurden parallel zur Entwicklung der Agenten fortwährend mithilfe von Nutzerstudien realistische Eingabebeispiele gesammelt. Für jeden Agenten kann somit überprüft werden, ob er einen zufriedenstellenden Beitrag zur Interpretation des Gesagten beiträgt. Das gemeinschaftliche Analyseergebnis der Agenten wird in der Nachverarbeitung sukzessive in ein konkretes Programm übersetzt: Zunächst wird ein abstrakter Syntaxbaum generiert, der anschließend in Quelltext zur Steuerung eines Zielsystems überführt wird. Die Fähigkeit des Systems ProNat, aus gesprochenen Äußerungen Quelltext zu generieren, wurde anhand von drei unabhängigen Untersuchungen evaluiert. Als Datengrundlage dienen alle in den Nutzerstudien gesammelten natürlichsprachlichen Beschreibungen. Zunächst wurden für eine Online-Studie UML-Aktivitätsdiagramme aus gesprochenen Äußerungen generiert und 120 Probanden zur Bewertung vorgelegt: Der überwiegende Teil der Aktivitätsdiagramme (69%) wurde von der Mehrheit der Probanden als vollständig korrekt eingestuft, ein vielversprechendes Ergebnis, da die gesprochenen Äußerungen die Synthese von bis zu 24 Anweisungen (bzw. Aktivitäten) sowie Kontrollstrukturen erfordern. In einer zweiten Untersuchung wurde Java-Quelltext, bestehend aus Aufrufen einer Anwendungsschnittstelle zur Steuerung eines humanoiden Roboters, synthetisiert und mit einer Musterlösung verglichen: ProNat konnte Aufrufe meist korrekt erzeugen (F1: 0,746); auch die Synthese von Kontrollstrukturen gelingt in 71% der Fälle korrekt. Zuletzt wurde untersucht, wie gut ProNat anhand von natürlichsprachlichen Beschreibungen neue Funktionen erlernen kann: Verbalisierte Lehrsequenzen werden mit einer Genauigkeit von 85% in Äußerungen erkannt. Aus diesen leitet ProNat Methodendefinitionen ab; dabei gelingt es in über 90% der Fälle, einen sprechenden Methodennamen zu erzeugen. Auch der Aufruf der neu erlernten Funktion (durch natürlichsprachliche Anweisungen) gelingt mit einer Genauigkeit von 85%. Zusammengenommen zeigen die Untersuchungen, dass ProNat grundsätzlich in der Lage ist, Programme aus gesprochenen Äußerungen zu synthetisieren; außerdem können neue Funktionen anhand natürlichsprachlicher Beschreibungen erlernt werden

    Towards a Trust Concept for Web Based Services of Heating, Ventilation and Air Conditioning Systems in the Smart Home

    Get PDF
    Usage of smart home solutions implies generation, processing, and storage of machine and personal data. Recently made public cases of data breaches and misuse increased peoples’ concerns of data security and decreased the trust in secure data handling and smart home technologies. Hence potential benefits are not exploited. It is therefore necessary to analyse how manufacturers can increase their online trust perception. Requirements of (potential) customers of web based services for HVAC systems are identified using thematic analysis for 23 conducted interviews using online trust perception literature as basis. Manufacturer independent websites are derived as the most important online touch point for customers with manufacturers and products. Determined content and structure measures for online touch points managed by manufacturers derived to positively influence the manufacturer and manufacturer independent touch points regarding perception of trust. The derived trust concept must be evaluated in the following using the defined evaluation plan

    An Adaptive E-Learning System based on Student’s Learning Styles and Knowledge Level

    Get PDF
    Es besteht eine starke Nachfrage nach einer positiven Applikation zum Lernen, um den strategischen Plan des indonesischen Ministeriums für Bildung und Kultur zu fördern, dass die Ratio von Berufsschule höher als die allgemeinbildende Schule werden kann. Die rasante entwicklung der Informations- und Kommunikationstechnologie könnte es ermöglichen, den Lernenden ein computergestütztes, personalisiertes E-Learning-System zur Verfügung zu stellen, um die Tatsache zu überwinden, dass jeder Lernende seine eigene Präferenz hat. Diese Studie bietet ein adaptives E-Learning-System, bei dem zwei Quellen der Personalisierung berücksichtigt werden: der Lernstil des Schülers und das Vorwissen. Um die Wirksamkeit des vorgeschlagenen E-Learning-Programms zu untersuchen, werden die Leistungen der Schüler bezüglich der drei niedrigsten Ebenen im kognitiven Bereich (Wissen, Verständnis und Anwendung) in der E-Learning-Gruppe mit denen der traditionellen Unterrichtsgruppe verglichen. Ein weiterer interessanter Bereich ist die sogannte schülerperspektive Usability-Bewertung und die Beziehung zwischen den Usability-Fragebogen angegebenen Aspekten zu erforschen. Der Entwurfs- und Entwicklungsprozess des adaptiven E-Learning-Systems in dieser Studie berücksichtigte sowohl das Instruktionsdesign als auch das Software-Engineering. Die erste Phase begann mit der Analyse des Kandidaten der Teilnehmer, des Fachkurses und des Online-Liefermediums. Der nächste Schritt bestand darin, die Prozedur, die Regelwerk der Adaptation und die Benutzeroberfläche zu entwerfen. Dann wurde Entwicklungsprozess des Lehrsystems auf der Grundlage der aus den vorherigen Phasen gesammelten Daten durchgeführt. Die nächste Phase war die Implementierung des Unterrichtsprogramms für die Schüler in einer kleinen Gruppe. Schließlich wurde die E-Learning-Anwendung in drei verschiedenen Teststrategien bewertet: Funktionsbasiertes Testen, Expertenbasierte Bewertung und benutzerperspektivische Bewertung. Die nächste Aktion ist eine experimentelle Studie, bei der das adaptive E-Learning-System im Lernprozess angewendet wird. An diesem Experiment waren zwei Gruppen beteiligt. Die Experimentalgruppe bestand aus 21 Studenten, die den Unterrichtsfach Digital Simulation mithilfe des adaptiven E-Learning-Systems lernten. Eine andere Gruppe war die Kontrollgruppe, die 21 Schüler umfasste, die dasselbe Unterrichtsfach in der traditionellen Klasse lernten. Es wurden zwei Instrumente verwendet, um die erforderlichen Daten zu erheben. Das erste Instrument bestand aus 30 Multiple-Choice-Fragen, die die kognitiven Ebenen von Wissen, Verstehen und Anwendung enthielten. Dieses Instrument wurde verwendet, um die Schülerleistung bei dem obengeschriebenen Unterrichtsfach zu bewerten. Das zweite Instrument war der Usability-Fragebogen, der aus 30 4-Punkte-Likert Aussagen bestand. Dieser Fragebogen bestand aus vier Dimensionen nämlich Nützlichkeit, Benutzerfreundlichkeit, Lernfreundlichkeit und Zufriedenheit. Mit diesem Fragebogen wurde die Usability der adaptiven E-Learning-Applikation basierend auf die Perspektive des Schülers bewertet. Der Befund dieser Studie ergab ein ungewöhnliches Phänomen, bei dem das Ergebnis des Pre-Tests der Kontrollgruppe signifikant höher als Experimentalgruppe. Zum Post-Test Vergleich, obwohl die Leistung der E-Learning Gruppe höher als der von der regulären war, war der Unterschied zwischen den beiden statistisch nicht signifikant. Der Vergleich der Punktzahlsteigerung wurde gemacht, um zu untersuchen, welche Behandlungsgruppe effektiver war. Die Ergebnisse zeigten, dass die gesamte Punktzahlsteigerung von der Experimentalgruppe signifikant höher als die von der Kontrollgruppe war. Diese Beweise waren auch im Hinblick auf das Wissen, das Verständnis und die Anwendungsebene des kognitiven Bereichs gültig. Diese Ergebnisse bestätigten, dass die Gruppe des adaptiven E-Learning-Systems bezüglich ihrer Leistung effektiver war als die Gruppe der Studenten, die in der traditionellen Klasse lernten. Ein weiterer wichtiger Befund betraf die Bewertung der Usability. Die Punktzahl der Messung wurde anhand verschiedener Ansätze analysiert und ergab, dass der Usability-Score in allen Aspekten (Nützlichkeit, Benutzerfreundlichkeit, Lernfreundlichkeit und Zufriedenheit) den akzeptablen Kriterien zuzuordnen ist. Darüber hinaus wurde die Regressionsanalyse durchgeführt, um die Beziehung zwischen den Variablen zu untersuchen. Der erste Befund ergab, dass die unabhängigen Variablen (Nützlichkeit, Benutzerfreundlichkeit und Lernfreundlichkeit) gleichzeitig die abhängige Variable (Zufriedenheit) beeinflussten. In der Zwischenzeit ergab der Teil t-Test unterschiedliche Ergebnisse. Die Ergebnisse zeigten, dass die variable Benutzerfreundlichkeit die variable Zufriedenheit signifikant beeinflusste. Der variable Nützlichkeit und die Lernfreundlichkeit wirkten sich indessen nicht signifikant auf die variable Zufriedenheit aus.There is a strong demand for a positive instructional application in order to address the strategic plan of the Ministry of Education and Culture in Indonesia to change the ratio of vocational secondary school to be higher than the general school one. The immense growth of information and communication technology may be possible to provide a computer-based personalized e-learning system to the learners in order to overcome the fact that each student has their own preferences in learning. This study offers an adaptive e-learning system by considering two sources of personalization: the student’s learning style and initial knowledge. In order to investigate the effectiveness of the proposed e-learning program, the students’ achievement in terms of three lowest levels in the cognitive domain (knowledge, comprehension, and application) in the e-learning group is compared with the traditional classroom group. Another area that is interesting to explore is the usability evaluation based on the students’ perspective and the relationship between aspects specified in the usability questionnaire. The design and development process of the adaptive e-learning system in this study was considering both the instructional system design and software engineering. The first phase was started by analyzing the participants’ candidate, the subject course, and the online delivery medium. The next step was designing the procedure, the adaptation set of rules, and the user interface. Then, the process to develop the instructional system based on the data collected from the previous phases was conducted. The next stage was implemented the instructional program to the students in a small group setting. Finally, the e-learning application was evaluated in three different settings: functional-based testing, experts-based assessment, and user-perspective evaluation. The next action is an experimental study by applying the adaptive e-learning system to the learning process. There were two groups involved in this experiment. The experimental group that consisted of 21 students who learned the Digital Simulation course by utilizing the adaptive e-learning system. Another group was the control group that included 21 students who studied the same course through the traditional classroom setting. There were two instruments used to collect the required data. The first instrument contained 30 multiple-choice questions that considered the cognitive levels of knowledge, comprehension, and application. This instrument was used to assess the student achievement of the intended course. The second instrument was the usability questionnaire that consisted of 30 4-point Likert scale statements. This questionnaire was composed of four dimensions, namely usefulness, ease of use, ease of learning, and satisfaction. This questionnaire aimed to evaluate the usability of the adaptive e-learning application based on the student’s perspective. The finding in this study revealed an unusual phenomenon which the pre-test result of the control group was significantly exceeding those of the experimental group. For the post-test score comparison, although there was a higher achievement in the e-learning group than in the regular group, the difference between both achievements was not statistically significant. The comparison in terms of the gain score was conducted in order to investigate which treatment group was more effective. The results indicated that the total gain score achieved by the experimental group was significantly higher than those recorded by the control group. This evidence was also valid with regard to the knowledge, comprehension, and application-level of the cognitive domain. These findings confirmed that the group who utilized the adaptive e-learning system was reported more effective in terms of the achievement score than the group of students who studied in the traditional setting. Another important finding was related to usability evaluation. The measurement score was analyzed through different approaches and revealed that the usability score categorized in the acceptable criteria in all aspects (usefulness, ease of use, ease of learning, and satisfaction). Furthermore, the regression analysis was conducted in order to explore the relation between the variables. The first finding reported that the independent variables (usefulness, ease of use, and ease of learning) simultaneously influenced the dependent variable (satisfaction). In the meantime, the partial t-Test found varying results. The results indicated that the variable ease of use was significantly influenced variable satisfaction. Meanwhile, variable usefulness and ease of learning were not significantly affected variable satisfaction

    Networking in TA

    Get PDF

    Substitution von PVC bei Kunststoff-Fensterprofilen

    Get PDF
    corecore