1,432 research outputs found

    Rezension: UR, PENNY & ANDREW WRIGHT (Hrsg.): 111 Kurzrezepte für den Deutsch-Unterricht (DaF)

    Get PDF
    Der DaF-Unterricht hat schon seit langem eine solche "Rezept"-Sammlung gebraucht, die für viele DeutschlehrerInnen in West- und Ost-Europa, Asien oder Afrika sehr hilfreich sein könnte. Die Idee von einem entspannten, lockeren Fremdsprachenunter richt, der erfolgreich ist und gleichzeitig Spaß macht, ist nicht neu. Auch der Wille, so zu unterrichten ist vorhanden. Nur wie macht man's

    Bildung in der digitalen Transformation

    Get PDF
    Die Coronapandemie und der durch sie erzwungene zeitweise Übergang von Präsenz- zu Distanzlehre haben die Digitalisierung des Bildungswesens enorm vorangetrieben. Noch deutlicher als vorher traten dabei positive wie negative Aspekte dieser Entwicklung zum Vorschein. Während den Hochschulen der Wechsel mit vergleichsweise geringen Reibungsverlusten gelang, offenbarten sich diese an Schulen weitaus deutlicher. Trotz aller Widrigkeiten erscheint eines klar: Die zeitweisen Veränderungen werden Nachwirkungen zeigen. Eine völlige Rückkehr zum Status quo ante ist kaum noch vorstellbar. Zwei Fragen bestimmen vor diesem Hintergrund die Doppelgesichtigkeit des Themas der 29. Jahrestagung der Gesellschaft für Medien in der Wissenschaft (GMW). Erstens: Wie ‚funktioniert‘ Bildung in der sich derzeit ereignenden digitalen Transformation und welche Herausforderungen gibt es? Und zweitens: Befindet sich möglicherweise Bildung selbst in der Transformation? Beiträge zu diesen und weiteren Fragen vereint der vorliegende Tagungsband

    Automatische Wiederherstellung von Nachverfolgbarkeit zwischen Anforderungen und Quelltext

    Get PDF
    Für die effiziente Entwicklung, Wartung und Pflege von Softwaresystemen spielt ein umfassendes Verständnis der Zusammenhänge zwischen den Softwareentwicklungsartefakten eine entscheidende Rolle. Die Nachverfolgbarkeit dieser Zusammenhänge ermöglicht es beispielsweise, vergangene Entwurfsentscheidungen nachzuvollziehen oder die Auswirkungen von Änderungen zu berücksichtigen. Das manuelle Erstellen und Pflegen dieser Nachverfolgbarkeitsinformationen ist allerdings mit hohem manuellem Aufwand und damit potenziell hohen Kosten verbunden, da meist menschliche Expertise zum Verständnis der Beziehungen erforderlich ist. Dies sorgt dafür, dass in den meisten Softwareprojekten diese Informationen nicht zur Verfügung stehen. Könnten Nachverfolgbarkeitsinformationen zwischen Softwareartefakten allerdings automatisch generiert werden, könnte die Entwicklung, Wartung und Pflege einer Vielzahl von Softwaresystemen effizienter gestaltet werden. Bestehende Ansätze zur automatischen Wiederherstellung von Nachverfolgbarkeitsverbindungen zwischen Anforderungen und Quelltext sind nicht in der Lage, die semantische Lücke zwischen den Artefakten zu überbrücken. Sie erzielen zu geringe Präzisionen auf akzeptablen Ausbeuteniveaus, um in der Praxis eingesetzt werden zu können. Das in dieser Arbeit vorgestellte Verfahren FTLR zielt durch einen semantischen Ähnlichkeitsvergleich auf eine Verbesserung der automatischen Wiederherstellung von Nachverfolgbarkeitsverbindungen zwischen Anforderungen und Quelltext ab. FTLR setzt hierzu vortrainierte fastText-Worteinbettungen zur Repräsentation der Semantik ein. Außerdem macht es sich strukturelle Informationen der Anforderungen und des Quelltextes zunutze, indem es anstatt auf Artefaktebene auf Ebene der Teile der Anforderungen und des Quelltextes abbildet. Diese Abbildung geschieht durch den Einsatz der Wortüberführungsdistanz, welche einen semantischen Ähnlichkeitsvergleich, der nicht durch Aggregation verfälscht wird, ermöglicht. Die eigentliche Bestimmung der Nachverfolgbarkeitsverbindungen erfolgt daraufhin durch einen Mehrheitsentscheid über alle feingranularen Zusammenhänge eines Artefakts, um die vorherrschenden Aspekte zu bestimmen und ggf. irrelevante Zusammenhänge zu ignorieren. In einem Experiment auf sechs Vergleichsdatensätzen konnte gezeigt werden, dass der Einsatz der Wortüberführungsdistanz gegenüber einer einfachen, aggregierten Vektorabbildung zu einer signifikanten Verbesserung der Identifikation von Nachverfolgbarkeitsverbindungen führt. Ebenso zeigte die Abbildung auf feingranularer Ebene mit anschließender Aggregation durch einen Mehrheitsentscheid signifikante Verbesserungen gegenüber der direkten Abbildung auf Artefaktebene. Um die Präzision FTLRs weiter zu erhöhen, wird ein Ansatz zum Filtern von irrelevanten Teilen von Anforderungen eingesetzt. Dieser basiert auf einer Klassifikation der Anforderungselemente mittels eines sprachmodellbasierten Klassifikators. Entscheidend für die Anwendung in FTLR ist dabei eine Anwendbarkeit auf ungesehene Projekte. Der vorgestellte Klassifikator NoRBERT nutzt Transferlernen, um große vortrainierte BERT-Sprachmodelle auf die Klassifikation von Anforderungen feinanzupassen. Hierdurch ist NoRBERT in der Lage, vielversprechende Ergebnisse auf ungesehenen Projekten zu erzielen. Das Verfahren war in der Lage, auf ungesehenen Projekten eine Abbildungsgüte von bis zu 89,8 % im F1-Maß zu erzielen. Durch das Bestimmen, ob ein Anforderungselement keine funktionalen Aspekte enthält, lassen sich irrelevante Teile der Anforderungen vor der Verarbeitung durch FTLR herausfiltern. Ein Vergleich der Leistung FTLRs mit und ohne einen derartigen Anforderungselementfilter ergab, dass ein signifikanter Leistungszuwachs im F1-Maß durch das Filtern erzielt werden kann. FTLR erzielt hierbei Werte im F1-Maß von bis zu 55,5 % und im Mittelwert der durchschnittlichen Präzision von 59,6 %. Neben der Repräsentation der Semantik durch ausschließlich auf natürlichsprachlichem Text vortrainierten Worteinbettungen wurden außerdem bimodale Sprachmodelle für den Einsatz in FTLR untersucht. Diese auf großen dualen Korpora, bestehend aus Quelltextmethoden und ihrer natürlichsprachlichen Dokumentation, vortrainierten Sprachmodelle erzielen in verwandten Aufgabenstellungen aus der Softwaretechnik, wie Quelltextsuche oder Fehlerlokalisierung, vielversprechende Ergebnisse. Um die Eignung für die automatische Wiederherstellung von Nachverfolgbarkeitsverbindungen zwischen Anforderungen und Quelltext zu untersuchen, wurden zwei Integrationsmöglichkeiten des bimodalen Sprachmodells UniXcoder in FTLR entwickelt. In einem Vergleich auf fünf Datensätzen zur Wiederherstellung von Nachverfolgbarkeitsverbindungen zwischen Anforderungen und Quelltext konnte kein Leistungszuwachs durch den Einsatz dieser Art von Modellen gegenüber den leichtgewichtigeren Worteinbettungen festgestellt werden. Abschließend wurde die Leistung FTLRs in Bezug zu bestehenden Ansätzen zur unüberwachten automatischen Wiederherstellung von Nachverfolgbarkeitsverbindungen zwischen Anforderungen und Quelltext gesetzt. Hierbei zeigt sich, dass FTLR auf Projekten, die ausschließlich objektorientierten Quelltext enthalten, eine höhere durchschnittliche Präzision und ein höheres F1-Maß als bestehende Verfahren erzielt. Allerdings verdeutlichen die Ergebnisse auch, dass, insbesondere auf großen Projekten, alle bestehenden Ansätze und auch FTLR noch weit von einer Abbildungsgüte entfernt sind, die es für eine vollständige Automatisierung der Wiederherstellung von Nachverfolgbarkeitsverbindungen in der Praxis benötigt

    Über die Formalisierung und Analyse medizinischer Prozesse im Kontext von Expertenwissen und künstlicher Intelligenz

    Get PDF
    Ihrer Arbeit in der Originalsprache: Die Digitalisierung hat bereits viele Bereiche der Wirtschaft und des gesellschaftlichen Lebens verändert. Auch unterliegen die Aspekte des Gesundheitswesens und der klinischen Praxis einem digitalen Wandel. Im Hinblick auf diese Entwicklungen beleuchtet die vorliegende Dissertation die Akquisition, Repräsentation und Nutzung von Prozesswissen im Kontext hybrider KI-Methoden. Zentraler Beitrag ist die strukturerhaltende Hin- und Rücktransformation von Prozessbäumen zu Prozessplänen

    Konzeptionelle Erstellung einer universellen Versuchsanlage für moderne Zugbeeinflussungssysteme

    Get PDF
    Das System Eisenbahn erfordert technische Lösungen und umfangreiche Vorschrif-ten, um das komplexe Zusammenwirken der beteiligten Komponenten trotz vielfäl-tiger Randbedingungen zu einem sicheren Verkehrssystem zu kombinieren. Um die Einhaltung der Vorgaben sicherzustellen, überwachen Zugbeeinflussungssysteme das Handeln des Triebfahrzeugführers. Durch die Harmonisierung des europäi-schen Eisenbahnverkehrs und die damit verbundene Einführung des European Train Control System kommt dabei ein komplexes, umfangreiches und leistungsfä-higes Zugbeeinflussungssystem zum Einsatz. Um auch zukünftig den Bedarf an sehr gut ausgebildeten Fachkräften der Bahnsicherungstechnik decken zu können, be-steht der Wunsch nach einer generischen Versuchsanlage für moderne Zugbeein-flussungssysteme, die sowohl zur Ausbildung angehender Ingenieure als auch zur Forschung und Weiterentwicklung bestehender Systeme angewendet werden kann. Für die Errichtung dieser Versuchsanlage wird in dieser wissenschaftlichen Arbeit ein Konzept entwickelt. Dabei wird ein generisches Modell des Bahnsystems mit dem Fokus auf moderne Zugbeeinflussungssysteme entwickelt. Hierbei stehen ein modularer Aufbau und die Verwendung von standardisierten Schnittstellen zur Da-tenübertragung im Vordergrund. Die Möglichkeiten zur Umsetzung werden be-schrieben und diskutiert, praktische Anwendungsvarianten werden vorgestellt

    Task Allokation für effiziente Edge Computing Systeme

    Get PDF
    Im Bereich von Edge Computing nimmt die Rechenleistung in direkter Nähe zu den Sensoren stetig zu. Infolgedessen gibt es immer mehr rechen- und datenintensive Anwendungen, die im Edge Bereich ausgeführt werden können. Gleichzeitig befinden sie sich in einer sich ständig verändernden Systemumgebung. Um Ausfallzeiten und lange Redesign-Schleifen zu reduzieren, werden Selbstanpassungsfähigkeiten benötigt. Die automatische Reallokation der ausgeführten Aufgaben auf die Rechenknoten ist eine mögliche Selbstanpassungsmaßnahme. Die Reallokation sollte jedoch mit den verschiedenen Anforderungen, Einschränkungen und Spezifikationen des Entwurfs konform sein. Dabei besteht eine große Herausforderung darin, dass die Allokationsentscheidung schnell genug für die Berechnung zur Laufzeit sein sollte. Der Fokus dieser Arbeit ist die Realisierung einer effizienten Allokation, die Bedürfnisse in Form von Policies nutzt, um eine automatische Reallokation zur Laufzeit zu berechnen. In dieser Arbeit wurde eine effiziente Allokationsmethode entwickelt, die eine kombinierte Betrachtung von Ressourcenverfügbarkeit, Anwendungsbedarf und problemspezifischer Effizienzdefinition realisiert. Der Ansatz verfolgt eine modulare Beschreibung dieser Aspekte für die Allokation in Form von komponentenspezifischen Policies. Ein besonderer Schwerpunkt liegt auf der Allokation aufgrund von Veränderungen im laufenden Betrieb. Hierfür wird das Zuordnungsproblem zur Entwicklungszeit modelliert und die Informationen im Betrieb genutzt. Mit diesem Konzept konnten zwei industrielle Anwendungen modelliert und unterschiedliche Zuordnungen berechnet werden. Die Skalierbarkeit des Konzepts wurde durch Messungen validiert. Die Reallokation zur Laufzeit wurde mit einem Container Framework implementiert. Darauf aufbauend wurde der Overhead der Allokationsberechnung zur Laufzeit gemessen und in den Kontext der Reallokationszeit gesetzt. Die Berechnung einer effizienten Allokation trägt zur Autonomie von Recheninfrastrukturen bei. Dadurch erhöhen sich die Fähigkeiten zur Selbstadaption und die Resilienz dieser Rechennetze. Das spielt nicht nur im industriellen Edge-Cloud Kontext eine Rolle, sondern auch im Automobil, wenn zur Laufzeit über dynamische Betriebsstrategien entschieden werden soll

    Kategorisierung und Visualisierung von Datenschutzaspekten in Geschäftsprozessmodellen

    Get PDF
    In Zeiten zunehmender Digitalisierung gewinnt das Geschäftsprozessmanagement an Bedeutung. Hierbei werden relevante Geschäftsprozesse erhoben, analysiert, optimiert und umgesetzt. Ein wichtiger Bestandteil des Geschäftsprozessmanagements ist die grafische Modellierung der Prozesse. Die entstehenden Geschäftsprozessmodelle können unter anderem auch zur Wahrung der Compliance im Unternehmen beitragen. Ein aktuell viel diskutierter Bereich ist hier die Einhaltung des Datenschutzrechts, insbesondere der EU-DSGVO. Geschäftsprozessmodelle sind hier einerseits Unterstützung, um die dort verankerten Dokumentationspflichten zu erfüllen. Andererseits können die Prozessmodelle aber auch bei der Identifizierung und Optimierung von datenschutzrelevanten Vorgängen unterstützen. Allerdings lassen sich derartige Informationen in Prozessmodellen der verbreiteten Modellierungsnotationen nicht besonders leicht erkennen, da der Datenschutz nicht im Fokus der Entwickler steht und die Modellierungsnotationen keine speziellen Werkzeuge für die Repräsentation von Datenschutzaspekten enthalten. Diese Arbeit beschreibt daher ein Konzept, Datenschutz in Prozessmodellen möglichst einfach nachvollziehbar darzustellen, indem einzelne Elemente der Geschäftsprozessmodelle in verschiedene Kategorien der Datenschutzrelevanz einsortiert und entsprechend in einer Ampelnotation eingefärbt werden. Die Grundlage hierfür bildet eine komplexe Systematik zur Kategorisierung der Modellelemente auf Basis verschiedener aus der DSGVO abgeleiteter Kriterien. Zu dem Konzept werden noch einige mögliche Ergänzungen vorgestellt. Darüber hinaus wird ein Prototyp gezeigt, der die Kategorisierung teilweise automatisiert. Hierfür wird unter Anderem auf Technologien aus dem Bereich des Maschinellen Lernens zurückgegriffen. Sowohl das Konzept selbst als auch der Prototyp werden positiv evaluiert
    corecore