3 research outputs found

    Jonah : ein System zur Validierung von Reduktionsdiagrammen in nichtdeterministischen Lambda-Kalkülen mit Let-Ausdrücken, Letrec-Ausdrücken und Konstruktoren

    Get PDF
    Ziel dieser Arbeit war es, ein System zu entwickeln, mit dem Sätze von Reduktionsdiagrammen auf ihre Vollständigkeit überprüft werden können. Das System sollte in der puren, funktionalen Programmiersprache Haskell realisiert werden und speziell auf einen nichtdeterministischen Kalkül mit Konstruktoren, einem case-Konstrukt und einem rekursiven let- Ausdruck (letrec) ausgerichtet sein. Dazu wurde in Kapitel 2 der lambda-Kalkül und funktionale Programmiersprachen eingeführt, um die Entwicklung der Kalküle lambda-nd und lambda-nd,rec zu motivieren. Die Basis-Kalküle lambda-nd und lamda-nd,rec wurden in Kapitel 3 bezüglich ihrer Sprachdefinition und Reduktionsregeln vorgestellt. Die Implementierung der beiden Kalküle und der Parser für die verwendete Kernsprache wurden ebenso angegeben wie die Mechanismen zur Markierung und Reduktion der Terme. Die Unterscheidung eines reduzierbaren Terms in NO- und internen Redex, sowie deren Erkennung wurde in diesem Kapitel besonders herausgestellt, da sie die Grundlage für die zu validierenden Reduktionsdiagramme darstellt. Damit ist der Grundstock für diese Arbeit gelegt worden. In Kapitel 4 haben wir kurz Methoden vorgestellt, die lamda-Kalkülen und deren Derivate eine Bedeutung zuzumessen versuchen, um Programme oder Terme miteinander vergleichen zu können. Also nicht nur ihre Termstruktur, sondern ihr Verhalten zu vergleichen. Dabei ist festgestellt worden, daß für nichtdeterministische Kalküle nur eine Methode verfügbar ist, und zwar die der kontextuellen Äquivalenz. Da wir gängige Programmtransformationen dahingehend überprüfen wollten, ob sie der kontextuellen Äquivalenz genügen, also nicht die Auswertung oder das Ergebnis derselben verändern, haben wir ein Kontext-Lemma vorgestellt. Mit Hilfe des Kontext-Lemmas ist es uns möglich gewesen, die Gültigkeit von Beweisen in Reduktionskontexten auf beliebige Kontexte auszudehnen. Für die eigentlichen Beweise werden Reduktionsdiagramme benötigt, die Reduktionsfolgen in verschiedener Weise umstellen. Wir haben die Reduktionsdiagramme ebenfalls in Kapitel 4 definiert. Die Reduktionsdiagramme müssen an jeder Stelle einer Reduktionsfolge anwendbar sein, da sonst die Äquivalenz-Beweise nicht möglich sind. D. h. es müßte bewiesen werden, daß mindestens ein Reduktionsdiagramm einer definierten Menge von Reduktionsdiagrammen für jeden Term und jede seiner Reduktionsfolgen anwendbar ist. Der naive Weg wäre, alle Terme und seine Reduktionsfolgen dahingehend zu überprüfen. Da dies jedoch nicht möglich ist, haben wir uns dazu entschlossen so viele Terme wie möglich zu untersuchen, nicht um die Vollständigkeit der Diagramme zu beweisen, sondern um zu zeigen, daß auf viele verschiedenartige Terme Reduktionsdiagramme erfolgreich angewendet werden können. Die Generierung der Terme haben wir in Kapitel 5 ausführlich dargestellt. In Kapitel 6 haben wir die Sprache zur Darstellung von Reduktionsdiagrammen und die Implementierung der Diagramm-Validierung beschrieben. Weiterhin haben wir ein Verfahren vorgestellt, mit dem wir fehlende Diagramme für Terme suchen und meist auch finden können. Das gesamte System haben wir so aufgebaut, daß eine große Menge an Termen generiert wird, für die Diagramme anwendbar sein müssen. Wenn keines der Diagramme auf einen Term anwendbar ist, also nicht validiert werden kann, dann wird ein passendes Diagramm gesucht. Mit Hilfe des entwickelten Systems Jonah sind in Kapitel 7 verschiedene Programmtransformationen dahingehend überprüft worden, ob die angegebenen Reduktionsdiagramme für große Mengen von Termen gültig sind. Dabei ist als Ergebnis herausgekommen, daß ein vollständiger Satz an Reduktionsdiagrammen für die (cp)-Reduktion nur sehr schwer zu finden ist. Selbst neu hinzugefügte Transformationen, die dabei helfen sollten, die Schwierigkeiten zu umgehen, konnten nicht verwendet werden, da es uns ebenfalls nicht möglich gewesen ist, für sie vollständige Diagrammsätze zu finden. Daraufhin haben wir den Basis-Kalkül zweimal erweitert, um die Schwierigkeiten der (cp)-Diagramme in den Griff zu bekommen. Aber auch diese Ansätze haben kein zufriedenstellendes Ergebnis geliefert. Als positives Ergebnis dieser Arbeit kann aber festgestellt werden, daß das System Jonah bei der Entwicklung nichtdeterministischer Kalküle auf Basis von lambda-Kalkülen eine sehr gute Hilfestellung sein kann, auch wenn es nicht zum vollständigen Beweis der Gültigkeit von Reduktionsdiagrammen dienen kann

    Bewertungen – Erwartungen – Gebrauch: Sprachgebrauchsnormen zur inneren Mehrsprachigkeit an der Universität

    Get PDF
    This study examines norms on variety choice using the example of the University of Salzburg. On the one hand, questionnaires and interviews are examined with quantitative and qualitative methods to detect normative evaluations and expectations. On the other hand, regularities in the actual language use are uncovered through a variable analysis of video recorded university lectures.Die vorliegende Arbeit untersucht Normen zur Varietätenwahl am Beispiel der Universität Salzburg. Dazu werden einerseits Fragebögen und Interviews mittels quantiativer und qualitativer Methoden auf normative Bewertungen und Erwartungen untersucht. Andererseits werden Regelmäßigkeiten im tatsächlichen Variationsverhalten durch die variablenanalytische Auswertung von Videoaufzeichnungen von Lehrveranstaltungen freigelegt

    Bewertungen – Erwartungen – Gebrauch

    Get PDF
    Inwiefern regeln soziale Normen den Gebrauch unterschiedlicher Varietäten in der Hochschullehre? Philip C. Vergeiner untersucht dies in seiner Fallstudie zur Universität Salzburg schwerpunktmäßig für die lautliche Variation im Deutschen auf der Dialekt-/Standardachse. Am Beginn der Arbeit entwickelt er eine praxeologische Normkonzeption, der zufolge durch den Rückbezug von Handlungsregelmäßigkeiten auf normative Wertungen und Erwartungen auf das Vorhandensein sozialer Normen geschlossen werden kann. Um in diesem Sinne Sprachgebrauchsnormen aufzudecken, verwendet Vergeiner ein Mixed-Methods-Design, welches objekt- und metasprachliche Daten trianguliert: Neben einer quantitativ-statistischen Analyse von Fragebögen und einer Inhaltsanalyse von Interviews, um den normativen Diskurs freizulegen, untersucht er den tatsächlichen Sprachgebrauch anhand universitärer Lehrveranstaltungen
    corecore