19 research outputs found
Implementierung eines generischen Interpreters für Termersetzungssysteme höherer Ordnung auf Basis einer strukturellen operationalen Semantik
Wir haben ein Softwaresystem entwickelt, das in der Lage ist, Beschreibungen von Termersetzungssystemen höherer Ordnung, deren Reduktionsregeln auf einer strukturellen operationalen Semantik basieren, einzulesen und zu interpretieren. Das System ist dabei fähig, Reduktionskontexte für die Redexsuche zu benutzen, die entweder vom Benutzer definiert werden können oder automatisch anhand der strikten Positionen berechnet werden. Außerdem dürfen Kontexte und spezielle Definitionen für Term-Mengen, die wir Domains nennen, in den Reduktionsregeln verwendet werden. Mit dem resultierenden Reduktionssystem-Format können wir somit nicht nur den „lazy“ Lambda-Kalkül, den Call-by-Value Lambda-Kalkül und verwandte, um Konstruktoren und Fallunterscheidungen erweiterte Kalküle, wie die in Kapitel 4 vorgestellten Kernsprachen KFP und PCF, darstellen, sondern auch den (in Abschnitt 4.3 vorgestellten) Call-by-Need Lambda-Kalkül, welcher sich durch die Verwendung von Kontexten innerhalb der Regeln deutlich von den anderen Kalkülen abhebt. Allerdings hält sich der Call-by-Need Lambda-Kalkül damit nicht an das in Kapitel 5 vorgestellte GDSOS-Format, das u.a. sicherstellt, dass Bisimulation eine Kongruenz ist. Wir haben dabei in Abschnitt 5.3.3 bewiesen, dass sich ein GDSOS-Reduktionssystem in ein äquivalentes strukturiertes Auswertungssystem nach Howe übersetzen lässt. Unser System ist in der Lage, die GDSOS-Bedingungen zu prüfen und gibt eine Warnung aus, falls eine der nötigen Bedingungen nicht erfüllt ist (wobei aus dieser auch gleich der Grund des Verstoßes hervorgeht). Wie wir gesehen haben, ist unser System nicht nur befähigt, die einzelnen Reduktionsschritte für kleinere Bespiele ordnungsgemäß auszuführen, sondern es ist durchaus in der Lage, auch aufwendigere KFP-Ausdrücke, wie in unserem Quicksort- Beispiel, auszuwerten
Algebraische Spezifikation: Vorlesung an der Fakultät Mathematik und Informatik der Universität Leipzig
1 Einführung, 2 Terme, Gleichungen, Gleichungsspezifikationen, 3 Initialität, 4 Gleichungskalkül und Induktion, 5 Erweiterung von Gleichungsspezifikationen, 6 Finale Semantik und beobachtbares Verhalten, 7 Implementation von Spezifikatione
Übersetzerbau. Ein kleiner Überblick
Übersetzerbau-Forschung ist heutzutage hauptsächlich durch die
Entwicklung von Optimierungs- und Codeerzeugungs-Verfahren
geprägt. Dadurch sollen Übersetzer in die Lage versetzt werden,
die vielfältigen Eigenschaften moderner Prozessoren effizient zu
nutzen. Die Grundlagen moderner Übersetzer, insbesondere die
Überprüfung des Eingabeprogramms hinsichtlich syntaktischer und
semantischer Regeln sind wohlverstanden und beruhen auf
Erkenntnissen aus den 60er und 70er Jahren. Das Erzeugen von
lauffähigem Code ist ebenso gut erforscht. Diese Verfahren sind
auch über den Übersetzerbau hinaus grundlegend für die
Informatik.
In den folgenden Kapiteln geben wir eine kleine Einführung in
die Arbeitsweise von Übersetzern. Wir verzichten bewusst auf die
meisten (formalen) Details und Algorithmen, da wir Einsteigern
ermöglichen wollen, die verschiedenen Komponenten dieser
komplexen Systeme zu Überblicken und sich eine intuitive
Vorstellung von Übersetzern zu bilden.
Für das detaillierte Studium der vorgestellten Konzepte,
Verfahren und Algorithmen werden wir jeweils Literatur benennen.
Die im Anhang besprochenen Standardwerke sind von allgemeinem
Interesse.
Zwar ist die detaillierte Beschreibung der einzelnen Verfahren
unerlässlich für ihr genaues Verständnis, wir sind jedoch der
Meinung, dass eine ungefähre Vorstellung von dem, was ein
Verfahren bewirkt, das tiefere Verständnis erleichtert. Es
besteht dennoch die Gefahr, dass eine fehlgeleitete Intuition
dem tieferen Verstehen im Wege steht. Falls dies durch diesen
Text geschehen sein sollte, bitten wir um die Nachsicht des
Lesers. Wir sind für Kritik und Verbesserungsvorschläge äußerst
dankbar, da uns an einer ständigen Verbesserung dieses Textes
gelegen ist
Verzeichnis von Softwarekomponenten für natürlichsprachliche Systeme : Ergebnisse einer Umfrage im Rahmen der VERBMOBIL-Vorbereitung
Das DFKI (Deutsches Forschungszentrum für Künstliche Intelligenz) wurde vom BMFT
(Bundesministerium für Forschung und Technologie) mit der Durchführung einer Umfrage
zu existierenden Software-Komponenten im Bereich Verarbeitung natürlicher Sprache beauftragt (413 - 4001 - 01 IV 201). Das Ziel der Umfrage war die Erstellung einer Übersicht
von in Deutschland verfügbaren Software-Komponenten, die im Bereich der natürlichsprachlichen Systeme für das Projekt VERBMOBIL relevant sein könnten. Das Ergebnis dieser Umfrage liegt nun vor.
Zur Durchführung der Umfrage wurde ein Fragebogen erstellt, der im März 1992 über
die News-Gruppe mod-ki verbreitet und außerdem an ca. 400 Adressen geschickt wurde
(Mitglieder der Gesellschaft für Informatik e. V. FA 1.3 1 "Natürliche Sprache", Mitglieder
der DGfS, Sektion Computerlinguistik).
Das Verzeichnis ist auf in Deutschland entwickelte Software beschränkt und enthält akademische, kommerzielle und geschützte Software, wobei jeweils angegeben ist, unter welchen Bedingungen die Komponenten erhältlich sind
Formatives E-Assessment in der Hochschullehre:computerunterstützte Lernfortschrittskontrollen im Informatikstudium
Der Einsatz von E-Assessment-Systemen zur computerunterstützten Durchführung von Lernfortschrittskontrollen kann die Effektivität, Effizienz und Qualität universitärer Prüfungsprozesse steigern. Im Studienfach Informatik, in dem analytische, kreative und konstruktive Fähigkeiten zu überprüfen sind, werden solche Systeme bislang jedoch nur selten eingesetzt. In der vorliegenden Dissertation wird aufgezeigt, wie die Potenziale der Computerunterstützung im Übungsbetrieb der Informatik realisiert werden können. Hierzu werden zunächst wesentliche didaktische, methodische und organisatorische Grundlagen des universitären E-Assessments skizziert und analysiert. Aufbauend werden die Entwicklung, die Funktionsweise und der Praxiseinsatz des E-Assessment-Systems EASy beschrieben, das insbesondere durch seine anspruchsvollen Aufgabenmodule zu Java-Programmieraufgaben, mathematischen Beweisen und Verifikationsbeweisen eine adäquate Unterstützung des Informatik-Übungsbetriebs ermöglicht
Verzeichnis von Softwarekomponenten für natürlichsprachliche Systeme : Ergebnisse einer Umfrage im Rahmen der VERBMOBIL-Vorbereitung
Das DFKI (Deutsches Forschungszentrum für Künstliche Intelligenz) wurde vom BMFT
(Bundesministerium für Forschung und Technologie) mit der Durchführung einer Umfrage
zu existierenden Software-Komponenten im Bereich Verarbeitung natürlicher Sprache beauftragt (413 - 4001 - 01 IV 201). Das Ziel der Umfrage war die Erstellung einer Übersicht
von in Deutschland verfügbaren Software-Komponenten, die im Bereich der natürlichsprachlichen Systeme für das Projekt VERBMOBIL relevant sein könnten. Das Ergebnis dieser Umfrage liegt nun vor.
Zur Durchführung der Umfrage wurde ein Fragebogen erstellt, der im März 1992 über
die News-Gruppe mod-ki verbreitet und außerdem an ca. 400 Adressen geschickt wurde
(Mitglieder der Gesellschaft für Informatik e. V. FA 1.3 1 "Natürliche Sprache", Mitglieder
der DGfS, Sektion Computerlinguistik).
Das Verzeichnis ist auf in Deutschland entwickelte Software beschränkt und enthält akademische, kommerzielle und geschützte Software, wobei jeweils angegeben ist, unter welchen Bedingungen die Komponenten erhältlich sind
Neuere Entwicklungen der deklarativen KI-Programmierung : proceedings
The field of declarative AI programming is briefly characterized. Its recent developments in Germany are reflected by a workshop as part of the scientific congress KI-93 at the Berlin Humboldt University. Three tutorials introduce to the state of the art in deductive databases, the programming language Gödel, and the evolution of knowledge bases. Eleven contributed papers treat knowledge revision/program transformation, types, constraints, and type-constraint combinations