15 research outputs found

    Simulation von Prüfungsordnungen und Studiengängen mit Hilfe von Constraint-logischer Programmierung

    No full text
    In dieser Arbeit wurde versucht die Prüfungsordnung des Bachelorstudiengangs Informatik mit Hilfe der Constraint-logischen Programmiersprache - genauer der Programmiersprache ECLiPSe e zu simulieren und diese auf logische Fehler zu überprüfen. Hierfür wurden die beiden deklarativen Programmierparadigmen, die logische Programmierung und die Constraint-Programmierung, getrennt erläutert, da sie unterschiedliche Techniken bei der Problembehandlung einsetzen. Zunächst wurde als Grundlage die Prädikatenlogik (Kapitel 2), erarbeitet und ausführlich dargestellt. Anschließend wurde die logische Programmierung mit der, auf Prädikatenlogik basierenden, Programmiersprache Prolog erläutert (Kapitel 3). Nach der Erläuterung des logischen Teils wurde die Constraint-Programmierung (Kapitel 4) eingehend erläutert. Damit wurde eine Basis geschaffen, um die Constraint-logische Programmierung zu erläutern. Die Constraint-logische Programmierung (Kapitel 5) wurde als eine Erweiterung der logischen Programmierung um Constraints und deren Behandlung dargestellt. Dabei wurde zunächst ein allgemeiner Ansatz der Constraint-logischen Programmierung (CLP-Paradigma) erläutert. Mit der Einführung der Programmiersprache ECLiPSe, wurden alle Werkzeuge behandelt, die für die Simulation benötigt wurden. Schließlich wurde genauer auf die Modellierung des Problems und seine Implementierung in der Sprache ECLiPSe eingegangen (Kapitel 6). Grundidee der Simulation war, die Regeln der Prüfungsordnung als Constraints zu formulieren, so dass sie formal bearbeitet werden konnten. Hier wurden zwei Arten von Tests durchgeführt: • Constraint-Erfüllbarkeitsproblem: Mit dem ersten Test wurde nach eine Lösung gesucht, in der alle Constraints erfüllt sind. • Constraint-Optimierungsproblem: Hier wurde nach einer optimalen Lösung gesucht unter mehreren Kandidaten, in der alle Constraints erfüllt sind. Fazit: Die Constraint-logische Programmierung ist ein viel versprechendes Gebiet, da sie ein Mittel zur Behandlung kombinatorischer Probleme darstellt. Solche Probleme treten in vielen verschiedenen Berufsfeldern auf und lassen sich sonst nur mit großem Aufwand bewältigen. Beim Auftreten solcher Probleme kann schnell ein konzeptuelles Modell erstellt werden, das sehr einfach in ein ausführbares Programm (Design-Modell) umgewandelt wird. Programm-Modifikation ist erheblich leichter als in den prozeduralen Programmiersprachen

    Lehrerhandeln und Lehrerbildung im Lichte des Konzepts des impliziten Wissens

    Full text link
    Der Beitrag lädt zur Rekonzeptualisierung des Verhältnisses zwischen Wissen und Können und damit auch zu einer Neubetrachtung des Theorie-Praxis- Problems in der Lehrerbildung ein. Im ersten Teil werden Leitideen und Kernannahmen des "tacit knowing approach" expliziert, im zweiten Teil wird nach ihren Implikationen für die Lehrerbildung gefragt. (DIPF/Orig.

    The development and implementation of a reverse engineering method for near net shape parts

    Get PDF
    This research presents a new method for the reverse engineering of Near Net Shape (NNS) parts that bridge the current 3D scanning and Rapid Prototyping technologies. Near Net Shape is a group of manufacturing technologies that includes forging, casting, hot isostatic pressing, and additive manufacturing. This research focuses on casting process and provides a software tool along with the new method for reverse engineering a legacy casting design to the “as was” casted state instead of the “as is” current state, and at the same time, reducing the cost and time for repairing a legacy casting part. The three main objective for this research is to 1.Create a new reverse engineering method 2.Develop a software tool that is designed for feature free model editing 3.Validate the process through metal casting. The Point Cloud Library is applied for assisting point cloud processing and feature free model editing. A series of algorithms is developed for draft adding and pattern generation for the process of casting. The Rapid Pattern Manufacturing system developed in Iowa State University, Rapid Manufacturing and Prototyping Lab is applied for pattern manufacturing. This method is validated to be correct and able to reverse engineer legacy casting parts rapidly and economically through a metal casting process. The layout of this thesis is as follows: Chapter 1: provides introduction, background, research problem statement and objective of this research. Chapter 2: a literature review for the current reverse engineering method and introduces the modules of point cloud library that are used in this research. Chapter 3: presents the overview of method and algorithms that developed for this method in detail. Chapter 4: presents the implementation of this method and gives the analysis of the demo metal casting process. Chapter 5: provides future work and conclusions

    Künstliche Intelligenz im Unterricht

    Get PDF
    Die Veröffentlichung von ChatGPT im Herbst 2022 hat das Thema Künstliche Intelligenz (KI) auch im Bildungsbereich in das Blickfeld der Aufmerksamkeit gerückt. In den medialen Hype und die verschiedenen Diskurse mit einer reichen Bandbreite von kompletter Ablehnung der Technologie bis hin zur Glorifizierung derselben gesellen sich nach und nach auch bildungspolitische Empfehlungen, die überwiegend einen zwar kritischen, aber auch konstruktiven und verantwortungsvollen Umgang mit KI in der Schule proklamieren, wofür allerdings Kompetenzen bei Schüler:innen wie Lehrer:innen notwendig sind – und zwar nicht nur in Fächern wie Informatik oder Digitale Grundbildung, sondern quer durch alle Unterrichtsgegenstände. Der vorliegende Beitrag greift im ersten Teil die aktuellen Diskurse im deutschsprachigen Raum zu KI in der Schule auf und stellt im zweiten Teil ein Projekt vor, in dessen Rahmen Lehr-/Lernszenarien für die Sekundarstufe I zu verschiedenen Teilbereichen des Themenfeldes KI ausgearbeitet und evaluiert wurden, die entsprechende Grundlagen vermitteln und fächerübergreifende Anknüpfungspunkte bieten

    A Contribution to Semi-Automatic Segmentation of Point Clouds

    Get PDF
    The increase the emerging technologies and the low cost related with 3D data acquisition have allowed researchers to open new doors of research in domains like building information modeling (BIM), in-process inspection, virtual simulation, reverse engineering, among others. However, these new doors carry out with them some challenges regarding data transmission, processing, storage, all of them currently being active research topics. This thesis aims to advance point cloud processing– specifically in segmentation– in three directions: First, we propose a hybrid technique for carrying out a semi-automatic segmentation using NARF and Min-Cut. Our technique can be modified to be used in different places or fields, for instance: in this thesis the technique was applied on urban and indoor environments, and dental models (medical field). Second, we conducted several tests to the hybrid technique and propose a method ology for the segmentation of dental models. In order to establish the methodology we used an exploratory study in segmentation of dental models, where it was tested by different algorithms (region growing, RANSAC, Min-Cut and the hybrid technique). Third, we developed another methodology based in the hybrid technique for segmenting objects in 3D scenes, aimed towards outdoor and indoor environments. A quantitative evaluation was carried out on a point cloud consisting of about 30 million points, with diverse objects of interest such as trees, cars, chairs, buildingsResumen: El aumento de las nuevas tecnologías emergentes y el bajo costo relacionado con los sistemas de adquisición 3D han permitido a los investigadores abrir nuevas puertas en la investigación en ámbitos como en la construcción de modelos de información (BIM), en el proceso de inspección, la simulación virtual, la ingeniería inversa, entre otros. Sin embargo, estas nuevas puertas traen consigo algunos desafíos en materias como: transmisión de datos, procesamiento, almacenamiento, permitiendo temas de investigación activos. Esta tesis tiene como objetivo avanzar en el procesamiento de nubes de puntos - específicamente en la segmentación - en tres direcciones: En primer lugar, se propone una técnica hibrida para llevar a cabo una segmentación semiautomática utilizando NARF y Min-Cut. Nuestra técnica puede ser modificado para ser utilizado en diferentes lugares o campos, por ejemplo: en esta tesis se aplicó la técnica en entornos urbanos e interiores, y los modelos dentales (campo de la medicina). En segundo lugar, hemos realizado varias pruebas con la técnica hibrida propuesta y se propone una metodología para la segmentación de los modelos dentales. La metodología se empleó en un estudio exploratorio para la segmentación de los modelos dentales, donde se probaron diferentes algoritmos (región de cultivo, RANSAC, MinCut y la técnica hibrida). Por último, se ha desarrollado una metodología basada para la segmentación de objetos en escenas 3D, dirigida hacia los ambientes interiores y exteriores. Una evaluación cuantitativa se llevó a cabo en la nube de puntos empleado el repositorio de Trimble que consta de nubes de cerca 30 millones de puntos, con diversos objetos de interés tales como árboles, coches, sillas, edificiosMaestrí

    Automatische, Deskriptor-basierte Unterstützung der Dokumentanalyse zur Fokussierung und Klassifizierung von Geschäftsbriefen

    Get PDF
    Die vorliegende Arbeit wurde im Rahmen des ALV-Projekts (Automatisches Lesen und Verstehen) am Deutschen Forschungszentrum für Künstliche Intelligenz (DFKI) erstellt. Ziel des ALV-Projektes ist die Entwicklung einer intelligenten Schnittstelle zwischen Papier und Rechner (paper-computer interface). Hierbei soll durch Nachahmung des menschlichen Leseverhaltens ein Schritt in Richtung papierloses Büro ausgeführt werden. Exemplarisch werden in ALV Geschäftsbriefe als Domäne untersucht. Teilgebiete innerhalb des ALV-Projekts sind Layoutextraktion, Logical Labeling, Texterkennung und Textanalyse. Diese Arbeit fällt in den Bereich der Textanalyse. Die Aufgabenstellung bestand darin, mittels der vorkommenden Wörter (im Brieftext) die Art des Briefes sowie erste Hinweise über die Intention des Briefautors zu ermitteln. Derartige Informationen können von anderen Experten zur weiteren Verarbeitung, Verteilung und Archivierung der Briefe genutzt werden. Das innerhalb einer Diplomarbeit entwickelte und implementierte INFOCLAS-System versucht deshalb auf der Basis statistischer Verfahren und Methodiken aus dem Information Retrieval folgende Funktionalität bereitzustellen: i) Extrahierung und Gewichtung von bedeutungstragenden Wörtern; ii) Ermittelung der Kernaussage (Fokus) eines Geschäftsbriefs; iii) Klassifizierung eines Geschäftsbriefs in vordefinierte Nachrichtentypen. Die dafür entwickelten Module Indexierer, Fokussierer und Klassifizierer benutzen -- neben Konzepten aus dem Information Retrieval -- eine Datenbasis, die eine Sammlung von Geschäftsbriefen enthält, sowie spezifische Wortlisten, die die modellierten Briefklassen repräsentieren. Als weiteres Hilfsmittel dient ein morphologisches Werkzeug zur grammatikalischen Analyse der Wörter. Mit diesen Wissensquellen werden Hypothesen über die Briefklasse und die Kernaussage des Briefinhalts aufgestellt.In this documentation existing techniques of information retrieval (IR) are compared and evaluated for their application in document analysis and understanding. Moreover, we have developed a system called INFOCLAS which uses appropriate statistical methods of IR, primarily for the classification of German business letters into corresponding message types such as order, offer, confirmation, inquiry, and advertisement. INFOCLAS is a first step towards understanding of business letters. Actually, it comprises three modules: the central indexer (extraction and weighting of indexing terms), the classifier (classification of business letters into given types) and the focusser (highlighting relevant parts of the letter). INFOCLAS integrates several knowledge sources including a database of about 120 letters, word frequency statistics for German, message type specific words, morphological knowledge as well as the underlying document model (layout and logical structure). As output, the system computes a set of weighted hypotheses about the type of letter at hand. A classification of documents allows the automatic distribution or archiving of letters and is also an excellent starting point for higher-level document analysis

    Internet... the final frontier: an ethnographic account: exploring the cultural space of the Net from the inside

    Get PDF
    The research project The Internet as a space for interaction, which completed its mission in Autumn 1998, studied the constitutive features of network culture and network organisation. Special emphasis was given to the dynamic interplay of technical and social conventions regarding both the Net’s organisation as well as its change. The ethnographic perspective chosen studied the Internet from the inside. Research concentrated upon three fields of study: the hegemonial operating technology of net nodes (UNIX) the network’s basic transmission technology (the Internet Protocol IP) and a popular communication service (Usenet). The project’s final report includes the results of the three branches explored. Drawing upon the development in the three fields it is shown that changes that come about on the Net are neither anarchic nor arbitrary. Instead, the decentrally organised Internet is based upon technically and organisationally distributed forms of coordination within which individual preferences collectively attain the power of developing into definitive standards. --

    Was macht die Digitalisierung mit den Hochschulen? Einwürfe und Provokationen

    Get PDF
    What will become of successful universities once everything is digitalized? Experts from schools and universities, policymakers, journalists, and computer scientists present their responses, expectations, and trepidations, under the overarching premise of humanely shaping the digital revolution. The essays were developed from the course "Humans/Machines/The Future" presented in 2019 at the former Diessen cloister in Ammersee
    corecore