27 research outputs found

    Mathematik ohne Ziffern - Analoge Rechengeräte

    Get PDF
    Der Verfasser ist bestrebt, in dieser Arbeit zur Geschichte der Rechentechnik – nach ‚Rechnen mit Maschinen‘ (Vieweg, 1968) und der dreibändigen, von Dr. Friedrich Genser überarbeiteten und erweiterten Neufassung ‚Vom Zahnrad zum Chip‘ (Superbrain-Verlag, 2004) – nun auch die einstigen analogen mathematischen Instrumente bis zu den Analogrechnern / Integrieranlagen zu beschreiben

    Mensch-Computer-Interface: Zur Geschichte und Zukunft der Computerbedienung

    Get PDF
    Die gegenwärtige Interface-Krise bei digitalen Medien nehmen Informatiker und Informatikhistoriker in diesem Band zum Anlass für eine Langzeitbilanz der Mensch-Computer-Interaktion. Sie legen sowohl Gesamtüberblicke der Entwicklung aus technik- und geistesgeschichtlicher Sicht vor als auch spezielle Studien zur Bedienproblematik einzelner Epochen. Dadurch entsteht ein großer Bogen von den Bedienschnittstellen der frühen Mainframe-Welt über die interaktiven PC-Interfaces bis zu den neuesten Entwicklungen des Wearable Computing und der proaktiven Ambient Intelligence. Die historisch-genetischen Analysen münden in theoretische Betrachtungen und kritische Rückblicke auf die Forschung zu Mensch-Computer-Interfaces sowie Ausblicke auf die Zukunft

    Seminar zur Didaktik der Informatik im Landhaus Rothenberge :studentische Arbeiten des Sommersemesters 2007

    Full text link
    Dokumentation von Semesterarbeiten in der Didaktik der Informati

    Analyse von IT-Anwendungen mittels Zeitvariation

    Get PDF
    Performanzprobleme treten in der Praxis von IT-Anwendungen häufig auf, trotz steigender Hardwareleistung und verschiedenster Ansätze zur Entwicklung performanter Software im Softwarelebenszyklus. Modellbasierte Performanzanalysen ermöglichen auf Basis von Entwurfsartefakten eine Prävention von Performanzproblemen. Bei bestehenden oder teilweise implementierten IT-Anwendungen wird versucht, durch Hardwareskalierung oder Optimierung des Codes Performanzprobleme zu beheben. Beide Ansätze haben Nachteile: modellbasierte Ansätze werden durch die benötigte hohe Expertise nicht generell genutzt, die nachträgliche Optimierung ist ein unsystematischer und unkoordinierter Prozess. Diese Dissertation schlägt einen neuen Ansatz zur Performanzanalyse für eine nachfolgende Optimierung vor. Mittels eines Experiments werden Performanzwechselwirkungen in der IT-Anwendung identifiziert. Basis des Experiments, das Analyseinstrumentarium, ist eine zielgerichtete, zeitliche Variation von Start-, Endzeitpunkt oder Laufzeitdauer von Abläufen der IT-Anwendung. Diese Herangehensweise ist automatisierbar und kann strukturiert und ohne hohen Lernaufwand im Softwareentwicklungsprozess angewandt werden. Mittels der Turingmaschine wird bewiesen, dass durch die zeitliche Variation des Analyseinstrumentariums die Korrektheit von sequentiellen Berechnung beibehalten wird. Dies wird auf nebenläufige Systeme mittels der parallelen Registermaschine erweitert und diskutiert. Mit diesem praxisnahen Maschinenmodell wird dargelegt, dass die entdeckten Wirkzusammenhänge des Analyseinstrumentariums Optimierungskandidaten identifizieren. Eine spezielle Experimentierumgebung, in der die Abläufe eines Systems, bestehend aus Software und Hardware, programmierbar variiert werden können, wird mittels einer Virtualisierungslösung realisiert. Techniken zur Nutzung des Analyseinstrumentariums durch eine Instrumentierung werden angegeben. Eine Methode zur Ermittlung von Mindestanforderungen von IT-Anwendungen an die Hardware wird präsentiert und mittels der Experimentierumgebung anhand von zwei Szenarios und dem Android Betriebssystem exemplifiziert. Verschiedene Verfahren, um aus den Beobachtungen des Experiments die Optimierungskandidaten des Systems zu eruieren, werden vorgestellt, klassifiziert und evaluiert. Die Identifikation von Optimierungskandidaten und -potenzial wird an Illustrationsszenarios und mehreren großen IT-Anwendungen mittels dieser Methoden praktisch demonstriert. Als konsequente Erweiterung wird auf Basis des Analyseinstrumentariums eine Testmethode zum Validieren eines Systems gegenüber nicht deterministisch reproduzierbaren Fehlern, die auf Grund mangelnder Synchronisationsmechanismen (z.B. Races) oder zeitlicher Abläufe entstehen (z.B. Heisenbugs, alterungsbedingte Fehler), angegeben.Performance problems are very common in IT-Application, even though hardware performance is consistently increasing and there are several different software performance engineering methodologies during the software life cycle. The early model based performance predictions are offering a prevention of performance problems based on software engineering artifacts. Existing or partially implemented IT-Applications are optimized with hardware scaling or code tuning. There are disadvantages with both approaches: the model based performance predictions are not generally used due to the needed high expertise, the ex post optimization is an unsystematic and unstructured process. This thesis proposes a novel approach to a performance analysis for a subsequent optimization of the IT-Application. Via an experiment in the IT-Application performance interdependencies are identified. The core of the analysis is a specific variation of start-, end time or runtime of events or processes in the IT-Application. This approach is automatic and can easily be used in a structured way in the software development process. With a Turingmachine the correctness of this experimental approach was proved. With these temporal variations the correctness of a sequential calculation is held. This is extended and discussed on concurrent systems with a parallel Registermachine. With this very practical machine model the effect of the experiment and the subsequent identification of optimization potential and candidates are demonstrated. A special experimental environment to vary temporal processes and events of the hardware and the software of a system was developed with a virtual machine. Techniques for this experimental approach via instrumenting are stated. A method to determine minimum hardware requirements with this experimental approach is presented and exemplified with two scenarios based on the Android Framework. Different techniques to determine candidates and potential for an optimization are presented, classified and evaluated. The process to analyze and identify optimization candidates and potential is demonstrated on scenarios for illustration purposes and real IT-Applications. As a consistent extension a test methodology enabling a test of non-deterministic reproducible errors is given. Such non-deterministic reproducible errors are faults in the system caused by insufficient synchronization mechanisms (for example Races or Heisenbugs) or aging-related faults

    10. Kolloquium Getriebetechnik: Technische Universität Ilmenau, 11. - 13. September 2013

    Get PDF
    In diesem Band sind die Beiträge des 10. Kolloquiums Getriebetechnik 2013 in Ilmenau zusammengestellt. Getriebe für Web- und Flechtmaschinen, für Schränke und Sessel, ein Schlagmechanismus für eine bevorstehende Marsmission, Robotersysteme für Mensch-Maschine-Schnittstellen, ein Mechanismus in einem Großteleskop oder Präzisionsmessgerät, ein einfacher Federbügel sowie nachgiebige Aktuatoren und Mechanismen – das sind nur einige von den hoch interessanten Systemen, die in diesem Band vorzufinden sind.This conference volume contains the contributions of the 10th "Kolloquium Getriebetechnik" 2013 in Ilmenau. Mechanisms for weaving and braiding machines, for boards and chairs, a hammering mechanism for an upcoming mission to Mars, robotic systems for human-machine interfaces, a mechanism in a large telescope or precision instrument, a simple spring clip and compliant actuators and mechanisms – these are just a few of the interesting systems that can be found in this volume

    Fachinformation und EDV-Arbeitstechniken für Historiker: Einführung und Arbeitsbuch

    Full text link
    'Der Sammelband versucht, die Erfahrungen einzufangen, die von den Herausgebern in den vergangenen Jahren an der Humboldt-Universität zu Berlin in der studentischen EDV-Ausbildung und beim Aufbau vernetzter Informationsdienste für Historiker gemacht wurden. Es handelt sich weder um einen der üblichen Sammelbände noch um eine einfache Softwareeinführung, sondern um ein praktisches Arbeitsbuch für Studierende und Nachwuchswissenschaftler zu Fragen des EDV-Einsatzes in den Geschichtswissenschaften. Dabei stehen das 'Internet' bzw. der Einsatz der sogenannten 'Neuen Medien' im Mittelpunkt. Im ersten Kapitel wird zunächst das Verhältnis der EDV zu den Geisteswissenschaften geklärt. Dies schließt eine Einführung in die Geschichte der EDV und die Betrachtung der EDV-Einsatzfelder in den Geschichtswissenschaften zu den Themen Bibliotheken im Internet, Wissenschaftlicher Alltag und Lehre sowie spezielle historische Fachinformationsangebote ein. Im zweiten Kapitel wird näher auf die Grundlagen der Datenverarbeitung eingegangen. Dabei liegt neben dem PC- und Netzbasiswissen das Hauptaugenmerk auf dem Internet und seinen Diensten. Darauf aufbauend werden im dritten Kapitel ausgewählte Applikationen aus den Bereichen Textverarbeitung, Beschreibungs- und Skriptsprachen, Tabellenkalkulation, Datenanalyse & Datenbanksysteme sowie Grafik, Präsentation und Multimedia an historischen Beispielen in ihrem Funktionsumfang vorgestellt. Im abschließenden vierten Kapitel wird der EDV-Einsatz in den Geschichtswissenschaften an ausgewählten Projekten in Forschung und Lehre exemplarisch beschrieben.' (Autorenreferat

    Künstliche Intelligenz

    Get PDF
    Dieses Buch ist eine Open-Access-Publikation unter einer CC BY 4.0 Lizenz. Künstliche Intelligenz (KI) klingt in aktuellen Debatten oft abstrakt und alltagsfremd. Doch die meisten Internetnutzerinnern und -nutzer sind bereits täglich mit ihr konfrontiert – wenn auch unbewusst: sei es bei der Sprachsteuerung des Smartphones, bei Kaufempfehlungen im Online-Shop oder bei der Abfrage von auf Webseiten häufig gestellten Fragen (Frequently Asked Questions, FAQ). KI ist ein Teilaspekt der Digitalisierung, der als Schlagwort immer häufiger in den Medien auftaucht. Das aktuell große Interesse liegt darin begründet, dass es in den vergangenen Jahren verschiedene technologische Fortschritte gab, welche die Nutzung der KI nun auf andere Ebenen heben. Mit diesem Themenband des Instituts für Innovation und Technik (iit) „Künstliche Intelligenz“ erhalten Leserinnen und Leser einen schlaglichtartigen Einblick in die KI hinsichtlich ihrer Technologien, aktuellen und potenziellen Anwendungen sowie Auswirkungen auf die Gesellschaft
    corecore