22 research outputs found

    Open-Source-Projekte als Utopie, Methode und Innovationsstrategie: historische Entwicklung - sozioökonomische Kontexte - Typologie

    Full text link
    Dieses Buch bietet einen systematisierenden Überblick ĂŒber Open-Source-Software-Communitys und ihre sozioökonomischen Kontexte. Nach einer historischen Rekonstruktion zur Entstehung quelloffener Entwicklungsvorhaben werden die Beziehungen zwischen Open-Source-Projekten und etablierten IT-Unternehmen herausgearbeitet. Daran anknĂŒpfend werden vier idealtypische Varianten derzeitiger Open-Source-Gemeinschaften voneinander abgegrenzt - von korporativ gefĂŒhrten Kollaborationsprojekten und elitezentrierten Projektgemeinschaften ĂŒber heterarchischer angelegte Infrastrukturvorhaben bis hin zu egalitĂ€r ausgerichteten Entwicklergruppen, die am ehesten der Idee einer 'commons-based peer production' entsprechen. Insgesamt zeigt sich, dass die quelloffene Softwareentwicklung seit der Jahrtausendwende zunehmend zu einer allgemeinen Branchenmethode avanciert ist, dabei aber ihre Formatierung als Alternative bzw. Gegenentwurf zur kommerziellen und proprietĂ€ren Herstellung weitgehend verloren hat. WĂ€hrend freie Software zunĂ€chst subversiv konnotiert war, ist das Involvement in Open-Source-Projekte heute zu einem festen Bestandteil der Innovationsstrategien aller großen IT-Anbieter geworden

    Vorlesungsverzeichnis Sommersemester 2013 : Stand 10. Januar 2013

    Get PDF
    Dieses Dokument enthÀlt einen Auszug der im Onlineinformationssystem QIS-LSF (https://qis.server.uni-frankfurt.de) gespeicherten Daten zu den Lehrveranstaltungen des Sommersemesters 201

    Grundlagen des Autonomen Rechnens

    Get PDF
    Das vegetative Nervensystem (engl. autonomous nervous system) des Menschen kann das, wovon in der IT-Industrie noch getrĂ€umt wird. AbhĂ€ngig von der aktuellen Umgebung und TĂ€tigkeit reguliert das vegetative Nervensystem mandatorische Körperfunktionen wie Herzfrequenz und Atmung. Reflexe, die dem Selbstschutz dienen, werden automatisch ausgelöst. Verletzungen heilen von selbst, ohne dass man seine normalen TĂ€tigkeiten dafĂŒr unterbrechen mĂŒsste. Im Rahmen des Seminars „Autonomic Computing“ im Sommersemester 2003 am Institut fĂŒr Programmstrukturen und Datenorganisation der UniversitĂ€t Karlsruhe wurden Grundlagen dieses Autonomen Rechnens besprochen. Als Basis fĂŒr Selbstkonfiguration und Selbstoptimierung werden in „Kontextbewusstsein: Ein Überblick“ Techniken zur Erfassung des physischen und sozialen Kontexts einer Anwendung erlĂ€utert. Die dienstorientierte Architektur und konkrete Implementierungen wie z.B. UPnP, Jini oder Bluetooth werden in „Aktuelle Technologien zur Realisierung dienstorientierter Architekturen“ behandelt. Die Arbeit „Service- Orientierung und das Semantic Web“ beschreibt, wie Semantic Web Technologien zur Beschreibung von Web Services verwendet werden können mit dem Ziel der automatischen Dienstfindung. Danach wird der Begriff „Selbstbewusstsein“ in bezug auf Software anhand zweier komplementĂ€rer Forschungsprojekte definiert. Technologien zur Überwachung des Laufzeitverhaltens von Rechnersystemen mit dem Ziel der selbststĂ€ndigen Optimierung sind Gegenstand der Arbeit „Selbst-Überwachung und Selbst-Optimierung“. Der Artikel „Selbst-Schutz“ fasst die Sicherheitsanforderungen zusammen, die an ein autonomes Computersystem gestellt werden mĂŒssen und die Techniken, um solche Anforderungen zu erfĂŒllen. AnsĂ€tze aus dem Bereich wiederherstellungsorientiertes- und fehlertolerantes Rechnen werden in „Selbst-Heilung“, „ROC – Recovery Oriented Computing“ und „Recovery Oriented Computing: Modularisierung und Redundanz“ vorgestellt. Alle Ausarbeitungen und PrĂ€sentationen sind auch elektronisch auf der diesem Band beiliegenden CD oder unter www.autonomic-computing.org verfĂŒgbar

    Schaltungsdesign mit VHDL

    Get PDF

    Analyse von IT-Anwendungen mittels Zeitvariation

    Get PDF
    Performanzprobleme treten in der Praxis von IT-Anwendungen hĂ€ufig auf, trotz steigender Hardwareleistung und verschiedenster AnsĂ€tze zur Entwicklung performanter Software im Softwarelebenszyklus. Modellbasierte Performanzanalysen ermöglichen auf Basis von Entwurfsartefakten eine PrĂ€vention von Performanzproblemen. Bei bestehenden oder teilweise implementierten IT-Anwendungen wird versucht, durch Hardwareskalierung oder Optimierung des Codes Performanzprobleme zu beheben. Beide AnsĂ€tze haben Nachteile: modellbasierte AnsĂ€tze werden durch die benötigte hohe Expertise nicht generell genutzt, die nachtrĂ€gliche Optimierung ist ein unsystematischer und unkoordinierter Prozess. Diese Dissertation schlĂ€gt einen neuen Ansatz zur Performanzanalyse fĂŒr eine nachfolgende Optimierung vor. Mittels eines Experiments werden Performanzwechselwirkungen in der IT-Anwendung identifiziert. Basis des Experiments, das Analyseinstrumentarium, ist eine zielgerichtete, zeitliche Variation von Start-, Endzeitpunkt oder Laufzeitdauer von AblĂ€ufen der IT-Anwendung. Diese Herangehensweise ist automatisierbar und kann strukturiert und ohne hohen Lernaufwand im Softwareentwicklungsprozess angewandt werden. Mittels der Turingmaschine wird bewiesen, dass durch die zeitliche Variation des Analyseinstrumentariums die Korrektheit von sequentiellen Berechnung beibehalten wird. Dies wird auf nebenlĂ€ufige Systeme mittels der parallelen Registermaschine erweitert und diskutiert. Mit diesem praxisnahen Maschinenmodell wird dargelegt, dass die entdeckten WirkzusammenhĂ€nge des Analyseinstrumentariums Optimierungskandidaten identifizieren. Eine spezielle Experimentierumgebung, in der die AblĂ€ufe eines Systems, bestehend aus Software und Hardware, programmierbar variiert werden können, wird mittels einer Virtualisierungslösung realisiert. Techniken zur Nutzung des Analyseinstrumentariums durch eine Instrumentierung werden angegeben. Eine Methode zur Ermittlung von Mindestanforderungen von IT-Anwendungen an die Hardware wird prĂ€sentiert und mittels der Experimentierumgebung anhand von zwei Szenarios und dem Android Betriebssystem exemplifiziert. Verschiedene Verfahren, um aus den Beobachtungen des Experiments die Optimierungskandidaten des Systems zu eruieren, werden vorgestellt, klassifiziert und evaluiert. Die Identifikation von Optimierungskandidaten und -potenzial wird an Illustrationsszenarios und mehreren großen IT-Anwendungen mittels dieser Methoden praktisch demonstriert. Als konsequente Erweiterung wird auf Basis des Analyseinstrumentariums eine Testmethode zum Validieren eines Systems gegenĂŒber nicht deterministisch reproduzierbaren Fehlern, die auf Grund mangelnder Synchronisationsmechanismen (z.B. Races) oder zeitlicher AblĂ€ufe entstehen (z.B. Heisenbugs, alterungsbedingte Fehler), angegeben.Performance problems are very common in IT-Application, even though hardware performance is consistently increasing and there are several different software performance engineering methodologies during the software life cycle. The early model based performance predictions are offering a prevention of performance problems based on software engineering artifacts. Existing or partially implemented IT-Applications are optimized with hardware scaling or code tuning. There are disadvantages with both approaches: the model based performance predictions are not generally used due to the needed high expertise, the ex post optimization is an unsystematic and unstructured process. This thesis proposes a novel approach to a performance analysis for a subsequent optimization of the IT-Application. Via an experiment in the IT-Application performance interdependencies are identified. The core of the analysis is a specific variation of start-, end time or runtime of events or processes in the IT-Application. This approach is automatic and can easily be used in a structured way in the software development process. With a Turingmachine the correctness of this experimental approach was proved. With these temporal variations the correctness of a sequential calculation is held. This is extended and discussed on concurrent systems with a parallel Registermachine. With this very practical machine model the effect of the experiment and the subsequent identification of optimization potential and candidates are demonstrated. A special experimental environment to vary temporal processes and events of the hardware and the software of a system was developed with a virtual machine. Techniques for this experimental approach via instrumenting are stated. A method to determine minimum hardware requirements with this experimental approach is presented and exemplified with two scenarios based on the Android Framework. Different techniques to determine candidates and potential for an optimization are presented, classified and evaluated. The process to analyze and identify optimization candidates and potential is demonstrated on scenarios for illustration purposes and real IT-Applications. As a consistent extension a test methodology enabling a test of non-deterministic reproducible errors is given. Such non-deterministic reproducible errors are faults in the system caused by insufficient synchronization mechanisms (for example Races or Heisenbugs) or aging-related faults

    Multimedia und Electronic Publishing

    Get PDF
    In den letzten Jahren hat die Zahl der auf elektronischem Weg veroeffentlichten Dokumente stark zugenommen. Eng verknuepft mit elektronischen Dokumenten ist auch der Bereich Multimedia. Im Rahmen dieser Ausarbeitungen werden Themen aus den Bereichen Multimedia und elektronische Veroeffentlichung (Electronic Publishing) besprochen. Inhaltlich ist die Ausarbeitung in drei Themengebiete aufgeteilt: Der erste Teil schliesst an das Seminar Multimedia-Datenformate an, das 1994 ebenfalls am Institut fuer Betriebs- und Dialogsysteme, Lehrstuhl Prof. Dr. A. Schmitt, stattfand. Nach einem Ueberblick zum Thema Multimedia werden neuere Datenformate und Programmiersprachenaus dem Multimedia-Bereich untersucht. Der zweite Teil befasst sich mit der Thematik des elektronischen Veroeffentli- chens. Nach einem Ueberblick und der Betrachtung einiger Layout- und Design- Richtlinien werden drei Autorensysteme zur Erstellung von Multimedia-Anwen- dungen untersucht, und zwar Asymetrix Toolbook, APE Mediastyler und Macromedia Authorware. Anschliessend wird ein Ueberblick ueber die aktuellen CD-ROM-Typen gegeben. Der zweite Teil schliesst mit einer Betrachtung der rechtlichen Aspekte des elektronischenVeroeffenlichens. Der dritte Teil des Seminars beinhaltet die Darstellung einiger multimedialer Anwendungen. Hier werden der Bereichs des computerunterstuetzen Lernens (Compu- ter Based Training) und Kiosksysteme betrachtet

    Digital History

    Get PDF
    Research and teaching in history have undergone profound changes within the scope of digitalization. This volume asks questions such as: What changes is digitalization making possible in the way that historical research is carried out and communicated today? What new objects, methods, and tools are available to researchers today and what research findings do they produce
    corecore