20 research outputs found

    Rostocker Mathematisches Kolloquium. Heft 27 (1985)

    Get PDF

    Analyse von IT-Anwendungen mittels Zeitvariation

    Get PDF
    Performanzprobleme treten in der Praxis von IT-Anwendungen häufig auf, trotz steigender Hardwareleistung und verschiedenster Ansätze zur Entwicklung performanter Software im Softwarelebenszyklus. Modellbasierte Performanzanalysen ermöglichen auf Basis von Entwurfsartefakten eine Prävention von Performanzproblemen. Bei bestehenden oder teilweise implementierten IT-Anwendungen wird versucht, durch Hardwareskalierung oder Optimierung des Codes Performanzprobleme zu beheben. Beide Ansätze haben Nachteile: modellbasierte Ansätze werden durch die benötigte hohe Expertise nicht generell genutzt, die nachträgliche Optimierung ist ein unsystematischer und unkoordinierter Prozess. Diese Dissertation schlägt einen neuen Ansatz zur Performanzanalyse für eine nachfolgende Optimierung vor. Mittels eines Experiments werden Performanzwechselwirkungen in der IT-Anwendung identifiziert. Basis des Experiments, das Analyseinstrumentarium, ist eine zielgerichtete, zeitliche Variation von Start-, Endzeitpunkt oder Laufzeitdauer von Abläufen der IT-Anwendung. Diese Herangehensweise ist automatisierbar und kann strukturiert und ohne hohen Lernaufwand im Softwareentwicklungsprozess angewandt werden. Mittels der Turingmaschine wird bewiesen, dass durch die zeitliche Variation des Analyseinstrumentariums die Korrektheit von sequentiellen Berechnung beibehalten wird. Dies wird auf nebenläufige Systeme mittels der parallelen Registermaschine erweitert und diskutiert. Mit diesem praxisnahen Maschinenmodell wird dargelegt, dass die entdeckten Wirkzusammenhänge des Analyseinstrumentariums Optimierungskandidaten identifizieren. Eine spezielle Experimentierumgebung, in der die Abläufe eines Systems, bestehend aus Software und Hardware, programmierbar variiert werden können, wird mittels einer Virtualisierungslösung realisiert. Techniken zur Nutzung des Analyseinstrumentariums durch eine Instrumentierung werden angegeben. Eine Methode zur Ermittlung von Mindestanforderungen von IT-Anwendungen an die Hardware wird präsentiert und mittels der Experimentierumgebung anhand von zwei Szenarios und dem Android Betriebssystem exemplifiziert. Verschiedene Verfahren, um aus den Beobachtungen des Experiments die Optimierungskandidaten des Systems zu eruieren, werden vorgestellt, klassifiziert und evaluiert. Die Identifikation von Optimierungskandidaten und -potenzial wird an Illustrationsszenarios und mehreren großen IT-Anwendungen mittels dieser Methoden praktisch demonstriert. Als konsequente Erweiterung wird auf Basis des Analyseinstrumentariums eine Testmethode zum Validieren eines Systems gegenüber nicht deterministisch reproduzierbaren Fehlern, die auf Grund mangelnder Synchronisationsmechanismen (z.B. Races) oder zeitlicher Abläufe entstehen (z.B. Heisenbugs, alterungsbedingte Fehler), angegeben.Performance problems are very common in IT-Application, even though hardware performance is consistently increasing and there are several different software performance engineering methodologies during the software life cycle. The early model based performance predictions are offering a prevention of performance problems based on software engineering artifacts. Existing or partially implemented IT-Applications are optimized with hardware scaling or code tuning. There are disadvantages with both approaches: the model based performance predictions are not generally used due to the needed high expertise, the ex post optimization is an unsystematic and unstructured process. This thesis proposes a novel approach to a performance analysis for a subsequent optimization of the IT-Application. Via an experiment in the IT-Application performance interdependencies are identified. The core of the analysis is a specific variation of start-, end time or runtime of events or processes in the IT-Application. This approach is automatic and can easily be used in a structured way in the software development process. With a Turingmachine the correctness of this experimental approach was proved. With these temporal variations the correctness of a sequential calculation is held. This is extended and discussed on concurrent systems with a parallel Registermachine. With this very practical machine model the effect of the experiment and the subsequent identification of optimization potential and candidates are demonstrated. A special experimental environment to vary temporal processes and events of the hardware and the software of a system was developed with a virtual machine. Techniques for this experimental approach via instrumenting are stated. A method to determine minimum hardware requirements with this experimental approach is presented and exemplified with two scenarios based on the Android Framework. Different techniques to determine candidates and potential for an optimization are presented, classified and evaluated. The process to analyze and identify optimization candidates and potential is demonstrated on scenarios for illustration purposes and real IT-Applications. As a consistent extension a test methodology enabling a test of non-deterministic reproducible errors is given. Such non-deterministic reproducible errors are faults in the system caused by insufficient synchronization mechanisms (for example Races or Heisenbugs) or aging-related faults

    Entscheidbare Fälle des Postschen Korrespondenzproblems

    Get PDF
    Das Postsche Korrespondenzproblem fragt nach nichttrivialen Elementen in der Gleichheitsmenge zweier Morphismen. Es handelt sich um ein unentscheidbares Problem. Wir stellen umfassend und einheitlich dar, welche Möglichkeiten es gibt, Instanzen des Postschen Korrespondenzproblems zu klassifizieren. Wir charakterisieren die Koinzidenzmenge erstmals als rationale Relation. Wir lösen konkrete Instanzen schnell und finden so praktische alle bekannten schwierigen kleinen Instanzen

    Chancen und Risiken der systemischen Kontingenz KĂĽnstlicher Intelligenz in einer postindustriellen Weltgesellschaft

    Get PDF
    Die Thematik der Künstlichen Intelligenz (fortan KI) ist virulent. Sie erstreckt sich von der akademischen Fachdiskussion der Informatiker und Physiker, über eine breite philosophische Diskussion - weiter über Beiträge von Spezialisten aus Disziplinen der Psychologie, der Neurophysiologie und Neurobiologie und auch der Physik - doch dabei insbesondere in Beiträge der Quantenmechanik - bis hinein in die Domäne von Soziologie und Politik. Diese Dissertation möchte keinen dieser Bereiche isolieren, daher sollen möglichst viele auch divergierende Argumente der verschiedenen Fachdiskussionen nebeneinander gestellt und abgewogen werden. Der interdisziplinäre Ansatz soll dabei einerseits die erstaunliche Komplexität der Thematik reduzieren helfen, durch Aufzeigung von Konvergenzen und Isomorphien der Argumentationsfiguren, andererseits soll er die Perspektive öffnen, für eine neue hier zu erarbeitende Einordnung der KI in das politische Zeitgeschehen. Die Perspektive auf die transformative Kraft, die neue Technologien auf Gesellschaften ausüben, wird dabei eine bedeutende Rolle spielen. Technische Entwicklung kann der hier vorgestellten Argumentation zu Folge, als eine spezielle Form von Evolution begriffen werden, die der organischen Evolution im Sinne Darwins Argumentation nahe steht. Nicht zuletzt wegen der Nähe zu biologischen Sinnzusammenhängen, ist es z.B. in den Neurowissenschaften üblich geworden, sich Analogien aus der Technologie, insbes. der Informatik bezüglich Hardware als auch Software zu bedienen, um die Funktionsweise von Prozessen des Gehirns zu veranschaulichen. Aus vielen dieser Analogien sind inzwischen leichtfertig Identitätsbehauptungen entwickelt worden, die in diversen kritisch zu betrachtenden Reduktionismen münden. Zu ausgesuchten Positionen dieser Kategorie, die heute besonders in Kreisen der Denker der KI weite Verbreitung finden, soll eine differenzierte Untersuchung stattfinden. Welches wissenschaftliche Selbstverständnis des Menschen lässt sich konstatieren, wenn er metaphorisch und allegorisch zu semantischen wie zu technischen Werkzeugen greift, um mittels daraus abgeleiteter sprachlicher, logischer und auch technischer Konstruktionen seinen Standpunkt in der Welt zu präzisieren? Die Arbeit wird daher über weite Strecken einen grundsätzlich philosophischen Anspruch verfolgen, wobei die Argumentation sich vorwiegend im Areal der Interdependenz von Natur- und Geisteswissenschaften fokussieren wird. Das Oberthema Technik, wird den Einklang bilden, um das Spezialgebiet der KI zu eröffnen. Zunächst sollen die Bedingungen der Möglichkeit von KI auf technischer Ebene erörtert werden. Dazu werden Betrachtungen Neuronaler Netze und von Supercomputern, sowie der zugehörigen Software durchgeführt. Die Entwicklung auf diesem Gebiet wird dargestellt in ihrer Historie, ihrem Status Quo und ihrem Potential für die kommenden 10 bis 15 Jahre der Forschung. Im nächsten Hauptsegment Physik, wird der Begriff der „Information“ selbst mathematisch theoretisch und physikalisch praktisch erörtert und anschließend das Thema „physikalische Grundlagen der KI“ vertieft. Hier kommen wir explizit auf Quantenphysik zu sprechen, die wie wir herausarbeiten werden, das Fundament für die Informatik der kommenden Dekade liefern könnte. Wir stellen Überlegungen und Untersuchungen an, über grundlegende Begrifflichkeiten wie Energie und Entropie, über basale Konstanten und Naturgesetze, sowie den sich daraus ergebenden Raum der Realisierungsmöglichkeiten von Technologie in ihren theoretisch mathematisch maximalen Effizienzgraden. Ein Vergleich solcher Rechenbeispiele aus Natur und Technologie wird interessante neue Einblicke und Perspektiven ermöglichen. Der Anspruch der Interdisziplinarität dieser Arbeit, wird durch die Gliederung und Strukturierung der Abfolge der Argumentationsräume nochmals verdeutlicht: Nach 1.) Einleitung, 2.) Informatik 3.) Physik folgt dann 4.) der Politik Schlussteil. Hier soll dann folgende Fragestellung zum Thema KI die Überlegungen thematisch leiten: Gegeben den Fall, es gelingt in den folgenden ca. zwei Dekaden den Menschen technisch perfekt zu simulieren – worin liegt dann noch der genuin ontologische Kern des „Mensch-seins“ - und welches Bild der Gesellschaft zeichnet sich ab, mit einer solchen paradigmatischen Wende hin zu einer Technologie, die sich heute noch im Spannungsfeld zwischen Utopie und Realität befindet? Ließe sich einer absolut perfekten Simulation bzw. Emulation eines menschlichen Gehirns - wir sprechen von Präzision der letzten denkbaren theoretischen Ebene: Identikalität Molekül für Molekül, Atom für Atom und Quant für Quant - ein Bewusstsein noch absprechen? Hat die Quantenphysik oder sogar das sog. „no cloning“ Theorem hier Relevanz und Aussagekraft? – inwiefern betritt die KI spätestens ab diesem Schritt ethisch brisantes Gebiet? Fragen wie diese sollen im Verlauf der Kapitel sukzessive erörtert werden. Fragen die permanent dienen werden, den Zusammenhang der interdisziplinären Ansätze zu vereinen, sind dabei solche: Welchen Einfluss hat technologische Entwicklung auf Prozesse der Entscheidungsfindung der aktuellen Politik? Wie verhalten sich dabei ökonomische und soziologische Ziele zueinander? Welche soziokulturellen Konsequenzen ergaben und ergeben sich aus der heute etablierten Informations- & Kommunikationstechnologie (IuK) und welche Konsequenzen sind zu erwarten, wenn das Thema KI explizit auf die Agenda der Tagespolitik tritt? Die Kernfrage, die Thema und These dieser Arbeit inspiriert und die sich daher als roter Faden durch die gesamte Arbeit zieht und immer wieder aufs Neue mit verschiedenen Argumenten beleuchtet wird, ist dabei in einer ersten sondierenden Formulierung etwa diese: „Kann der Mensch, mittels seiner Intelligenz, die Grundlage ebendieser technisch simulieren – rekonstruieren – übertreffen? – wenn ja, welche Konsequenzen hat das für unsere Gesellschaft?

    Chancen und Risiken der systemischen Kontingenz KĂĽnstlicher Intelligenz in einer postindustriellen Weltgesellschaft

    Get PDF
    Die Thematik der Künstlichen Intelligenz (fortan KI) ist virulent. Sie erstreckt sich von der akademischen Fachdiskussion der Informatiker und Physiker, über eine breite philosophische Diskussion - weiter über Beiträge von Spezialisten aus Disziplinen der Psychologie, der Neurophysiologie und Neurobiologie und auch der Physik - doch dabei insbesondere in Beiträge der Quantenmechanik - bis hinein in die Domäne von Soziologie und Politik. Diese Dissertation möchte keinen dieser Bereiche isolieren, daher sollen möglichst viele auch divergierende Argumente der verschiedenen Fachdiskussionen nebeneinander gestellt und abgewogen werden. Der interdisziplinäre Ansatz soll dabei einerseits die erstaunliche Komplexität der Thematik reduzieren helfen, durch Aufzeigung von Konvergenzen und Isomorphien der Argumentationsfiguren, andererseits soll er die Perspektive öffnen, für eine neue hier zu erarbeitende Einordnung der KI in das politische Zeitgeschehen. Die Perspektive auf die transformative Kraft, die neue Technologien auf Gesellschaften ausüben, wird dabei eine bedeutende Rolle spielen. Technische Entwicklung kann der hier vorgestellten Argumentation zu Folge, als eine spezielle Form von Evolution begriffen werden, die der organischen Evolution im Sinne Darwins Argumentation nahe steht. Nicht zuletzt wegen der Nähe zu biologischen Sinnzusammenhängen, ist es z.B. in den Neurowissenschaften üblich geworden, sich Analogien aus der Technologie, insbes. der Informatik bezüglich Hardware als auch Software zu bedienen, um die Funktionsweise von Prozessen des Gehirns zu veranschaulichen. Aus vielen dieser Analogien sind inzwischen leichtfertig Identitätsbehauptungen entwickelt worden, die in diversen kritisch zu betrachtenden Reduktionismen münden. Zu ausgesuchten Positionen dieser Kategorie, die heute besonders in Kreisen der Denker der KI weite Verbreitung finden, soll eine differenzierte Untersuchung stattfinden. Welches wissenschaftliche Selbstverständnis des Menschen lässt sich konstatieren, wenn er metaphorisch und allegorisch zu semantischen wie zu technischen Werkzeugen greift, um mittels daraus abgeleiteter sprachlicher, logischer und auch technischer Konstruktionen seinen Standpunkt in der Welt zu präzisieren? Die Arbeit wird daher über weite Strecken einen grundsätzlich philosophischen Anspruch verfolgen, wobei die Argumentation sich vorwiegend im Areal der Interdependenz von Natur- und Geisteswissenschaften fokussieren wird. Das Oberthema Technik, wird den Einklang bilden, um das Spezialgebiet der KI zu eröffnen. Zunächst sollen die Bedingungen der Möglichkeit von KI auf technischer Ebene erörtert werden. Dazu werden Betrachtungen Neuronaler Netze und von Supercomputern, sowie der zugehörigen Software durchgeführt. Die Entwicklung auf diesem Gebiet wird dargestellt in ihrer Historie, ihrem Status Quo und ihrem Potential für die kommenden 10 bis 15 Jahre der Forschung. Im nächsten Hauptsegment Physik, wird der Begriff der „Information“ selbst mathematisch theoretisch und physikalisch praktisch erörtert und anschließend das Thema „physikalische Grundlagen der KI“ vertieft. Hier kommen wir explizit auf Quantenphysik zu sprechen, die wie wir herausarbeiten werden, das Fundament für die Informatik der kommenden Dekade liefern könnte. Wir stellen Überlegungen und Untersuchungen an, über grundlegende Begrifflichkeiten wie Energie und Entropie, über basale Konstanten und Naturgesetze, sowie den sich daraus ergebenden Raum der Realisierungsmöglichkeiten von Technologie in ihren theoretisch mathematisch maximalen Effizienzgraden. Ein Vergleich solcher Rechenbeispiele aus Natur und Technologie wird interessante neue Einblicke und Perspektiven ermöglichen. Der Anspruch der Interdisziplinarität dieser Arbeit, wird durch die Gliederung und Strukturierung der Abfolge der Argumentationsräume nochmals verdeutlicht: Nach 1.) Einleitung, 2.) Informatik 3.) Physik folgt dann 4.) der Politik Schlussteil. Hier soll dann folgende Fragestellung zum Thema KI die Überlegungen thematisch leiten: Gegeben den Fall, es gelingt in den folgenden ca. zwei Dekaden den Menschen technisch perfekt zu simulieren – worin liegt dann noch der genuin ontologische Kern des „Mensch-seins“ - und welches Bild der Gesellschaft zeichnet sich ab, mit einer solchen paradigmatischen Wende hin zu einer Technologie, die sich heute noch im Spannungsfeld zwischen Utopie und Realität befindet? Ließe sich einer absolut perfekten Simulation bzw. Emulation eines menschlichen Gehirns - wir sprechen von Präzision der letzten denkbaren theoretischen Ebene: Identikalität Molekül für Molekül, Atom für Atom und Quant für Quant - ein Bewusstsein noch absprechen? Hat die Quantenphysik oder sogar das sog. „no cloning“ Theorem hier Relevanz und Aussagekraft? – inwiefern betritt die KI spätestens ab diesem Schritt ethisch brisantes Gebiet? Fragen wie diese sollen im Verlauf der Kapitel sukzessive erörtert werden. Fragen die permanent dienen werden, den Zusammenhang der interdisziplinären Ansätze zu vereinen, sind dabei solche: Welchen Einfluss hat technologische Entwicklung auf Prozesse der Entscheidungsfindung der aktuellen Politik? Wie verhalten sich dabei ökonomische und soziologische Ziele zueinander? Welche soziokulturellen Konsequenzen ergaben und ergeben sich aus der heute etablierten Informations- & Kommunikationstechnologie (IuK) und welche Konsequenzen sind zu erwarten, wenn das Thema KI explizit auf die Agenda der Tagespolitik tritt? Die Kernfrage, die Thema und These dieser Arbeit inspiriert und die sich daher als roter Faden durch die gesamte Arbeit zieht und immer wieder aufs Neue mit verschiedenen Argumenten beleuchtet wird, ist dabei in einer ersten sondierenden Formulierung etwa diese: „Kann der Mensch, mittels seiner Intelligenz, die Grundlage ebendieser technisch simulieren – rekonstruieren – übertreffen? – wenn ja, welche Konsequenzen hat das für unsere Gesellschaft?

    Analog, digital - Opposition oder Kontinuum? : zur Theorie und Geschichte einer Unterscheidung

    Get PDF
    Forschungsprojekt gefördert durch die DFGDie Opposition der 'neuen digitalen' zu den 'alten analogen' Medien findet sich in Werbung, Popkultur, Wirtschaft, Politik und Wissenschaft. Offenbar hat sich die Unterscheidung analog/digital zur paradigmatischen Leitdifferenz des späten 20. und frühen 21. Jahrhunderts entwickelt. Doch was bedeutet 'analog' bzw. 'digital' in verschiedenen Kontexten genau und gibt es nicht auch Übergänge zwischen beiden Formen? Wann taucht die Unterscheidung auf und in welchem Zusammenhang? Indem sich die Anthologie mit diesen und anderen Fragen aus verschiedenen Perspektiven beschäftigt, räumt sie ein erhebliches Forschungsdefizit nicht nur in den Medienwissenschaften aus

    Analog/Digital - Opposition oder Kontinuum? Zur Theorie und Geschichte einer Unterscheidung

    Get PDF
    Die Opposition der 'neuen digitalen' zu den 'alten analogen' Medien findet sich in Werbung, Popkultur, Wirtschaft, Politik und Wissenschaft. Offenbar hat sich die Unterscheidung analog/digital zur paradigmatischen Leitdifferenz des späten 20. und frühen 21. Jahrhunderts entwickelt. Doch was bedeutet 'analog' bzw. 'digital' in verschiedenen Kontexten genau und gibt es nicht auch Übergänge zwischen beiden Formen? Wann taucht die Unterscheidung auf und in welchem Zusammenhang? Indem sich die Anthologie mit diesen und anderen Fragen aus verschiedenen Perspektiven beschäftigt, räumt sie ein erhebliches Forschungsdefizit nicht nur in den Medienwissenschaften aus
    corecore