12 research outputs found

    Bericht zum Seminar ĂĽber Elektro-CAD (Sommersemester 2000)

    Get PDF
    Die rechnergestützte Produktentwicklung erfolgt heutzutage in einem interdisziplinären Arbeitsprozeß, innerhalb dessen Experten verschiedener Ingenieurbereiche und Branchen ihr Fachwissen und Können mittels modernster Software-Werkzeuge in sogenannte Produktmodelle einbringen. Derartige Produktmodelle verkörpern die informationstechnische Datenbasis eines zu entwickelnden bzw. zu fertigenden Produktes und sind zur Gestaltung eines effizienten Produktentwicklungsprozesses mittlerweile obligatorisch. Eine der Schlüsseltechnologien der rechnergestützten Produktentwicklung ist der Bereich des Computer Aided Design, kurz CAD, innerhalb dessen die konstruktive Modellierung des Konstruktionsobjektes erfolgt. Während die CAD-Technologie in den Anwendungsbereichen Mechanik bzw. Maschinenbau bereits seit vielen Jahren etabliert ist - und heute einen immens hohen Entwicklungsstand aufweist - befindet sich die Entwicklung von effizienten Werkzeugen zur rechnergestützten Konstruktion elektrotechnischer bzw. elektromechanischer Produkte auf einem weitaus niedrigeren technologischen Niveau. Die Gründe hierfür mögen zum Teil historisch bedingt sein, denn die Entwicklung von Elektro-CAD-Werkzeugen (E-CAD) hat erst rund zwanzig Jahre nach der Entwicklung von Mechanik-CAD-Werkzeugen (M-CAD) eingesetzt, da schlichtweg bis dato kaum Bedarf an solchen Werkzeugen für die Elektrokonstruktion bestand. Ferner unterscheiden sich Maschinenbau und Elektrotechnik in bezug auf Aufbau und Darstellung von CAD-Modellen stark voneinander, so daß die für den M-CAD-Bereich entwickelten Werkzeuge nicht ohne weiteres für die Verwendung im E-CAD-Umfeld angepaßt werden konnten. Seit Mitte der Neunziger Jahre beschäftigen sich zahlreiche Wissenschaftler, E-CAD-Anwender und Systementwickler verstärkt mit der Entwicklung einer neuen (dritten) Elektro-CAD- Systemgeneration, welche den zukünftigen Anforderungen an ein modernes Electrical Engineering gerecht werden soll

    Phänomenologie und Bekämpfung von "Cyberpiraterie" : eine kriminologische und kriminalpolitische Analyse

    Get PDF
    Illegale Beschaffung und Distribution von Schutzgegenständen geistigen Eigentums über das Internet haben sich spätestens seit dem Siegeszug der sogenannten Online-Tauschbörsen (P2P-Filesharing-Systeme) zu einem regelrechten Massenphänomen entwickelt. Die vorliegende Arbeit untersucht die vielfältigen Tatbegehungsmodalitäten, die Täterstruktur und -motivation, die Auswirkungen von Cyberpiraterie sowie Bekämpfungs- und Überwachungsstrategien bezüglich des Problems. Neben einer kritischen Beurteilung der strafrechtlichen Situation enthält die Arbeit auch eigene Lösungsvorschläge.Die Dissertation gliedert sich in drei Teile: Der erste Teil enthält eine Einführung, in der auch die wichtigsten technischen Zusammenhänge erläutert werden. Teil 2 beschäftigt sich mit der ältesten Form digitaler Piraterie, der Softwarepiraterie (auch: ‘Warez-Szene’). Teil 3 schließlich behandelt das recht neue Phänomen der Online-Musikpiraterie (‘MP3-Szene’).Angesichts der starken Dynamik des Themenkreises ist bei der Wahl der Bekämpfungsstrategien stets die aktuelle digitale Realität zu berücksichtigen. Der Wahlspruch der Verwertungsgesellschaften, wonach ‘das Schützbare zu schützen und das Nicht-Schützbare zu vergüten’ ist, scheidet in diesem Zusammenhang die Geister. Während die Vertreter der Unterhaltungsindustrie sämtliche digitalen Werke für schützbar erklären, zeigt die vorliegende Arbeit exemplarisch auf, dass ein umfassender Schutz digitaler Inhalte im Internet zur Zeit weder rechtlich noch technisch durchsetzbar ist. Nicht nur aus diesem Grund sondern auch aus rechtspolitischen und kriminologischen Erwägungen ist es dringend geboten, zivilrechtliche Alternativen zu dem derzeit eingeschlagenen, strafrechtlichen Weg zu etablieren

    Phänomenologie und Bekämpfung von "Cyberpiraterie" : eine kriminologische und kriminalpolitische Analyse

    Get PDF
    Illegale Beschaffung und Distribution von Schutzgegenständen geistigen Eigentums über das Internet haben sich spätestens seit dem Siegeszug der sogenannten Online-Tauschbörsen (P2P-Filesharing-Systeme) zu einem regelrechten Massenphänomen entwickelt. Die vorliegende Arbeit untersucht die vielfältigen Tatbegehungsmodalitäten, die Täterstruktur und -motivation, die Auswirkungen von Cyberpiraterie sowie Bekämpfungs- und Überwachungsstrategien bezüglich des Problems. Neben einer kritischen Beurteilung der strafrechtlichen Situation enthält die Arbeit auch eigene Lösungsvorschläge.Die Dissertation gliedert sich in drei Teile: Der erste Teil enthält eine Einführung, in der auch die wichtigsten technischen Zusammenhänge erläutert werden. Teil 2 beschäftigt sich mit der ältesten Form digitaler Piraterie, der Softwarepiraterie (auch: ‘Warez-Szene’). Teil 3 schließlich behandelt das recht neue Phänomen der Online-Musikpiraterie (‘MP3-Szene’).Angesichts der starken Dynamik des Themenkreises ist bei der Wahl der Bekämpfungsstrategien stets die aktuelle digitale Realität zu berücksichtigen. Der Wahlspruch der Verwertungsgesellschaften, wonach ‘das Schützbare zu schützen und das Nicht-Schützbare zu vergüten’ ist, scheidet in diesem Zusammenhang die Geister. Während die Vertreter der Unterhaltungsindustrie sämtliche digitalen Werke für schützbar erklären, zeigt die vorliegende Arbeit exemplarisch auf, dass ein umfassender Schutz digitaler Inhalte im Internet zur Zeit weder rechtlich noch technisch durchsetzbar ist. Nicht nur aus diesem Grund sondern auch aus rechtspolitischen und kriminologischen Erwägungen ist es dringend geboten, zivilrechtliche Alternativen zu dem derzeit eingeschlagenen, strafrechtlichen Weg zu etablieren

    Verfahrensfortschritte in der robusten Echtzeiterkennung von Schriftzeichen

    Get PDF
    In den meisten industriellen Anwendungen sind schnelle und zuverlässige Algorithmen zur Zeichenerkennung gefordert. Dazu werden verschiedene Zeichensegmentierungsansätze vorgestellt, die sich größtenteils adaptiv an die Gegebenheiten in den Aufnahmen anpassen. Weiterhin wird ein Segmentierungsverfahren beschrieben, das mögliches Vorwissen mit berücksichtigt. Zudem wurden Kombinationen von Merkmalen und Klassifikatoren bezüglich deren Robustheit unter dem Einfluss von Rauschen untersucht

    Eine Bewertung von TCPA unter technischen und ökonomischen Aspekten

    Get PDF
    Die Konvergenz von Medien, Telekommunikation sowie Informationstechnologie führt zu einer gesteigerten Interaktion zwischen den Computergeräten dieser drei Wirtschaftssektoren. Zugleich steigt die Anzahl mutierender Würmer, Viren und Trojanische Pferde, wie z.B. Varianten der Bagle- und Sober-Würmer oder der Netsky- und MyDoom-Viren, im Tagesrhythmus und bedrohen die Sicherheit von Computerplattformen. Die Daten der Systeme sind daher potenziellen Risiken ausgesetzt. Um dieser steigenden Bedrohung zu entgegnen, entwickelt die industrielle Initiative „Trusted Computing Group“ (TCG), ehemals „Trusted Computing Platform Alliance“ (TCPA), einen Standard, welcher die Sicherheit der verschiedenen Gerätetypen verbessern soll. Abbildung 1 dokumentiert dabei die Sicherheitsmängel, welche durch die verschiedenen Typen der Attacken oder den entdeckten Missbrauch veranschaulicht werden. Speziell Viren und der Missbrauch der Netzwerkzugänge innerhalb des Unternehmens können aus der Abbildung 1 als häufigste Ursache entnommen werden. Verlust des Laptops, nicht autorisierte Zugriffe durch Insider und Denial of Service Angriffe folgen auf den weiteren Plätzen. Die Gesamtkosten der Computerkriminalität sind zwar unter das Niveau vom Jahre 2000 gefallen, speziell von 2002 auf 2003 haben sich diese mehr als halbiert, obwohl seit 1999 besonders die Urheberrechtsverletzungen proprietärer Informationen stetig angestiegen sind. Der Verlust proprietärer Informationen steht mit 21 Prozent nicht direkt im Vordergrund der obigen Abbildung. Allerdings schlägt der Diebstahl von proprietären Informationen mit 35 Prozent der Gesamtkosten der Computerkriminalität zu buche und führt damit die geschätzten Verluste aus Abbildung 2 an. Auf Platz zwei folgen Denial of Service Angriffe, die Kosten von ca. 65,6 Millionen Dollar verursachen. Viren, Missbrauch des Netzes durch Insider sowie finanzieller Betrug folgen auf weiteren Plätzen. In der Studie vom Computer Security Institute werden die Bestrebungen der TCG, vertrauenswürdige Plattformen herzustellen, als mögliche Lösung des Problems des Diebstahls von proprietären Informationen betrachtet. Deren Effekte werden sich voraussichtlich in fünf bis zehn Jahren auf die Computersicherheit bemerkbar machen. Auch das „Federal Bureau of Investigation“ (FBI) hat mittlerweile eine Initiative zusammen mit der Entertainment- und Softwareindustrie gegen den Diebstahl von urheberrechtlich geschütztem Material abgeschlossen, da die Verluste in der Summe mehrere Billionen Dollar verursachen. Die beiden ersten Abbildungen in Verbindung mit dem dazugehörigen Zahlenmaterial belegen die Diskrepanz der TCG. Dazu stützt sich die TCG auf die steigende Anzahl an Attacken und Missbräuche, ohne die geschätzten Verluste der einzelnen Attacken zu berücksichtigen. Gerade die enorme wirtschaftliche Bedeutung von Information und deren Missbrauch offenbart allerdings einen möglichen Antrieb, die Sicherheit bestehender Rechnersysteme zu verbessern. Diese Erkenntnis ist jedoch nicht übereinstimmend mit der Triebkraft der TCG, die ihre Initiative auf die steigende Anzahl an Schwachstellen stützt, um vermutlich ihre eigentlichen Beweggründe zu verschleiern. Ziel dieser Arbeit ist zum einen den technischen Standard der TCG sowie mögliche Umsetzungen vorzustellen und zum anderen die Standardisierung unter ökonomischen Ansichten zu untersuchen, um sie anschließend zu bewerten. Dazu wird im zweiten Kapitel ein erster Einblick über das Standardisierungsgremium, deren Beweggründe sowie den historischen Kontext zwischen TCPA und TCG gegeben. Das dritte Kapitel dient als Grundlage und Einführung in die Informationsökonomie, um die Komplexität und Zusammenhänge hinsichtlich der Standardisierung und abschließenden Bewertung in den folgenden Kapiteln besser zu erfassen. Neben der Technologie und Information spielt die Auswahl der Erlöse in Verbindung mit der Preisdiskriminierung eine wichtige Rolle. Bezüglich der Standardisierung und Bewertung haben Lock-in sowie Wechselkosten erhebliche Auswirkungen auf die Kon-sumenten. Das gilt ebenfalls für die Größenvorteile, vor allem auf die Netzwerkexternalitäten. Die Standardisierung der TCG wird im vierten Kapitel ausführlicher behandelt, wobei Standards definiert, abgegrenzt und klassifiziert werden. Zudem wird die koope-rative Standardisierung in Form einer Allianz sowie die daraus folgende Problematik des Umgangs mit geistigem Eigentum eingegangen. Das fünfte Kapitel geht direkt auf die technischen Spezifikationen der TCG ein, erklärt das Grundkonzept vertrauenswürdiger Plattformen und behandelt als Schwerpunkt die Komponente des „Trusted Platform Modules“ (TPM) sowie dessen Implementierung in einen Computer. Im Anschluss daran werden im sechsten Abschnitt technischen Umsetzungen auf praktische Anwendungen und Szenarien vorgestellt. Dazu werden als Erstes verfügbare Umsetzungen sowie die Hardwarearchitektur am Beispiel von Intel LaGrande dargestellt, worauf die anschließenden Softwareanwendungen unter den beiden Betriebssystemen Windows und Linux aufbauen. Das siebte Kapitel behandelt die Bewertung der kooperativen Standardisierung und zeigt die Zusammenhänge zwischen Hardwarekompatibilität und Netzwerkexternalitäten auf. Darüber hinaus wird die Adoption dieser neuen Technologie unter statischen und dynamischen Ansätzen berechnet und abschließend die Schwächen und Risiken dieser neuen Technologie erläutert

    Modellgestützter Entwurf von Feldgeräteapplikationen

    Get PDF
    Die Entwicklung von Feldgeräten ist ein äußerst komplexer Vorgang, welcher auf vielen Vorrausetzungen aufsetzt, diverse Anforderungen und Randbedingungen mitbringt und bisher wenig beachtet und veröffentlicht wurde. Angesichts der fortschreitenden Digitalisierung drängen immer mehr Anbieter auf den Automatisierungsmarkt. So sind aktuell zunehmend Technologien und Ansätze aus dem Umfeld des Internet of Things im Automatisierungsbereich zu finden. Diese Ansätze reichen von Sensoren ohne die in der Industrie üblichen Beschreibungen bis hin zu Marktplätzen, auf denen Integratoren und Anwender Softwareteile für Anlagen kaufen können. Für die neuen Anbieter, die häufig nicht aus dem klassischen Automatisierungsgeschäft kommen, sind die bisher bestehenden Modelle, Funktionalitäten, Profile und Beschreibungsmittel nicht immer leicht zu verwenden. So entstehen disruptive Lösungen auf Basis neu definierter Spezifikationen und Modelle. Trotz dieser Disruptivität sollte es das Ziel sein, die bewährten Automatisierungsfunktionen nicht neu zu erfinden, sondern diese effektiv und effizient in Abhängigkeit der Anforderungen auf unterschiedlichen Plattformen zu verwenden. Dies schließt ihre flexible Verteilung auf heterogene vernetzte Ressourcen explizit ein. Dabei können die Plattformen sowohl klassische Feldgeräte und Steuerungen sein, als auch normale Desktop-PCs und IoT-Knoten. Ziel dieser Arbeit ist es, eine Werkzeugkette für den modellbasierten Entwurf von Feldgeräteapplikationen auf Basis von Profilen und damit für den erweiterten Entwurf von verteilten Anlagenapplikationen zu entwickeln. Dabei müssen die verschiedenen Beschreibungsmöglichkeiten evaluiert werden, um diese mit detaillierten Parameter- und Prozessdatenbeschreibungen zu erweitern. Außerdem sollen modulare Konzepte genutzt und Vorbereitungen für die Verwendung von Semantik im Entwurfsprozess getroffen werden. In Bezug auf den Geräteengineeringprozess soll der Anteil des automatisierten Geräteengineerings erweitert werden. Dies soll zu einer Flexibilisierung der Geräteentwicklung führen, in der die Verschaltung der funktionalen Elemente beim Endkunden erfolgt. Auch das Deployment von eigenen funktionalen Elementen auf die Geräte der Hersteller soll durch den Endkunden möglich werden. Dabei wird auch eine automatisierte Erstellung von Gerätebeschreibungen benötigt. Alle diese Erweiterungen ermöglichen dann den letzten großen Schritt zu einer verteilten Applikation über heterogene Infrastrukturen. Dabei sind die funktionalen Elemente nicht nur durch die Gerätehersteller verteilbar, sondern diese können auch auf verschiedenen Plattformen unterschiedlicher Gerätehersteller verwendet werden. Damit einher geht die für aktuelle Entwicklungen wie Industrie 4.0 benötigte geräteunabhängige Definition von Funktionalität. Alle im Engineering entstandenen Informationen können dabei auf den unterschiedlichen Ebenen der Automatisierungspyramide und während des Lebenszyklus weiterverwendet werden. Eine Integration diverser Gerätefamilien außerhalb der Automatisierungstechnik wie z. B. IoT-Geräte und IT-Geräte ist damit vorstellbar. Nach einer Analyse der relevanten Techniken, Technologien, Konzepte, Methoden und Spezifikationen wurde eine Werkzeugkette für den modellgestützten Entwurf von Feldgeräten entwickelt und die benötigten Werkzeugteile und Erweiterungen an bestehenden Beschreibungen diskutiert. Dies Konzept wurde dann auf den verteilten Entwurf auf heterogener Hardware und heterogenen Plattformen erweitert, bevor beide Konzepte prototypisch umgesetzt und evaluiert wurden. Die Evaluation erfolgt an einem zweigeteilten Szenario aus der Sicht eines Geräteherstellers und eines Integrators. Die entwickelte Lösung integriert Ansätze aus dem Kontext von Industrie 4.0 und IoT. Sie trägt zu einer vereinfachten und effizienteren Automatisierung des Engineerings bei. Dabei können Profile als Baukasten für die Funktionalität der Feldgeräte und Anlagenapplikationen verwendet werden. Bestehende Beschränkungen im Engineering werden somit abgeschwächt, so dass eine Verteilung der Funktionalität auf heterogene Hardware und heterogene Plattformen möglich wird und damit zur Flexibilisierung der Automatisierungssysteme beiträgt.The development of field devices is a very complex procedure. Many preconditions need to be met. Various requirements and constrains need to be addressed. Beside this, there are only a few publications on this topic. Due to the ongoing digitalization, more and more solution providers are entering the market of the industrial automation. Technologies and approaches from the context of the Internet of Things are being used more and more in the automation domain. These approaches range from sensors without the typical descriptions from industry up to marketplaces where integrators and users can buy software components for plants. For new suppliers, who often do not come from the classical automation business, the already existing models, functionalities, profiles, and descriptions are not always easy to use. This results in disruptive solutions based on newly defined specifications and models. Despite this disruptiveness, the aim should be to prevent reinventing the proven automation functions, and to use them effectively, and efficiently on different platforms depending on the requirements. This explicitly includes the flexible distribution of the automation functions to heterogeneous networked resources. The platforms can be classical field devices and controllers, as well as normal desktop PCs and IoT nodes. The aim of this thesis is to develop a toolchain for the model-based design of field device applications based on profiles, and thus also suitable for the extended design of distributed plant applications. Therefore, different description methods are evaluated in order to enrich them with detailed descriptions of parameters and process data. Furthermore, c oncepts of modularity will also be used and preparations will be made for the use of semantics in the design process. With regard to the device engineering process, the share of automated device engineering will be increased. This leads to a flexibilisation of the device development, allowing the customer to perform the networking of the functional elements by himself. The customer should also be able to deploy his own functional elements to the manufacturers' devices. This requires an automated creation of device descriptions. Finally, all these extensions will enable a major step towards using a distributed application over heterogeneous infrastructures. Thus, the functional elements can not only be distributed by equipment manufacturers, but also be distributed on different platforms of different equipment manufacturers. This is accompanied by the device-independent definition of functionality required for current developments such as Industry 4.0. All information created during engineering can be used at different levels of the automation pyramid and throughout the life cycle. An integration of various device families from outside of Automation Technology, such as IoT devices and IT devices, is thus conceivable. After an analysis of the relevant techniques, technologies, concepts, methods, and specifications a toolchain for the model-based design of field devices was developed and the required tool parts, and extensions to existing descriptions were discussed. This concept was then extended to the distributed design on heterogeneous hardware and heterogeneous platforms. Finally, both concepts were prototypically implemented and evaluated. The evaluation is based on a two-part scenario from both the perspective of a device manufacturer, and the one of an integrator. The developed solution integrates approaches from the context of Industry 4.0 and IoT. It contributes to a simplified, and more efficient automation of engineering. Within this context, profiles can be used as building blocks for the functionality of field devices, and plant applications. Existing limitations in engineering are thus reduced, so that a distribution of functionality across heterogeneous hardware and heterogeneous platforms becomes possible and contributing to the flexibility of automation systems

    Chancen und Risiken der systemischen Kontingenz KĂĽnstlicher Intelligenz in einer postindustriellen Weltgesellschaft

    Get PDF
    Die Thematik der Künstlichen Intelligenz (fortan KI) ist virulent. Sie erstreckt sich von der akademischen Fachdiskussion der Informatiker und Physiker, über eine breite philosophische Diskussion - weiter über Beiträge von Spezialisten aus Disziplinen der Psychologie, der Neurophysiologie und Neurobiologie und auch der Physik - doch dabei insbesondere in Beiträge der Quantenmechanik - bis hinein in die Domäne von Soziologie und Politik. Diese Dissertation möchte keinen dieser Bereiche isolieren, daher sollen möglichst viele auch divergierende Argumente der verschiedenen Fachdiskussionen nebeneinander gestellt und abgewogen werden. Der interdisziplinäre Ansatz soll dabei einerseits die erstaunliche Komplexität der Thematik reduzieren helfen, durch Aufzeigung von Konvergenzen und Isomorphien der Argumentationsfiguren, andererseits soll er die Perspektive öffnen, für eine neue hier zu erarbeitende Einordnung der KI in das politische Zeitgeschehen. Die Perspektive auf die transformative Kraft, die neue Technologien auf Gesellschaften ausüben, wird dabei eine bedeutende Rolle spielen. Technische Entwicklung kann der hier vorgestellten Argumentation zu Folge, als eine spezielle Form von Evolution begriffen werden, die der organischen Evolution im Sinne Darwins Argumentation nahe steht. Nicht zuletzt wegen der Nähe zu biologischen Sinnzusammenhängen, ist es z.B. in den Neurowissenschaften üblich geworden, sich Analogien aus der Technologie, insbes. der Informatik bezüglich Hardware als auch Software zu bedienen, um die Funktionsweise von Prozessen des Gehirns zu veranschaulichen. Aus vielen dieser Analogien sind inzwischen leichtfertig Identitätsbehauptungen entwickelt worden, die in diversen kritisch zu betrachtenden Reduktionismen münden. Zu ausgesuchten Positionen dieser Kategorie, die heute besonders in Kreisen der Denker der KI weite Verbreitung finden, soll eine differenzierte Untersuchung stattfinden. Welches wissenschaftliche Selbstverständnis des Menschen lässt sich konstatieren, wenn er metaphorisch und allegorisch zu semantischen wie zu technischen Werkzeugen greift, um mittels daraus abgeleiteter sprachlicher, logischer und auch technischer Konstruktionen seinen Standpunkt in der Welt zu präzisieren? Die Arbeit wird daher über weite Strecken einen grundsätzlich philosophischen Anspruch verfolgen, wobei die Argumentation sich vorwiegend im Areal der Interdependenz von Natur- und Geisteswissenschaften fokussieren wird. Das Oberthema Technik, wird den Einklang bilden, um das Spezialgebiet der KI zu eröffnen. Zunächst sollen die Bedingungen der Möglichkeit von KI auf technischer Ebene erörtert werden. Dazu werden Betrachtungen Neuronaler Netze und von Supercomputern, sowie der zugehörigen Software durchgeführt. Die Entwicklung auf diesem Gebiet wird dargestellt in ihrer Historie, ihrem Status Quo und ihrem Potential für die kommenden 10 bis 15 Jahre der Forschung. Im nächsten Hauptsegment Physik, wird der Begriff der „Information“ selbst mathematisch theoretisch und physikalisch praktisch erörtert und anschließend das Thema „physikalische Grundlagen der KI“ vertieft. Hier kommen wir explizit auf Quantenphysik zu sprechen, die wie wir herausarbeiten werden, das Fundament für die Informatik der kommenden Dekade liefern könnte. Wir stellen Überlegungen und Untersuchungen an, über grundlegende Begrifflichkeiten wie Energie und Entropie, über basale Konstanten und Naturgesetze, sowie den sich daraus ergebenden Raum der Realisierungsmöglichkeiten von Technologie in ihren theoretisch mathematisch maximalen Effizienzgraden. Ein Vergleich solcher Rechenbeispiele aus Natur und Technologie wird interessante neue Einblicke und Perspektiven ermöglichen. Der Anspruch der Interdisziplinarität dieser Arbeit, wird durch die Gliederung und Strukturierung der Abfolge der Argumentationsräume nochmals verdeutlicht: Nach 1.) Einleitung, 2.) Informatik 3.) Physik folgt dann 4.) der Politik Schlussteil. Hier soll dann folgende Fragestellung zum Thema KI die Überlegungen thematisch leiten: Gegeben den Fall, es gelingt in den folgenden ca. zwei Dekaden den Menschen technisch perfekt zu simulieren – worin liegt dann noch der genuin ontologische Kern des „Mensch-seins“ - und welches Bild der Gesellschaft zeichnet sich ab, mit einer solchen paradigmatischen Wende hin zu einer Technologie, die sich heute noch im Spannungsfeld zwischen Utopie und Realität befindet? Ließe sich einer absolut perfekten Simulation bzw. Emulation eines menschlichen Gehirns - wir sprechen von Präzision der letzten denkbaren theoretischen Ebene: Identikalität Molekül für Molekül, Atom für Atom und Quant für Quant - ein Bewusstsein noch absprechen? Hat die Quantenphysik oder sogar das sog. „no cloning“ Theorem hier Relevanz und Aussagekraft? – inwiefern betritt die KI spätestens ab diesem Schritt ethisch brisantes Gebiet? Fragen wie diese sollen im Verlauf der Kapitel sukzessive erörtert werden. Fragen die permanent dienen werden, den Zusammenhang der interdisziplinären Ansätze zu vereinen, sind dabei solche: Welchen Einfluss hat technologische Entwicklung auf Prozesse der Entscheidungsfindung der aktuellen Politik? Wie verhalten sich dabei ökonomische und soziologische Ziele zueinander? Welche soziokulturellen Konsequenzen ergaben und ergeben sich aus der heute etablierten Informations- & Kommunikationstechnologie (IuK) und welche Konsequenzen sind zu erwarten, wenn das Thema KI explizit auf die Agenda der Tagespolitik tritt? Die Kernfrage, die Thema und These dieser Arbeit inspiriert und die sich daher als roter Faden durch die gesamte Arbeit zieht und immer wieder aufs Neue mit verschiedenen Argumenten beleuchtet wird, ist dabei in einer ersten sondierenden Formulierung etwa diese: „Kann der Mensch, mittels seiner Intelligenz, die Grundlage ebendieser technisch simulieren – rekonstruieren – übertreffen? – wenn ja, welche Konsequenzen hat das für unsere Gesellschaft?

    Chancen und Risiken der systemischen Kontingenz KĂĽnstlicher Intelligenz in einer postindustriellen Weltgesellschaft

    Get PDF
    Die Thematik der Künstlichen Intelligenz (fortan KI) ist virulent. Sie erstreckt sich von der akademischen Fachdiskussion der Informatiker und Physiker, über eine breite philosophische Diskussion - weiter über Beiträge von Spezialisten aus Disziplinen der Psychologie, der Neurophysiologie und Neurobiologie und auch der Physik - doch dabei insbesondere in Beiträge der Quantenmechanik - bis hinein in die Domäne von Soziologie und Politik. Diese Dissertation möchte keinen dieser Bereiche isolieren, daher sollen möglichst viele auch divergierende Argumente der verschiedenen Fachdiskussionen nebeneinander gestellt und abgewogen werden. Der interdisziplinäre Ansatz soll dabei einerseits die erstaunliche Komplexität der Thematik reduzieren helfen, durch Aufzeigung von Konvergenzen und Isomorphien der Argumentationsfiguren, andererseits soll er die Perspektive öffnen, für eine neue hier zu erarbeitende Einordnung der KI in das politische Zeitgeschehen. Die Perspektive auf die transformative Kraft, die neue Technologien auf Gesellschaften ausüben, wird dabei eine bedeutende Rolle spielen. Technische Entwicklung kann der hier vorgestellten Argumentation zu Folge, als eine spezielle Form von Evolution begriffen werden, die der organischen Evolution im Sinne Darwins Argumentation nahe steht. Nicht zuletzt wegen der Nähe zu biologischen Sinnzusammenhängen, ist es z.B. in den Neurowissenschaften üblich geworden, sich Analogien aus der Technologie, insbes. der Informatik bezüglich Hardware als auch Software zu bedienen, um die Funktionsweise von Prozessen des Gehirns zu veranschaulichen. Aus vielen dieser Analogien sind inzwischen leichtfertig Identitätsbehauptungen entwickelt worden, die in diversen kritisch zu betrachtenden Reduktionismen münden. Zu ausgesuchten Positionen dieser Kategorie, die heute besonders in Kreisen der Denker der KI weite Verbreitung finden, soll eine differenzierte Untersuchung stattfinden. Welches wissenschaftliche Selbstverständnis des Menschen lässt sich konstatieren, wenn er metaphorisch und allegorisch zu semantischen wie zu technischen Werkzeugen greift, um mittels daraus abgeleiteter sprachlicher, logischer und auch technischer Konstruktionen seinen Standpunkt in der Welt zu präzisieren? Die Arbeit wird daher über weite Strecken einen grundsätzlich philosophischen Anspruch verfolgen, wobei die Argumentation sich vorwiegend im Areal der Interdependenz von Natur- und Geisteswissenschaften fokussieren wird. Das Oberthema Technik, wird den Einklang bilden, um das Spezialgebiet der KI zu eröffnen. Zunächst sollen die Bedingungen der Möglichkeit von KI auf technischer Ebene erörtert werden. Dazu werden Betrachtungen Neuronaler Netze und von Supercomputern, sowie der zugehörigen Software durchgeführt. Die Entwicklung auf diesem Gebiet wird dargestellt in ihrer Historie, ihrem Status Quo und ihrem Potential für die kommenden 10 bis 15 Jahre der Forschung. Im nächsten Hauptsegment Physik, wird der Begriff der „Information“ selbst mathematisch theoretisch und physikalisch praktisch erörtert und anschließend das Thema „physikalische Grundlagen der KI“ vertieft. Hier kommen wir explizit auf Quantenphysik zu sprechen, die wie wir herausarbeiten werden, das Fundament für die Informatik der kommenden Dekade liefern könnte. Wir stellen Überlegungen und Untersuchungen an, über grundlegende Begrifflichkeiten wie Energie und Entropie, über basale Konstanten und Naturgesetze, sowie den sich daraus ergebenden Raum der Realisierungsmöglichkeiten von Technologie in ihren theoretisch mathematisch maximalen Effizienzgraden. Ein Vergleich solcher Rechenbeispiele aus Natur und Technologie wird interessante neue Einblicke und Perspektiven ermöglichen. Der Anspruch der Interdisziplinarität dieser Arbeit, wird durch die Gliederung und Strukturierung der Abfolge der Argumentationsräume nochmals verdeutlicht: Nach 1.) Einleitung, 2.) Informatik 3.) Physik folgt dann 4.) der Politik Schlussteil. Hier soll dann folgende Fragestellung zum Thema KI die Überlegungen thematisch leiten: Gegeben den Fall, es gelingt in den folgenden ca. zwei Dekaden den Menschen technisch perfekt zu simulieren – worin liegt dann noch der genuin ontologische Kern des „Mensch-seins“ - und welches Bild der Gesellschaft zeichnet sich ab, mit einer solchen paradigmatischen Wende hin zu einer Technologie, die sich heute noch im Spannungsfeld zwischen Utopie und Realität befindet? Ließe sich einer absolut perfekten Simulation bzw. Emulation eines menschlichen Gehirns - wir sprechen von Präzision der letzten denkbaren theoretischen Ebene: Identikalität Molekül für Molekül, Atom für Atom und Quant für Quant - ein Bewusstsein noch absprechen? Hat die Quantenphysik oder sogar das sog. „no cloning“ Theorem hier Relevanz und Aussagekraft? – inwiefern betritt die KI spätestens ab diesem Schritt ethisch brisantes Gebiet? Fragen wie diese sollen im Verlauf der Kapitel sukzessive erörtert werden. Fragen die permanent dienen werden, den Zusammenhang der interdisziplinären Ansätze zu vereinen, sind dabei solche: Welchen Einfluss hat technologische Entwicklung auf Prozesse der Entscheidungsfindung der aktuellen Politik? Wie verhalten sich dabei ökonomische und soziologische Ziele zueinander? Welche soziokulturellen Konsequenzen ergaben und ergeben sich aus der heute etablierten Informations- & Kommunikationstechnologie (IuK) und welche Konsequenzen sind zu erwarten, wenn das Thema KI explizit auf die Agenda der Tagespolitik tritt? Die Kernfrage, die Thema und These dieser Arbeit inspiriert und die sich daher als roter Faden durch die gesamte Arbeit zieht und immer wieder aufs Neue mit verschiedenen Argumenten beleuchtet wird, ist dabei in einer ersten sondierenden Formulierung etwa diese: „Kann der Mensch, mittels seiner Intelligenz, die Grundlage ebendieser technisch simulieren – rekonstruieren – übertreffen? – wenn ja, welche Konsequenzen hat das für unsere Gesellschaft?

    Untersuchung des Einsatzes von Web Service-Technologien in Automationsnetzwerken

    Get PDF
    In letzter Zeit wurden viele spezifische Protokolle entwickelt. Im Rahmen dieser Arbeit wurde untersucht, inwieweit es möglich ist, existierende proprietäre Protokolle auf Web Services abzubilden. Es wurde des Weiteren die Skalierbarkeit von Web Services untersucht. Es wurde gezeigt, dass Web Services in Netzwerken beliebiger Größen eingesetzt werden können. Ein weiterer Aspekt dieser Arbeit war die Untersuchung der Web Services im Hinblick auf die Echtzeitfähigkeit. Es konnte gezeigt werden, dass die Verarbeitung der Nachrichten in die Hardware verlagert werden kann

    Entwurf und Realisierung von komplexen intelligenten Steuerungssystemen

    Get PDF
    Summary of the Dissertation Subject: "Design and implementation of complex and intelligent control systems" presented by: Dipl.-Ing. Hartmut Wächter Since decentralized event- or objectoriented automation technology could be rarely found in the first half of the 90s, a way to implement complex intelligent automation systems as it was approached especially by "Wächter Engineering Consultants" is presented in this work. The automation system, MKS16 (modular communicative control with 16-bit ?C) designed by the author with the GRIPS design system (graphic interactive planning system) is a solution which is superior in the modular variety of many PLC systems and is ideally suitable for field bus systems and remote control technology. The software solution GRIPS is a very simple design system for process technologists. It comprises intelligent functions such as fuzzy logic and neural networks and allows the crea- tion of new special functions for further developments and project adaptation. Extensive functions can be integrated in projects as C-constructs. The field bus comparison highlights the particular suitability of the LON (local operating net- work) for distributed intelligent systems with project orientation through the standardization of layer 7 of the ISO/OSI layer model. The LONWORKS? technology as well as the MKS16 system are very good for combining devices with totally different tasks, construction and scope of functions. Based on the observations of the Ethernet with TCP/IP, project compatibility and wireless automation systems, some applications implemented with the MKS16 system and LON- WORKS are described. The main emphasis of these projects are remote control solutions with low-cost visualizations (E-control) and intelligent distributed controls with fuzzy logic for environment-technical, biomechatronic devices and systems. In the last demo project a com- plex, inter-trade, house-technical implementation for a school sports hall is illustrated, which represents a successful solution in the combination of a locking system with lighting and heat- ing systems for energy saving. The technical basis is made up of LONWORKS and a visualiza- tion for Facility Management.Da Automatisierungstechnik mit dezentralen ereignisgesteuerten Funktionsprinzipien und Objektorientierung in der ersten Hälfte der 90er Jahre selten zu finden war, stellt die vorliegende Arbeit einen Weg zur Realisierung komplexer intelligenter Automatisierungssysteme vor, wie er speziell im Ingenieurbüro Wächter gegangen wurde. Das vom Autor konzipierte Automatisierungssystem MKS16 (Modulare Kommunikative Steuerung mit 16-Bit-?C) mit dem Entwurfssystem GRIPS (Grafisches interaktives Projektiersystem) ist eine Lösung, die sich in der modularen Vielfalt von vielen SPS-Systemen abhebt und auch für Feldbussysteme und Fernwirktechnik bestens geeignet ist. Die Softwarelösung GRIPS ist ein sehr einfaches Entwurfssystem für Prozesstechnologen. Es beinhaltet bereits intelligente Funktionen wie Fuzzy-Logic und Neuronale Netze, ermöglicht aber auch die Kreation von neuen speziellen Funktionen für die kontinuierliche Weiterentwicklung und Projektanpassung. Man kann auch beliebige C-Konstrukte als umfangreichere Funktionen in Projekte einfügen. Der Feldbusvergleich stellt die besondere Eignung des LON (local operating network) für dezentrale intelligente Systeme mit Projektorientierung durch die Normung der Schicht 7 des ISO/OSI-Schichtenmodells heraus. Die LONWORKS?-Technologie eignet sich genau wie das MKS16-System besonders gut zum Zusammenführen von Geräten mit völlig unterschiedlichen Aufgaben, Ausstattungen und Funktionsumfang. Nach einigen Betrachtungen zu Ethernet mit TCP/IP, Projektkompatibilität und kabellosen Automatisierungssystemen werden einige realisierte Anwendungen mit dem MKS16-System und LONWORKS beschrieben. Schwerpunkte dieser Projekte sind Fernwirklösungen mit preisgünstigen Visualisierungen (E-Control) und intelligente dezentrale Steuerungen mit Fuzzy- Logik für umwelttechnische biomechatronische Geräte und Anlagen. Im letzten Beispielprojekt ist eine komplexe, gewerkeübergreifende, haustechnische Realisierung für eine Schulsporthalle aufgezeigt, die eine gelungene Lösung in der Kombination von einem Schließsystem mit Beleuchtungs- und Heizungsanlagen zur Energieeinsparung darstellt. Die technische Basis bildet LONWORKS und eine Visualisierung für Fassility-Management
    corecore