16 research outputs found

    Social-Media-Daten: Chancen und Herausforderungen der Nutzung von Social-Media-Daten im Kontext wissenschaftlicher Forschung

    Get PDF
    Im Rahmen der vorliegende Arbeit konnten Chancen und Herausforderungen von Social Media Datenanalysen aufgezeigt werden. Um das Potenzial dieser nutzen zu können, ist eine interdisziplinäre Herangehensweise erforderlich. Während die vorliegenden Publikationen noch durch eine Einzelperson realisiert werden konnten, wird klar das die Einbeziehung der unterschiedlichen Disziplinen eine verstärkte Zusammenarbeit erfordert. Die Erweiterung der Agenten basierten Simulation um die „Mean Field Game Theory“ erfordert z.B. fortgeschrittene Kenntnisse der Physik, Sentiment Analysen erfordert die Zusammenarbeit von Linguisten und Informatikern, Clusteranalysen bedürfen der Zusammenarbeit von Datenanalytikern und Soziologen. Um das Potential der Analyseergebnisse zu heben sollten Wirtschaftswissenschaftler einbezogen bzw. sind diese Treiber und Wertschöpfer. Somit ist zukünftig eine verstärkte Zusammenarbeit zu erwarten, welches zu komplexen Formen der Zusammenarbeit führen wird. Dies wiederum bedingt Konzepte und Frameworks, um die Zusammenarbeit transparent und verständlich gestalten zu können

    Organisation, Repräsentation und Analyse menschlicher Ganzkörperbewegung für die datengetriebene Bewegungsgenerierung bei humanoiden Robotern

    Get PDF
    Diese Arbeit präsentiert einen Ansatz zur datengetriebenen Bewegungsgenerierung für humanoide Roboter, der auf der Beobachtung und Analyse menschlicher Ganzkörperbewegungen beruht. Hierzu wird untersucht, wie erfasste Bewegungen repräsentiert, klassifiziert und in einer großskaligen Bewegungsdatenbank organisiert werden können. Die statistische Modellierung der Transitionen zwischen charakteristischen Ganzkörperposen ermöglicht im Anschluss die Generierung von Multi-Kontakt-Bewegungen

    Open Source Studie Schweiz 2021

    Get PDF
    Die Open Source Studie 2021 zeigt auf, wie Open Source Software trotz der bereits 2018 hohen Werte in vielen Bereichen noch weiter an Verbreitung und Relevanz zugenommen hat. Eindrücklich ist, dass heute gemäss der neuesten Umfrage 97% der Firmen und Behörden Open Source Lösungen einsetzen. Der wichtigste Grund dafür sind offene Standards, denn bei Open Source Software gilt stets «Interoperability by Design». Die Umfrage 2021 zeigt wie bereits 2018 auf, dass Open Source Software in der Schweiz sehr verbreitet ist: Von den 163 antwortenden CEOs, CIOs, CTOs und IT-Fachleuten gaben 97% an, dass sie in einem oder mehreren Bereichen Open Source Software einsetzen – 2018 waren es 95%, 2015 erst 92%. Eindrücklich ist insbesondere das grosse Wachstum der so genannten «Vielnutzer» von Open Source Software auf 49%. Fast die Hälfte der Unternehmen und Behörden – alles Mitglieder von swissICT und der Schweizerischen Informatikkonferenz – geben an, dass sie in mehr als 14 der insgesamt 28 abgefragten Themen Open Source Software nutzen. Das ist ein deutlicher Anstieg gegenüber den 29% «Vielnutzern» im Jahr 2018 und den erst 21% 2015. Dieser Trend belegt das verstärkte Eindringen von Open Source Software in immer weitere Bereiche der modernen Informatik und betont einmal mehr die generelle Relevanz von Open Source Lösungen in der fortschreitenden digitalen Transformation. Open Source Software wird immer breiter in vielen unterschiedlichen Informatikbereichen eingesetzt und hat das ursprüngliche Nischendasein aus der Server-Admin Ecke definitiv verlassen. Auch zeigt dies einmal mehr ein typisches Phänomen bei Open Source Software: Alle machen es, bloss die wenigsten reden darüber. So müsste der bekannte Spruch «No one has been fired for buying Microsoft» wohl schon bald «No one has been fired for buying Linux» lauten. Dieser Meinung sind auch die Antwortenden. Auf die Frage hin, wie sich die Bedeutung von Open Source Software in den letzten drei Jahren verändert hat, antworteten mit 67% über zwei Drittel, dass die Relevanz «stark» oder «eher zugenommen» hat. Im Jahr 2018 waren es 60%, die so antworteten, sodass 2021 die hohe Relevanz von Open Source Software offenbar noch intensiver wahrgenommen wird. Nur gerade knapp 6% der Befragten gab an, dass die Relevanz eher abgenommen haEin neues, wichtiges Argument für Open Source Software ist gemäss der Antworten die «digitale Souveränität», die Fähigkeit zu selbstbestimmtem Handeln und Entscheiden im digitalen Raum. Nutzer von Open Source Software haben somit die Wichtigkeit der reduzierten Hersteller-Abhängigkeit und der dadurch besseren Verhandlungsmöglichkeiten bei Software-Anschaffungen erkannt. Aber es gibt auch weiterhin Hindernisse beim Einsatz von Open Source Software: So wurde beispielsweise in den Umfrageresultaten bemängelt, dass bei vielen Open Source Projekten unklar sei, wie sie finanziert werden. Und neben den unklaren Geschäftsmodellen ist nach wie vor der Vendor Lock-in mit bestehenden proprietären Systemen einer der wichtigsten Hinderungsgründe bei der weiteren Verbreitung von Open Source Software.be, niemand kreuzte «stark abgenommen» an. Beim Ranking der abgefragten Open Source Tools und Plattformen gab es einige spannende Überraschungen. So ist zwar weiterhin JavaScript die verbreitetste Open Source Programmiersprache in der Schweiz, jedoch klarer Gewinner ist dieses Mal TypeScript. Dessen Verbreitung hat sich in nur drei Jahren von 2% auf 39% verzwanzigfacht. Auch Open Source Anwendungen auf dem Desktop haben stark an Ausbreitung gewonnen: deren Anteil stieg von 56% auf 75%. Open Source Standardprodukte wie Firefox oder KeePass sind dabei besonders beliebt. Bei den Identity und Access Management Systemen hat Keycloak einen grossen Sprung nach vorne geschafft: dessen Marktanteil hat sich seit 2018 auf 44% Verbreitung mehr als verdoppelt. Bei den Open Source Content Management Systemen konnte WordPress seine Marktführerschaft auf über 60% verfestigen. Neu mit im Rennen ist dieses Jahr der Schweizer Messenger-Dienst Threema, dessen Mobile Apps und Protokolle erst im Dezember 2020 unter der AGPL-Open Source Lizenz freigegeben worden sind. Threema ist gemäss Umfrage in der IT-Branche sehr verbreitet und wird von 56% der Antwortenden in der Kategorie «Open Source Kommunikations-Tools» genutzt. Erstmalig wurde dieses Jahr untersucht, ob die befragten Firmen und Behörden neben der Nutzung von Open Source Software auch selber zu bestehenden externen oder eigenen Open Source Projekten beitragen. Die Ergebnisse zeigen auf, dass mit über 60% der 141 Antwortenden bereits viele der befragten CEOs und IT-Verantwortlichen Open Source Code freigeben oder zumindest schon mal darüber nachgedacht haben. Tatsächlich veröffentlichen heute insgesamt 30% der Antwortenden auf GitHub, GitLab oder einer anderen Plattform eigenen Source Code. Dies erstaunt, ist die Freigabe von Quelltext unter einer Open Source Lizenz für viele Firmen und Behörden doch eine relativ neue Praxis und benötigt einiges an Erfahrung mit Open Source Communities und Prozessen. Dabei publiziert die Mehrheit (21%) den Quellcode auf einem Organisations-eigenen Profil. Nur die Minderheit lässt ihre Mitarbeitenden den Code über ihre privaten GitHub Profile veröffentlichen

    Intercloud-Kommunikation für Mehrwehrtdienste von Cloud-basierten Architekturen im Internet of Things

    Get PDF
    Das Internet of Things (IoT) ist aktuell ein junger Wachstumsmarkt, dessen Bedeutung für unsere Gesellschaft in naher Zukunft vielen Menschen erst noch wirklich bewusst werden wird. Die Subdomänen Smart-Home, Smart-Grid, Smart-Mobility, Industrie 4.0, Smart-Health und viele mehr sind wichtig für unsere zukünftige Wettbewerbsfähigkeit, die Herausforderungen zur Bewältigung des Klimawandels, unsere Gesundheit, aber auch für trivialere Dinge wie Komfort. Andererseits ergibt sich hierbei bereits dasselbe große Problem, das in einer ähnlichen Form schon bei klassischem Cloud-Computing bekannt ist: Vendor-Silos, die keinen hersteller- oder anbieterübergreifenden Austausch von Gerätedaten ermöglichen, verhindern eine schnelle Verbreitung dieser neuen Technologie. Diensteanbieter müssen ihre Produkte aufwendig für unzählige Technologien bereitstellen, was die Entwicklung von Diensten unnötig teuer macht und letztendlich das Dienstangebot insgesamt einschränkt. Cloud-Computing wird dabei in Zukunft eine wichtige Rolle spielen. Die Dissertation beschäftigt sich daher mit dem Problem IoT-Gerätedaten an IoT-Clouds plattformübergreifend und anbieterübergreifend nutzbar zu machen. Die Motivation und die adressierte Forschungslücke zeigen die Notwendigkeit der Beschäftigung mit dem Thema auf. Ausgehend davon, wird das Konzept einer dezentral organisierten IoT-Intercloud vorgeschlagen, welches in der Lage ist heterogene IoT-Clouds zu integrieren. Die Analyse des Standes der Technik zeigt, das IoT-Clouds genügend Eigenschaften teilen, um in Zukunft eine Adaption zu einer einheitlichen Schnittstelle für die IoT-Intercloud zu schaffen. Das Konzept umfasst zunächst die Komponentenarchitektur eines Intercloud-Brokers zur Etablierung einer IoT-Intercloud. Ausgehend davon wird in vertiefenden Teilkonzepten ein Discovery-Service zum Finden von Gerätedaten und einem Push-Stream-Provider, für die Zustellung von IoT-Event-Notifications in Echtzeit, behandelt. Eine Evaluation zeigt letztlich die praxistaugliche Realisierbarkeit, Skalierbarkeit und Performance der Konzeption und des implementierten Prototyps.:1 Einleitung 1.1 Problemstellung und Motivation 1.2 Ziele der Dissertation 1.2.1 Thesen 1.2.2 Forschungsfragen 1.3 Aufbau der Dissertation 2 Grundlagen zu Cloud-Computing im Internet of Things 2.1 Definition von Cloud-Computing 2.1.1 Generelle Eigenschaften 2.1.2 Architekturschichten 2.1.3 Einsatzformen 2.2 Internet of Things 2.2.1 Middleware im IoT 2.3 Architekturen verteilter Systeme zur Bereitstellung der IoT-Middleware 2.3.1 Geräte-zentrische IoT-Architektur 2.3.2 Gateway-zentrische IoT-Architektur 2.3.3 Cloud-zentrische IoT-Architektur 2.3.4 Zusammenfassung 2.4 Eigenschaften von verteilten Event-basierten Systemen 2.4.1 Interaktionsmodelle 2.4.2 Filtermodelle von Subscriptions 2.4.3 Verteiltes Notfication-Routing 2.5 Discovery im IoT 2.5.1 Grundlegende Begrifflichkeiten 2.5.2 Topologien von Discovery-Services 2.5.3 Funktionale Anforderungen für Discovery-Services im IoT 2.5.4 Ausgewählte Ansätze von Discovery-Services im IoT 3 Stand der Technik 3.1 Device-as-a-Service-Schnittstellen von IoT-Clouds 3.1.1 Gerätedatenmodell 3.1.2 Datenabruf mit Pull-Semantik 3.1.3 Datenabruf mit Push-Semantik 3.1.4 Steuerung von Gerätedaten 3.1.5 Datenzugriff durch Drittparteien 3.2 Analyse der DaaS-Schnittstellen verschiedener IoT-Clouds 3.2.1 Google Nest 3.2.2 Samsung Artik 3.2.3 AWS IoT 3.2.4 Microsoft Azure IoT Suite 3.2.5 Kiwigrid IoT-Plattform 3.2.6 Digi Device Cloud 3.2.7 DeviceHive 3.2.8 Eurotech Everyware Cloud 3.3 Zusammenfassung und Diskussion des Standes der Technik 4 Intercloud-Computing für das IoT 4.1 Intercloud-Computing nach Toosi 4.1.1 Ansätze zur Interoperabilität 4.1.2 Szenarien zur Cloud-übergreifenden Interoperabilität 4.1.3 Herausforderungen für Komponenten 4.2 Intercloud-Computing nach Grozev 4.2.1 Klassifikation der Architekturen 4.2.2 Klassifikation des Brokering-Mechanismus 4.2.3 Klassifikation verteilter Cloudanwendungen 4.3 Verwandte Arbeiten 4.3.1 Intercloud-Architekturen außerhalb der IoT-Domäne 4.3.2 Intercloud-Architekturen für das IoT 4.4 Analyse der verwandten Arbeiten 4.4.1 Systematik zur Bewertung 4.4.2 Bewertung und Abgrenzung 5 Anforderungsanalyse 5.1 Akteure in einer IoT-Intercloud 5.1.1 Menschliche Akteure 5.1.2 Systemakteure 5.2 Anwendungsfälle 5.2.1 Anwendungsfälle von IoT-Diensten 5.2.2 Anwendungsfälle von IoT-Clouds 5.2.3 Anwendungsfälle von IoT-Geräten 5.2.4 Anwendungsfälle von Intercloud-Brokern 5.3 Anforderungen 5.4 Ausschlusskriterien 6 Intercloud-Architektur für das IoT 6.1 Systemmodell einer IoT-Intercloud 6.1.1 IoT-Datenmodell für die Intercloud 6.1.2 Etablierung einer Vertrauensbeziehung zwischen zwei Clouds 6.2 Komponentenarchitektur des Intercloud-Brokers 6.2.1 Service-Connector, IC-DaaS-IF und Service-Protocol 6.2.2 Intercloud-Proxy, ICC-IF und Protokoll 6.2.3 Cloud-Adapter und IC-DaaS-Adapter-IF 6.3 Zusammenfassung 7 Verteilter Discovery-Service 7.1 Problembeschreibung 7.1.1 Topologie des Discovery-Service 7.2 Einfache Cloud-Discovery mit Broadcasting-Weiterleitung 7.2.1 Schnittstelle und Protokoll des einfachen Discovery-Service 7.2.2 Diskussion des einfachen Discovery-Service 7.3 Cloud-Discovery mit Geräteverzeichnis und Multicast-Weiterleitung 7.3.1 Geeignete Geräteinformationen für das Verzeichnis 7.3.2 Struktur und Schnittstelle des Verzeichnisses 7.3.3 Verzeichnissynchronisation und erweitertes Protokoll 7.4 Zusammenfassung beider Ansätze des Discovery-Service 8 Verteilter Push-Stream-Provider 8.1 Verteilter Push-Stream-Provider im Modell des Broker-Overlay-Netzwerks 8.2 Verteilter Push-Stream-Provider mit einfachem Routing-Modell 8.2.1 Systemmodell 8.2.2 Integration der Subkomponenten in die verteilte ICB-Architektur 8.3 Redundanz und Redundanzvermeidung des Push-Stream-Providers 8.3.1 Beschreibung des Redundanzproblems und des Lösungsansatzes 8.3.2 Lösungsansatz 8.4 Verteilter Push-Stream-Provider mit vereinigungsbasiertem Routing-Modell 8.4.1 Erkennen von ähnlichen Filtern 8.4.2 Konstruktion eines Vereinigungsfilters 8.4.3 Rekonstruktion der Datenströme 8.4.4 Komponente: Merge-Controller 8.4.5 Komponente: Stream-Processing-Engine 8.4.6 Integration in die bisherige Architektur 8.4.7 Diskussion des Ansatzes zur Redundanzvermeidung 8.5 Zusammenfassung zum Konzept des Push-Stream-Providers 9 Evaluation 9.1 Prototypische Implementierung der Konzeptarchitektur 9.1.1 Intercloud-Broker 9.1.2 IoT-Cloud und IoT-Geräte 9.1.3 IoT-Dienste 9.1.4 Grenzen des Prototyps und Fokus der experimentellen Evaluation 9.2 Aufbau der Evaluationsumgebung 9.3 Experimentelle Untersuchung der prototypischen Implementierung des Konzepts 9.3.1 Ermittlung einer Performance-Baseline 9.3.2 Experiment 1: Performance bei variabler Nachrichtengröße und Nachrichtenanzahl 9.3.3 Experiment 2: Performance bei multiplen Subscriptions 9.3.4 Experiment 3: Ermittlung des maximalen Durchsatzes und Skalierbarkeit des ICB 9.3.5 Experiment 4: Effizienzvergleich zwischen einfachem und vereinigungsbasiertem Routing 9.4 Zusammenfassung und Diskussion der Evaluation 10 Zusammenfassung 10.1 Beiträge der Dissertation 10.2 Ausblick A Abbildungen B Tabellen Inhaltsverzeichnis C Algorithmen D Listings Literaturverzeichni

    Vertrauenswürdige, adaptive Anfrageverarbeitung in dynamischen Sensornetzwerken zur Unterstützung assistiver Systeme

    Get PDF
    Assistenzsysteme in smarten Umgebungen sammeln durch den Einsatz verschiedenster Sensoren viele Daten, um die Intentionen und zukünftigen Aktivitäten der Nutzer zu berechnen. In den meisten Fällen werden dabei mehr Informationen gesammelt als für die Erfüllung der Aufgabe des Assistenzsystems notwendig sind. Das Ziel dieser Dissertation ist die Konzeption und Implementierung von datenschutzfördernden Algorithmen für die Weitergabe sensibler Sensor- und Kontextinformationen zu den Analysewerkzeugen der Assistenzsysteme. Die Datenschutzansprüche der Nutzer werden dazu in Integritätsbedingungen der Datenbanksysteme transformiert, welche die gesammelten Informationen speichern und auswerten. Ausgehend vom Informationsbedarf des Assistenzsystems und den Datenschutzbedürfnissen des Nutzers werden die gesammelten Daten so nahe wie möglich am Sensor durch Selektion, Reduktion, Kompression oder Aggregation durch die Datenschutzkomponente des Assistenzsystems verdichtet. Sofern nicht alle Informationen lokal verarbeitet werden können, werden Teile der Analyse an andere, an der Verarbeitung der Daten beteiligte Rechenknoten ausgelagert. Das Konzept wurde im Rahmen des PArADISE-Frameworks (Privacy-AwaRe Assistive Distributed Information System Environment) umgesetzt und u. a. in Zusammenarbeit mit dem DFG-Graduiertenkolleg 1424 (MuSAMA-Multimodal Smart Appliances for Mobile Application) anhand eines Beispielszenarios getestet

    Design eines sicheren, verteilten Dateisystems

    Get PDF
    Cloud ist derzeit ein geflügeltes Wort in der IT-Branche. Diese Technologie ermöglicht es Firmen, ihre Dienste und damit auch deren Betreuung auszulagern und schnell auf sich ändernden Bedarf an Rechenleistung zu reagieren. Auch Endnutzer profitieren von der Cloud, sie können ihre Daten bei vielen Anbietern abspeichern und von überall auf der Welt darauf zugreifen. Das wird zumindest von den jeweiligen Anbietern behauptet. Leider entspricht die Realität nicht den Werbeversprechen der Anbieter, es kommt zu Ausfällen von Diensten, Daten gehen verloren und bei dem Wunsch nach Migration der eigenen Daten zu einem anderen Anbieter treten plötzlich vorher nicht bekannte Schwierigkeiten auf. Diese Arbeit beschäftigt sich aus diesem Grund mit der Frage der Überwindung dieser Probleme. Es werden die notwendigen Grundlagen für die redundante Speicherung von Daten vorgestellt. Außerdem werden bestehende Dateisysteme und bestehende wissenschaftliche Arbeiten auf diesem Gebiet beschrieben. Danach wird ein Abriss über die Fähigkeiten einzelner ausgewählter Dienste-Anbieter gegeben und deren Güte bewertet. Es folgt das Design eines Systemes, welches die Schwächen und die oben genannten Probleme nicht oder nur in vermindertem Maße aufweist. Es wird beim Design darauf geachtet, dass im Lichte der steigenden Kriminalitätsrate im Cyberspace auch das Bedürfnis des Benutzers nach Sicherheit vor unbefugtem Zugriff befriedigt wird. Anhand von Beispielen werden die wichtigsten Punkte des Programmes erläutert und die korrekte Implementierung verdeutlicht. Zu guter Letzt wird eine Validierung der für das Design aufgestellten Requirements anhand von Versuchen durchgeführt. Es zeigt sich, dass das hier implementierte System TDFS die Speicherung von Daten bei mehreren Anbietern unterstützt und sie gleichzeitig vor dem Zugriff Unbefugter abschottet.Cloud is one of the most hyped buzzwords in the IT-business nowadays. Supposedly this technology enables enterprises to outsource services and maintenance, and to react to fast changing consumption of computational ressources. The Cloud is even beneficial for end-users who are able to save their data at multiple storage providers and can access it from everywhere in the world. At least this is what providers want us to believe. However, reality is not quite congruent to the providers' promises. Service breakdowns, lost data and other unexpected problems may occur, resulting in the necessity to migrate one's data to a more suitable service provider. The focus of this thesis is the creation of a solution for these problems. Background information on redundant saving of data is provided to the reader. Furthermore existing file systems and scientific work on this matter is described. A short survey on the capabilities of a few chosen service providers is given and their service level is measured. Next the design of a system aimed at reducing these limitations is explained. Due to the rising number of crimes in cyberspace the design also focuses on providing a means of securing one's data from unsolicited access. The most important facts about the system are being presented by examples and their correct implementation is shown. Last but not least, the fulfillment of the requirements, which were created before designing the solution, is validated. The implemented system TDFS (Transparent Distributed File System) proves itself of being capable of saving data at multiple storage providers and securing its data from unwanted access

    Forum Bauinformatik 2009 : 23. bis 25. September 2009, Universität Karlsruhe (TH)

    Get PDF
    Tagungsband des 21. Forum Bauinformatik am 23. bis 25. September 2009 an der Universität Karlsruhe (TH). Beiträge von jungen Wissenschaftlern aus den Bereichen Simulationsmodelle, Numerische Methoden, Visualisierung, Informationsvermittlung, Prozess- und Produktmodellierung sowie weiterer informationstechnischer Anwendungen im Bauwesen

    Prozessmodellierung in der Hochtemperaturverfahrenstechnik

    Get PDF
    Prozesse zur Herstellung von Grundstoffen basieren oft auf der Anwendung hoher Temperaturen und können so der Hochtemperaturverfahrenstechnik zugeordnet werden. Die Hochtemperaturverfahrenstechnik und die Werkstoffwissenschaft bilden gemeinsam die Basis für die Wissenschaft von der Herstellung der Metalle, der Metallurgischen Prozesstechnik, einer Basis der industriellen Wertschöpfungskette. Die Kombination aus Informatik und mathematischer Modellierung ermöglicht die Modellierung von Produktionsprozessen im interdisziplinären Fachgebiet Wissenschaftliches Rechnen. In der Hochtemperaturverfahrenstechnik ist die Konzeption, Implementierung und Anwendung komplexer Modelle ein wichtiger Forschungszweig. Als Abbilder der realen Stoffumsetzungsprozesse sind Prozessmodelle in Forschung und Produktion unverzichtbar. Diese Arbeit liefert den genannten Fachgebieten eine wissenschaftliche Untersuchung folgender Fragen: Was ist ein Prozessmodell - Definition? Wie entsteht ein Prozessmodell - Genese? Wozu dient ein Prozessmodell - Telos? Wie wird ein Prozessmodell bewertet - Qualifikation? Die Arbeit liefert eine exemplarische Synthese zwischen den Grundlagen und den für die Umsetzung in die Praxis notwendigen Erfahrungen. Damit werden die Grundlagen für ein neues wesentliches Element von Anlagen in der Prozessindustrie gelegt: Prozess-Meta-Modelle, die es erlauben, in einem dynamischen Umfeld ständig optimale Ergebnisse zu liefern. Diese Arbeit stellt die Grundlagen für diese Vision und eine Qualitätssicherung in der Prozessmodellierung dar.Production processes for basic materials often require the application of high temperatures and thus belong to the field of high temperature process engineering (HTPE). Together with the material science this field forms the fundament for the science of metal production, the metallurgical process technology, as the basis of the industrial value creation chain. The combination of computer science and mathematical modelling allows the modelling of industrial production processes in the interdisciplinary field of scientific computing. In high temperature process engineering, the conception, implementation and application of complex models is an important area of research. By representing real material conversion processes, process models are essential in research and production. To all these fields, this work delivers a scientific investigation of the following questions: What is a process model - definition? How to produce a process model - genesis? What is the purpose of a process model - telos? How can a process model be assessed - qualification? This work delivers an exemplary synthesis of the fundamentals and of the experiences required for the practical implementation. It forms the basis of an essential element of facilities in the process industry: Process-meta-models allowing to deliver optimum results in a dynamical environment. This work provides the fundamentals for this vision and a basis for quality assurance in process modelling
    corecore