59 research outputs found

    Ein generisches und hoch skalierbares Framework zur Automatisierung und Ausführung wissenschaftlicher Datenverarbeitungs- und Simulationsworkflows

    Get PDF
    Scientists and engineers designing and implementing complex system solutions use computational workflows for simulations, analysis, and evaluations. Along with growing system complexity, the complexity of these workflows also increases. However, without integration tools, scientists and engineers are more concerned with implementing additional interfaces to integrate software tools and model sets, which hinders their original research or engineering aims. Therefore, efficient automation and parallel computation of complex workflows are increasingly important in order to perform computational science in many scientific fields like energy and environmental informatics. When coupling heterogeneous models and other executables, a wide variety of software infrastructure requirements must be considered to ensure the compatibility of workflow components. The consistent utilization of advanced computing capabilities and the implementation of sustainable software development concepts that guarantee maximum efficiency and reusability are further issues that scientists within research organizations must regularly meet. This thesis addresses these challenges by presenting a new generic, modular, and highly scalable process operation framework for efficient coupling and automated execution of computational scientific workflows. Based on a microservice architecture utilizing container virtualization and orchestration, the framework supports the flexible and efficient parallelization of computational tasks on distributed cluster nodes. Using distributed message-oriented middleware and different I/O adapters provides a scalable and high-performance communication infrastructure for data exchange between executables, allowing the computation of workflows without requiring the adjustment of executables or the implementation of interfaces or adapters. The convenient user interface based on Apache NiFi technology ensures the simplified specification, processing, controlling, and evaluation of computational scientific workflows. Due to the framework’s high scalability and extended flexibility, use cases benefitting from parallel execution are parallelized, thereby significantly saving runtime and improving operational efficiency, especially during complex tasks like iterative grid optimization

    Digital Business: Analysen und Handlungsfelder in der Praxis

    Get PDF
    Dieses Open-Access-Fachbuch beleuchtet empirische und theoretische Aspekte der Digitalisierung der Wirtschaft aus der Perspektive verschiedener Managementbereiche. Der Megatrend Digitalisierung ist zu einem dominierenden Einflussfaktor für die Entwicklung der Unternehmen geworden. In zunehmendem Maße werden nicht nur die Strategien der Unternehmen digitaler, sondern sämtliche Führungs- und Handlungsfelder im Digital Business. Das Buch behandelt vor diesem Hintergrund aktuelle, praxisrelevante Fragestellungen zu allgemeinen Rahmensetzungen und Technologien des Digital Business, zum Finanzmanagement, Human Resource Management, Produktionsmanagement und zum Marketing. Alle Beiträge wurden durch bewährte Autorenteams erarbeitet. Diese setzen sich in der Regel aus Lehrenden und Forschenden der Berner Fachhochschule und Vertreterinnen und Vertretern der Unternehmenspraxis mit akademischem Background zusammen. Die Beiträge basieren auf empirischen Analysen, die zumeist ihren Schwerpunkt auf Gestaltungsprobleme aus der Unternehmenspraxis legen. Hieraus ergibt sich ein breites Spektrum an konkreten Fallbeispielen

    Big Data in der Cloud

    Get PDF
    Seit einigen Jahren wird erwartet, dass die automatisierte Auswertung der kontinuierlich wachsenden öffentlichen und privaten Datenbestände nicht nur den Markt für Informationstechnologie (IT), sondern die Gesellschaft insgesamt hin zu einer digitalen Ökonomie nachhaltig verändert. Big Data steht dabei für Ansätze zur Analyse besonders großer, heterogener Datenmengen, während Cloud Computing die bedarfsgerechte Bereitstellung von IT-Ressourcen über ein Netzwerk beschreibt. Die Kombination dieser beiden Ansätze wird als besonders relevant angesehen, da sie auch kleinen und mittleren Unternehmen, Verwaltungen oder Nichtregierungsorganisationen Zugang zu Big-Data-Analysen eröffnen kann. Einerseits werden große Potenziale beispielsweis in der Medizin, der Logistik und der Verkehrslenkung, der Energieproduktion oder im Katastrophenschutz gesehen, andererseits werden auch große Herausforderungen insbesondere für den Datenschutz thematisiert. Die Vorstudie zeigt, dass Cloud Computing zunehmend an ökonomischer Bedeutung gewinnt. Hingegen befindet sich der Markt für Big-Data-Analysen, auch aufgrund der schwierigen Abgrenzung zu schon existierenden Technologien, noch in seinen Anfängen. Der Überblick zu den Anwendungspotenzialen in den Bedarfsfeldern der Hightech-Strategie belegt die Möglichkeiten in den Bereichen Produktivität, Effizienz und Innovation sowie für Wachstum und Beschäftigung. Herausforderungen werden außer im Datenschutz sowie bei den geistigen Eigentumsrechten auch bei den Geschäftsmodellen deutlich. Abschließend werden Bereiche identifiziert, die einen Handlungs- und Forschungsbedarf aufzeigen. Hierzu gehören Fragen der nötigen Infrastrukturen, der technischen und rechtlichen Sicherheit, der Ausbildung sowie der ökonomischen Wettbewerbsfähigkeit

    Entwicklung eines ganzheitlichen Informationssystems zur Optimierung der Reihenfolgebildung im Sondermaschinenbau

    Get PDF
    Vor dem Hintergrund eines gestiegenen technologischen Wettbewerbs im Sondermaschinenbau gewinnen die industriellen Zielgrößen Kosten, Qualität und Zeit unentwegt an Bedeutung. Zur Optimierung der Zielgröße Zeit greift die vorliegende Arbeit die Entwicklung eines ganzheitlichen Informationssystems auf. Für die Entwicklung des Systems wird eine Entwicklungsmethode systematisch anhand der Schritte Analyse, Konzeption und Entwicklung beschrieben. Ergebnis sind die Teilsysteme zur Datenbereitstellung, Datenerfassung, Datenintegration und Informationsnutzung, welche durch ihrer bidirektionalen Kommunikation untereinander ein ganzheitliches Informationssystem bilden. Durch das Teilsystem zur Datenbereitstellung wird die Auswahl von projektspezifischen Kennzeichnungstechnologien und Informationsträgern zur maschinenlesbaren Materialkennzeichnung ermöglicht. Im Folgenden kann durch das Teilsystem zur Datenerfassung eine bedarfs- und anforderungsgerechte Erfassung dieser maschinenlesbaren Daten in der Produktion erfolgen. Um die erhobenen Daten für die Informationsnutzung aufzubereiten und standardisiert zur Verfügung zu stellen, findet in der Datenintegration die Entwicklung eines Datenmodells statt. Infolge dieser Teilsysteme der vorangegangenen Phasen stehen aktuelle als auch historische Daten zur Verfügung, die in dem Teilsystem der Informationsnutzung verwendet werden, um die Reihenfolgebildung von wartenden Aufträgen an Arbeitssystemen in der Produktion zu optimieren.Against the background of increased technological competition in special machine construction, the industrial target variables of costs, quality and time are constantly gaining in importance. In order to optimise the target value of time, the present work takes up the development of a holistic information system. For the development of the system, a development method is systematically described on the basis of the steps analysis, conception and development. The result is the subsystems for data provision, data acquisition, data integration and information utilisation, which form a holistic information system through their bidirectional communication with each other. The subsystem for data provision enables the selection of project-specific marking technologies and information carriers for machine-readable material marking. In the following, the subsystem for data collection can be used to collect this machine-readable data in production according to requirements and needs. In order to prepare the collected data for the use of information and to make it available in a standardised way, the development of a data model takes place in the data integration. As a result of these subsystems of the previous phases, current as well as historical data are available, which are used in the subsystem of information utilisation to optimise the sequencing of waiting orders at work systems in production

    Adaptivität und semantische Interoperabilität von Manufacturing Execution Systemen (MES)

    Get PDF
    MES (Manufacturing Execution Systems) are situated between automation and management level and are affected from changes of the production. Therefore their adaptivity within the lifecycle of production plants is mission critical. Furthermore MES act as data and information hub. This means that they have to work together with other systems in an efficient and seamless way. MES must be interoperable and must have semantics under control. The present publication faces both aspects

    Konzeption und Entwicklung eines sprachgesteuerten Smart Home Systems unter Betrachtung des Internet of Things

    Get PDF
    Das Internet of Things (IoT) ist aktuell eines der trendgebenden Themen der Infor-mationstechnik. Dem Thema werden dabei viele Versprechungen, aber auch Erwar-tungen auf staatlicher, wirtschaftlicher und alltäglicher Ebene zugeordnet. Dabei besteht die Frage, was ist Hype und was ist Realität? Motivation und Zielsetzung dieser Arbeit ist es, dieses Thema zu untersuchen und Aspekte daraus in einem Smart Home System umzusetzen. Klare Zielsetzung ist die lauffähige Ver-sion eines Prototyps zu produzieren. Dieser soll den technischen Durchstich ver-schiedener Werkzeuge, Technologien und Services, als integratives Ziel dieser Arbeit, durchführen. Eine Verknüpfung mit realen Anwendungsfällen ist zur besse-ren Veranschaulichung wünschenswert, aber für die Zielerreichung nicht zwangsläu-fig erforderlich. Gleichzeitig soll der Prototyp ein stabiles Fundament für weitere Entwicklungen auf dessen Basis bereitstellen. Der Einsatz von Technologien im Be-ta-Stadium ist dadurch aber nicht ausgeschlossen, wie der Einsatz des aktuell noch in der Entwicklervorschau befindlichen Android Things zeigt

    Personalisierung im E-Commerce – zur Wirkung von E-Mail-Personalisierung auf ausgewählte ökonomische Kennzahlen des Konsumentenverhaltens: Personalisierung im E-Commerce – zur Wirkung von E-Mail-Personalisierung auf ausgewählte ökonomische Kennzahlen des Konsumentenverhaltens

    Get PDF
    Personalisierung ist ein wichtiger Bereich des Internet Marketings, zu dem es wenige experimentelle Untersuchungen mit großen Teilnehmerzahlen gibt. Für den erfolgreichen Einsatz von Empfehlungsverfahren sind umfangreiche Daten über das Käuferverhalten erforderlich. Diesen Problemstellungen nimmt sich die vorliegende Arbeit an. In ihr wird das Shop-übergreifende individuelle Käuferverhalten von bis zu 126.000 Newsletter-Empfängern eines deutschen Online-Bonussystems sowohl mittels ausgewählter Data-Mining-Methoden als auch experimentell untersucht. Dafür werden Prototypen eines Data-Mining-Systems, einer A/B-Test-Software-Komponente und einer Empfehlungssystem-Komponente entwickelt und im Rahmen des Data Minings und durch Online-Feldexperimente evaluiert. Dabei kann für die genannte Nutzergruppe in einem Experiment bereits mit einem einfachen Empfehlungsverfahren gezeigt werden, dass zum einen die Shop-übergreifenden individuellen Verhaltensdaten des Online-Bonus-Systems für die Erzeugung von Empfehlungen geeignet sind, und zum anderen, dass die dadurch erzeugten Empfehlungen zu signifikant mehr Bestellungen als bei der besten Empfehlung auf Basis durchschnittlichen Käuferverhaltens führten. In weiteren Experimenten im Rahmen der Evaluierung der A/B-Test-Komponente konnte gezeigt werden, dass absolute Rabattangebote nur dann zu signifikant mehr Bestellungen führten als relative Rabatt-Angebote, wenn sie mit einer Handlungsaufforderung verbunden waren. Die Arbeit ordnet sich damit in die Forschung zur Beeinflussung des Käuferverhaltens durch Personalisierung und durch unterschiedliche Rabatt-Darstellungen ein und trägt die genannten Ergebnisse und Artefakte bei.:1 Inhalt 1 Einleitung 1 1.1 Stand der Forschung 3 1.2 Forschungsbedarf 6 1.3 Forschungskonzept 8 1.4 Verwendete Methoden 11 1.5 Aufbau der Arbeit 11 2 Theoretische und konzeptionelle Grundlagen 13 2.1 Internethandel, E-Commerce und E-Business 13 2.2 Marketing, Konsumenten- und Käuferverhalten 16 2.2.1 Käuferverhalten bei Rabatt-Angeboten 20 2.3 Internet Marketing 21 2.3.1 Erfolgskontrolle im Internet Marketing 24 2.3.2 Ausgewählte Disziplinen des Internet Marketings 27 2.3.2.1 Affiliate Marketing 28 2.3.2.2 Online-Cashback-Systeme 35 2.3.2.3 E-Mail-Marketing 38 2.4 Personalisierung im Internet Marketing 56 2.4.1 Empfehlungssysteme 59 2.4.2 Bewertung von Empfehlungssystemen 59 2.4.3 Architektur von Empfehlungssystemen 60 2.4.4 Empfehlungssystem-Kategorien 62 2.4.4.1 Hybride Empfehlungssysteme 67 2.4.5 Techniken für Empfehlungsverfahren 69 2.5 Wissensaufbereitung und -entdeckung 89 2.5.1 Datenerhebungsverfahren 89 2.5.1.1 Datenqualität 91 2.5.1.2 Datensicherheit und Datenschutz 92 2.5.2 Knowledge Discovery und Data Mining 94 2.5.2.1 Der Data-Mining-Prozess 96 2.5.2.2 Data-Mining-Problemtypen 98 2.5.2.3 Das Data-Mining-System 100 2.5.3 Das Experiment als Erhebungsdesign 106 2.5.3.1 Anforderungen und Gütekriterien 111 2.5.3.2 Online-Feldexperimente im Marketing 117 2.5.3.3 Auswertungsverfahren 120 2.5.3.4 Theoretische Grundlagen des A/B-Testverfahrens 121 3 Vorgehen 126 3.1 Forschungsdesign 126 3.1.1.1 Ziele und Anforderungen der Andasa GmbH 128 3.1.1.2 Ziele und Anforderungen des Instituts für Angewandte Informatik 129 3.1.2 Design des Informationssystems 130 3.1.2.1 Der Designprozess 131 3.1.3 Konzeption des Software-Systems 133 3.1.4 Evaluation 134 3.2 Datenanalyse 135 3.2.1 Datenbeschaffung 135 3.2.2 Datenaufbereitung 136 3.2.3 Auswahl geeigneter Data-Mining-Methoden 137 3.2.3.1 Auswahl-Kriterien 137 3.2.3.2 Methodenauswahl 140 3.2.4 Erläuterung ausgewählter Data-Mining-Methoden 156 3.2.4.1 Bayes’sche Netze 156 3.2.4.2 Clustering 158 3.2.4.3 Diskriminanzanalyse 158 3.2.4.4 Korrelationsanalyse 159 3.2.4.5 Online Analytical Processing (OLAP) 159 3.2.5 Auswahl geeigneter Data-Mining-Werkzeuge 165 3.2.5.1 Auswahlprozess 165 3.2.5.2 Kriterien 166 3.2.5.3 Werkzeuge zur statistischen Analyse und Visualisierung 168 3.2.5.4 Werkzeuge für Clustering und Diskriminanzanalyse 168 3.2.5.5 Werkzeuge für Online Analytical Processing 169 3.2.5.6 Werkzeuge für Bayes’sche Netze 169 3.3 Untersuchungsdesign 171 3.3.1 Online-Marketing-Instrumente bei Andasa 172 3.3.2 Stimulus-Auswahl 174 3.3.3 Entwurf des Experimentaldesigns 175 4 Umsetzung 180 4.1 Architektur und prototypische Implementation 180 4.1.1 Das Data-Mining-System 180 4.1.2 Der ETL-Prozess 181 4.1.2.1 Datenerhebung 183 4.1.2.2 Datenbereinigung 184 4.1.3 Die A/B-Testumgebung 185 4.1.4 Das Empfehlungssystem 189 4.1.5 Usability-Evaluation 196 4.2 Data Mining 199 4.2.1 Statistische Analyse 200 4.2.2 Anwendung ausgewählter Data-Mining-Methoden 206 4.2.2.1 Clustering 208 4.2.2.2 Klassifikation 213 4.2.2.3 Modellierung als Bayes’sche Netze 214 4.2.3 Ergebnisse und Evaluation 221 4.3 Feldexperimente mit Newslettern 222 4.3.1 Eckdaten der Tests 223 4.3.2 Beispiel-Experimente 224 4.3.3 A/B-Tests Rabattdarstellungen 226 4.3.3.1 Öffnungsrate Prozente vs. Euro 226 4.3.3.2 Klickrate Prozente vs. Euro 227 4.3.3.3 Conversion-Rate Prozente vs. Euro 229 4.3.4 A/B-Test zur Personalisierung 230 4.3.4.1 Auswahl des Empfehlungsverfahrens 230 4.3.4.2 Definition der Kontrollgruppe 231 4.3.4.3 Operative Durchführung 231 4.3.4.4 Auswertung 232 4.3.5 Ergebnisse und Evaluation 236 5 Zusammenfassung und Ausblick 239 6 Anhang 243 6.1 Anhang A Usability-Evaluation 243 6.1.1 Methoden der Usability-Evaluierung 246 6.1.1.1 Usability-Tests und lautes Denken 246 6.1.1.2 Benutzerbefragung 248 6.1.1.3 Feldstudien und Partizipation 250 6.1.1.4 Expertenorientierte (Inspektions-)Methoden 251 6.1.1.5 Formal-analytische Verfahren 252 6.1.1.6 Quantitative Fragebogen 252 6.1.1.7 Verfahrensmodell 259 6.1.1.8 Auswertung 262 6.1.2 Fragebögen 263 6.2 Anhang B Zeitreihenanalyse 281 6.2.1 Klassische Komponentenmodelle 281 6.2.2 Stochastische Prozesse 282 6.2.3 Fourier-Analyse-Methoden (Spektralanalyse) 283 6.3 Anhang C Daten und Programme 286 6.3.1 Technische Daten 286 6.3.1.1 Data Warehouse / Data Mining Server 286 6.3.2 Programm- und Skriptcodes 287 6.3.2.1 R- Skripte 287 6.3.2.2 SQL – Skripte 296 6.3.2.3 C# Code MostRecentLinkInvocationsShopRecommender.cs 314 6.3.3 Daten A/B-Tests 317 6.3.3.1 Übersicht Newsletter 317 6.3.3.2 Mengengerüst Aussendungen 319 6.3.3.3 Shopaufrufe und Besteller 319 6.3.3.4 Darstellungen der Newsletter-Varianten 320 6.3.4 Daten Personalisierung 335 6.4 Abbildungsverzeichnis 338 6.5 Tabellenverzeichnis 343 6.6 Literaturverzeichnis 34

    Quantifizierung der visuellen Größenkodierung und des Informationsgehalts zweidimensionaler Objekte auf Basis der Blickinteraktion

    Get PDF
    corecore