2 research outputs found

    Cost optimization for data placement strategies in an analytical cloud service

    Get PDF
    Analyzing a large amount of business-relevant data in near-realtime in order to assist decision making became a crucial requirement for many businesses in the last years. Therefore, all major database system vendors offer solutions that assist customers in this requirement with systems that are specially tuned for accelerating analytical workloads. Before the decision is made to buy such a huge and expensive solution, customers are interested in getting a detailed workload analysis in order to estimate potential benefits. Therefore, a more agile solution is desirable having lower barriers to entry that allows customers to assess analytical solutions for their workloads and lets data scientists experiment with available data on test systems before rolling out valuable analytical reports on a production system. In such a scenario where separate systems are deployed for handling transactional workloads of daily customers business and conducting business analytics on either a cloud service or a dedicated accelerator appliance, data management and placement strategies are of high importance. Multiple approaches exist for keeping the data set in-sync and guaranteeing data coherence with unique characteristics regarding important metrics that impact query performance, such as the latency when data will be propagated, achievable throughputs for larger data volumes, or the amount of required CPU to detect and deploy data changes. So the important heuristics are analyzed and evolved in order to develop a general model for data placement and maintenance strategies. Based on this theoretical model, a prototype is also implemented that predicts these metrics

    Agenda-driven case management

    Get PDF
    Im Gegensatz zu Routinetätigkeiten lassen sich wissensintensive Geschäftsprozesse – also Prozesse mit einem hohen Anteil an wissensintensiven Tätigkeiten, die von sogenannten Wissensarbeitern durchgeführt werden – nur schwer durch IT unterstützen. Das liegt vor allem daran, dass über den konkreten Lösungsweg und die dafür benötigten Daten nichts oder nur wenig im Vorfeld bekannt ist. Zwei wesentliche Ursachen hierfür sind, dass erstens der Ablauf von sehr vielen Parametern abhängig ist und dass zweitens diese Parameter sich auch über die Zeit verändern können. Solche Prozesse lassen sich unter anderem bei Trägern von Sozialleistungen oder in der privaten Versicherungswirtschaft beobachten. Dort steuern als Case Manager bezeichnete Wissensarbeiter komplizierte Leistungsfälle und koordinieren erforderliche Maßnahmen so, dass die Leistungen wirtschaftlich und bedarfsgerecht erbracht werden. Case Manager sind aufgrund ihrer Erfahrung, ihres breitgefächerten Fachwissens und der starken Vernetzung mit anderen Experten in der Lage, die wesentlichen Parameter der Prozesse zu erkennen, deren Veränderung stets nachzuverfolgen und den Ablauf entsprechend anzupassen. Wie in der Dissertation gezeigt wird, können wissensintensive Prozesse nicht mit den herkömmlichen Methoden des Process Mining analysiert und mit Workflow-Managementsystemen unterstützt werden. Deshalb werden neue Konzepte und alternative Ansätze vorgestellt und erprobt, um solche Prozesse analysierbar zu machen und Case Manager bei deren Ausführung zu unterstützen. Die zentralen Beiträge der Dissertation sind ein Metamodell mit den adCM-Grundkonzepten, ein Konzept zur anwendungsübergreifenden Protokollierung der Aktivitäten eines Case Managers unter Berücksichtigung des Metamodells (Monitoring), eine Methode zur Messung von Ereignisprotokollkomplexität, eine Methode zur Erhebung von Wissen über den Prozess auf Grundlage der Ereignisprotokolle (Discovery) und eine Werkzeugarchitektur zur operativen Unterstützung von Wissensarbeitern, um das Wissen über den Prozess kontextbezogen bereitzustellen
    corecore