477 research outputs found

    In-Memory-Datenmanagement in betrieblichen Anwendungssystemen

    Get PDF
    In-Memory-Datenbanken halten den gesamten Datenbestand permanent im Hauptspeicher vor. Somit können lesende Zugriffe weitaus schneller erfolgen als bei traditionellen Datenbanksystemen, da keine I/O-Zugriffe auf die Festplatte erfolgen müssen. Für schreibende Zugriffe wurden Mechanismen entwickelt, die Persistenz und somit Transaktionssicherheit gewährleisten. In-Memory-Datenbanken werden seit geraumer Zeit entwickelt und haben sich in speziellen Anwendungen bewährt. Mit zunehmender Speicherdichte von DRAM-Bausteinen sind Hardwaresysteme wirtschaftlich erschwinglich, deren Hauptspeicher einen kompletten betrieblichen Datenbestand aufnehmen können. Somit stellt sich die Frage, ob In-Memory-Datenbanken auch in betrieblichen Anwendungssystemen eingesetzt werden können. Hasso Plattner, der mit HANA eine In-Memory-Datenbank entwickelt hat, ist ein Protagonist dieses Ansatzes. Er sieht erhebliche Potenziale für neue Konzepte in der Entwicklung betrieblicher Informationssysteme. So könne beispielsweise eine transaktionale und eine analytische Anwendung auf dem gleichen Datenbestand laufen, d. h. eine Trennung in operative Datenbanken einerseits und Data-Warehouse-Systeme andererseits ist in der betrieblichen Informationsverarbeitung nicht mehr notwendig (Plattner und Zeier 2011). Doch nicht alle Datenbank-Vertreter stimmen darin überein. Larry Ellison hat die Idee des betrieblichen In-Memory-Einsatzes, eher medienwirksam als seriös argumentativ, als „wacko“ bezeichnet (Bube 2010). Stonebraker (2011) sieht zwar eine Zukunft für In-Memory-Datenbanken in betrieblichen Anwendungen, hält aber weiterhin eine Trennung von OLTP- und OLAP-Anwendungen für sinnvoll. [Aus: Einleitung

    Communication systems and Farming 4.0 in agriculture

    Get PDF
    Kommunikationssysteme und Farming 4.0 sind die Innovationsthemen im Jahr 2015. Eine Vielzahl von neuartigen Diensten und Anwendungen zur Optimierung landwirtschaftlicher Prozesse wurden entwickelt und vorgestellt. Neben neuen Diensten und Anwendungen sind eine Reihe neuer Akteure und Anbieter am Markt erschienen. Moderne Elektronik, leistungsfähige Software und clevere Kommunikationssysteme ermöglichen Farming 4.0. Fachliche Anwendungen und Dienste helfen den Landwirten und Lohnunternehmern bei der Anbauplanung, der Düngung, dem gesamten Nährstoffmanagement, beim Pflanzenschutz bis hin zur Ernteplanung, Logistik und Flottenmanagement. Die Vernetzung der einzelnen Dienste und Hersteller-Lösungen ist dabei die große Aufgabe der Lösungsanbieter und Landtechnik-Hersteller.Communication systems and Farming 4.0 are most innovating factors in 2015. Multiple novel services and apps have been developed and presented in order to optimize agricultural processes. Besides novel services and apps a rising number of market players and solution providers appeared in public. Modern electronics and powerful software with smart communication systems are enablers for Farming 4.0. Apps and services support farmers and contractors to optimize their seed planning, nutrient management, plant protection, harvesting, logistics and fleet management. Connectivity of services and manufacturer-solutions is the outstanding task of solutions providers and manufacturers

    Vergleich von Technologien und Systemen für das Datenmanagement bei wissenschaftlichen Prozessen

    Get PDF
    Im wissenschaftlichen Umfeld werden für Simulationen und Analysen Systeme und Technologien benötigt, mit denen sich Abläufe des Datenmanagements in Form von Prozessen bzw. Workflows modellieren und automatisieren lassen. Dabei ist hauptsächlich wichtig, dass die Systeme und eingesetzten Technologien eine heterogene Datenquellenlandschaft unterstützen bzw. entsprechend erweitert werden können sowie mit großen Datenmengen effizient arbeiten können. Weiterhin ist die Abstraktionsunterstützung für den Anwender wichtig, da dieser meist ein Wissenschaftler oder Ingenieur und daher kein ausgewiesener IT-Experte ist. Diese Fachstudie evaluiert zwei der frei erhältlichen Datenmanagementsysteme für wissenschaftliche Prozesse nach zuvor festgelegten Kriterien bezüglich wichtiger Eigenschaften und Anforderungen solcher Systeme. Bei den zwei Systemen handelt es sich um Open Grid Services Architecture Data Access and Integration (OGSA-DAI) sowie das Scientific Data Management Center (SDMCenter). Die Evaluierung wird mit dem Hintergrund durchgeführt, dass das vom IAAS und IPVS gemeinsam entwickelte Rahmenwerk SIMPL (SimTech - Information Management, Processes, and Languages), das den Zugriff auf externe Daten in Simulationsworkflows ermöglicht, verbessert werden soll

    Fallstudien zum Einsatz von Business Intelligence in Call Centern

    Get PDF
    Dieser Forschungsbericht untersucht anhand von sechs Fallstudien die konkrete Prozessunterstützung in Call Centern durch in operative Anwendungssysteme eingebettete Analytik. Dies umfasst zum einen retrospektive Analysen für interne und externe Stakeholder in Form von Reporten als auch Echtzeit-Auswertungen durch grafisch-orientierte Monitor-Darstellungen. Hierbei stehen unter anderem die eingesetzten Anwendungssysteme, das Nutzungsverhalten durch die verschiedenen Call Center-Mitarbeitergruppen und die kennzahlenbasierten Auswertungsinhalte im Vordergrund.:1 Einleitung 2 Fallstudie - B.B.K. Vertriebs- und Kunden-Services GmbH 3 Fallstudie - DIMA Systems AG 4 Fallstudie - Regiocom Sales Service Halle GmbH 5 Fallstudie - TMA Telesmart GmbH 6 Fallstudie - Simon & Focken GmbH 7 Fallstudie - Regiocom GmbH 8 Zusammenfassung der Fallstudien-Ergebniss

    SCC-News. 2012,1 Mai

    Get PDF

    Konzept und prototypische Realisierung einer ontologiebasierten ERP/PDM-Kopplung mittels XML-Technologie

    Get PDF
    In der korrigierten 2. Version ist eine Referenz hinzugefügt. Bitte diese Version benutzen: http://miless.uni-duisburg-essen.de/servlets/DocumentServlet?id=12122 In diesem Kapitel werden die durch diese Arbeite gewonnenen Erkenntnisse zusammengefasst, und ein Ausblick auf mögliche weitere Forschungsarbeiten in dem Bereich des Produktdatenaustausches gegeben. Im Kapitel 2 wurde der Stand der Forschung im Bereich der ERP- bzw. PDMSysteme sowie Strategien zur Kopplung dieser Systeme aufgezeigt. Dazu wurd zunächst für den jeweiligen Bereich ein einheitliches Begriffsverständnis geschaffen und darauf aufbauend jeweils stellvertretend ein Produkt für die jeweilige Systemart vorgestellt. Die Betrachtung der jeweiligen Produkte erfolgte dabei in Hinblick auf deren Einsatz bei der Realisierung von ERP-OnTo-PDM in Kapitel 7. Des Weiteren wurde in diesem Kapitel bestehende Strategien zur Kopplung von IT-Systemen eingehender betrachtet und deren Schwachstellen aufgezeigt. Das Kapitel 3 stellte den Stand der Forschung auf dem Gebiet der Ontologien vor. Zunächst wurde in diesem Kapitel das Konzept Ontologie vorgestellt, welches im Rahmen des Wissensmanagements eine immer größere Bedeutung erhält. Ontologien bilden den Kern des im Rahmen dieser Arbeit erarbeiteten ERP-OnTo-PDM-Konzeptes, einer ontologiebasierten auf XML-Technologie aufbauenden Impilmentierung zum semantischen Produktdaten-Austausch zwischen verschiedenen IT-Systemen, die produktrelevante Daten managen. Dazu wurden neben den definitorischen Grundlagen der Begriffswelt des Forschungsgebiet der Ontologien besonders deren Einsatzmöglichkeiten im Bereich des Datenaustausches von Produktdaten vorgestellt. Der Stand der Forschung auf dem Gebiet der Internettechnik war Gegenstand des Kapitels 4. Hier wurde die Extensible Markup Language (XML) mit ihren assoziierten Standards dargestellt. Von besonderem Interesse zur Implementierung des Konzepts ERP-OnTo-PDM war das Resource Description Framework (RDF), welches die Definition von Metadaten ermöglicht, um den semantikbasierten Produktdatenaustausch zu ermöglichen. Neben den Grundlagen von XML und RDF wurde auch das Gebiet der XML-basierten Produktdatenaustauschformate behandelt und deren Schwachstellen aufgezeigt. In Kapitel 5 wurden aus den in den drei zuvor behandelten Kapiteln aufgezeigten Schwachstellen die Anforderungen an eine semantische Kopplung von IT-Systemen mittels einer Ontologie abgeleitet und erläutert. Dazu wurden die Anforderungen an eine Kopplung von ERP- und PDM-Systemen in drei Bereiche untergliedert. Zunächst werden Anfoderungen die sich aus der Unternehmensorganisation ergeben dargestellt. Daran anschließend wurden Anforderungen die sich durch den Einsatz der beiden Informationsverarbeitungssysteme ergeben aufgezeigt. Im dritten Anforderungsbereich sind technische Anforderungen zusammengefaßt. Das auf Grundlage der aufgezeigten Schwachstellen und den daraus abgeleiteten Anforderungen an eine semantische Kopplung von Informationsverarbeitungssystemen erarbeitete Konzept ERP-OnTo-PDM ist Gegenstand des Kapitels 6. Zunächst wurde in diesem Kapitel eine Auswahl der zur Realisierung einer ontoogiebasierten Kopplung geeigneten Basistechnologie getroffen. Das Konzept wurde mittels eines RDF-Modells in diesem Kapitel veranschaulicht. Des Weiteren bildet RDF die Basistechnologie zur Realisierung das Konzept ERP-OnTO-PDM welches in Kapitel 7 beschrieben ist. In diesem Kapitel wurde zunächst auf das Vorgehensmodell zur Erstellung der Ontologie für das Konzept ERP-OnTo-PDM eingegangen. Daran anschließend wurde die Anwendbarkeit durch eine prototypische Implementierung nachgewiesen. Es hat sich gezeigt, dass mittels einer semantischen Kopplung von IT-Systemem die Anzahl an Schnittstellen drastisch reduzieren lässt. Des Weiteren ist ein Erheblicher Vorteil von ERP-OnTo-PDM in der verwendeten Internettechnologie zu sehen. Durch den Einsatz von XML bzw. RDF wird eine durchgehende Datenverarbeitung auch über verschiedene Medien ermöglicht. Daraus kann den neuen Anforderungen an ein Produktdatenmanagemt Rechnung getragen werden

    Betriebliche Anwendungssysteme : Tagungsband zur AKWI-Fachtagung vom 11. bis 14.09.2011 an der Fachhochschule Worms

    Get PDF
    In heutigen Unternehmen werden im Kern alle Aufgaben durch Anwendungssysteme direkt oder durch diese unterstützt erledigt. Folglich beschreiben betriebliche Anwendungssysteme heute im Grunde, welche Aufgaben in Unternehmen überhaupt zu lösen sind und welche davon automatisiert und somit durch Software erledigt bzw. unterstützt werden können. Die Arbeit an und mit Betrieblichen Anwendungssystemen ist gekennzeichnet durch eine große thematische Breite und demonstriert die für die Wirtschaftsinformatik charakteristische Nutzung von Ansätzen der Betriebswirtschaftslehre sowie der Informatik. Deswegen erwarteten die Herausgeber sehr heterogene Themenvorschläge und sie wurden nicht enttäuscht. Die letztlich ausgewählten Themen stellen aktuelle Entwicklungs- und anwendungsorientierte Forschungsprojekte zu Geschäftsprozessen, Standardsoftware, Softwareentwicklung und Betrieb von Anwendungssystemen vor. Dadurch beschreiben sie das heute existierende Berufsbild von Wirtschaftsinformatikern und -innen in der industriellen Praxis

    SCC-News. 2009,1 April

    Get PDF

    Umsetzungskonzept der Universitäten des Landes Baden-Württemberg für das High Performance Computing (HPC), Data Intensive Computing (DIC) und Large Scale Scientific Data Management (LS² DM)

    Get PDF
    Computational Sciences1 und damit die HPC-Systeme als ihr technisches Fundament gewinnen unablässig an Bedeutung, wie auch der Wissenschaftsrat in seinen jüngsten Empfehlungen zur „Finanzierung des Nationalen Hoch- und Höchstleistungsrechnens in Deutschland“2 betont. Die fortschreitende Digitalisierung der Wissenschaft generiert auf Basis verschiedener Forschungs- infrastrukturen Forschungsdaten und damit Anforderungen, die von der schnellen Speicherung bei der Datenerhebung, über die Verarbeitung in HPC- und Cloudsystemen bis hin zur notwen- digen Aufarbeitung der Daten im Sinne „guter wissenschaftlicher Praxis“ reichen. Die Analyse dieser großen Datenmengen zur Gewinnung von neuen Erkenntnissen wird Data Intensive Computing (DIC) genannt – sie wird heute neben Theorie, Experiment und Simulation als vierte Säule der Wissenschaft3 bezeichnet. Hinzu kommen die notwendigen technischen und organi- satorischen Maßnahmen für eine nachhaltige Nutzung der Daten, die eine langfristige Speiche- rung und eine nach Möglichkeit öffentliche Zugänglichkeit garantieren. Der Erkenntnis folgend, dass diese neuen Anforderungen nicht mehr sinnvoll von einzelnen Universitäten oder Forschungsinstitutionen bedient werden können, koordinieren die wissen- schaftlichen Rechenzentren des Landes Baden-Württemberg ihre Aktivitäten diesbezüglich. Gleichzeitig wollen die Landesuniversitäten den Empfehlungen des Rats für Informationsinfra- strukturen (RfII) folgen und ihre Infrastrukturentwicklungen mit dem Aufbau einer Infrastruk- tur für Forschungsdatenmanagement auf Basis ihrer HPC- und DATA-Konzepte verschränken. Kooperative Lösungen helfen die beschriebenen Herausforderungen zu bewältigen und verspre- chen einen institutionen- und disziplinübergreifenden Mehrwert. Für die Periode von 2018 bis 2024 ist es das Ziel aller beteiligten Akteure, den beschrittenen Weg der Kooperation gemäß der HPC Landesstrategie4 weiter zu verfolgen. Damit baut das Land Ba- den-Württemberg ein wesentliches Alleinstellungsmerkmal bei der Unterstützung der Wissen- schaften aus und bekundet ausdrücklich das Interesse und die Bereitschaft, in einer frühen Phase beim Aufbau und der Entwicklung der Nationalen Forschungsdateninfrastruktur (NFDI)5 mitzuwirken. Im Sinne eines integrierten Ansatzes werden die bestehenden Konzepte für HPC, DIC und LS2DM weiterentwickelt und in einer gemeinsamen Strategie zusammengeführt. Gleichzeitig werden die Grundlagen für eine frühe Beteiligung am Aufbau einer NFDI geschaffen und erforderliche Infrastrukturen bereitgestellt

    Herstellung von Spezifikationen für betriebswirtschaftliche Softwaresysteme in kleinen und mittelständischen Unternehmen

    Get PDF
    Gegenstand der hier vorgestellten Arbeit ist ein Leitfaden für die Erstellung betriebswirtschaftlich orientierter Informationssysteme auf Softwarebasis. Die vorgeschlagenen Maßnahmen basieren auf den Ergebnissen des internen Projektes „businessmaker“ der k+k information services GmbH in Fellbach, darüber hinaus können sie jedoch als Hilfe und Anleitung für Informationswirte, die im Bereich der Softwareanalyse von kleinen und mittleren Unternehmen tätig sind, verwendet werden. Neben der Beschreibung von Aufgaben und Tätigkeiten der Softwarespezifikation nimmt dieses Werk auch Bezug auf die Besonderheiten des Berufes und der Ausbildung von Informationsspezialisten. Daher sind die hier vorliegenden Inhalte für diese von besonderem Interesse. Neben der Zielsetzung, der Erstellung eines Leitfadens und einer Projektdokumentation, soll die beschriebene Vorgehensweise als Musterprozess für die Softwareanalyse bei k+k information services dienen. Dieser Prozess dient als Vorschlag für die Neuordnung der innerbetrieblichen Projektorganisation des Unternehmens. Die Handlungsvorschläge zeigen einen gangbaren Mittelweg zwischen der oftmals chaotischen Vorgehensweise in Kleinunternehmen und den stark gegliederten und formalisierten Prozessen von Großunternehmen auf
    corecore