17 research outputs found

    Zukunftsfähige Informationssystem-Architektur

    Get PDF
    Disruptive Geschäftsmodelle und globale Mitbewerber können Unternehmen vor existenzielle Herausforderungen stellen. Hierauf muss zeitnah mit innovativen Produkten und Services geantwortet werden können. Als Fundament für diese neuen Lösungen braucht ein Unternehmen eine zukunftsfähige Informationssystem-Architektur, die sowohl eine digitale Service Platform als auch ein starkes betriebliches Rückgrat (Operational Backbone) bietet. Dies kann erreicht werden, indem die IS-Architektur sowohl wandlungsfähig als auch nachhaltig, beständig und resilient gestaltet wird. Dadurch wird es z.B möglich spezialisierte Partnerdienstleistungen interoperabel, lose gekoppelt und mit geringem Aufwand in den eigenen Geschäftsprozess zu integrieren. Ziel dieser Master-Thesis ist daher die Entwicklung eines Informationssystem-Referenzarchitektur-Artefakts, das auf die Förderung der Zukunftsfähigkeit ausgerichtet ist. Dieses Artefakt wird basierend auf einer deduktiven Design-Science-Methodologie erstellt und szenariobasiert, angelehnt an eine Fallstudie, validiert

    Big Data in der Cloud

    Get PDF
    Seit einigen Jahren wird erwartet, dass die automatisierte Auswertung der kontinuierlich wachsenden öffentlichen und privaten Datenbestände nicht nur den Markt für Informationstechnologie (IT), sondern die Gesellschaft insgesamt hin zu einer digitalen Ökonomie nachhaltig verändert. Big Data steht dabei für Ansätze zur Analyse besonders großer, heterogener Datenmengen, während Cloud Computing die bedarfsgerechte Bereitstellung von IT-Ressourcen über ein Netzwerk beschreibt. Die Kombination dieser beiden Ansätze wird als besonders relevant angesehen, da sie auch kleinen und mittleren Unternehmen, Verwaltungen oder Nichtregierungsorganisationen Zugang zu Big-Data-Analysen eröffnen kann. Einerseits werden große Potenziale beispielsweis in der Medizin, der Logistik und der Verkehrslenkung, der Energieproduktion oder im Katastrophenschutz gesehen, andererseits werden auch große Herausforderungen insbesondere für den Datenschutz thematisiert. Die Vorstudie zeigt, dass Cloud Computing zunehmend an ökonomischer Bedeutung gewinnt. Hingegen befindet sich der Markt für Big-Data-Analysen, auch aufgrund der schwierigen Abgrenzung zu schon existierenden Technologien, noch in seinen Anfängen. Der Überblick zu den Anwendungspotenzialen in den Bedarfsfeldern der Hightech-Strategie belegt die Möglichkeiten in den Bereichen Produktivität, Effizienz und Innovation sowie für Wachstum und Beschäftigung. Herausforderungen werden außer im Datenschutz sowie bei den geistigen Eigentumsrechten auch bei den Geschäftsmodellen deutlich. Abschließend werden Bereiche identifiziert, die einen Handlungs- und Forschungsbedarf aufzeigen. Hierzu gehören Fragen der nötigen Infrastrukturen, der technischen und rechtlichen Sicherheit, der Ausbildung sowie der ökonomischen Wettbewerbsfähigkeit

    Graphdatenbanken für die textorientierten e-Humanities

    Get PDF
    Vor dem Hintergrund zahlreicher Digitalisierungsinitiativen befinden sich weite Teile der Geistes- und Sozialwissenschaften derzeit in einer Transition hin zur großflächigen Anwendung digitaler Methoden. Zwischen den Fachdisziplinen und der Informatik zeigen sich große Differenzen in der Methodik und bei der gemeinsamen Kommunikation. Diese durch interdisziplinäre Projektarbeit zu überbrücken, ist das zentrale Anliegen der sogenannten e-Humanities. Da Text der häufigste Untersuchungsgegenstand in diesem Feld ist, wurden bereits viele Verfahren des Text Mining auf Problemstellungen der Fächer angepasst und angewendet. Während sich langsam generelle Arbeitsabläufe und Best Practices etablieren, zeigt sich, dass generische Lösungen für spezifische Teilprobleme oftmals nicht geeignet sind. Um für diese Anwendungsfälle maßgeschneiderte digitale Werkzeuge erstellen zu können, ist eines der Kernprobleme die adäquate digitale Repräsentation von Text sowie seinen vielen Kontexten und Bezügen. In dieser Arbeit wird eine neue Form der Textrepräsentation vorgestellt, die auf Property-Graph-Datenbanken beruht – einer aktuellen Technologie für die Speicherung und Abfrage hochverknüpfter Daten. Darauf aufbauend wird das Textrecherchesystem „Kadmos“ vorgestellt, mit welchem nutzerdefinierte asynchrone Webservices erstellt werden können. Es bietet flexible Möglichkeiten zur Erweiterung des Datenmodells und der Programmfunktionalität und kann Textsammlungen mit mehreren hundert Millionen Wörtern auf einzelnen Rechnern und weitaus größere in Rechnerclustern speichern. Es wird gezeigt, wie verschiedene Text-Mining-Verfahren über diese Graphrepräsentation realisiert und an sie angepasst werden können. Die feine Granularität der Zugriffsebene erlaubt die Erstellung passender Werkzeuge für spezifische fachwissenschaftliche Anwendungen. Zusätzlich wird demonstriert, wie die graphbasierte Modellierung auch über die rein textorientierte Forschung hinaus gewinnbringend eingesetzt werden kann.In light of the recent massive digitization efforts, most of the humanities disciplines are currently undergoing a fundamental transition towards the widespread application of digital methods. In between those traditional scholarly fields and computer science exists a methodological and communicational gap, that the so-called \\\"e-Humanities\\\" aim to bridge systematically, via interdisciplinary project work. With text being the most common object of study in this field, many approaches from the area of Text Mining have been adapted to problems of the disciplines. While common workflows and best practices slowly emerge, it is evident that generic solutions are no ultimate fit for many specific application scenarios. To be able to create custom-tailored digital tools, one of the central issues is to digitally represent the text, as well as its many contexts and related objects of interest in an adequate manner. This thesis introduces a novel form of text representation that is based on Property Graph databases – an emerging technology that is used to store and query highly interconnected data sets. Based on this modeling paradigm, a new text research system called \\\"Kadmos\\\" is introduced. It provides user-definable asynchronous web services and is built to allow for a flexible extension of the data model and system functionality within a prototype-driven development process. With Kadmos it is possible to easily scale up to text collections containing hundreds of millions of words on a single device and even further when using a machine cluster. It is shown how various methods of Text Mining can be implemented with and adapted for the graph representation at a very fine granularity level, allowing the creation of fitting digital tools for different aspects of scholarly work. In extended usage scenarios it is demonstrated how the graph-based modeling of domain data can be beneficial even in research scenarios that go beyond a purely text-based study

    Open Source Studie Schweiz 2021

    Get PDF
    Die Open Source Studie 2021 zeigt auf, wie Open Source Software trotz der bereits 2018 hohen Werte in vielen Bereichen noch weiter an Verbreitung und Relevanz zugenommen hat. Eindrücklich ist, dass heute gemäss der neuesten Umfrage 97% der Firmen und Behörden Open Source Lösungen einsetzen. Der wichtigste Grund dafür sind offene Standards, denn bei Open Source Software gilt stets «Interoperability by Design». Die Umfrage 2021 zeigt wie bereits 2018 auf, dass Open Source Software in der Schweiz sehr verbreitet ist: Von den 163 antwortenden CEOs, CIOs, CTOs und IT-Fachleuten gaben 97% an, dass sie in einem oder mehreren Bereichen Open Source Software einsetzen – 2018 waren es 95%, 2015 erst 92%. Eindrücklich ist insbesondere das grosse Wachstum der so genannten «Vielnutzer» von Open Source Software auf 49%. Fast die Hälfte der Unternehmen und Behörden – alles Mitglieder von swissICT und der Schweizerischen Informatikkonferenz – geben an, dass sie in mehr als 14 der insgesamt 28 abgefragten Themen Open Source Software nutzen. Das ist ein deutlicher Anstieg gegenüber den 29% «Vielnutzern» im Jahr 2018 und den erst 21% 2015. Dieser Trend belegt das verstärkte Eindringen von Open Source Software in immer weitere Bereiche der modernen Informatik und betont einmal mehr die generelle Relevanz von Open Source Lösungen in der fortschreitenden digitalen Transformation. Open Source Software wird immer breiter in vielen unterschiedlichen Informatikbereichen eingesetzt und hat das ursprüngliche Nischendasein aus der Server-Admin Ecke definitiv verlassen. Auch zeigt dies einmal mehr ein typisches Phänomen bei Open Source Software: Alle machen es, bloss die wenigsten reden darüber. So müsste der bekannte Spruch «No one has been fired for buying Microsoft» wohl schon bald «No one has been fired for buying Linux» lauten. Dieser Meinung sind auch die Antwortenden. Auf die Frage hin, wie sich die Bedeutung von Open Source Software in den letzten drei Jahren verändert hat, antworteten mit 67% über zwei Drittel, dass die Relevanz «stark» oder «eher zugenommen» hat. Im Jahr 2018 waren es 60%, die so antworteten, sodass 2021 die hohe Relevanz von Open Source Software offenbar noch intensiver wahrgenommen wird. Nur gerade knapp 6% der Befragten gab an, dass die Relevanz eher abgenommen haEin neues, wichtiges Argument für Open Source Software ist gemäss der Antworten die «digitale Souveränität», die Fähigkeit zu selbstbestimmtem Handeln und Entscheiden im digitalen Raum. Nutzer von Open Source Software haben somit die Wichtigkeit der reduzierten Hersteller-Abhängigkeit und der dadurch besseren Verhandlungsmöglichkeiten bei Software-Anschaffungen erkannt. Aber es gibt auch weiterhin Hindernisse beim Einsatz von Open Source Software: So wurde beispielsweise in den Umfrageresultaten bemängelt, dass bei vielen Open Source Projekten unklar sei, wie sie finanziert werden. Und neben den unklaren Geschäftsmodellen ist nach wie vor der Vendor Lock-in mit bestehenden proprietären Systemen einer der wichtigsten Hinderungsgründe bei der weiteren Verbreitung von Open Source Software.be, niemand kreuzte «stark abgenommen» an. Beim Ranking der abgefragten Open Source Tools und Plattformen gab es einige spannende Überraschungen. So ist zwar weiterhin JavaScript die verbreitetste Open Source Programmiersprache in der Schweiz, jedoch klarer Gewinner ist dieses Mal TypeScript. Dessen Verbreitung hat sich in nur drei Jahren von 2% auf 39% verzwanzigfacht. Auch Open Source Anwendungen auf dem Desktop haben stark an Ausbreitung gewonnen: deren Anteil stieg von 56% auf 75%. Open Source Standardprodukte wie Firefox oder KeePass sind dabei besonders beliebt. Bei den Identity und Access Management Systemen hat Keycloak einen grossen Sprung nach vorne geschafft: dessen Marktanteil hat sich seit 2018 auf 44% Verbreitung mehr als verdoppelt. Bei den Open Source Content Management Systemen konnte WordPress seine Marktführerschaft auf über 60% verfestigen. Neu mit im Rennen ist dieses Jahr der Schweizer Messenger-Dienst Threema, dessen Mobile Apps und Protokolle erst im Dezember 2020 unter der AGPL-Open Source Lizenz freigegeben worden sind. Threema ist gemäss Umfrage in der IT-Branche sehr verbreitet und wird von 56% der Antwortenden in der Kategorie «Open Source Kommunikations-Tools» genutzt. Erstmalig wurde dieses Jahr untersucht, ob die befragten Firmen und Behörden neben der Nutzung von Open Source Software auch selber zu bestehenden externen oder eigenen Open Source Projekten beitragen. Die Ergebnisse zeigen auf, dass mit über 60% der 141 Antwortenden bereits viele der befragten CEOs und IT-Verantwortlichen Open Source Code freigeben oder zumindest schon mal darüber nachgedacht haben. Tatsächlich veröffentlichen heute insgesamt 30% der Antwortenden auf GitHub, GitLab oder einer anderen Plattform eigenen Source Code. Dies erstaunt, ist die Freigabe von Quelltext unter einer Open Source Lizenz für viele Firmen und Behörden doch eine relativ neue Praxis und benötigt einiges an Erfahrung mit Open Source Communities und Prozessen. Dabei publiziert die Mehrheit (21%) den Quellcode auf einem Organisations-eigenen Profil. Nur die Minderheit lässt ihre Mitarbeitenden den Code über ihre privaten GitHub Profile veröffentlichen

    Management und IT: Tagungsband zur AKWI-Fachtagung vom 16. bis 18.09.2012 an der Hochschule Pforzheim

    Get PDF
    Wirtschaftsinformatik befasst sich mit allen Themen, die an der Schnittstelle zwischen Informatik und Betriebswirtschaft anzutreffen sind. So geht es in der Wirtschaftsinformatik – basierend auf dem Wissen und dem Verstehen der betriebswirtschaftlichen Konzepte und Anwendungen – insbesondere darum, IT-Systeme für die betriebliche Praxis zu entwickeln, einzuführen und zu betreiben. Eine wissenschaftliche Fachtagung, die den Titel „Management und IT“ trägt, setzt an einer solchen Beschreibung der Wirtschaftsinformatik an

    Intercloud-Kommunikation für Mehrwehrtdienste von Cloud-basierten Architekturen im Internet of Things

    Get PDF
    Das Internet of Things (IoT) ist aktuell ein junger Wachstumsmarkt, dessen Bedeutung für unsere Gesellschaft in naher Zukunft vielen Menschen erst noch wirklich bewusst werden wird. Die Subdomänen Smart-Home, Smart-Grid, Smart-Mobility, Industrie 4.0, Smart-Health und viele mehr sind wichtig für unsere zukünftige Wettbewerbsfähigkeit, die Herausforderungen zur Bewältigung des Klimawandels, unsere Gesundheit, aber auch für trivialere Dinge wie Komfort. Andererseits ergibt sich hierbei bereits dasselbe große Problem, das in einer ähnlichen Form schon bei klassischem Cloud-Computing bekannt ist: Vendor-Silos, die keinen hersteller- oder anbieterübergreifenden Austausch von Gerätedaten ermöglichen, verhindern eine schnelle Verbreitung dieser neuen Technologie. Diensteanbieter müssen ihre Produkte aufwendig für unzählige Technologien bereitstellen, was die Entwicklung von Diensten unnötig teuer macht und letztendlich das Dienstangebot insgesamt einschränkt. Cloud-Computing wird dabei in Zukunft eine wichtige Rolle spielen. Die Dissertation beschäftigt sich daher mit dem Problem IoT-Gerätedaten an IoT-Clouds plattformübergreifend und anbieterübergreifend nutzbar zu machen. Die Motivation und die adressierte Forschungslücke zeigen die Notwendigkeit der Beschäftigung mit dem Thema auf. Ausgehend davon, wird das Konzept einer dezentral organisierten IoT-Intercloud vorgeschlagen, welches in der Lage ist heterogene IoT-Clouds zu integrieren. Die Analyse des Standes der Technik zeigt, das IoT-Clouds genügend Eigenschaften teilen, um in Zukunft eine Adaption zu einer einheitlichen Schnittstelle für die IoT-Intercloud zu schaffen. Das Konzept umfasst zunächst die Komponentenarchitektur eines Intercloud-Brokers zur Etablierung einer IoT-Intercloud. Ausgehend davon wird in vertiefenden Teilkonzepten ein Discovery-Service zum Finden von Gerätedaten und einem Push-Stream-Provider, für die Zustellung von IoT-Event-Notifications in Echtzeit, behandelt. Eine Evaluation zeigt letztlich die praxistaugliche Realisierbarkeit, Skalierbarkeit und Performance der Konzeption und des implementierten Prototyps.:1 Einleitung 1.1 Problemstellung und Motivation 1.2 Ziele der Dissertation 1.2.1 Thesen 1.2.2 Forschungsfragen 1.3 Aufbau der Dissertation 2 Grundlagen zu Cloud-Computing im Internet of Things 2.1 Definition von Cloud-Computing 2.1.1 Generelle Eigenschaften 2.1.2 Architekturschichten 2.1.3 Einsatzformen 2.2 Internet of Things 2.2.1 Middleware im IoT 2.3 Architekturen verteilter Systeme zur Bereitstellung der IoT-Middleware 2.3.1 Geräte-zentrische IoT-Architektur 2.3.2 Gateway-zentrische IoT-Architektur 2.3.3 Cloud-zentrische IoT-Architektur 2.3.4 Zusammenfassung 2.4 Eigenschaften von verteilten Event-basierten Systemen 2.4.1 Interaktionsmodelle 2.4.2 Filtermodelle von Subscriptions 2.4.3 Verteiltes Notfication-Routing 2.5 Discovery im IoT 2.5.1 Grundlegende Begrifflichkeiten 2.5.2 Topologien von Discovery-Services 2.5.3 Funktionale Anforderungen für Discovery-Services im IoT 2.5.4 Ausgewählte Ansätze von Discovery-Services im IoT 3 Stand der Technik 3.1 Device-as-a-Service-Schnittstellen von IoT-Clouds 3.1.1 Gerätedatenmodell 3.1.2 Datenabruf mit Pull-Semantik 3.1.3 Datenabruf mit Push-Semantik 3.1.4 Steuerung von Gerätedaten 3.1.5 Datenzugriff durch Drittparteien 3.2 Analyse der DaaS-Schnittstellen verschiedener IoT-Clouds 3.2.1 Google Nest 3.2.2 Samsung Artik 3.2.3 AWS IoT 3.2.4 Microsoft Azure IoT Suite 3.2.5 Kiwigrid IoT-Plattform 3.2.6 Digi Device Cloud 3.2.7 DeviceHive 3.2.8 Eurotech Everyware Cloud 3.3 Zusammenfassung und Diskussion des Standes der Technik 4 Intercloud-Computing für das IoT 4.1 Intercloud-Computing nach Toosi 4.1.1 Ansätze zur Interoperabilität 4.1.2 Szenarien zur Cloud-übergreifenden Interoperabilität 4.1.3 Herausforderungen für Komponenten 4.2 Intercloud-Computing nach Grozev 4.2.1 Klassifikation der Architekturen 4.2.2 Klassifikation des Brokering-Mechanismus 4.2.3 Klassifikation verteilter Cloudanwendungen 4.3 Verwandte Arbeiten 4.3.1 Intercloud-Architekturen außerhalb der IoT-Domäne 4.3.2 Intercloud-Architekturen für das IoT 4.4 Analyse der verwandten Arbeiten 4.4.1 Systematik zur Bewertung 4.4.2 Bewertung und Abgrenzung 5 Anforderungsanalyse 5.1 Akteure in einer IoT-Intercloud 5.1.1 Menschliche Akteure 5.1.2 Systemakteure 5.2 Anwendungsfälle 5.2.1 Anwendungsfälle von IoT-Diensten 5.2.2 Anwendungsfälle von IoT-Clouds 5.2.3 Anwendungsfälle von IoT-Geräten 5.2.4 Anwendungsfälle von Intercloud-Brokern 5.3 Anforderungen 5.4 Ausschlusskriterien 6 Intercloud-Architektur für das IoT 6.1 Systemmodell einer IoT-Intercloud 6.1.1 IoT-Datenmodell für die Intercloud 6.1.2 Etablierung einer Vertrauensbeziehung zwischen zwei Clouds 6.2 Komponentenarchitektur des Intercloud-Brokers 6.2.1 Service-Connector, IC-DaaS-IF und Service-Protocol 6.2.2 Intercloud-Proxy, ICC-IF und Protokoll 6.2.3 Cloud-Adapter und IC-DaaS-Adapter-IF 6.3 Zusammenfassung 7 Verteilter Discovery-Service 7.1 Problembeschreibung 7.1.1 Topologie des Discovery-Service 7.2 Einfache Cloud-Discovery mit Broadcasting-Weiterleitung 7.2.1 Schnittstelle und Protokoll des einfachen Discovery-Service 7.2.2 Diskussion des einfachen Discovery-Service 7.3 Cloud-Discovery mit Geräteverzeichnis und Multicast-Weiterleitung 7.3.1 Geeignete Geräteinformationen für das Verzeichnis 7.3.2 Struktur und Schnittstelle des Verzeichnisses 7.3.3 Verzeichnissynchronisation und erweitertes Protokoll 7.4 Zusammenfassung beider Ansätze des Discovery-Service 8 Verteilter Push-Stream-Provider 8.1 Verteilter Push-Stream-Provider im Modell des Broker-Overlay-Netzwerks 8.2 Verteilter Push-Stream-Provider mit einfachem Routing-Modell 8.2.1 Systemmodell 8.2.2 Integration der Subkomponenten in die verteilte ICB-Architektur 8.3 Redundanz und Redundanzvermeidung des Push-Stream-Providers 8.3.1 Beschreibung des Redundanzproblems und des Lösungsansatzes 8.3.2 Lösungsansatz 8.4 Verteilter Push-Stream-Provider mit vereinigungsbasiertem Routing-Modell 8.4.1 Erkennen von ähnlichen Filtern 8.4.2 Konstruktion eines Vereinigungsfilters 8.4.3 Rekonstruktion der Datenströme 8.4.4 Komponente: Merge-Controller 8.4.5 Komponente: Stream-Processing-Engine 8.4.6 Integration in die bisherige Architektur 8.4.7 Diskussion des Ansatzes zur Redundanzvermeidung 8.5 Zusammenfassung zum Konzept des Push-Stream-Providers 9 Evaluation 9.1 Prototypische Implementierung der Konzeptarchitektur 9.1.1 Intercloud-Broker 9.1.2 IoT-Cloud und IoT-Geräte 9.1.3 IoT-Dienste 9.1.4 Grenzen des Prototyps und Fokus der experimentellen Evaluation 9.2 Aufbau der Evaluationsumgebung 9.3 Experimentelle Untersuchung der prototypischen Implementierung des Konzepts 9.3.1 Ermittlung einer Performance-Baseline 9.3.2 Experiment 1: Performance bei variabler Nachrichtengröße und Nachrichtenanzahl 9.3.3 Experiment 2: Performance bei multiplen Subscriptions 9.3.4 Experiment 3: Ermittlung des maximalen Durchsatzes und Skalierbarkeit des ICB 9.3.5 Experiment 4: Effizienzvergleich zwischen einfachem und vereinigungsbasiertem Routing 9.4 Zusammenfassung und Diskussion der Evaluation 10 Zusammenfassung 10.1 Beiträge der Dissertation 10.2 Ausblick A Abbildungen B Tabellen Inhaltsverzeichnis C Algorithmen D Listings Literaturverzeichni

    Der Weg in die Cloud: Entwicklung einer Migrations-Methodologie für Desktop- und Server-Anwendungen hin zu einer Software-as-a-Service-Anwendung

    Get PDF
    Cloud Computing wird, dank seiner Vorteile, wie geringe Kapitalbindung oder Skalierbarkeit der Dienste, immer beliebter. Bereits mit geringem Aufwand können Cloud-Dienste entwickelt, in der Cloud bereitgestellt und einem breitem Spektrum von Kunden angeboten werden. Bei einer Entwicklung einer Software für die Cloud kann die Architektur entsprechend den Rahmenbedingungen aufgebaut werden. Unternehmen verfügen jedoch bereits über eine umfangreiche Code-Basis und können in ihrem Portfolio zahlreiche Anwendungen aufweisen, bei deren diese nicht berücksichtigt wurden. Eine solche Anwendung in die Cloud zu migrieren stellt oft eine komplexe, multidimensionale Herausforderung dar. Die zu migrierende Anwendung erfordert oft weitreichende Anpassungen, um in der Cloud zur Verfügung gestellt werden zu können. Um den Prozess der Cloud-Migration effizienter und effektiver durchführen zu können, empfiehlt sich, eine Methodologie einzusetzen, die das zum Ziel führende Vorgehen festlegt. Im Rahmen dieser Diplomarbeit wird der aktuelle Stand in der Wissenschaft und in der Industrie im Bereich der vorhandenen Methodologien, Techniken und Vorgehensweise für die Cloud-Migration von On-Premise-Anwendungen erforscht. Das gewonnene Wissen wird dafür genutzt, eine eigene Cloud-Migrations-Methodologie zu entwickeln. Mit der Absicht der Firma AIT - Applied Information Technologies GmbH & Co. KG, ihre Anwendung TFS ASAP auf die Microsoft Azure Plattform zu migrieren, bot sich die Gelegenheit an, die entwickelte Cloud-Migrations-Methodologie in der Praxis zu verwenden. Die Migration der Anwendung TFS ASAP in die Cloud erfolgte unter Einsatz der im Rahmen dieser Diplomarbeit erarbeiteten Cloud-Migrations-Methodologie. Nach der durchgeführten Cloud-Migration werden der Prozess und die Ergebnisse analysiert und bewertet. Von den währenddessen gewonnenen Erkenntnissen und Erfahrungen werden Empfehlungen für künftige Migrationen von On- Premise-Anwendungen sowie die Entwicklung von Anwendungen, die zukünftig in die Cloud migriert werden könnten, abgeleitet

    Ein neues Konzept für die semantische Suche in heterogenen Informationssystemen zu Fragestellungen aus Umwelt und Energie

    Get PDF
    Das Ziel der vorliegenden Arbeit besteht darin, ein neues Konzept für die semantische Suche in heterogenen Informationssystemen zu Fragestellungen aus Umwelt und Energie zu entwickeln, d.h. die Konzeption und Entwicklung einer Suchfunktion für Webportale, die zwar für den Nutzer so einfach wie herkömmliche Internet-Suchmaschinen funktioniert, jedoch qualitativ bessere, ggf. mehr Ergebnisse liefert als eine konventionelle Volltextsuche. Dazu werden, ausgehend von einer Grundarchitektur, vier Architekturvarianten entwor-fen, vorgestellt und in konkreten Umsetzungsbeispielen evaluiert
    corecore