354 research outputs found

    Abschlussbericht des Verbundprojekts Tools4BPEL

    Get PDF
    Unternehmensübergreifende Geschäftsprozesse werden zunehmend nach dem Paradigma der Services organisiert. Dabei stellen sich Fragen nach der Komponierbarkeit, Fehlerbehandlung, sowie der Rücksetzbarkeit (Kompensation) im Fehlerfall. In diesem Vorhaben werden Methoden und Werkzeuge zum Umgang mit solchen Fragen entwickelt und am Beispiel der Geschäftsprozess-Modellierungssprache BPEL und im Modellierungswerkzeug der Firma MEGA international erprobt. Es wurde zum einen der Übersetzer BPEL2oWFN entwickelt, der anhand einer Petrinetzsemantik für BPEL einen BPEL-Prozess in ein (offenes) Petrinetz transformiert. Zum anderen wurden Korrektheitskriterien (wie Bedienbarkeit und Verhaltenskompatibilität) für Services erarbeitet, Algorithmen zu ihrer Überprüfung entworfen und in Fiona implementiert. Die Algorithmen sind Petrinetz-basiert. Damit spielen Übersetzung und Analyse eng zusammen und ein vorhandener BPEL-Prozess kann auf bspw. Bedienbarkeit hin untersucht werden. In diesem Vorhaben wurden die Modellierungssprache BPEL4Chor, Choreographie-Erweiterungen für BPMN entwickelt, sowie die Transformation von BPMN nach BPEL angepasst, um den Weg von BPMN nach BPEL4Chor zu unterstützen. Weiterhin wurden Konzepte entwickelt, wie sich partner-übergreifende Fehlerbehandlung, Rücksetzbarkeit, sowie die Autonomie der Partner mittels BPEL4Chor darstellen lassen. BPEL4Chor kann als Standardsprache zur Spezifikation von Protokollen, die zwischen mehreren Partnern ablaufen, verwendet werden. Durch seine enge Verbindung mit BPEL kann BPEL4Chor sehr gut als Startpunkt für eine Webservice-Lösung verwendet werden

    ZMI - Newsletter 2/2015

    Get PDF

    Online- und Offline-Prozessierung von biologischen Zellbildern auf FPGAs und GPUs

    Get PDF
    Wenn Bilder von einem Mikroskop mit hohem Datendurchsatz aufgenommen werden, müssen sie wegen der großen Bildmenge in einer automatischen Analyse prozessiert werden. Es gibt zwei Ansätze: die Offlineprozessierung, die Verarbeitung der Bilder auf einem Cluster, und die Onlineprozessierung, die Verarbeitung des Pixelstroms direkt von den Sensoren. Für die Bewältigung der Bilddaten in der Offlineprozessierung setzt diese Arbeit auf Grafikkarten und demonstriert eine Implementierung der Haralick-Bildmerkmalerkennung in CUDA. Dabei wird der Algorithmus um den Faktor 1000, gegenüber einer CPU-Lösung, beschleunigt. Dies ermöglicht den Biologen weitere Tests und einen schnelleren Erkenntnisgewinn. Die Onlineprozessierung setzt auf FPGAs, die sich mit den Sensoren elektrisch verbinden lassen. Dabei soll sich der Algorithmus dem Bedarf der Biologen entsprechend verändern lassen. Diese Arbeit zeigt die Entwicklung eines OpenCL-FPGA-Kompilierer-Prototyps. Die Biologen können Algorithmen in OpenCL schreiben und in ein Hardwaredesign für den FPGA übersetzen, was in einer Hardwarebeschreibungssprache für sie zu komplex wäre. Neben der Einfachheit hat die parallele Sprache OpenCL den Vorteil der Portierbarkeit auf andere Architekturen. Falls der FPGA-Kompilierer wegen existierender Einschränkungen den Algorithmus nicht übersetzen kann, lässt sich das OpenCL-Programm auch für die GPUs in der Offlineprozessierung übersetzen

    Ein Generator mit Anfragesystem für strukturierte Wörterbücher zur Unterstützung von Texterkennung und Textanalyse

    Get PDF
    Die vorliegende Arbeit befaßt sich mit der Konzeption eines strukturierten Lexikons, welches den Zugriff auf Wörter und deren Information auf zwei grundsätzlich verschiedene Weisen erlaubt. Zum einen erfolgt der Zugriff über ein 3-faches Hashing, das in Abhängigkeit vom Grad der Erkennung der einzelnen Zeichen automatisch eine der drei verfügbaren Hashfunktionen wählt. Dabei kann der Benutzer zusätzliches Wissen in Form sogenannter Sichten zur Beschleunigung der Anfrage bzw. zur Einschränkung der zurückgelieferten Wortmenge einfließen lassen. Zum anderen ist die Benennung einer Sicht möglich. Diese Art des Zugriffs liefert alle Einträge zurück, die unter dem entsprechenden Sichtnamen zusammengefaßt worden sind. Die Realisierung solcher Sichten ist ein wesentlicher Bestandteil des Systems, da das somit implizierte Wissen von den Benutzern auf vielfältige Art genutzt werden kann: einerseits kann die Mitgliedschaft eines Eintrages zu einer Sicht in Erfahrung gebracht werden, andererseits hat man die Möglichkeit, Sichten und deren logische Verknüpfung zur direkten Abfrage bzw. zur Einschränkung des Suchraumes zu verwenden. Zum Aufbau der dafür benötigten komplexen Struktur des virtuell partitionierten Lexikons wird eine aufwendige Generierungsphase notwendig. Die vorliegende Arbeit beschreibt das zugrundegelegte Konzept und seine Vorteile gegenüber anderen Lösungsansätzen sowie den benötigten Generator und ein Laufzeitsystem, das umfangreiche Zugriffe auf dem virtuell partitionierten Lexikon erlaubt

    Generische Webwissenschaften in der Praxis : Prüfung und Reflexion von Forschungsmethoden und -instrumenten

    Get PDF
    The following paper is based on the field of web science. More precisely, it builds upon a web-native research method created by Richard Rogers, called “search as research”. This paper explains how to gather data “born” in the web, via web search engines. It aims to show, that culture is reflected in the use of the web, particularly employing Google, to develop various methods, in regard to gather the relevant data. With these different appraoches of the method, data representative for 20 European countries are generated, explored and evaluted. Therefore representative studies of European Institutions (European Monitoring Centre for Drugs and Drug Addiction – “European Drug Report 2015”, European Values Project – “European Values Study”, World Health Organisation – “Global status report on alcohol and health”) are used to compare the outcomes and evaluate the reliability and validity of the data generated via Google. Further it aims to show, that based on this data, it is possible to conduct a cultural comparison of countries. While the comparisson of the representative studies with the Google data shows, that Google does not necessarily reflect a culture in line with the above mentioned studies, it yet clearly can be shown, that with the use of different methods, cultural differences between countries can be gathered and evaluated. Therefore some of the methods provide a possibility to uplift a first glimps when comparing different countries on a cultural basis and may for instance be helpful to enhance the quality when constructing questionnaires. Nevertheless it is also shown, that further research is needed to improve the developed methods, especially in regards to improve the data quality on basis of reliability and validity

    Automatische Performanzoptimierung paralleler Architekturen

    Get PDF
    Die Parallelisierung von Programmen und deren Optimierung stellen Software-Entwickler vor große Herausforderungen. Diese Arbeit befasst sich daher mit Problemstellungen im Bereich der automatischen Performanzoptimierung (Auto-Tuning) paralleler Architekturen. Hierzu wird ein Verfahren für den Entwurf paralleler optimierbarer Architekturen vorgestellt; das Konzept eines suchbasierten Auto-Tuners rundet die Arbeit ab. Die Evaluationsergebnisse erweisen sich als äußerst vielversprechend

    Tätigkeitsbericht / Universitätsbibliothek Leipzig

    Get PDF
    Im Jahr 2015 konnten lange währende Baumaßnahmen in der Bibliotheca Albertina abgeschlossen werden – das versetzt die UB Leipzig in einen glücklichen Zustand. Ebenfalls seit 2015 gibt es eine feste Perspektive für die Neubauten der künftigen Fachbibliotheken Medizin/Naturwissenschaften in der Liebigstraße und den Bildungscampus in der Jahnallee – das macht uns hoffnungsfroh, den Service auch in diesen Bereichen grundlegend verbessern zu können. Wir nutzen die Gelegenheit dieses Tätigkeitsberichts und danken dem Rektorat für dauerhafte Unterstützung bei all diesen Vorhaben, dem Baudezernat der Universität ebenso wie dem Staatsbetrieb Sächsisches Immobilien- und Baumanagement – Leipzig II und nicht zuletzt den für die Gestaltung verantwortlichen Architekturbüros (Architekturbüro Weis&Volkmann in der Bibliotheca Albertina, Architekturbüro agn für den Bildungscampus und h.e.i.z.Haus für die Medizin/Naturwissenschaften). Im Jahr 2015 hat die Universitätsbibliothek eine Reihe weiterer Neuerungen einführen oder umsetzen können, worüber wir in diesem Bericht gern Auskunft geben

    Realisierung von Softwareproduktlinien durch Komposition von Belangimplementierungen

    Get PDF
    Softwareproduktlinienentwicklung ist ein Ansatz zur systematischen Wiederverwendung von Softwareartefakten. In dieser Arbeit stellen wir ein Verfahren vor, welches es erlaubt, unterstützte Merkmale einer Produktlinie in Form voneinander abgegrenzter Belangimplementierungen zu spezifizieren und diese zu maßgeschneiderten Varianten der Produktlinie zu komponieren. Das Verfahren vereinigt hierzu Konzepte der mehrdimensionalen Belangtrennung, der generischen Programmierung sowie der Generierung

    Effizientere Nutzung bibliographischer Metadaten im wissenschaftlichen Bereich durch Verbesserung der Datenqualität

    Get PDF
    Diese Arbeit beschäftigt sich mit den bibliographischen Metadaten, wie sie in der wissenschaftlichen Praxis verwendet werden. Ausgehend von der Betrachtung bestehender Normen und Formate aus dem Bereich der wissenschaftlichen Bibliotheken und der Literaturverwaltungssoftware werden Verbesserungsvorschläge entwickelt, die in einen Entwurf eines neuen Datenschemas einfließen. Dieser Entwurf soll dem Wissenschaftler eine effizientere (multifunktionale) Nutzung dieser Daten ermöglichen, indem den folgenden Problemfeldern besondere Beachtung geschenkt wird: einfache und präzise Recherche im Datenbestand, persönliche Bewertung der Inhalte (Interpretation), verlustfreier Austausch der Daten (Portabilität, Persistenz), direkter Zugang zum Volltext der Werke, internationale Nutzung (Unabhängigkeit von Zeichensätzen und Sprachen), bedarfsgerechte Erweiterbarkeit sowie die Verarbeitung zu Quellenangaben. Abschließend wird der Entwurf definiert und auf seine Eignung hin untersucht. (Die Umsetzung in Form eines XML-Schemas wird mit einigen Verwendungsbeispielen im Anhang beigefügt.)The aim of the thesis is to present bibliographic metadata and the way they can be utilized by scientists. At first, it focuses on the existing norms and formats in academic libraries and in literature management software which, thoroughly analysed, influence the concept of the schema of such data. This concept should enable a more efficient (multifunctional) use of the data by concentrating on the following issues: easy and precise research in the database, individual assessment of the content (interpretation), data portability, direct access to full text, international use (independent of character encoding and language), extensibility of the model as required and citation processing. Finally, the concept is described and examined whether it can be applied in practice. (Definition of xml schema together with a set of examples is appended to the thesis.
    corecore