6,637 research outputs found

    Managed Query Processing within the SAP HANA Database Platform

    Get PDF
    The SAP HANA database extends the scope of traditional database engines as it supports data models beyond regular tables, e.g. text, graphs or hierarchies. Moreover, SAP HANA also provides developers with a more fine-grained control to define their database application logic, e.g. exposing specific operators which are difficult to express in SQL. Finally, the SAP HANA database implements efficient communication to dedicated client applications using more effective communication mechanisms than available with standard interfaces like JDBC or ODBC. These features of the HANA database are complemented by the extended scripting engine–an application server for server-side JavaScript applications–that is tightly integrated into the query processing and application lifecycle management. As a result, the HANA platform offers more concise models and code for working with the HANA platform and provides superior runtime performance. This paper describes how these specific capabilities of the HANA platform can be consumed and gives a holistic overview of the HANA platform starting from query modeling, to the deployment, and efficient execution. As a distinctive feature, the HANA platform integrates most steps of the application lifecycle, and thus makes sure that all relevant artifacts stay consistent whenever they are modified. The HANA platform also covers transport facilities to deploy and undeploy applications in a complex system landscape

    Database (Lecture) Streams on the Cloud: Experience Report on Teaching an Undergrad Database Lecture During a Pandemic

    Get PDF
    This is an experience report on teaching the undergrad lecture Big Data Engineering at Saarland University in summer term 2020 online. We describe our teaching philosophy, the tools used, what worked and what did not work. As we received extremely positive feedback from the students, we will continue to use the same teaching model for other lectures in the future

    Towards Integrated Data Analytics: Time Series Forecasting in DBMS

    Get PDF
    Integrating sophisticated statistical methods into database management systems is gaining more and more attention in research and industry in order to be able to cope with increasing data volume and increasing complexity of the analytical algorithms. One important statistical method is time series forecasting, which is crucial for decision making processes in many domains. The deep integration of time series forecasting offers additional advanced functionalities within a DBMS. More importantly, however, it allows for optimizations that improve the efficiency, consistency, and transparency of the overall forecasting process. To enable efficient integrated forecasting, we propose to enhance the traditional 3-layer ANSI/SPARC architecture of a DBMS with forecasting functionalities. This article gives a general overview of our proposed enhancements and presents how forecast queries can be processed using an example from the energy data management domain. We conclude with open research topics and challenges that arise in this area

    Automated Multilingual Detection of Pro-Kremlin Propaganda in Newspapers and Telegram Posts

    Get PDF
    The full-scale conflict between the Russian Federation and Ukraine generated an unprecedented amount of news articles and social media data reflecting opposing ideologies and narratives. These polarized campaigns have led to mutual accusations of misinformation and fake news, shaping an atmosphere of confusion and mistrust for readers worldwide. This study analyses how the media affected and mirrored public opinion during the first month of the war using news articles and Telegram news channels in Ukrainian, Russian, Romanian, French and English. We propose and compare two methods of multilingual automated pro-Kremlin propaganda identification, based on Transformers and linguistic features. We analyse the advantages and disadvantages of both methods, their adaptability to new genres and languages, and ethical considerations of their usage for content moderation. With this work, we aim to lay the foundation for further development of moderation tools tailored to the current conflict

    Institutionelle Strukturen zur Verbesserung von Transparenz und Wirksamkeit von Subventionen

    Get PDF
    Die Forderung nach höherer Transparenz und besserer Wirkungsorientierung von Subventionen ist ein finanzpolitischer Evergreen, der mit der Schuldenbremse und der Forderung nach langfristiger Tragfähigkeit der Finanzpolitik, zusätzliche Dringlichkeit erhält. Die im Auftrag des Bundesministeriums der Finanzen durchgeführte Untersuchung fe 6/13 hat anhand der praktischen Erfahrungen in sechs Ländern – Dänemark, USA, Australien, Niederlanden, Schweiz und Vereinigtes Königreich – Anregungen zur Weiterentwicklung des Subventionsregimes des Bundes identifiziert und entwickelt. Diese Anregungen werden mit Blick auf die Besonderheiten der deutschen Subventionspolitik formuliert, die mit einem kurzen Stärken-Schwächen-Profil charakterisiert wird. Als besondere Stärke der deutschen Subventionspolitik wird dabei der alle zwei Jahre erstellte Subventionsbericht des Bundes hervorgehoben; an ihn knüpfen zentrale Weiterentwicklungsoptionen an. Folgende Module zur Weiterentwicklung der Subventionstransparenz und –kontrolle des Bundes entwickelt die Studie: I. Verbreiterung des Berichtsgegenstandes: Die Studie zeigt Wege, wie mehr Maßnahmen mit subventions- äquivalenten Charakter unter dem Rubrum „Förderungen und Transfers“ in die quantitative und qualitative Berichterstattung des Subventionsberichts einbezogen werden können. II. Ein neutraleres Image für Subventionen: Subventionskritik ist wichtig; die häufige Stigmatisierung von Finanzhilfen aber schadet der Finanzpolitik. Skizziert wird eine Regierungs-Kampagne „Meine Subvention“, die den Weg zu einem neutraleren Image eröffnet. III. Subventionsdatenbank: Eine Datenbank in Anlehnung das schweizerische Online-Verzeichnis der Bundeshilfen könnte die Subventionstransparenz merklich verbessern. IV. Rollierende Evaluationszyklen und Spending Reviews: Es werden drei Stufen für regelmäßige vollständige Evaluierungspflichten entworfen, wobei die oberste Stufe den Einstieg in Subventions-orientierte Spending Reviews markieren würde. V. Steuervergünstigungen systematisieren und dem Bundeshaushalt annähern: Steuervergünstigungen sind Substitute für direkte Staatsausgaben. Um beide so weit wie möglich gleich zu behandeln, entwirft der Bericht drei Stufen der Annäherung bzw. fiktiven Vollintegration von Steuervergünstigungen in den jährlichen Haushaltsprozess. VI. Nachhaltigkeitsprüfung durch den Subventionsbericht: Im Koalitionsvertrag der Bundesregierung ist vereinbart, dass der Subventionsbericht stärker überprüfen soll, ob die dargestellten Maßnahmen nachhaltig sind. Im Bericht werden umsetzbare Optionen für eine Nachhaltigkeitsüberprüfung von Subventionen entwickelt

    Annual Report 1999 / Department for Computer Science

    Get PDF
    Selbstdarstellung des Instituts fĂĽr Informatik der BTU Cottbus und Berichte der LehrstĂĽhle fĂĽr das Jahr 1999.Presentation of the Department for Computer Science of the BTU Cottbus and reports of the chairs at the department for the year 1999

    Beiträge zur Glykobioinformatik Entwicklung von Software-Werkzeugen für die Glykobiologie

    Get PDF
    Die vorliegende Arbeit umfasst die Entwicklung von Algorithmen und Strategien zur Analyse von Massenspektren von Glykanen und Kohlenhydrate sowie Strategien zur voll- und halbautomatischen Aktualisierung und Annotierung einer bestehenden Datenbank der Sweet-DB. Für die Glykomik fehlte es bisher an Algorithmen, die ähnlich wie im Bereich der Proteomik bei der Sequenzierung von Peptiden, dem Benutzer eine Hilfe bei der Analyse von N-, O-Glykanen und Lipopolysacchariden sind. Die Zusammensetzung dieser Verbindungen ist aber für das Verständnis der zellulären Stoffwechsel-physiologie von essentieller Bedeutung. Im Rahmen der Entwicklung von Algorithmen zur Aufklärung von Massenspektren wurden insgesamt drei Programme entwickelt, die es dem Forscher gestatten, eine große Anzahl von Spektren, die im Bereich der Proteomik und Glykomik anfallen, auszuwerten. Dabei entstanden die Programme findYSeries, Glyco-Fragment und peakAssign, die eine schnellere Auswertung von Massenspektren im Bereich der Glykobiologie gestatten. So kann mit diesen Programmen die glykosylierte Aminosäure, die Komposition, die Anzahl der Antennen eines Glykans oder sogar die Sequenz eines Kohlenhydrats ermittelt werden. Im selben Maße wie der Bedarf an Programmen zur Auswertung von Messdaten zunimmt, steigt auch die Menge der daraus gewonnenen Erkenntnisse und Informationen. Diese Daten müssen dem Benutzer in entsprechenden Datenbanken zur Verfügung gestellt werden. In der Vergangenheit hat es sich leider gezeigt, dass dieser Prozess durch die damit verbundenen Kosten zum Ende eines Projektes führen kann. In dieser Arbeit sind verschiedene Strategien dargestellt worden, die zum Teil eine automatische Annotierung der Daten gestatten. Bei der Umsetzung sind zwei Erweiterungen der Sweet-Db entstanden. Die Algorithmen der Programme Glyco-Search-Ms und Glycan-Profiling gestatten eine schnelle Suche in einer theoretischen Vergleichsspektren-Sammlung. Bei der Verwaltung des Datenbestandes sind in erster Linie die Arbeitsumgebung zur Verwaltung von NMR- und Massenspektren zu nennen. Es wurde eine dezentrale Lösung geschaffen, die es dem Benutzer ermöglicht seine lokal gemessenen Spektren in dieser Datenbank zu verwalten. Hat er seine Ergebnisse veröffentlicht, können die Spektren über die beschriebenen Schnittstellen sofort in der Sweet-Db veröffentlicht werden. Dieses Vorgehen hat den Vorteil, dass die Daten ohne erneute Eingabe in die Datenbank übernommen werden können. In einem ersten Test wurden von zwei Hilfskräften ohne größere Probleme 347 Spektren über die Arbeitsumgebung eingeben und stehen nun der Sweet-Db zur Verfügung. Mit Hilfe der Programme autoReference und Reference konnte die Aktualisierung der Literatur zumindest semiautomatisch erfolgen. Ausgehend von einer Liste mit Trivialnamen kann in regelmäßigen Abständen in der Pubmed gesucht werden. Diese Rohdaten werden in einer temporären Datenbank zwischengespeichert und werden nach einer Kontrolle durch einen Experten in die Sweet-Db eingetragen

    Citation hygiene 1: "A. Br." : Addison Brown and Alexander Braun as authors of plant names

    Get PDF
    Die Autorbezeichnung „A. Br.“ kodiert nach dem empfohlenen internationalen Standard des Autorenlexikons von BRUMMITT & POWELL (Authors of Plant Names, Kew 1992) den amerikanischen Botaniker Addison Brown (1830–1913). Sie wird jedoch traditionell in hohem Maße unklar und verwirrend verwendet für Taxa, die der nahezu zeitgleich wirkende Deutsche Alexander Braun (1805–1877) aufgestellt hat. Durch unkritisch in Datenbanksysteme importierte Datensätze werden viele Namen infolgedessen als scheinbare Homonyme dieser beiden Autoren verwaltet. Alle von Alexander Braun beschriebenen Taxa sollten deshalb konsequent mit dem Standardkürzel „A. Braun“ versehen sein und nur mit diesem in Datenbanken eingepflegt werden.The author abbreviation “A. Br.” is recommended by BRUMMITT & POWELL (Authors of Plant Names, Kew 1992) to code the American botanist Addison Brown (1830–1913). However, it is also frequently and ambiguously applied to names of vascular plant taxa described by his contemporary German colleague Alexander Braun (1805–1877). Thus many plant names are run by electronic databases and bioinformatic systems as apparent homonyms made by the two authors. All names created by Alexander Braun should bear the author abbreviation “A. Braun” instead, necessarily so in electronic databases, in order to avoid pseudo-homonymy by uncritically imported data sets
    • …
    corecore