2,947 research outputs found

    Stand der Lehrbuchliteratur zum Geschäftsprozessmanagement - eine quantitative Analyse

    Get PDF
    Das Thema Geschäftsprozessmanagement (GPM) hat in den letzten Jahren in Wissenschaft und Praxis stetig an Bedeutung gewonnen, was sich auch in einer zunehmenden Menge an Literatur – insbesondere auch Lehrbuch- und Einführungsliteratur – zum Thema GPM äußert. Allerdings zeigt eine Durchsicht der einschlägigen Lehrbuchliteratur sehr unterschiedliche Auffassungen und Aufbereitungen des Themas GPM. Vor diesem Hintergrund zielt die vorliegende Arbeit darauf ab, den aktuellen Stand der Lehrbuch- bzw. Standardeinführungsliteratur zum GPM, deren inhaltlich-thematische Ausrichtung sowie bedeutende Themengebiete in Form einer quantitativ ausgerichteten vergleichenden Buchbesprechung zu analysieren. Es kann festgestellt werden, dass die Lehrbuchliteratur im Bereich Geschäftsprozessmanagement größtenteils einen Schwerpunkt auf typisch wirtschaftsinformatische Themenstellungen und betriebswirtschaftliche Themen legt. Weiterhin verfügt ein Großteil der Bücher über ein ausgewogenes Verhältnis zwischen theoretisch-konzeptionellen Grundlagen und transfer- und anwendungsorientierten Praxisbeispielen. Wichtige Themenstellungen in der Lehrbuchliteratur zum GPM erschließen sich aus einer zentralen Übersicht

    LAYLAB : ein System zur automatischen Plazierung von Text-Bild-Kombinationen in multimodalen Dokumenten

    Get PDF
    Im Bereich der intelligenten Benutzerschnittstellen besteht derzeit, bedingt durch die wachsende Komplexität der von wissensbasierten Anwendungssystemen zu übermittelnden Information, ein zunehmender Bedarf an Werkzeugen zur flexiblen und effizienten Informationspräsentation. Neben Sprache spielt beim Design von (elektronischen) Dokumenten die Verwendung von graphischen Darstellungen sowie eine Kombinationen dieser beiden Medien zur Informationsvermittlung eine entscheidende Rolle. Während heute in der Regel solche Graphiken noch manuell erstellt werden, z.B. mittels interaktiver 3D-Graphikeditoren, bestand die Aufgabe in diesem Fortgeschrittenenpraktikum darin, Graphiken in Abhängigkeit von bestimmten Generierungsparametern wie Präsentationsziel, Präsentationssituation, Zielgruppe, Ausgabemedium, etc. automatisch zu erzeugen. Eine zentrale Rolle spielte dabei die Repräsentation von Wissen über die Verwendung von Graphik. Zum einen sollte Wissen über Objekte und Darstellungstechniken in den Entwurfsprozeß einfließen, zum anderen war der Bildinhalt zu repräsentieren, um beispielsweise darauf natürlichsprachlich Bezug nehmen zu können. In dieser Arbeitsgruppe stand die Entwicklung einer automatischen Plazierungskomponente zur Gestaltung des Layouts von multimodalen Dokumenten im Vordergrund, während sich zwei weitere Gruppen mit der wissensbasierten Anwendung spezieller Graphiktechniken (z.B. Explosion, Aufriß, Annotation) befaßten. Die vorliegende Arbeit beschreibt die prototypische Implementierung des Systems LayLab, einem Experimentiersystem zum automatischen Layout multimodaler Präsentationen, das im Kontext des WIP-Projektes entwickelt wurde. Als Programmierungumgebung standen hierzu Symbolics Lisp-Maschinen und Apple MacIvory Workstations zur Verfügung. Bei der Entwicklung konnte auf einen Lisp-basierten interaktiven 3D-Graphikeditor (S-Geometry) sowie die objektorientierte Symbolics Fensterumgebung zurückgegriffen werden

    Ein Multiagentenansatz zum Lösen von Fleet-Scheduling-Problemen

    Get PDF

    Post-zerebrale Utopien: Im Grenzbereich zwischen künstlicher Intelligenz und technikzentrierter Erlösungsfantasien.

    Get PDF
    Warum könnten Gehirn-Utopien aus den 1990ern heute interessant sein? Blockbuster wie "Transcendence" mit Johnny Depp, dessen Gehirn auf ein Computersystem geladen wird, oder populäre Hollywood-Produktionen wie "Her", die Serie "Real Humans" rekurrieren auf Utopien, um die es nach den 1990ern sehr leise geworden ist. Der Diskurs um "Mind-Upoloading", Neu- bzw. Selbstbestimmung von Identiät durch Cyborgisierung, oder digitale Unsterblichkeit ist mit den derzeit anlaufenden Big Science Projekten in Amerika, Europa u.a. zur Vermessung des Gehirns neu entfacht. Der Artikel befasst sich mit den diskursiven Wurzeln dazu

    SpoookyJS. Ein multiagentenbasiertes JavaScript-Framework zur flexiblen Implementation digitaler browserbasierter Brettspiele und spielübergreifender künstlicher Intelligenz

    Get PDF
    Künstliche Intelligenz in digitalen Spielen ist zumeist Anwendungsdomäne komplexer spielspezifischer Softwarelösungen mangelnder Erweiterbarkeit. Die vorliegende Arbeit beschäftigt sich mit der Konzeption und Realisierung des JavaScript-Frameworks SpoookyJS, das die vereinfachte Erstellung browserbasierter digitaler Brettspiele ermöglicht. Entwickelt als Multiagentensystem, bietet SpoookyJS künstliche Gegner in den umgesetzten Spielen und fungiert als Test- und Entwicklungsumgebung für die Forschung um spielübergreifende artifizielle Entscheidungsfindung

    Vertrauen und Betrug in Multi-Agenten Systemen : Erweiterung des Vertrauensmodells von Castelfranchi und Falcone um eine Kommunikationskomponente

    Get PDF
    Diese Arbeit beschäftigt sich mit betrügerischen Agenten in Künstlichen Gesellschaften und damit, wie andere Agenten sich vor ihnen schützen können. Zu diesem Zweck werden Agenten mit Berechnungsmodellen für zwei Konzepte von "Vertrauen" ausgestattet. Zum einen berechnen sie Vertrauen in Interaktionspartner mit einer präzisierten Variante des Modells von Castelfranchi und Falcone. Zum anderen benutzen sie eine hier vorgestellte Form von Vertrauen, um mit anderen über das Verhalten von unbekannten Agenten zu kommunizieren. Durch diesen Datenaustausch sind sie in der Lage, fremde Agenten wesentlich schneller und besser einzuschätzen. Mit diesem Wissen können sich Agenten effektiver vor betrügerischen und nicht-benevolenten Agenten schützen. Das Vertrauen in Kommunikationspartner schafft einen "sozialen Kitt", über den innerhalb einer Gruppe Informationen zuverlässig ausgetauscht werden können. Desweiteren wird hier das Offen Gespielte Gefangenendilemma mit Partnerauswahl vorgestellt. Dabei handelt es sich um ein spieltheoretisches Modell, in dem Agenten andere betrügen können. Diese Variation des Gefangenendilemmas dient als Experimentalumgebung für heterogene Agentengesellschaften. Diese Experimentalumgebung besitzt wichtige Eigenschaften von Anwendungsszenarien wie z.B. die Kooperation in Virtuellen Märkten. Sie ist so gestaltet, dass die Effektivität von Strategien im Umgang mit betrügerischen Agenten untersucht werden kann. Dies bedeutet, dass mit ihrer Hilfe Turniere, ähnlich dem in der Literatur viel beachteten Turnier von Axelrod, durchgeführt werden können. Schließlich wird diese Experimentalumgebung genutzt, um das hier vorgestellte Modell des Vertrauens in Kommunikationspartner in einer Reihe von Experimenten, in denen die Agenten kein a priori Wissen über das Verhalten anderer haben, zu analysieren. Bei dieser Analyse werden Konfigurationen von verschieden ehrlichen und kooperationswilligen Agenten untersucht. In der Evaluation des Ansatzes zeigt sich, dass Agenten durch den Austausch von Wissen mit anderen vertrauenswürdigen Agenten ihre Interaktionspartner besser einschätzen können. Insbesondere sind sie in der Lage, Interaktionspartner einzuschätzen, die sie selbst noch nie beobachten konnten. In den untersuchten Agentengesellschaften bedeutet dies einen Performanzgewinn von mehr als fünfzehn Prozent, ohne dass die Agenten ein a priori Wissen über das Verhalten ihrer Interaktionspartner haben. Die Benutzung von Vertrauen und Kommunikation zahlt sich insbesondere dann aus, wenn nur wenige Beobachtungen über das Verhalten anderer zur Verfügung stehen

    Und ewig lockt die Technik : Verführung und Technologie in der zeitgenössischen Literatur

    Get PDF
    Die erotisch-sexuellen und gefühlsbetonten Aspekte mechanistischer Technologie stehen im Zentrum des vorliegenden Artikels, d.h. es wird dargestellt, auf welche Weise literarische Technologie-Repräsentationen mit sensuell-sensorischen Elementen in Verbindung gebracht werden. Gleichzeitig soll der dualistisch angelegte Komplex von Ausgrenzung und Integration der tradierten Weiblichkeitsvorstellungen in den oftmals männlich dominierten Technologiebereich dargestellt werden. Der Artikel ist in drei Teile gegliedert. Der erste Teil bietet einen knappen historischen Überblick über das Thema “Mensch und Maschine”. Im zweiten Teil wird das Thema “Mensch und Computer” untersucht. Im dritten Teil wird das gesamte Konzept aus der Verführungsperspektive beleuchtet
    corecore