2,125 research outputs found

    VoiceXML - Technologie der Wahl für telefonbasierte Sprachdialogportale?

    Get PDF
    Im Zeitalter der ständig wachsenden Mobilitätsanforderungen kommt dem flexiblen, dezentralen Zugriff auf Datenbestände aller Art eine immer größere Bedeutung zu. Steht ein Zugang via Internet nicht zur Verfügung, so bietet sich als Alternative die Verwendung eines Mobiltelefons an. Auf der Grundlage des WAP-Protokolls konnen elementare grafische Zugriffsschnittstellen geschaffen werden; deren Möglichkeiten sind jedoch begrenzt: Im Vergleich zu stationären Computerterminals ist die Displaygröße i.d.R. gering; entsprchend aufwändig verlauft das Browsing. Die gegenwärtige Technologie verfügt über eine geringe Bandbreite. die Navigation über Tasten wird vom Benutzer als umständlich empfunden. Es gibt Einsatzkontexte, die eine tastaturbasierte Interaktion a priori ausschließen. Als Alternative bieten sich gesprochensprachige Schnittstellen an, in denen der Benutzer einen Mensch-Maschine-Dialog mit einem telefonbasierten Sprachportal führt. Die Grundlage derartiger Anwendungen bietet Hardware- bzw. Software-Technologie zu Computer-Telefonie-Integration, Spracherkennung, Sprachsynthese. Mit diesen technologischen Basiskomponenten alleine ist es jedoch noch nicht getan: In Abhängigkeit von den spezifischen Erfordernissen der jeweiligen Anwendung sind geeignete Vorgaben zu spezifizieren, die den Computer in die Lage versetzen, den Dialog mit seinem menschlichen Gegenüber in problemadaquater Weise zu führen. Wichtige Anforderungen sind: Natürlichkeit: Ausgestaltung der sprachlichen Interaktion in einer Weise, die den Erwartungen des Anwenders hinsichtlich des jeweiligen Anwendungsfalls entsprechen; Flexibilität: Anpassung an die Eigenarten des jeweiligen Nutzers (Novize oder geübter Anwender etc.); 2 Robustheit: geeignetes Handling von Missverständnissen, unvollständigem Benutzer-Input sowie Unzulänglichkeiten der maschinellen Sprachverarbeitung (insbesondere Fehler in der Spracherkennung) etc. Formale Spezifikationen des maschinellen Dialogverhaltens werden als Dialogmodelle bezeichnet. Hinsichtlich der generischen Wiederverwendbarkeit der Dialogsoftware ist es sinnvoll, derartige Beschreibungen in einem standardisierten Formalismus, einer Dialogmodellierungssprache abzufassen, die sich somit in erster Näherung als eine "Programmiersprache" für eine generische Dialogmaschine auffassen lässt. Folglich stellt sich die Frage, wie eine geeignete Dialogmodellierungssprache aussehen könnte. In Bezug auf webbasierte Sprachportale wurde vom W3C die XML-basierte Dialogmodellierungssprache VoiceXML als Standardisierungsvorschlag erarbeitet ([7]). Im vorliegenden Dokument sollen zunächst Reichweite und Grenzen der Sprache VoiceXML evaluiert werden. Auf der Grundlage der Evaluation sollen strategischen Empfehlungen fur Unternehmen abgeleitet werden, die sich als Anwendungsentwickler auf dem Innovationsmarkt der telefonbasierten Sprachportale betätigen wollen. Die zentralen Fragen lauten: 1. Welches sind die zentralen Probleme der Entwicklung telefonbasierter Sprachportale? 2. Inwieweit löst VoiceXML diese Probleme? 3. Inwiefern lohnt es sich somit, (z.B. zwecks Herausbildung eines Alleinstellungsmerkmals) auf die Technologie VoiceXML zu setzen? 4. Welche Alternativen existieren? In welchen anderen Bereichen sollte man ggf. Kernkompetenzen herausbilden

    Web 2.0-Entwicklung — ewige Beta-Version

    Get PDF
    Zusammenfassung: Eine neue Generation von internetbasierten Community-Plattformen wie YouTube, Flickr oder del.icio.us hat in den letzten Jahren groβes Interesse in Forschung und Industrie hervorgerufen. Diese Plattformen beziehen den Nutzer als zentralen Teil des Applikationsdesigns explizit mit ein und prägen einen neuen Trend in der Entwicklung von Web-Anwendungen. Zahlreiche Funktionalitäten, die exakt den Bedürfnissen der Nutzer entsprechen, können so bereitgestellt und kontinuierlich weiterentwickelt werden. Dem Paradigma der ewigen Beta-Version entsprechend, stellen Web 2.0-basierte Anwendungen keine statischen Softwareartefakte mehr da. Sie sind vielmehr dezentrale Dienste, die sowohl von Nutzern als auch von Betreibern ständig angepasst werden können. Die fortwährende Anpassung von Web 2.0-Plattformen stellt insbesondere an den Entwicklungsprozess neue Anforderungen. Durch Anwendung von klassischen Methoden der Softwareentwicklung können diese nicht erfüllt werden. Dieser Artikel beschreibt damit verbundene Herausforderungen und mögliche Lösungsansätze und illustriert diese mit zahlreichen Beispiele

    Vergleich von Technologien und Systemen für das Datenmanagement bei wissenschaftlichen Prozessen

    Get PDF
    Im wissenschaftlichen Umfeld werden für Simulationen und Analysen Systeme und Technologien benötigt, mit denen sich Abläufe des Datenmanagements in Form von Prozessen bzw. Workflows modellieren und automatisieren lassen. Dabei ist hauptsächlich wichtig, dass die Systeme und eingesetzten Technologien eine heterogene Datenquellenlandschaft unterstützen bzw. entsprechend erweitert werden können sowie mit großen Datenmengen effizient arbeiten können. Weiterhin ist die Abstraktionsunterstützung für den Anwender wichtig, da dieser meist ein Wissenschaftler oder Ingenieur und daher kein ausgewiesener IT-Experte ist. Diese Fachstudie evaluiert zwei der frei erhältlichen Datenmanagementsysteme für wissenschaftliche Prozesse nach zuvor festgelegten Kriterien bezüglich wichtiger Eigenschaften und Anforderungen solcher Systeme. Bei den zwei Systemen handelt es sich um Open Grid Services Architecture Data Access and Integration (OGSA-DAI) sowie das Scientific Data Management Center (SDMCenter). Die Evaluierung wird mit dem Hintergrund durchgeführt, dass das vom IAAS und IPVS gemeinsam entwickelte Rahmenwerk SIMPL (SimTech - Information Management, Processes, and Languages), das den Zugriff auf externe Daten in Simulationsworkflows ermöglicht, verbessert werden soll

    Architektur vernetzter Systeme - Seminar SS 1997 und WS 1997/98

    Get PDF
    Der vorliegende interne Bericht enthält die Beiträge von Studenten zum Seminar "Architektur vernetzter Systeme", das im Sommersemester 1997 und im Wintersemester 1997/98 am Institut für Telematik der Universität Karlsruhe stattgefunden hat. Themen waren dabei die Performanzuntersuchung bei Vermittlungsinstanzen, alternative Kommunikationsparadigmen wie mobile Agenten und Push-Techniken als auch die Betrachtung verteilter Anwendungen im WWW oder die Optimierung des WWW durch den Harvest-Ansatz

    Konzeption und Realisierung einer Anwendung zur Visualisierung von Maschinendaten

    Get PDF
    Diese Arbeit beschreibt den Verlauf einer Softwareentwicklung, dessen Resultat eine Smartpho-ne-Anwendung für die Observierung von Fertigungsmaschine darstellt. Diese Anwendung soll als Demonstrator genutzt werden, um Smartphones innerhalb der Fertigung mittels Fertigungsma-schinen auf ihre Einsatzmöglichkeiten zu testen. Hierfür wurde mittels Recherchen und einer Analyse eine Wissensbasis für den Softwareentwurf geschaffen. Es resultierten mögliche Darstel-lungsformen, Smartphone-Betriebssysteme und Programmierplattformen. Für die Anwendung wurden aufgrund der geringen Komplexität Balkendiagramme, Liniendiagramme, Tabellen und eine textuelle Darstellung gewählt. Als Programmierplattform entschied man sich aufgrund der Performanz und eines großen Marktanteils für eine native Android-Anwendung, welche auf den Betriebssystemen Android und Blackberry lauffähig ist. Aufbauend auf dieser Wissensbasis wur-de eine Android-Anwendung entworfen und anschließend umgesetzt

    Text-Mining-Methoden im Semantic Web

    Get PDF
    Zusammenfassungen: Aufbau, Pflege und Nutzung groβer Wissensdatenbanken erfordern den kombinierten Einsatz menschlicher und maschineller Informationsverarbeitung. Da groβe Teile des menschlichen Wissens in Textform vorliegen, bieten sich Methoden des Text Mining zur Extraktion von Wissensinhalten an. Dieser Artikel behandelt Grundlagen des Text Mining im Kontext des Semantic Web. Methoden des Text Mining werden besprochen, die für die halbautomatische Annotierung von Texten und Textteilen eingesetzt werden, insbesondere Eigennamenerkennung (Named-Entity Recognition), automatische Schlüsselworterkennung (Keyword Recognition), automatische Dokumentenklassifikation, teilautomatisches Erstellen von Ontologien und halbautomatische Faktenerkennung (Fact Recognition, Event Recognition). Es werden auch kritische Hintergrundfragen aufgegriffen. Das Problem der zu hohen Fehlerrate und der zu geringen Performanz automatischer Verfahren wird diskutiert. Zwei Beispiele aus der Praxis werden vorgestellt: Erstens das Forschungsprojekt OntoGene der Universität Zürich, in dem Protein-Protein-Interaktionen als Relationstripel aus der Fachliteratur extrahiert werden, und zweitens ein ontologiebasierter Tag-Recommender, der die manuelle Vergabe von Schlüsselwörtern an Wissensressourcen unterstütz

    Konzeption und Realisierung einer mobilen Anwendung zur Steuerung einer Ambient Light Infrastruktur

    Get PDF
    Im stetigen Wandel der Zeit werden immer mehr Geräte mit den unterschiedlichsten Funktionen entwickelt. Fast jeder trägt ein Smartphone bei sich, das Zuhause ist mit einer Hochgeschwindigkeitsleitung mit dem Internet verbunden und immer mehr Geräte werden miteinander vernetzt. So können beispielsweise Kühlschränke Milch nachbestellen, falls diese zur Neige geht, und das Navigationssystem des Autos lädt sich über das verbundene Smartphone stets aktuelle Verkehrsdaten aus dem Internet. Selbst der Fernseher wird seit Jahrzehnten bequem über das Sofa ferngesteuert. Warum besitzt dann fast jeder Haushalt noch normale Lichtschalter, bei denen der Nutzer extra aufstehen muss, um sie zu bedienen? Und auch dann gibt es meist nur zwei Wahlmöglichkeiten: An und Aus. Ziel dieser Bachelorarbeit ist es mit bereits bekannten Geräten - einem Apple Smartphone, dem Minicomputer Raspberry Pi und einer Lichtleiste des Möbelhauses IKEA - eine Infrastruktur zu entwickeln, die es dem Nutzer ermöglicht ohne Konfigurationsaufwand die Beleuchtung über ein Apple-Smartphone zu bedienen und zu erweitern. So soll das Licht gedimmt, dessen Farbe verändert, und falls gewünscht, über das Internet ferngesteuert werden können

    Anwendungsübergreifende Web-2.0-Kollaborationsmuster

    Get PDF

    Analyse von IT-Anwendungen mittels Zeitvariation

    Get PDF
    Performanzprobleme treten in der Praxis von IT-Anwendungen häufig auf, trotz steigender Hardwareleistung und verschiedenster Ansätze zur Entwicklung performanter Software im Softwarelebenszyklus. Modellbasierte Performanzanalysen ermöglichen auf Basis von Entwurfsartefakten eine Prävention von Performanzproblemen. Bei bestehenden oder teilweise implementierten IT-Anwendungen wird versucht, durch Hardwareskalierung oder Optimierung des Codes Performanzprobleme zu beheben. Beide Ansätze haben Nachteile: modellbasierte Ansätze werden durch die benötigte hohe Expertise nicht generell genutzt, die nachträgliche Optimierung ist ein unsystematischer und unkoordinierter Prozess. Diese Dissertation schlägt einen neuen Ansatz zur Performanzanalyse für eine nachfolgende Optimierung vor. Mittels eines Experiments werden Performanzwechselwirkungen in der IT-Anwendung identifiziert. Basis des Experiments, das Analyseinstrumentarium, ist eine zielgerichtete, zeitliche Variation von Start-, Endzeitpunkt oder Laufzeitdauer von Abläufen der IT-Anwendung. Diese Herangehensweise ist automatisierbar und kann strukturiert und ohne hohen Lernaufwand im Softwareentwicklungsprozess angewandt werden. Mittels der Turingmaschine wird bewiesen, dass durch die zeitliche Variation des Analyseinstrumentariums die Korrektheit von sequentiellen Berechnung beibehalten wird. Dies wird auf nebenläufige Systeme mittels der parallelen Registermaschine erweitert und diskutiert. Mit diesem praxisnahen Maschinenmodell wird dargelegt, dass die entdeckten Wirkzusammenhänge des Analyseinstrumentariums Optimierungskandidaten identifizieren. Eine spezielle Experimentierumgebung, in der die Abläufe eines Systems, bestehend aus Software und Hardware, programmierbar variiert werden können, wird mittels einer Virtualisierungslösung realisiert. Techniken zur Nutzung des Analyseinstrumentariums durch eine Instrumentierung werden angegeben. Eine Methode zur Ermittlung von Mindestanforderungen von IT-Anwendungen an die Hardware wird präsentiert und mittels der Experimentierumgebung anhand von zwei Szenarios und dem Android Betriebssystem exemplifiziert. Verschiedene Verfahren, um aus den Beobachtungen des Experiments die Optimierungskandidaten des Systems zu eruieren, werden vorgestellt, klassifiziert und evaluiert. Die Identifikation von Optimierungskandidaten und -potenzial wird an Illustrationsszenarios und mehreren großen IT-Anwendungen mittels dieser Methoden praktisch demonstriert. Als konsequente Erweiterung wird auf Basis des Analyseinstrumentariums eine Testmethode zum Validieren eines Systems gegenüber nicht deterministisch reproduzierbaren Fehlern, die auf Grund mangelnder Synchronisationsmechanismen (z.B. Races) oder zeitlicher Abläufe entstehen (z.B. Heisenbugs, alterungsbedingte Fehler), angegeben.Performance problems are very common in IT-Application, even though hardware performance is consistently increasing and there are several different software performance engineering methodologies during the software life cycle. The early model based performance predictions are offering a prevention of performance problems based on software engineering artifacts. Existing or partially implemented IT-Applications are optimized with hardware scaling or code tuning. There are disadvantages with both approaches: the model based performance predictions are not generally used due to the needed high expertise, the ex post optimization is an unsystematic and unstructured process. This thesis proposes a novel approach to a performance analysis for a subsequent optimization of the IT-Application. Via an experiment in the IT-Application performance interdependencies are identified. The core of the analysis is a specific variation of start-, end time or runtime of events or processes in the IT-Application. This approach is automatic and can easily be used in a structured way in the software development process. With a Turingmachine the correctness of this experimental approach was proved. With these temporal variations the correctness of a sequential calculation is held. This is extended and discussed on concurrent systems with a parallel Registermachine. With this very practical machine model the effect of the experiment and the subsequent identification of optimization potential and candidates are demonstrated. A special experimental environment to vary temporal processes and events of the hardware and the software of a system was developed with a virtual machine. Techniques for this experimental approach via instrumenting are stated. A method to determine minimum hardware requirements with this experimental approach is presented and exemplified with two scenarios based on the Android Framework. Different techniques to determine candidates and potential for an optimization are presented, classified and evaluated. The process to analyze and identify optimization candidates and potential is demonstrated on scenarios for illustration purposes and real IT-Applications. As a consistent extension a test methodology enabling a test of non-deterministic reproducible errors is given. Such non-deterministic reproducible errors are faults in the system caused by insufficient synchronization mechanisms (for example Races or Heisenbugs) or aging-related faults
    corecore