2,551 research outputs found

    Active learning of soft rules for system modelling

    Get PDF
    Using rule learning algorithms to model systems has gained considerable interest in the past. The underlying idea of active learning is to learning algorithm influence the selection of training examples. The presented method estimates the utility of new experiments based on the knowledge represented by the existing rulebase. An extended rule format allows to deal with uncertainty. Experiments with different artificial system functions show that the presented method improves the model quality respectively decreases the number of experiments needed to reach a specific level of performance

    Deutschsprachige Fragebögen zur Usability-Evaluation im Vergleich

    Get PDF
    Für die Konstruktion gebrauchstauglicher Anwendungssysteme ist eine exakte Evaluierung der Usability eine wertvolle Unterstützung. Zu diesem Zweck werden in der Praxis häufig Usability-Fragebögen herangezogen. Im deutschen Sprachraum sind die beiden Fragebögen Isonorm 9241/10 und Isometrics, die beide Software gemäß der EN ISO 9241-110 evaluieren, weit verbreitet. Die vorliegende Studie widmete sich einem Vergleich dieser beiden Fragebögen hinsichtlich testtheoretischer Gütekriterien. Im Rahmen eines experimentellen Designs wurden die beiden Fragebögen eingesetzt um die Usability von zwei Standard-Softwarepaketen zu bewerten. Hinsichtlich der inhaltlichen Validität der Fragebögen zeigten die Ergebnisse eine hohe Übereinstimmung der Usability-Messung der beiden Fragebögen. Auch weitere testtheoretische Analysen lieferten eine ähnliche Qualitätsbeurteilung beider Fragebögen, weshalb sie aus diesem Blickwinkel gleichermaßen für Forschung und Praxis empfohlen werden können

    Customer Recovery : Profitabilität durch systematische Rückgewinnung von Kunden

    Full text link
    Nach Neukundenakquisition und Kundenbindung werden Unternehmen die Kundenrückgewinnung zur dritten Säule eines professionell ausbalancierten Kundenmanagement-Systems machen. Nur wenige Unternehmen haben diese Quelle von Wettbewerbsvorteilen bisher erkannt und systematisch erschlossen. Diese Zurückhaltung vieler Unternehmen liegt v.a. in organisatorischen und kulturellen Barrieren sowie in der mangelnden Methodenkenntnis begründet. Die in diesem Beitrag dargestellte Methode des Customer Recovery Programs bietet mit dem fünfstufigen CRP-Prozeß und den prozeßübergreifenden Maßnahmen Lösungsmöglichkeiten für beide Problemfelder. Für innovative Unternehmen, die bereits Customer Recovery Programme praktiziert haben, waren diese selbst bei semi-professioneller Durchführung höchst rentabel. Eine Untersuchung ergab Renditen, die je nach Branche zwischen 40 und 100 Prozent variierten. Zur Gewährleistung des CRP-Erfolgs werden schließlich grundlegende Erfolgsfaktoren abgeleitet

    Erstellung des Feinkonzeptes der Datentechnik für einen meteorologischen Messmasten mit hoher Verfügbarkeit und Analyse der Fehlertoleranzen der dazugehörigen Systeme

    Get PDF
    Im Rahmen dieser Arbeit wird für das Projekt DFWind ein Feinkonzept der Datentechnik für einen meteorologischen Messmasten mit dem Ziel einer hohen Verfügbarkeit vorgestellt. Dabei wird das Projekt kurz illustriert und eine Zusammensetzung sowie Eingrenzung der notwendigen Datentechnik für einen Betrieb von mehreren Sensoren auf dem Messmasten erarbeitet. Um das Thema der Fehlertoleranz zu vermitteln und das Verständnis gegenüber der Auswahl des Feinkonzeptes entgegenzubringen, wird zunächst eine Einführung in dieses Fachgebiet gegeben. Hierbei wird die Terminologie sowie die verschiedenen Arten der Analysemethoden wie eine FMEA und Fehlerbaumanalyse erläutert. Mittels dieser Methoden und sehr vielseitigen Literaturquellen wird jedes einzelne Gerät auf seine Fehlerarten, deren Quellen sowie Vermeidung untersucht. Diese Aspekte werden für eine weitere Eingrenzung der Geräteauswahl und für eine Überprüfung der Integrität des aktuell vorliegenden Konzeptes verwendet. Da die Bewertung der einzelnen Geräte keine Fehler aufgrund der Kombination aller Geräte in einem Verbund identifiziert, wird zusätzlich eine Betrachtung unter weiteren Blickwinkeln durchgeführt. Hierzu zählen menschliche und technische Fehler sowie Ursachen, welche auf die Umwelt zurückzuführen sind

    Swiss Marketing Leadership Studie 2015 : Status Quo und Trends in Schweizer Unternehmen

    Get PDF
    Marketing ändert sich fundamental und sollte in modernen Unternehmen eine steuernde Funktion in Richtung Kunden- und Marktorientierung einnehmen. Vor diesem Hintergrund entschied sich das Institut für Marketing Management der ZHAW School of Management and Law zu einer Fusion der beiden bewährten Studienformate «Swiss CRM» und «Swiss Product Management» und veröffentlicht erstmalig die «Swiss Marketing Leadership Studie»

    Integration von algorithmenbasierter Fehlertoleranz in grundlegende Operationen der linearen Algebra auf GPGPUs

    Get PDF
    Der Einsatz algorithmenbasierter Fehlertoleranz bietet eine Möglichkeit, auftretende Fehler bei Operationen der linearen Algebra zu erkennen, zu lokalisieren und zu korrigieren. Diese Operationen der linearen Algebra können durch den Einsatz hochoptimierter Bibliotheken mit einem großen Geschwindigkeitszuwachs gegenüber Mehrkernprozessoren auf GPGPUs ausgeführt werden. Die Integration der algorithmenbasierten Fehlertoleranz unter Verwendung dieser Bibliotheken für einige ausgewählte Operationen der linearen Algebra ist Kern dieser Arbeit. Bei der Überprüfung der Ergebnisse bezüglich aufgetretener Fehler müssen dabei Werte verglichen werden, die durch einen Rundungsfehler behaftet sind und somit nicht mit einem Test auf Gleichheit abgeprüft werden können. Deshalb werden Fehlerschwellwerte benötigt, bei deren Überschreitung ein Fehler erkannt und anschließend korrigiert werden kann. In dieser Arbeit wurden deterministische Methoden zur Fehlerschwellwertbestimmung untersucht und eine auf einer probabilistische Methode zur Abschätzung des Rundungsfehlers basierende Methode zur Fehlerschwellwertbestimmung angepasst und weiterentwickelt. Diese Methoden zur Fehlerschwellwertbestimmung wurden anhand experimenteller Untersuchungen bezüglich der Qualität im Sinne der Differenz zum gemessenen Rundungsfehler, der Fehlererkennungsraten bei Fehlerinjektion und der Performanz der Methoden bei Implementierung auf GPGPUs miteinander verglichen. Die probabilistische Methode zeichnet sich dabei durch einen näher am auftretenden Rundungsfehler liegenden Fehlerschwellwert aus, ist dadurch in der Lage einen größeren Anteil auftretender Fehler zu erkennen und zeigt eine hohe Performanz bei der Verwendung auf GPGPUs

    Entwurf eines fehlertoleranten Lenkventils für Steer-by-Wire Anwendungen bei Traktoren

    Get PDF
    In der Arbeit wird ein hydrostatisches Steer-by-Wire Ventil mit unabhängigen Steuerkanten untersucht und bezüglich der Eignung für sicherheitskritische Anwendungen bewertet. Durch experimentelle Untersuchungen wird nachgewiesen, dass Ventilfehler inhärent kompensiert werden können und die Lenkbarkeit auch im Fehlerfall gewährleistet ist. Der Verzicht auf eine strikt zweikanalige Struktur mit unabhängigen Abschaltpfaden sorgt für eine niedrige Systemkomplexität

    Die gläserne Drehtür : Chancengleichheit - Frauen gehen in den Führungsetagen ein und aus - Männer werden an einer goldenen Kette gehalten

    Get PDF
    Im Vergleich zu früher haben Frauen heute bessere Chancen, in eine Führungsposition aufzusteigen. Wie sowohl schweizerische als auch weltweite Statistiken zeigen, sind sie jedoch auch schneller wieder weg als Männer. Die Ursachen dafür sind vielfältig: Freiwillige Austritte und verschiedene Alternativen für Frauen, aber auch unfreiwillige Austritte infolge von kürzerer Betriebszugehörigkeit oder von subtilen rollenspezifischen Zuschreibungsmechanismen führen im Endeffekt dazu, dass der Anteil von Frauen in Führungspositionen weit weniger stark zunimmt, als es aufgrund von Bildungsabschlüssen und Fähigkeiten zu erwarten wäre. Nicht zu vergessen ist, dass auch die Berufslaufbahn von Männern von geschlechtsspezifischen Rollenerwartungen geprägt und nicht immer freiwillig gewählt ist

    Eine statistische Methode zur Erkennung von Dokumentstrukturen

    Get PDF
    This PhD thesis is on the topic of document recognition. It particularly discusses the aspects of learning document models and the recognition of the logical structure of documents. In order to achieve high reliability and user friendliness, we describe an interactive system which can easily be adapted to new document classes. In an initial learning session the system is able to generate a recognition model based on a small set of completely tagged logical documents. In the successive recognition sessions, the user interactively corrects the recognition errors of the system. In order to prevent it from repeating the same errors again, these corrections are automatically integrated to the model thanks to the system's incremental learning capabilities. The representation of the document model is based on a novel, statistical formalism. It is based on n-grams, which have been generalized to be able to represent tree structures. The basic principle consists in the representation of local patterns in tree structures using the conditional probabilities of n-grams. Such a statistical model is able to represent one document class at a time. In the discussion of the expressiveness of the statistical model, we introduce the notion of the entropy of a model. We further introduce a learning algorithm, which estimates the n-gram probabilities of the model based on a set of sample documents. The same algorithm is again used in the incremental learning steps. The recognition of the physical structure of a document is based on classical methods that have been documented in the literature. However, the logical structure tree is here constructed stepwise on top of the physical structure, using a heuristic bottom-up procedure. The optimal solution is found in an efficient way by a quality measure and a best-first search strategy. The approach has been empirically validated on three different document classes, the main test series consisting in 25 documents of an article collection with average structural complexity and containing a total of 400 pages. The tests revealed that the recognition rate of the system constantly improves with the number of recognized documents. When the end of this training and recognition phase has been reached, about one correction is necessary every four pages. Finally, possibilities of integrating the statistical n-gram model with existing standards like SGML/DSSSL are discussed. To this purpose, a method which translates a statistical model into the corresponding DTD is described.Die vorliegende Dissertation behandelt die Erkennung von Dokumenten. Es werden schwerpunktmässig die Aspekte des Lernens von Dokumentmodellen und der Erkennung der logischen Struktur von Dokumenten betrachtet. Um sowohl eine hohe Zuverlässigkeit als auch Bedienungsfreundlichkeit zu erreichen, wird ein interaktives System beschrieben, das sich leicht an neue Dokumentklassen anpassen lässt. Das System benötigt eine initiale Lernfähigkeit, indem es aus vollständigen, logischen Dokumenten ein vorläufiges Erkennungsmodell generieren kann. In darauf folgenden Erkennungsvorgängen werden allfällige Fehler interaktiv vom Benutzer korrigiert. Durch die inkrementelle Lernfähigkeit des Systems werden die Korrekturen in das Modell integriert, und so die Wiederholung desselben Fehlers verhindert. Für die Darstellung des Dokumentmodells wird ein neuartiger, statistischer Formalismus verwendet. Er basiert auf n-Grammen, die in einer Weise erweitert wurden, dass sie auch Baumstrukturen repräsentieren können. Das Grundprinzip basiert auf der Darstellung lokaler Muster in Baumstrukturen durch die bedingten Wahrscheinlichkeiten von n-Grammen. Ein derartiges statistisches Modell vermag jeweils eine Dokumentklasse vollständig zu beschreiben. In der Diskussion um die Repräsentationsfähigkeit des statistischen Modells wird der Begriff der Entropie eingeführt. Es wird ein Lernalgorithmus vorgestellt, der die n-Gramm-Wahrscheinlichkeiten aus vorgelegten Beispieldokumenten schätzt. Derselbe Algorithmus gelangt auch in inkrementellen Lernphasen zur Anwendung. Die Erkennung der physischen Struktur eines Dokuments erfolgt mit klassischen Methoden aus der einschlägigen Literatur. Auf der physischen Struktur eines zu erkennenden Dokuments wird mit einem bottom-up Verfahren der logische Strukturbaum konstruiert. Die Heuristik wählt unter Verwendung einer Bewertungsfunktion und einer best-first Suchstrategie effizient eine optimale Lösung aus. Der Ansatz wird an Dokumenten aus drei verschiedenen Klassen validiert. Die Haupttestserie besteht aus 25 Dokumenten mit insgesamt 400 Seiten einer Serie von Artikeln mittlerer Komplexität. Die Tests belegen, dass die Erkennungsleistung des Systems mit der Anzahl erkannter Dokumente zunimmt, so dass schliesslich etwa eine Korrektur pro vier Seiten nötig ist. Schliesslich werden Integrationsmöglichkeiten des statistischen n-Gramm-Modells mit bestehenden Standards wie zum Beispiel SGML/DSSSL erforscht. Es wird dazu eine Methode vorgestellt, die ein statistisches Modell in eine entsprechende DTD übersetzt
    corecore