10 research outputs found

    Ein Framework zur Analyse komplexer Produktportfolios mittels Machine Learning

    Get PDF
    Die Nachfrage der Kunden nach individualisierten Produkten, die Globalisierung, neue Konsummuster sowie kĂŒrzere Produktlebenszyklen fĂŒhren dazu, dass Unternehmen immer mehr Varianten anbieten. Aufgrund der Arbeitsteilung und der unterschiedlichen Perspektiven können einzelne Entwickler die KomplexitĂ€t des Produktportfolios nicht durchdringen. Dennoch sind die heutigen Verfahren im Produktportfolio- und Variantenmanagement geprĂ€gt durch manuelle und erfahrungsbasierte AktivitĂ€ten. Eine systematische Analyse und Optimierung des Produktportfolios sind damit nicht möglich. Unternehmen benötigen stattdessen intelligente Lösungen, welche das gespeicherte Wissen in Daten nutzen und einsetzen, um Entscheidungen ĂŒber Innovation, Differenzierung und Elimination von Produktvarianten zu unterstĂŒtzen. Zielstellung dieses Forschungsvorhabens ist die Entwicklung eines Frameworks zur Analyse komplexer Produktportfolios mittels Machine Learning. Machine Learning ermöglicht es, Wissen aus Daten unterschiedlicher Lebenszyklusphasen einer Produktvariante automatisiert zu generieren und zur UnterstĂŒtzung des Produktportfolio- und Variantenmanagements einzusetzen. FĂŒr die UnterstĂŒtzung der Entscheidungen ĂŒber Produktvarianten ist Wissen ĂŒber deren AbhĂ€ngigkeiten und Beziehungen sowie die Eigenschaften der einzelnen Elemente erforderlich. Dadurch soll ein Beitrag zur besseren Handhabung komplexer Produktportfolios geleistet werden. Das Framework zur Analyse komplexer Produktportfolios mittels Machine Learning besteht aus drei Bausteinen, die das zentrale Ergebnis dieser Arbeit darstellen. Zuerst wird in Baustein 1 auf die Wissensbedarfe bei der Analyse und Anpassung komplexer Produktportfolios eingegangen. Anschließend werden in Baustein 2 die Daten, welche fĂŒr Entscheidungen und somit fĂŒr die Wissensgenerierung im Produktportfolio- und Variantenmanagement erforderlich sind, beschrieben und charakterisiert. Abschließend findet in Baustein 3 die Datenvorbereitung und die Implementierung der Machine Learning Verfahren statt. Es wird auf unterschiedliche Verfahren eingegangen und eine UnterstĂŒtzung bei der Auswahl und Evaluation der Algorithmen sowie die Möglichkeiten zum Einsatz des generierten Wissens fĂŒr die Analyse komplexer Produktportfolios aufgezeigt. Das Framework wird in einer Fallstudie bei einem Industriepartner aus der Nutzfahrzeugbranche mit einem besonders komplexen Produktportfolio angewendet. Dabei werden die drei AnwendungsfĂ€lle Prognose von „marktspezifischen und technischen Eigenschaften der Produktvarianten“, Ermittlung von „Ähnlichkeiten von Produktvarianten“ und Identifikation von „Korrelationen zwischen MerkmalsausprĂ€gungen“ mit realen Daten des Industriepartners umgesetzt. Das Framework sowie die in der Fallstudie beim Industriepartner erzielten Ergebnisse werden anschließend Experten im Produktportfolio- und Variantenmanagement vorgestellt. Diese bewerten die Ergebnisse hinsichtlich der funktionalen Eigenschaften sowie dem Mehrwert aus Sicht der Forschung und industriellen Praxis anhand zuvor definierter Kriterien.:1 EinfĂŒhrung 1.1 Motivation 1.2 Komplexe Produktportfolios: Eine Industrieperspektive 1.3 Zielsetzung und Forschungsfragen 1.4 Aufbau der Arbeit 2 Grundlagen zur Analyse von Produktportfolios mittels Machine Learning 2.1 Komplexe Produktportfolios 2.1.1 Terminologie komplexer Produktportfolios 2.1.2 Strukturierung komplexer Produktportfolios 2.1.3 Analyse und Anpassung komplexer Produktportfolios 2.1.4 Zusammenfassung: Komplexe Produktportfolios 2.2 Machine Learning 2.2.1 Machine Learning als Teil der kĂŒnstlichen Intelligenz 2.2.2 Terminologie Machine Learning 2.2.3 Wissensgenerierung mit Machine Learning 2.2.4 Datenanalyseprozess 2.2.5 Machine Learning Verfahren und Algorithmen 2.2.6 Zusammenfassung: Machine Learning 3 AnsĂ€tze zur Analyse von Produktportfolios mittels Machine Learning 3.1 Kriterien zur Bewertung bestehender AnsĂ€tze 3.2 Bestehende AnsĂ€tze aus der Literatur 3.2.1 Einsatz ĂŒberwachter Lernverfahren 3.2.2 Einsatz unĂŒberwachter Lernverfahren 3.2.3 Einsatz kombinierter Lernverfahren 3.3 Resultierender Forschungsbedarf 4 Forschungsvorgehen 4.1 Design Research Methodology (DRM) 4.2 Vorgehen und Methodeneinsatz 4.3 Kriterien fĂŒr die Entwicklung des Frameworks 4.4 Schlussfolgerungen zum Forschungsvorgehen 5 Framework zur Analyse komplexer Produktportfolios 5.1 Übersicht ĂŒber das Framework 5.2 Baustein 1: Wissensbedarfe zur Analyse komplexer Produktportfolios 5.2.1 Informationssuche 5.2.2 Formulierung von Alternativen 5.2.3 Prognose 5.2.4 Kriterien zur Auswahl der Wissensbedarfe 5.3 Baustein 2: Datenbasierte Beschreibung komplexer Produktportfolios 5.3.1 Produktdatenmodell 5.3.2 Vertriebsdaten 5.3.3 Nutzungsdaten 5.4 Baustein 3: Systematische Generierung und Einsatz von Wissen 5.4.1 Baustein 3.0: Vorbereitung von Produktportfoliodaten 5.4.2 Baustein 3.1: Regressionsanalyse 5.4.3 Baustein 3.2: Klassifikationsanalyse 5.4.4 Baustein 3.3: Clusteranalyse 5.4.5 Baustein 3.4: Assoziationsanalyse 5.5 Anwendung des Frameworks 5.6 Schlussfolgerung zum Framework 6 Validierung des Frameworks 6.1 Konzept der Validierung 6.2 Baustein 1: Wissensbedarfe zur Analyse komplexer Produktportfolios 6.3 Baustein 2: Datenbasierte Beschreibung komplexer Produktportfolios 6.4 Baustein 3: Systematische Generierung und Einsatz von Wissen 6.4.1 Marktspezifische und technische Produkteigenschaften 6.4.2 Ähnlichkeiten von Produktvarianten 6.4.3 Korrelationen zwischen MerkmalsausprĂ€gungen 6.5 Erfolgsvalidierung mit einer Expertenbefragung 6.6 Schlussfolgerung zur Validierung 7 Diskussion 7.1 Nutzen und EinschrĂ€nkungen 7.2 Ergebnisbeitrag fĂŒr die Forschung 7.3 Ergebnisbeitrag fĂŒr die Industrie 8 Zusammenfassung und Ausblick 8.1 Zusammenfassung 8.2 Ausblick 9 Literaturverzeichnis 10 Abbildungsverzeichnis 11 Tabellenverzeichnis Anhang A-

    Anomalieerkennung in Kommunikationsdaten zur Datenselektion im Fahrzeug

    Get PDF
    Ein Fahrzeug generiert Daten, welche Zustand und Verhalten von Fahrer und Fahrzeug beschreiben. Das Sammeln der Informationen gibt dem Automobilhersteller die Möglichkeit, diese als Big Data zu verwenden und neuen Wert zu schöpfen. Beispielsweise schafft die Beobachtung wĂ€hrend des gesamten Lebenszyklus die Grundlage fĂŒr eine Produktoptimierung, oder aber das Marketing kann zielgerichtet auf die individuellen WĂŒnsche des Kunden eingehen. Herausforderungen hierbei liegen darin, einen Wert aus den Daten zu schöpfen und die Übertragung von Fahrzeug zu Backend reduzieren. Ein Oberklassefahrzeug generiert im Jahr 2017 2,1 MByte je Sekunde. FĂŒr die Übertragung der Datenmenge, die eine Flotte mit Millionen von Fahrzeugen erzeugt, ergeben sich daher Schwierigkeiten. Aufgrund der Übertragungskosten, der Datenschutzgrundverordnung und der Limitierung in der DatenĂŒbertragung ist bereits im Fahrzeug eine Selektion relevanter Informationen notwendig. Der Ansatz der one-class Klassifizierung lernt anhand normaler Flottendaten, was normal ist und kann somit Abweichungen vom Normalzustand erkennen. Durch die Übertragung des trainierten Modells in die Fahrzeuge werden dort unmittelbar anormale Ereignisse erkannt, womit der Datentransfer zum Backend auf das Wesentliche, die außergewöhnlichen Vorkommnisse, reduziert wird. Durch eine stetige Aktualisierung des Modells entsteht eine dynamische Datensammlung, welche sicherstellt, dass im Backend noch fehlende Ereignisse ĂŒbermittelt werden. Der Vergleich unterschiedlicher AnsĂ€tze verdeutlicht, dass insbesondere das Replikator Neuronale Netz die Anforderungen erfĂŒllt. Außerdem ist es in der Lage, einen Großteil real geschehener Anomalien zu erkennen, wĂ€hrend kein normales Event fĂ€lschlicherweise als anormal eingestuft wird. Das Ziel der Datenreduktion um das Hundertfache fĂŒhrt zur tatsĂ€chlichen EinschrĂ€nkung auf 0,715%. Die bedeutsamsten Ereignisse, wie UnfĂ€lle oder ABS-Eingriffe, sind klar erkennbar, doch eine durchschnittliche Area under curve von 0,8 legt dar, dass das Vorgehen kein Alarmsystem liefert. Es dient der Reduktion der Datenmenge, die ins Backend ĂŒbertragen wird, wo weiteres Postprocessing erfolgen muss. Dieses besteht aus der Interpretation und der Einordnung von erkannten Ereignissen

    Coping With New Challengens for Density-Based Clustering

    Get PDF
    Knowledge Discovery in Databases (KDD) is the non-trivial process of identifying valid, novel, potentially useful, and ultimately understandable patterns in data. The core step of the KDD process is the application of a Data Mining algorithm in order to produce a particular enumeration of patterns and relationships in large databases. Clustering is one of the major data mining tasks and aims at grouping the data objects into meaningful classes (clusters) such that the similarity of objects within clusters is maximized, and the similarity of objects from different clusters is minimized. Beside many others, the density-based clustering notion underlying the algorithm DBSCAN and its hierarchical extension OPTICS has been proposed recently, being one of the most successful approaches to clustering. In this thesis, our aim is to advance the state-of-the-art clustering, especially density-based clustering by identifying novel challenges for density-based clustering and proposing innovative and solid solutions for these challenges. We describe the development of the industrial prototype BOSS (Browsing OPTICS plots for Similarity Search) which is a first step towards developing a comprehensive, scalable and distributed computing solution designed to make the efficiency and analytical capabilities of OPTICS available to a broader audience. For the development of BOSS, several key enhancements of OPTICS are required which are addressed in this thesis. We develop incremental algorithms of OPTICS to efficiently reconstruct the hierarchical clustering structure in frequently updated databases, in particular, when a set of objects is inserted in or deleted from the database. We empirically show that these incremental algorithms yield significant speed-up factors over the original OPTICS algorithm. Furthermore, we propose a novel algorithm for automatic extraction of clusters from hierarchical clustering representations that outperforms comparative methods, and introduce two novel approaches for selecting meaningful representatives, using the density-based concepts of OPTICS and producing better results than the related medoid approach. Another major challenge for density-based clustering is to cope with high dimensional data. Many today's real-world data sets contain a large number of measurements (or features) for a single data object. Usually, global feature reduction techniques cannot be applied to these data sets. Thus, the task of feature selection must be combined with and incooperated into the clustering process. In this thesis, we present original extensions and enhancements of the density-based clustering notion to cope with high dimensional data. In particular, we propose an algorithm called SUBCLU (density based SUBspace CLUstering) that extends DBSCAN to the problem of subspace clustering. SUBCLU efficiently computes all clusters that would have been found if DBSCAN is applied to all possible subspaces of the feature space. An experimental evaluation on real-world data sets illustrates that SUBCLU is more effective than existing subspace clustering algorithms because it is able to find clusters of arbitrary size and shape, and produces determine results. A semi-hierarchical extension of SUBCLU called RIS (Ranking Interesting Subspaces) is proposed that does not compute the subspace clusters directly, but generates a list of subspaces ranked by their clustering characteristics. A hierarchical clustering algorithm can be applied to these interesting subspaces in order to compute a hierarchical (subspace) clustering. A comparative evaluation of RIS and SUBCLU shows that RIS in combination with OPTICS can achieve an information gain over SUBCLU. In addition, we propose the algorithm 4C (Computing Correlation Connected Clusters) that extends the concepts of DBSCAN to compute density-based correlation clusters. 4C benefits from an innovative, well-defined and effective clustering model, outperforming related approaches in terms of clustering quality on real-world data sets.Knowledge Discovery in Databases (KDD) ist der Prozess der (semi-)automatischen Extraktion von Wissen aus Datenbanken, das gĂŒltig, bisher unbekannt und potentiell nĂŒtzlich fĂŒr eine gegebene Anwendung ist. Der zentrale Schritt des KDD-Prozesses ist das Data Mining. Eine der wichtigsten Aufgaben des Data Mining ist Clustering. Dabei sollen die Objekte einer Datenbank in Gruppen (Cluster) partitioniert werden, so dass Objekte eines Clusters möglichst Ă€hnlich und Objekte verschiedener Cluster möglichst unĂ€hnlich zu einander sind. Das dichtebasierte Clustermodell und die darauf aufbauenden Algorithmen DBSCAN und OPTICS sind unter einer Vielzahl anderer Clustering-AnsĂ€tze eine der erfolgreichsten Methoden zum Clustering. Im Rahmen dieser Dissertation wollen wir den aktuellen Stand der Technik im Bereich Clustering und speziell im Bereich dichtebasiertes Clustering voranbringen. Dazu erarbeiten wir neue Herausforderungen fĂŒr das dichtebasierte Clustermodell und schlagen dazu innovative Lösungen vor. ZunĂ€chst steht die Entwicklung des industriellen Prototyps BOSS (Browsing OPTICS plots for Similarity Search) im Mittelpunkt dieser Arbeit. BOSS ist ein erster Beitrag zu einer umfassenden, skalierbaren und verteilten Softwarelösung, die eine Nutzung der Effizienzvorteile und die analytischen Möglichkeiten des dichtebasierten, hierarchischen Clustering-Algorithmus OPTICS fĂŒr ein breites Publikum ermöglichen. Zur Entwicklung von BOSS werden drei entscheidende Erweiterungen von OPTICS benötigt: Wir entwickeln eine inkrementelle Version von OPTICS um nach einem Update der Datenbank (EinfĂŒgen/Löschen einer Menge von Objekten) die hierarchische Clustering Struktur effizient zu reorganisieren. Anhand von Experimenten mit synthetischen und realen Daten zeigen wir, dass die vorgeschlagenen, inkrementellen Algorithmen deutliche Beschleunigungsfaktoren gegenĂŒber dem originalen OPTICS-Algorithmus erzielen. Desweiteren schlagen wir einen neuen Algorithmus zur automatischen Clusterextraktion aus hierarchischen ReprĂ€sentationen und zwei innovative Methoden zur automatischen Auswahl geeigneter ClusterreprĂ€sentaten vor. Unsere neuen Techniken erzielen bei Tests auf mehreren realen Datenbanken im Vergleich zu den konkurrierenden Verfahren bessere Ergebnisse. Eine weitere Herausforderung fĂŒr Clustering-Verfahren stellen hochdimensionale FeaturerĂ€ume dar. Reale DatensĂ€tze beinhalten dank moderner Verfahren zur Datenerhebung hĂ€ufig sehr viele Merkmale. Teile dieser Merkmale unterliegen oft Rauschen oder AbhĂ€ngigkeiten und können meist nicht im Vorfeld ausgesiebt werden, da diese Effekte jeweils in Teilen der Datenbank unterschiedlich ausgeprĂ€gt sind. Daher muss die Wahl der Features mit dem Data-Mining-Verfahren verknĂŒpft werden. Im Rahmen dieser Arbeit stellen wir innovative Erweiterungen des dichtebasierten Clustermodells fĂŒr hochdimensionale Daten vor. Wir entwickeln SUBCLU (dichtebasiertes SUBspace CLUstering), ein auf DBSCAN basierender Subspace Clustering Algorithmus. SUBCLU erzeugt effizient alle Cluster, die gefunden werden, wenn man DBSCAN auf alle möglichen TeilrĂ€ume des Datensatzes anwendet. Experimente auf realen Daten zeigen, dass SUBCLU effektiver als vergleichbare Algorithmen ist. RIS (Ranking Interesting Subspaces), eine semi-hierarchische Erweiterung von SUBCLU, wird vorgeschlagen, das nicht mehr direkt die Teilraumcluster berechnet, sondern eine Liste von TeilrĂ€umen geordnet anhand ihrer Clustering-QualitĂ€t erzeugt. Dadurch können hierarchische Partitionierungen auf ausgewĂ€hlten TeilrĂ€umen erzeugt werden. Experimente belegen, dass RIS in Kombination mit OPTICS ein Informationsgewinn gegenĂŒber SUBCLU erreicht. Außerdem stellen wir den neuartigen Korrelationscluster Algorithmus 4C (Computing Correlation Connected Clusters) vor. 4C basiert auf einem innovativen und wohldefinierten Clustermodell und erzielt in unseren Experimenten mit realen Daten bessere Ergebnisse als vergleichbare Clustering-AnsĂ€tze

    Identifikation von Fahrzeugnutzungsprofilen und deren Einflussfaktoren

    Get PDF
    Das Fahrzeug ist eines der wichtigsten Verkehrsmittel zur Realisierung von MobilitĂ€t. Die Nutzung eines Fahrzeugs setzt sich aus der individuellen Pkw-MobilitĂ€t mehrerer Personen zusammen und kann durch verschiedene Faktoren, wie den Kontext (z. B. UrbanitĂ€t), das Fahrzeug selbst und die Eigenschaften der Nutzer, beeinflusst werden. Diese Arbeit liefert eine grundlegende Metrik zur Strukturierung der Fahrzeugnutzung in drei Dimensionen (Zeit, Distanz und Fahrtzweck) unter BerĂŒcksichtigung der genannten Einflussfaktoren. Durch die Identifikation von Fahrzeugnutzungsprofilen ist es nicht nur möglich, die durchschnittliche Nutzung, sondern Ă€hnliche Nutzergruppen differenziert zu betrachten. Diese Informationen liefern RĂŒckschlĂŒsse ĂŒber die BedĂŒrfnisse der Nutzungsprofile sowie deren Anforderungen an ein Fahrzeug. Deshalb wird im ersten Ansatz die Nutzung von Premium- und Elektrofahrzeugen mit der von Fahrzeugen, welche reprĂ€sentativ fĂŒr eine Bevölkerung stehen, verglichen, indem Premiumfahrzeuge in bestehende Fahrzeugnutzungsprofile auf der Basis von Zeit und Distanz eingeordnet werden. Da bei passiv generierten Sensordaten, welche hauptsĂ€chlich in dieser Arbeit verwendet werden, der Fahrtzweck nicht direkt ablesbar ist, wird im nĂ€chsten Abschnitt eine Methodik zur Approximation des Fahrtzwecks entwickelt. Darauf aufbauend werden Fahrzeugnutzungsprofile ĂŒber alle drei Dimensionen gebildet und interpretiert. Damit der Einfluss des Kontextes quantifiziert werden kann, wird ein internationaler und einheitlicher UrbanitĂ€tsindex in AbhĂ€ngigkeit der Erreichbarkeit (z. B. ÖPNV-QualitĂ€t), der Dichte (z. B. Bevölkerungsdichte) und der VariabilitĂ€t (z. B. Anzahl Restaurants) entwickelt. Abschließend wird die Fahrzeugnutzung in Verbindung mit der UrbanitĂ€t und den Fahrzeugeigenschaften betrachtet

    Kontextsensitive Erkennung und Interpretation fahrrelevanter statischer Verkehrselemente

    Get PDF
    In dieser Arbeit werden Methoden und Verfahren zur Umwelterkennung und Situationsinterpretation entwickelt, mit denen statische Verkehrselemente (Verkehrszeichen und Ampeln) erkannt und im Kontext der Verkehrssituation interpretiert werden. Die Praxistauglichkeit der entwickelten Methoden und Verfahren wird durch umfangreiche Experimente demonstriert, bei denen auf die Verwendung realer Daten, kostengĂŒnstiger Sensorik und Echtzeitverarbeitung Wert gelegt wird

    Event-Log Analyse mittels Clustering und Mustererkennung

    Get PDF
    Die Analyse von Log-Dateien als Spezialfall des Text Mining dient in der Regel dazu Laufzeitfehler oder Angriffe auf ein Systems nachzuvollziehen. Gegen erkannte FehlerzustĂ€nde können Maßnahmen ergriffen werden, um diese zu vermeiden. Muster in semi-strukturierten Log-Dateien aus dynamischen Umgebungen zu erkennen ist komplex und erfordert einen mehrstufigen Prozess. Zur Analyse werden die Log-Dateien in einen strukturierten Event-Log (event log) ĂŒberfĂŒhrt. Diese Arbeit bietet dem Anwender ein Werkzeug, um hĂ€ufige (frequent) oder seltene (rare) Ereignisse (events), sowie temporale Muster (temporal patterns) in den Daten zu erkennen. Dazu werden verschiedene Techniken des Data-Minig miteinander verbunden. Zentrales Element ist dieser Arbeit das Clustering. Es wird untersucht, ob durch Neuronale Netze mittels unĂŒberwachtem Lernen (Autoencoder) geeignete ReprĂ€sentationen (embeddings) von Ereignissen erstellt werden können, um syntaktisch und semantisch Ă€hnliche Instanzen zusammenzufassen. Dies dient zur Klassifikation von Ereignissen, Erkennung von Ausreißern (outlier detection), sowie zur Inferenz einer nachvollziehbaren visuellen ReprĂ€sentation (Regular Expressions; Pattern Expressions). Um verborgene Muster in den Daten zu finden werden diese mittels sequenzieller Mustererkennung (Sequential Pattern Mining) und dem auffinden von Episoden (Episode Mining) in einem zweiten Analyseschritt untersucht. Durch das Pattern Mining können alle enthaltenen Muster im einem Event-Log gefunden werden. Der enorme Suchraum erfordert effiziente Algorithmen, um in angemessener Zeit Ergebnisse zu erzielen. Das Clustering dient daher ebenfalls zur Reduktion (pruning) des Suchraums fĂŒr das Pattern Mining. Um die Menge der Ergebnisse einzuschrĂ€nken werden verschiedene Strategien auf ihre praktische Tauglichkeit hin untersucht, um neue Erkenntnisse zu erlangen. Zum einen die Mustererkennung mittels verschiedener Kriterien (Constrained Pattern Mining) und zum anderen durch die NĂŒtzlichkeit (High Utility Pattern Mining) von Mustern. Interessante temporale Muster können auf anderen Log-Dateien angewendet werden, um diese auf das Vorkommen dieser Muster zu untersuchen

    Die Effizienz der Humboldtschen UniversitĂ€t – Eine empirische Analyse ĂŒber Verbundeffekte und organisationale Unterschiedlichkeit im deutschen Hochschulwesen

    Get PDF
    Das Humboldtsche Organisationsideal betont die Bedeutung der Vielseitigkeit fĂŒr den Erfolg von Hochschulen. Nach diesem Ideal sollte eine Hochschule thematisch alle Disziplinen der Wissenschaft unter einem organisationalen Dach vereinen und funktional sowohl in der Lehre als auch in der Forschung aktiv sein. Die ökonomische Perspektive hinterfragt diesen organisationalen Alleskönner. Sie stellt ihm die produktivitĂ€tssteigernde Bedeutung der Spezialisierung entgegen, nach der sich eine Hochschule vor allem auf einzelne Spitzenbereiche fokussieren sollte. Diese Dissertation beschĂ€ftigt sich mit der vermeintlichen Kollision der beiden Prinzipien. ZunĂ€chst betrachtet die Arbeit sowohl die innere als auch die Ă€ußere Unterschiedlichkeit von deutschen Hochschulen aus einer deskriptiven Perspektive. Zur Untersuchung der Ă€ußeren Unterschiedlichkeit wird in dieser Arbeit eine umfassende Klassifizierung der Hochschullandschaft erstellt, mithilfe derer verschiedene latente Hochschultypen im deutschen Hochschulsystem identifiziert werden können. Die innere Unterschiedlichkeit wird hingegen mit einer indexbasierten Analyse untersucht, die die Entwicklung der programmatischen DiversitĂ€t verschiedener Hochschultypen nachzeichnet. Zuletzt untersucht diese Dissertation im Rahmen eines ökonometrischen Input-Output Modells (Stochastic Frontier Analysis), ob die innere DiversitĂ€t von Hochschulen einen Einfluss auf die finanzwissenschaftliche Effizienz von Hochschulorganisationen nimmt. Die geschĂ€tzte Produktionsfunktion weist darauf hin, dass Synergien zwischen bestimmten Fach- und Funktionskombinationen herrschen. Damit kommt diese Arbeit zu dem Schluss, dass breit aufgestellte UniversitĂ€ten in Deutschland tendenziell effizienter arbeiten

    KI-gestĂŒtzte produktionsgerechte Produktentwicklung : Automatisierte Wissensextraktion aus vorhandenen Produktgenerationen

    Get PDF
    Produzierende Unternehmen stehen heutzutage vor der Herausforderung, aufgrund des starken globalen Wettbewerbsdrucks in immer kĂŒrzerer Zeit dennoch innovative Pro-dukte zu einem möglichst gĂŒnstigen Preis auf den Markt zu bringen. Insbesondere fĂŒr die Produktentwicklung entsteht dadurch ein enormer Zeit- und Kostendruck, allerdings ist die sogenannte Time-to-Market entscheidend fĂŒr den Markterfolg eines Produktes. Durch die Wiederverwendung von bereits existierenden Produktmodellen sowie dem darin enthaltenen Wissen besteht großes Potenzial, diese Entwicklungszeit zu reduzie-ren. Jedoch wird diese Wissensbasis in Form bestehender Produktmodelle hĂ€ufig noch nicht systematisch genutzt. Das Problem ist, dass dieses grĂ¶ĂŸtenteils implizite Wissen hĂ€ufig nicht ohne weiteres formalisierbar ist. Durch die zunehmende Nutzung digitaler Tools auch im Bereich der Produktentwicklung und die damit einhergehende wachsen-de Datenbasis ergibt sich ĂŒber datengetriebene AnsĂ€tze jedoch die Möglichkeit, dieses (implizite) Wissen zu extrahieren, zu formalisieren und nutzbar zu machen. Das Ziel dieser Dissertation ist die Entwicklung einer Methode zur automatisierten Ex-traktion von implizitem Wissen in Form von Features und Mustern aus vorhandenen Produktmodellen mit Hilfe von Verfahren des Maschinellen Lernens sowie dessen anschließende Nutzung zur UnterstĂŒtzung in der Produktentwicklung. HierfĂŒr werden ĂŒber Autoencoder zunĂ€chst die relevanten geometrischen Eigenschaften aus den Produkt-modellen in Form von CAD-Modellen erlernt. DarĂŒber hinaus werden weitere produkt-beschreibende Informationen, die insbesondere die spĂ€tere Produzierbarkeit beeinflus-sen, extrahiert. Dieser geometrische Fußabdruck einer Produktkomponente bildet die Grundlage fĂŒr die entwickelte Methode. Auf Basis von Konstruktionsmustern, die mit Hilfe von Recurrent Neural Networks aus den Produktmodellen erlernt werden, kann fĂŒr einen gegebenen Konstruktionszustand der Folgezustand prĂ€diziert werden. Auf Grundlage der geometrischen Eigenschaften dieser Vorhersage werden fĂŒr das gege-bene (halbfertige) CAD-Modell die Ă€hnlichsten bereits existierenden finalen Modelle aufgezeigt. Diese können anschließend bezĂŒglich der weiteren Produktinformationen sortiert werden. Anhand der Menge der Ă€hnlichsten Modelle können die produktionsre-levanten Produkteigenschaften des aktuellen Konstruktionszustandes durch das Auf-zeigen von ĂŒblichen AusprĂ€gungskombinationen bewertet werden. Das Vorgehen wird anhand von mechanischen Komponenten eines industriellen Da-tensatzes demonstriert. FĂŒr verschiedene KonstruktionszustĂ€nde beispielhafter Produk-te werden die Ähnlichkeitssuche, die Bewertung produktionsrelevanter Produkteigen-schaften, die Vorhersage nĂ€chster KonstruktionszustĂ€nde sowie die Interaktion der ein-zelnen Methodenbausteine aufgezeigt. Durch die Methodik können bereits fĂŒr anfĂ€ngliche KonstruktionszustĂ€nde Ă€hnliche Produktmodelle identifiziert werden, wodurch die Wiederverwendung von Wissen ge-fördert sowie die Generierung von Dubletten reduziert werden. DarĂŒber hinaus können bereits frĂŒhzeitig Hinweise auf mögliche Probleme bezĂŒglich der spĂ€teren Produzierbarkeit gegeben werden

    Neues Konzept zur skalierbaren, explorativen Analyse großer Zeitreihendaten mit Anwendung auf umfangreiche Stromnetz-Messdaten

    Get PDF
    Diese Arbeit beschĂ€ftigt sich mit der Entwicklung und Anwendung eines neuen Konzepts zur skalierbaren explorativen Analyse großer Zeitreihendaten. Hierzu werden zahlreiche datenintensive Methoden aus dem Bereich des Data-Mining und der Zeitreihenanalyse hinsichtlich ihrer Skalierbarkeit mit wachsendem Datenvolumen untersucht und neue Verfahren und DatenreprĂ€sentationen vorgestellt, die eine Exploration sehr großer Zeitreihendaten erlauben, die mit herkömmlichen Methoden nicht effizient auswertbar sind und unter dem Begriff Big Data eingeordnet werden können. Methoden zur Verwaltung und Visualisierung großer multivariater Zeitreihen werden mit Methoden zur Detektion seltener und hĂ€ufiger Muster – sog. Discords und Motifs – kombiniert und zu einem leistungsfĂ€higen Explorationssystem namens ViAT (von engl. Visual Analysis of Time series) zusammengefasst. Um auch Analysen von Zeitreihendaten durchfĂŒhren zu können, deren Datenvolumen hunderte von Terabyte und mehr umfasst, wurde eine datenparallele verteilte Verarbeitung auf Basis von Apache Hadoop entwickelt. Sie erlaubt die Ableitung datenreduzierter Metadaten, welche statistische Eigenschaften und neuartige Strukturbeschreibungen der Zeitreihen enthalten. Auf dieser Basis sind neue inhaltsbasierte Anfragen und Auswertungen sowie Suchen nach bekannten und zuvor unbekannten Mustern in den Daten möglich. Das Design der entwickelten neuen Methoden und deren Integration zu einem Gesamtsystem namens FraScaTi (von engl. Framework for Scalable management and analysis of Time series data) wird vorgestellt. Das System wird evaluiert und im Anwendungsfeld der Stromnetzanalyse erprobt, welches von der Skalierbarkeit und den neuartigen Analysemöglichkeiten profitiert. Hierzu wird eine explorative Analyse hochfrequenter Stromnetz-Messdaten durchgefĂŒhrt, deren Ergebnisse im Kontext des Anwendungsbereichs prĂ€sentiert und diskutiert werden

    Sprachraumanalyse mit Hilfe einer phonetischen Ontologie

    Get PDF
    Diese Arbeit beschreibt eine quantitative Sprachraumanalyse auf Basis einer Ontologie. Ausgangspunkt sind dabei die im REDE-Projekt verfĂŒgbaren digitalisierten Kartendaten des Mittelrheinischen Sprachatlas (MRhSA). Damit die in IPA annotierten Lautobservationen genauer beschrieben werden können, wurde eine Ontologie (phonOntologie) entwickelt, welche die in IPA definierten Laute mit den zugehörigen phonetischen Eigenschaften in Beziehung setzt. Mittels Inferenz ist es möglich, automatisch aus den IPA-Lauten die entsprechenden, in der Ontologie definierten phonetischen Eigenschaften zu erhalten. Durch diese Technik und einer anschließenden Quantifizierung lassen sich Datensets konstruieren, die zu jedem Ort einen reprĂ€sentativen Lauteigenschaften-Vektor enthalten. Die Konstruktion der Datensets geschieht unter BerĂŒcksichtigung historischer Lautklassen. Die so generierten Datensets bilden ein Datenset zu allen Lauten, den Lauten zu den mittelhochdeutschen Langvokalen, mittelhochdeutschen Kurzvokalen und den westgermanischen Konsonanten. Diese Datensets werden anschließend mittels drei populĂ€rer Clusteralgorithmen geclustert und anhand von StabilitĂ€tsmetriken bewertet. Es zeigt sich mittels dieser Analysen, dass es eine deutliche strukturelle Trennung zwischen dem MoselfrĂ€nkischen und dem RheinfrĂ€nkischen gibt. ZusĂ€tzlich tun sich bei höheren Clusterings noch Unterregionen auf, die auch auf strukturelle PhĂ€nomene hindeuten. Da im MRhSA neben dem Hauptdatenset, das auf den Aufnahmen von Ă€lteren Sprechern („Àltere Generation“) basiert, auch ein zweites Datenset, mit Aufnahmen zu jĂŒngeren Sprechern („jĂŒngere Generation“) vorliegt, kann in einer „apparent-time“-Analyse, der Wandel zwischen den beiden Generationen beschrieben werden. Es zeigt sich, dass obwohl es deutliche Normalisierungstendenzen gibt, der strukturelle Unterschied gewahrt bleibt. Diese Normalisierung liegt wahrscheinlich an einer AnnĂ€herung an das Standarddeutsch in beiden Regionen
    corecore