17 research outputs found

    Entwicklung eines ontologie-basierten Kostenmodells für Produktneuentwicklungen

    Get PDF
    Mit der vorliegenden Masterarbeit wird die Kosten- und Zeitermittlung eines Neuproduktes in der Entwicklungsphase betrachtet. Dabei liegt der Fokus auf den Fertigungskosten und -zeiten, auf den Komponenten eines Produktes sowie bei der Einzelfertigung. In diesem Kontext wird ein Kostenmodell entwickelt. Dieses zeichnet sich dadurch aus, dass es die Produktinformationen aus einem Wissensgraphen bezieht. Das Modell selbst entspricht einem integrierten Ansatz im Sinne der Kombination einer intuitiven und analogischen Methode. Dabei ist eine analytische Methode indirekt durch die Berücksichtigung der Kosten- und Zeitstruktur integriert. Folglich wird im ersten Teil des Kostenmodells das neuentwickelte Bauteil mit bereits gefertigten Bauteilen verglichen. Im zweiten Teil werden sowohl für das neue Bauteile als auch für die ähnlichsten Bauteile, die im ersten Teil definiert worden sind, die Kosten und Zeiten mithilfe einer Regressionsmethode ermittelt. Im letzten und dritten Teil werden mithilfe eines Korrekturfaktors die Ergebnisse des zweiten Teils entsprechend der Genauigkeit der Regressionsmethode für die ähnlichsten Bauteile angepasst. Das entwickelte Kostenmodell wird mithilfe eines Testdatensatzes evaluiert. Dabei kann die entwickelte Methode gute Ergebnisse erzielen

    Geometric deep learning: Ein Überblick

    Get PDF
    In dem sich in rapidem Tempo entwickelnden Gebiet des maschinellen Lernens mittels künstlicher neuronaler Netzwerke werden Jahr für Jahr bahnbrechende Erfolge erzielt. Dies gilt insbesondere im Fall euklidischer Daten wie Bildsignale oder sequentielle Daten, beispielsweise Text in natürlicher Sprache, Audiosignale, Zeitreihendaten oder Genomsequenzen. Die Verarbeitung nichteuklidischer geometrischer Datenstrukturen wie Graphen, Mannigfaltigkeiten, Polygonnetze oder Punktwolken hingegen ist weniger erforscht. Da eine Vielzahl von Problemstellungen sich mittels Graphen beschreiben lässt, eröffnen die Methoden des aufsteigenden Teilgebiets namens geometric deep learning nicht nur für die Computergrafik und das maschinelle Sehen ungeahnte Möglichkeiten. Aufgabe dieser Arbeit ist es, einen umfassenden Überblick über diese junge Teildisziplin und ihre Techniken zu verschaffen. Ziel dabei ist es, auch unerfahrenen Lesern einen zugänglichen Einstieg in diesen Themenbereich zu präsentieren. Zu diesem Zweck werden unterschiedliche Ansätze zur Verallgemeinerung der klassischen Faltung auf nichteuklidische Gebiete behandelt. Darüber hinaus werden am Beispiel verschiedener Anwendungsfälle konkrete neuronale Netzwerkmodelle vorgestellt

    Automated learning of neural networks for object classification on heterogeneous systems

    Get PDF
    Objektklassifikation. Hierbei wird sowohl das Training als auch die Ausführung von Neuronalen Netzen im Detail betrachtet, um beide Bereiche zu optimieren. Um den Trainingsprozess zu beschleunigen, wird ein Verfahren zum Automatisierten Lernen von Neuronalen Netzen entwickelt, das unter Angabe von gewünschten Objektklassen eigenständig Datenbanken zum Trainieren Neuronaler Netze aus dem Internet erstellt. Dabei wird ein GPU-basiertes Systemdesign zusammen mit einer Quantisierung in Form von Binären Neuronalen Netzen genutzt, um den Trainingsprozess in einer effizienten automatisierten Umsetzung zu beschleunigen. Um trotz der reduzierten Datensatzgröße die Trainingsergebnisse der State-of-the-Art Implementierungen zu erreichen, wird hierfür ein adaptives Verfahren zur Anpassung des Lernprozesses eingesetzt. Zusätzlich wurde eine Optimierung der Eingangsdaten durch Einbindung von Tiefeninformationen zur Verbesserung der Klassifikationsergebnisse betrachtet. Für die Ausführung der trainierten Modelle wurde ein eingebettetes heterogenes System auf Basis eines Xilinx FPGA SoC entwickelt. Das vorgestellte Kamerasystem bietet integrierte Hardwareeinheiten, um Tiefeninformationen in Echtzeit zu berechnen. Für dieses Verfahren wurden eigene Algorithmen zur Tiefenbestimmung aus Stereobildern erforscht und als Hardware-basierte Lösung effizient umgesetzt. Die so bereitgestellten Tiefeninformationen konnten genutzt werden, um die Klassifikation durch Anwendung eines Segmentierungsverfahrens weiter zu verbessern. Für das entwickelte Kamerasystem wurden bestehende Implementierungen Binärer Neuronaler Netze angepasst und um eine eigene Implementierung einer abgestimmten Netzarchitektur erweitert. Das so entstandene AL BNN Framework kann durch Angabe gewünschter Objektklassen diese eigenständig antrainieren und liefert abschließend Modelle mit einer ausgezeichneten Klassifikationsgenauigkeit von 82,3% zur Ausführung auf GPU-basierten Systemen und auf dem neu entwickelten eingebetteten Kamerasystem. Durch das AL BNN Framework können neue Objekte in unter einer Stunde antrainiert werden und so die Funktionalität des Kamerasystems für viele Anwendungen flexibel erweitert werden. Dabei konnte die Klassifikation durch die Hardwareunterstützung mit einer Bildwiederholrate von bis zu 108 Bildern pro Sekunde bei einem sehr geringen Energieverbrauch von unter 5W realisiert werden.This work examines the learning process of neural networks using the example of object classification. Here, the training and execution of neural networks will be considered in detail to optimize both areas. In order to speed up the training process, a method for the automated learning of neural networks is developed, which independently creates databases for training neural networks from the Internet, specifying desired object classes. It uses a GPU-based system design in conjunction with a quantization in the form of binary neural networks to accelerate the training process in an efficient automated implementation by a factor of 1000x. In order to achieve the training results of the state-of-the-art implementations despite the reduced data set size, an adaptive method for adapting the learning process is used for this purpose. In addition, an optimization of the input data was considered by incorporating depth information to improve the classification results. For the execution of the trained models, an embedded heterogeneous system based on a Xilinx FPGA SoC was specially developed for this work. The presented camera system offers integrated hardware units to calculate depth information in real time. For this procedure, own algorithms for depth determination from stereo images were researched and implemented efficiently as a hardware-based solution. The depth information thus provided could be used to further enhance classification by using a segmentation method. This was confirmed in test series. For the developed camera system, existing implementations of binary neural networks were adapted and extended by an own implementation of a coordinated network architecture. Extensive investigations were carried out to find an optimal architecture for the special conditions of automatically generated data sets. The resulting AL BNN Framework can independently train these by specifying desired object classes and finally delivers models with an excellent classification accuracy of 82.3% for execution on GPU-based systems and the newly developed embedded camera system. New objects can be trained in less than an hour thanks to the optimized training procedure of the AL BNN Framework, thus flexibly expanding the functionality of the camera system for many object classification applications. The classification could be realized by the hardware support with an image refresh rate of up to 108 images per second with a very low power consumption of less than 5W

    Personenwiedererkennung mittels maschineller Lernverfahren für öffentliche Einsatzumgebungen

    Get PDF
    Die erscheinungsbasierte Personenwiedererkennung in öffentlichen Einsatzumgebungen ist eines der schwierigsten, noch ungelösten Probleme der Bildverarbeitung. Viele Teilprobleme können nur gelöst werden, wenn Methoden des maschinellen Lernens mit Methoden der Bildverarbeitung kombiniert werden. In dieser Arbeit werden maschinelle Lernverfahren eingesetzt, um alle Abarbeitungsschritte einer erscheinungsbasierten Personenwiedererkennung zu verbessern: Mithilfe von Convolutional Neural Networks werden erscheinungsbasierte Merkmale gelernt, die eine Wiedererkennung auf menschlichem Niveau ermöglichen. Für die Generierung des Templates zur Beschreibung der Zielperson wird durch Einsatz maschineller Lernverfahren eine automatische Auswahl personenspezifischer, diskriminativer Merkmale getroffen. Durch eine gelernte Metrik können beim Vergleich von Merkmalsvektoren szenariospezifische Umwelteinflüsse kompensiert werden. Eine Fusion komplementärer Merkmale auf Score Level steigert die Wiedererkennungsleistung deutlich. Dies wird vor allem durch eine gelernte Gewichtung der Merkmale erreicht. Das entwickelte Verfahren wird exemplarisch anhand zweier Einsatzszenarien - Videoüberwachung und Robotik - evaluiert. Bei der Videoüberwachung ermöglicht die Wiedererkennung von Personen ein kameraübergreifendes Tracking. Dies hilft menschlichen Operateuren, den Aufenthaltsort einer gesuchten Person in kurzer Zeit zu ermitteln. Durch einen mobilen Serviceroboter kann der aktuelle Nutzer anhand einer erscheinungsbasierten Wiedererkennung identifiziert werden. Dies hilft dem Roboter bei der Erfüllung von Aufgaben, bei denen er den Nutzer lotsen oder verfolgen muss. Die Qualität der erscheinungsbasierten Personenwiedererkennung wird in dieser Arbeit anhand von zwölf Kriterien charakterisiert, die einen Vergleich mit biometrischen Verfahren ermöglichen. Durch den Einsatz maschineller Lernverfahren wird bei der erscheinungsbasierten Personenwiedererkennung in den betrachteten unüberwachten, öffentlichen Einsatzfeldern eine Erkennungsleistung erzielt, die sich mit biometrischen Verfahren messen kann.Appearance-based person re-identification in public environments is one of the most challenging, still unsolved computer vision tasks. Many sub-tasks can only be solved by combining machine learning with computer vision methods. In this thesis, we use machine learning approaches in order to improve all processing steps of the appearance-based person re-identification: We apply convolutional neural networks for learning appearance-based features capable of performing re-identification at human level. For generating a template to describe the person of interest, we apply machine learning approaches that automatically select person-specific, discriminative features. A learned metric helps to compensate for scenario-specific perturbations while matching features. Fusing complementary features at score level improves the re-identification performance. This is achieved by a learned feature weighting. We deploy our approach in two applications, namely surveillance and robotics. In the surveillance application, person re-identification enables multi-camera tracking. This helps human operators to quickly determine the current location of the person of interest. By applying appearance-based re-identification, a mobile service robot is able to keep track of users when following or guiding them. In this thesis, we measure the quality of the appearance-based person re-identification by twelve criteria. These criteria enable a comparison with biometric approaches. Due to the application of machine learning techniques, in the considered unsupervised, public fields of application, the appearance-based person re-identification performs on par with biometric approaches.Die erscheinungsbasierte Personenwiedererkennung in öffentlichen Einsatzumgebungen ist eines der schwierigsten, noch ungelösten Probleme der Bildverarbeitung. Viele Teilprobleme können nur gelöst werden, wenn Methoden des maschinellen Lernens mit Methoden der Bildverarbeitung kombiniert werden. In dieser Arbeit werden maschinelle Lernverfahren eingesetzt, um alle Abarbeitungsschritte einer erscheinungsbasierten Personenwiedererkennung zu verbessern, sodass eine Wiedererkennung auf menschlichem Niveau ermöglicht wird. Das entwickelte Verfahren wird anhand zweier Einsatzszenarien — Videoüberwachung und Robotik — evaluiert. Bei der Videoüberwachung ermöglicht die Wiedererkennung von Personen ein kameraübergreifendes Tracking um den Aufenthaltsort einer gesuchten Person in kurzer Zeit zu ermitteln. Durch einen mobilen Serviceroboter kann der aktuelle Nutzer anhand einer erscheinungsbasierten Wiedererkennung identifiziert werden. Dies hilft dem Roboter beim Lots

    Proceedings. 22. Workshop Computational Intelligence, Dortmund, 6. - 7. Dezember 2012

    Get PDF
    Dieser Tagungsband enthält die Beiträge des 22. Workshops "Computational Intelligence" des Fachausschusses 5.14 der VDI/VDE-Gesellschaft für Mess- und Automatisierungstechnik (GMA) der vom 6. - 7. Dezember 2012 in Dortmund stattgefunden hat. Die Schwerpunkte sind Methoden, Anwendungen und Tools für - Fuzzy-Systeme, - Künstliche Neuronale Netze, - Evolutionäre Algorithmen und - Data-Mining-Verfahren sowie der Methodenvergleich anhand von industriellen Anwendungen und Benchmark-Problemen

    Analyse des situativen Fahrerverhaltens zur benutzeradaptiven Assistenz

    Get PDF
    Zukünftige Generationen von Fahrerassistenzsystemen dienen dem Fahrer als kooperativer Begleiter. Diese Kooperation fordert intuitive Übergabestrategien und damit eine maschinelle Einschätzung des Fahrers. Diese Arbeit leistet einen Beitrag zur Steigerung der Mensch-Technik-Interaktionsfähigkeit intelligenter Automobile durch eine situative Betrachtung der sich wechselseitig beeinflussenden Komponenten Fahrer, Fahrzeug und Fahrzeugumfeld

    Automatische bildbasierte Segmentierung organischer Objekte einer gleichartigen Gruppe: Abgeleitet vom Problem der Stammschnittflächensegmentierung

    Get PDF
    Diese Arbeit adressiert die automatische bildbasierte Segmentierung von organo-Gruppen, Gruppen gleichartiger organischer Objekte. Die Segmentierung einer organo-Gruppe ermöglicht Anwendungen zur automatischen Vermessung, Inspektion oder Sortierung. In dieser Arbeit werden, ausgehend vom Problem der Stammschnittflächen, drei Segmentierungskonzepte entwickelt und quantitativ evaluiert. Ausgehend von den Konzepten wird eine allgemeinere Lösung für organo-Gruppen entwickelt und am Beispiel von Plattfischen, Kartoffeln und Äpfeln evaluiert, wobei gute bis sehr gute Ergebnisse erzielt werden

    Proceedings. 25. Workshop Computational Intelligence, Dortmund, 26. - 27. November 2015

    Get PDF
    Dieser Tagungsband enthält die Beiträge des 25. Workshops „Computational Intelligence“ des Fachausschusses 5.14 der VDI/VDE-Gesellschaft für Mess- und Automatisierungstechnik (GMA) , der vom 26. – 27. November 2015 in Dortmund stattfindet

    Automatische bildbasierte Segmentierung organischer Objekte einer gleichartigen Gruppe: Abgeleitet vom Problem der Stammschnittflächensegmentierung

    Get PDF
    Diese Arbeit adressiert die automatische bildbasierte Segmentierung von organo-Gruppen, Gruppen gleichartiger organischer Objekte. Die Segmentierung einer organo-Gruppe ermöglicht Anwendungen zur automatischen Vermessung, Inspektion oder Sortierung. In dieser Arbeit werden, ausgehend vom Problem der Stammschnittflächen, drei Segmentierungskonzepte entwickelt und quantitativ evaluiert. Ausgehend von den Konzepten wird eine allgemeinere Lösung für organo-Gruppen entwickelt und am Beispiel von Plattfischen, Kartoffeln und Äpfeln evaluiert, wobei gute bis sehr gute Ergebnisse erzielt werden

    Proceedings. 19. Workshop Computational Intelligence, Dortmund, 2. - 4. Dezember 2009

    Get PDF
    Dieser Tagungsband enthält die Beiträge des 19. Workshops „Computational Intelligence“ des Fachausschusses 5.14 der VDI/VDE-Gesellschaft für Mess- und Automatisierungstechnik (GMA) und der Fachgruppe „Fuzzy-Systeme und Soft-Computing“ der Gesellschaft für Informatik (GI), der vom 2.-4. Dezember 2009 im Haus Bommerholz bei Dortmund stattfindet
    corecore