223 research outputs found

    Objektorientierte Graphendarstellung von Simulink-Modellen zur einfachen Analyse und Transformation

    Full text link
    In software and hardware development MATLAB and Simulink are used to model cyber physical systems for many years, , especially in automation technology and the automotive industry. Compliance with the required product quality and project efficiency is facilitated by analyzing and transforming Simulink models. The existing API, provided by MATLAB is only suitable for programmatic changing of Simulink models. We show using our own tool which is used in industry, how such as a Simulink model can be edited more easily. For this purpose the model, is converted to an object-oriented class structure that provides convenient access and editing APIs and allows applying well-known algorithms and analyses from graph theory directly. It is also designed as a bi-directional tool, so it transforms a Simulink model into a graph representation and vice versa. ----- In der Software- und Hardwareentwicklung wird seit Jahren verst\"arkt MATLAB und Simulink f\"ur die Modellierung von cyberphysikalischen Systemen, insbesondere in der Automatisierungstechnik und der Automobilindustrie eingesetzt. Die Einhaltung der notwendigen Produktqualit\"at und Projekteffizienz wird durch Analysen und Transformationen auf Simulink-Modellen erleichtert. Die bestehende, von MATLAB bereitgestellte, API ist f\"ur die programmatische Ver\"anderung von Simulink-Modellen nur bedingt geeignet. Wir zeigen deshalb anhand eines eigenen, im industriellen Einsatz befindlichen Werkzeugs, wie ein Simulink-Modell leichter bearbeitet werden kann. Dazu wird es in eine objektorientierte Klassenstruktur \"uberf\"uhrt, die einen komfortablen Zugang und Bearbeitungs-APIs bietet und es erlaubt bekannte Algorithmen und Analysen aus der Graphentheorie direkt anzuwenden. Das Werkzeug ist bidirektional entworfen, es transformiert also ein Simulink-Modell in eine Graphenrepresentation und umgekehrt.Comment: 10 pages in German, 7 figures. AALE 2013 in Stralsund Germany, 10. Fachkonferenz, Das Forum f\"ur Fachleute der Automatisierungstechnik aus Hochschulen und Wirtschaft, 201

    Statistische Auswertung von Microarray-Daten

    Get PDF
    [no abstract

    Qualitätsanalyse von Zeitschriften in den Wirtschaftswissenschaften – über Zitationsdatenbanken und Impaktfaktoren im Online-Zeitalter

    Get PDF
    Die Einschätzung der Qualität von wissenschaftlicher Forschung ist sowohl für die Forschungsgemeinde als auch für die Öffentlichkeit wichtig. Trotz der Kritik ist eine quantitative Beurteilung notwendig. In der Wissenschaft spielen die Zitate und die daraus abgeleiteten Impaktfaktoren eine wichtige Rolle. Dieser Artikel stellt drei Zitationsdatenbanken und ihre Funktionsweise vor: das Web of Science, welches den Social Science Citation Index enthält, Google Scholar und RePEc. Darüber hinaus werden die Vor- und Nachteile des Impaktfaktors, einer der wichtigsten Kennzahlen für wissenschaftliche Zeitschriften, herausgearbeitet. Mit Fokus auf die Wirtschaftswissenschaften ist sicherlich das RePEc-Netzwerk das am besten geeignete Forum zur Beurteilung von (quantitativen) Maßzahlen sowohl für Zeitschriften als auch für Working-Paper-Reihen. Jedoch ist die tatsächliche Erfassung der Zitate noch unvollständig, so dass alle Kennzahlen noch als experimentell betrachtet werden sollten.Wirtschaftszeitschrift, Publikationsanalyse, Datenbank, Wirtschaftspolitische Wirkungsanalyse, Deutschland

    D

    Get PDF
    Dieses Projekt befasst sich mit Fragestellungen zur Anwendung von künstlicher Intelligenz im Bereich der Technischen Sauberkeit.  Durch Literaturforschungen, die einen Ablauf nach Fettke 2006 haben, werden KI-Anwendungen gesucht, die bereits im Zusammenhang mit der Technischen Sauberkeit verwendet werden. Die Forschungen konnten zwölf Literaturquellen ermitteln. Durch diese Literaturanalyse wurde festgestellt, dass 91 Prozent CV (Computer Vision) zur Partikelerkennung verwenden. Aus diesem Grund wurde anschließend ein CV Modell zur Partikelerkennung implementiert. Durch die Konfusionsmatrix konnte eine Treffergenauigkeit von 82 Prozent festgestellt werden. Daraus folgt, dass eine Partikelklassifikation möglich ist. Abschließend wurde eine weitere Literaturforschung zu Text Mining Applikationen durchgeführt, da der Bereich der Qualitätsanalyse im Monitoring laut Aufgabenstellung eingezogen werden sollte. In dieser konnte kein positives Ergebnis erzielt werden, da speziell nach fertigen Anwendungen gesucht wurde, die Analysetexte im Bereich der technischen Sauberkeit kategorisieren können

    Ein gebrauchstaugliches Augmented Reality-System für geometrische Analysen in der Produktentstehung

    Get PDF
    Augmented Reality beschreibt die Erweiterung der menschlichen Wahrnehmung der Realität durch virtuelle Zusatzinformationen. Die Technologie kann in der Produktentstehung für die gemeinsame geometrische Analyse physischer und virtueller Modelle eingesetzt werden. Sie verspricht damit großes Potenzial für eine engere Verzahnung physischer und virtueller Entwicklungsaktivitäten. Trotzdem werden Augmented Reality-Systeme heute kaum produktiv in der Produktentstehung eingesetzt. Eine genauere Betrachtung der bekannten Anwendungen bestätigt die Potenziale von Augmented Reality für geometrische Analysen in Bezug auf Qualität, Kosten und Zeit der Produktentstehung. Für die Durchführung von Augmented Reality-Analysen sind in der Literatur verschiedene Systemlösungen beschrieben, welche sich hauptsächlich durch die eingesetzten Komponenten zur Lagebestimmung unterscheiden. Die einzelnen Augmented Reality-Systemkomponenten scheinen für sich betrachtet zwar technisch weitestgehend ausgereift, die Systeme bieten allerdings selten einen für den Anwender durchgängigen Gesamtprozess. Die Bedienung ist in der Regel sehr komplex und erfordert viel spezifisches Fachwissen. Um Augmented Reality für geometrische Analysen in der Produktentstehung umfassend nutzbar zu machen, wird die Gebrauchstauglichkeit in den Mittelpunkt der folgenden Systementwicklung gestellt. Auf Basis einer ausführlichen Beschreibung des Nutzungskontextes werden die grundlegenden Anforderungen an ein gebrauchstaugliches Augmented Reality-System formuliert. Die möglichen Systemkomponenten werden bezüglich dieser Anforderungen bewertet und ausgewählt, die zugehörigen Prozesse werden aus Benutzersicht ausgestaltet und im Sinne einer möglichst hohen Gebrauchstauglichkeit strukturiert. Mit diesem Wissen wird eine Benutzerführung entwickelt, welche den Anwender durch den gesamten Untersuchungsprozess führt. Die Gebrauchstauglichkeit des so entwickelten Augmented Reality-Systems wird schließlich im Rahmen einer Probandenstudie evaluiert

    (Intelligentes) Text Mining in der Marktforschung

    Get PDF
    Die Extraktion von Informationen aus Texten - insbesondere aus unstrukturierten Textdaten wie Foren, Bewertungsportalen bzw. aus offenen Angaben - stellen heute eine besondere Herausforderung für Marktforscher und Marktforscherinnen dar. Hierzu wird zum einen neues methodisches Know-how gebraucht, um mit den komplexen Datenbeständen sowohl bei der Erhebung wie auch bei der Bewertung dieser umzugehen. Zum anderen müssen im Kontext der digitalen Beforschung von neuen Customer Insights sowohl technische als auch organisationale Infrastrukturen geschaffen werden, um u.a. Geschäftsmodelle in Abläufen und Arbeitsprozessen von Unternehmen, Institutionen und Organisationen etablieren zu können. Die Beiträge des Bandes besprechen nicht nur vielfältigste Methoden und Verfahren zur automatischen Textextraktion, sondern zeigen hierbei sowohl die Relevanz als auch die Herausforderungen für die Online-Marktforschung auf, die mit dem Einsatz solch innovativer Ansätze und Verfahren verbunden sind. Band 1 beinhaltet folgende Beiträge: C. M. Stützer, A. Wachenfeld-Schell & S. Oglesby: Digitale Transformation der Marktforschung; A. Lang & M. Egger, Insius UG: Wie Marktforscher durch kooperatives Natural Language Processing bei der qualitativen Inhaltsanalyse profitieren können; M. Heurich & S. Štajner, Symanto Research: Durch Technologie zu mehr Empathie in der Kundenansprache - Wie Text Analytics helfen kann, die Stimme des digitalen Verbrauchers zu verstehen; G. Heisenberg, TH Köln & T. Hees, Questback GmbH: Text Mining-Verfahren zur Analyse offener Antworten in Online-Befragungen im Bereich der Markt- und Medienforschung; T. Reuter, Cogia Intelligence GmbH: Automatische semantische Analysen für die Online-Marktforschung; P. de Buren, Caplena GmbH: Offenen Nennungen gekonnt analysiere

    Schaffung einer Basis für die kontinuierliche Qualitätsanalyse

    Get PDF
    Die Qualität der Software ist ein wesentlicher Faktor für den wirtschaftlichen Erfolg von Softwaresystemen, die langlebig und erweiterbar sein sollen. Sie hat vor allem entscheidenden Einfluss auf die Effizienz der Wartung und Weiterentwicklung. Erfahrungsgemäß nimmt aber die Qualität der Software mit der Zeit ab. Die kontinuierlichen Änderungen und Erweiterungen des Quellcodes, sich ständig ändernde Anforderungen und die Anpassungen der Software an unterschiedliche technische Umgebungen können zum schleichenden Qualitätsverfall führen. Um diesem Verfall der Qualität entgegenzuwirken, ist es notwendig gewisse Regeln zu definieren und durch eine kontinuierliche Analyse die Einhaltung dieser Regeln zu kontrollieren. Dabei soll nicht nur der Entwicklungsprozess, sondern auch das Produkt selbst analysiert und verbessert werden. Auf Grund der Größe heutiger Softwaresysteme ist es empfehlenswert solch eine Qualitätsüberprüfung sowohl durch manuelle Inspektionen, als auch mittels dafür geeigneten Werkzeugen durchzuführen. Die Werkzeuge, die zur Operationalisierung der kontinuierlichen Softwarequalitätsanalyse dienen, werden Software Quality Dashboards genannt. Diese Werkzeuge sammeln und liefern Daten über den aktuellen Qualitätszustand eines Softwaresystems in Form von Tabellen, Trends- und Übersichtsgrafiken. Mit Hilfe dieser Daten können später Aussagen über die Qualität und die Weiterentwicklungsfähigkeit des Softwaresystems gemacht werden
    corecore