14 research outputs found

    Verteiltes Rechnen: Im wesentlichen das Herkömmliche oder etwas grundlegend Neues?

    Get PDF

    Über lernende optische Inspektion am Beispiel der SchĂŒttgutsortierung

    Get PDF
    Die automatische optische Inspektion spielt als zerstörungsfreie Analysemethode in modernen industriellen Fertigungsprozessen eine wichtige Rolle. Typische, kommerziell eingesetzte automatische Inspektionssysteme sind dabei speziell an die jeweilige Aufgabenstellung angepasst und sind sehr aufwendig in der Entwicklung und Inbetriebnahme. Außerdem kann mangelndes Systemwissen der Anwender die Inspektionsleistung im industriellen Einsatz verschlechtern. Maschinelle Lernverfahren bieten eine Alternative: Die Anwender stellen lediglich eine Stichprobe bereit und das System konfiguriert sich von selbst. Ebenso können diese Verfahren versteckte ZusammenhĂ€nge in den Daten aufdecken und so den Entwurf von Inspektionssystemen unterstĂŒtzen. Diese Arbeit beschĂ€ftigt sich mit geeigneten lernenden Verfahren fĂŒr die optische Inspektion. Die als Beispiel dienende SchĂŒttgutsortierung setzt dabei die Rahmenbedingungen: Die Aufnahmebedingungen sind kontrolliert und die Objekterscheinung einfach. Gleichzeitig zeigen die Objekte mitunter nur wenige diskriminative Merkmale. Die Lernstichproben sind klein, unbalanciert und oft unvollstĂ€ndig in Bezug auf die möglichen Defektklassen. ZusĂ€tzlich ist die verfĂŒgbare Rechenzeit stark begrenzt. Unter BerĂŒcksichtigung dieser Besonderheiten werden in der vorliegenden Arbeit lernende Methoden fĂŒr die Mustererkennungs-Schritte Bilderfassung, Merkmalsextraktion und Klassifikation entwickelt. Die Auslegung der Bilderfassung wird durch die automatische Selektion optischer Filter zur Hervorhebung diskriminativer Merkmale unterstĂŒtzt. Anders als vergleichbare Methoden erlaubt die hier beschriebenen Methode die Selektion optische Filter mit beliebig komplizierten Transmissionskurven. Da relevante Merkmale die Grundvoraussetzung fĂŒr eine erfolgreiche Klassifikation sind, nimmt die Merkmalsextraktion einen großen Teil der Arbeit ein. Solche Merkmale können beispielsweise aus einer Menge an Standardmerkmalen identifiziert werden. In der SchĂŒttgutsortierung ist dabei neben der Relevanz aber auch der Rechenaufwand der Merkmalsextraktion von Bedeutung. In dieser Arbeit wird daher ein Merkmalsselektionsverfahren beschrieben, welches diesen Aufwand mit einbezieht. Daneben werden auch Verfahren untersucht, mit denen sich Merkmale mit Hilfe einer Lernstichprobe an ein gegebenes Sortierproblem anpassen lassen. Im Rahmen dieser Arbeit werden dazu zwei Methoden zum Lernen von Formmerkmalen bzw. von Farb- und Texturmerkmalen beschrieben. Mit beiden Verfahren werden einfache, schnell berechenbare, aber wenig diskriminative Merkmale zu hochdiskriminativen Deskriptoren kombiniert. Das Verfahren zum Lernen der Farb- und Texturdeskriptoren erlaubt außerdem die Detektion und RĂŒckweisung unbekannter Objekte. Diese RĂŒckweisungsoption wird im Sinne statistischer Tests fĂŒr Anwender leicht verstĂ€ndlich parametriert. Die Detektion unbekannter Objekte ist auch das Ziel der Einklassenklassifikation. HierfĂŒr wird in dieser Arbeit ein Verfahren beschrieben, das den Klassifikator anhand einer Lernstichprobe mit lediglich Beispielen der Positivklasse festlegt. Die Struktur dieses Klassifikators wird außerdem ausgenutzt, um sicher unbekannte Objekte um GrĂ¶ĂŸenordnungen schneller zurĂŒckzuweisen als dies mit alternativen Verfahren möglich ist. Alle vorgestellten Verfahren werden anhand von synthetischen DatensĂ€tzen und DatensĂ€tzen aus der Lebensmittelinspektion, Mineralsortierung und Inspektion technischer GegenstĂ€nde quantitativ evaluiert. In einer GegenĂŒberstellung mit vergleichbaren Methoden aus der Literatur werden die StĂ€rken und EinschrĂ€nkungen der Methoden herausgestellt. Hierbei zeigten sich alle vorgestellten Verfahren gut fĂŒr die SchĂŒttgutsortierung geeignet. Die vorgestellten Verfahren ergĂ€nzen sich außerdem gegenseitig. Sie können genutzt werden, um ein komplettes Sortiersystem auszulegen oder um einzeln als Komponenten in einem bestehenden System eingesetzt zu werden. Die Methoden sind dabei nicht auf einen bestimmten Anwendungsfall zugeschnitten, sondern fĂŒr eine großen Palette an Produkten einsetzbar. Somit liefert diese Arbeit einen Beitrag zur Anwendung maschineller Lernverfahren in optischen Inspektionssystemen

    Produktionswirtschaftliche Beschreibungs- und Optimierungsmodelle fĂŒr die Wertstoffsortierung

    Get PDF
    Plastic waste recycling in Germany has been fundamentally changed and developed over the past 30 years. The implementation of the Dual System in 1990, especially, increased the necessity of efficient waste sorting processes. Since then, technically sophisticated machines have been developed by mechanical process engineering which enable a separation of waste plastic of nearly a hundred percent accuracy. However, waste sorting processes have been largely neglected so far in economic science. The present doctoral thesis intends to close this gap by introducing an analytical economic decision model for sorting processes. Conceptual basics are presented in part I. They contain a definition of waste sorting from the economic point of view, as well as a placement of sorting processes within the closed-loop of product material flow. Furthermore, this part deals with the waste mixture – the most important factor of the process. A new method to measure the mixture is presented. In part II, the process structures are analyzed by using activity analysis. Based on the analogy of sorting and transportation processes, a new deterministic optimization model was developed. In part III, the new model is evaluated and extended to meet stochastic effects. This new model can eventually be used as a foundation for process simulation, economic planning and the control of plastic waste sorting processes.WĂ€hrend die mechanische Verfahrenstechnik eine Vielzahl unterschiedlicher Verfahren bereithĂ€lt, um Wertstoffe von nicht weiter verwertbaren Resten zu trennen, fehlen in der Betriebswirtschaftslehre bislang Modelle und Verfahren, die den Produktionsprozess der Wertstoffsortierung aus ökonomischer Sicht detaillierter beschreiben und optimieren. Bisherige AnsĂ€tze beschreiben die Kreislaufwirtschaft zumeist allgemein, ohne ausfĂŒhrlicher auf die Sortierung einzugehen. Die vorliegende Monographie beschĂ€ftigt sich zunĂ€chst ausfĂŒhrlich mit dem Sortierinput, dem Abfallgemisch. Es werden verschiedene Formen und Anordnungen von Vermischung diskutiert und Kennzahlen zur Messung des Vermischungszustands entwickelt. Darauf aufbauend und im Zusammenspiel mit Strukturanalogien zwischen Transport- und Sortierprozessen wird ein formales Grundmodell fĂŒr Wertstoffsortierung entwickelt. Dieses Grundmodell wird nach einer Evaluation, die verschiedene Anwendungsmöglichkeiten aufzeigt, um praxisrelevante stochastische Aspekte erweitert.Auch im Buchhandel erhĂ€ltlich: Produktionswirtschaftliche Beschreibungs- und Optimierungsmodelle fĂŒr die Wertstoffsortierung / Julia Gerth Ilmenau : Univ.-Verl. Ilmenau, 2014. - XVIII, 273 S. ISBN 978-3-86360-097-6 URN urn:nbn:de:gbv:ilm1-2013000703 Preis (Druckausgabe): 21,60

    Forum Bildverarbeitung

    Get PDF
    Bildverarbeitung spielt in vielen Bereichen der Technik zur schnellen und berĂŒhrungslosen Datenerfassung eine SchlĂŒsselrolle und hat sich in unterschiedlichen Anwendungen einen unverzichtbaren Platz erobert. Von besonderer Bedeutung ist dabei eine zielfĂŒhrende Verarbeitung der erfassten Bildsignale. Das "Forum Bildverarbeitung" greift diese hochaktuelle Entwicklung sowohl hinsichtlich der theoretischen Grundlagen, BeschreibungsansĂ€tze und Werkzeuge als auch relevanter Anwendungen auf

    Zur Analyse von randomisierten Suchheuristiken und Online-Heuristiken

    Get PDF
    Die Dissertation beschĂ€ftigt sich mit der theoretischen Analyse von Heuristiken. Im ersten und zweiten Teil werden randomisierte Heuristiken zur Optimierung im Black-Box-Szenario untersucht. Der dritte Teil befasst sich mit dem Seitenwechselproblem (Pagingproblem), das in der Regel im Online-Szenario zu lösen ist. Das Black-Box- und das Online-Szenario haben gemeinsam, dass die zu bearbeitende Probleminstanz erst im Laufe der Zeit bekannt wird, sodass Algorithmen nur heuristisch vorgehen können. Im ersten Teil wird die Laufzeit zweier einfacher evolutionĂ€rer Algorithmen, des (1+1)-EAs und der randomisierten lokalen Suche, am Beispiel des Matchingproblems im Black-Box-Szenario untersucht. Es wird gezeigt, dass beide Heuristiken effizient Maximummatchings approximieren können und dass sie zumindest fĂŒr einfache Graphklassen in polynomieller erwarteter Zeit Maximummatchings finden. Andererseits gibt es Graphen, fĂŒr die die Laufzeit beider Heuristiken mit einer ĂŒberwĂ€ltigenden Wahrscheinlichkeit exponentiell ist. Der zweite Teil untersucht einen grundlegenden evolutionĂ€ren Algorithmus fĂŒr mehrkriterielle Optimierungsprobleme im Black-Box-Szenario. Insbesondere wird die erwartete Laufzeit im Worst Case ermittelt und die Laufzeit fĂŒr verschiedene zweikriterielle Probleme analysiert. Der dritte Teil befasst sich mit der Analyse von Heuristiken fĂŒr das Seitenwechselproblem. Es werden zwei Modelle eingefĂŒhrt, die unmittelbar die Analyse der Fehlerrate unter dem Aspekt der AnfragelokalitĂ€t ermöglichen. In diesen Modellen werden Schranken fĂŒr die Fehlerraten verschiedener deterministischer Seitenwechselstrategien bewiesen

    Intelligente Methoden im Integrierten Risikomanagement

    Get PDF
    In dieser Arbeit wird ein multikriterielles Modell zur Integration des Risikomanagements auf Basis von Kredit-, Markt- und operationellem Risiko konzipiert. Der Ansatz approximiert die Lösungen des Problems mittels multikriterieller evolutionĂ€rer Algorithmen. Seine Anwendung wird fĂŒr eine Beispielbank aufgezeigt mit besonderem Fokus auf die ansprechende Visualisierung der Ergebnisse

    Zur Theorie kĂŒnstlicher neuronaler Netze

    Get PDF
    Zur Theorie kĂŒnstlicher neuronaler Netze wird aus vier Gebieten beigetragen: der Informatik mit einem neuen Lernverfahren (stabile Parameteradaption), der Mathematik mit der Analyse der Struktur des Gewichtungsraums, der Statistik mit einem neuen SchĂ€tzer fĂŒr die GĂŒte von Netzen (Clustered bootstrap) und der Physik mit effizienten Lern- und Schliesalgorithmen fĂŒr dezimierbare Boltzmann-Maschinen. Es werden Abbildungsnetze definiert, deren Kettenregel abgeleitet und in mehrere berechtigte algorithmische Varianten gefast, Backpropagation-Netze definiert, der Backpropagation-Algorithmus in einer möglichst allgemeinen Fassung dargestellt und demonstriert, wie dieser Rahmen auch auf rekurrente Netze angewendet werden kann. Die Grenzen der Methode des Gradientenabstiegs werden aufgezeigt und bekannte alternative Verfahren kritisch dargestellt. Ausgehend davon wird unter den Gesichts- punkten Effizienz und StabilitĂ€t eine Klasse neuer miteinander verwandter Optimierungsalgorithmen entwickelt, deren theoretische LeistungsfĂ€higkeit von einem Beweis der Konvergenz erster Ordnung abgesichert wird. Es ist möglich, Zweite-Ordnung-Information in das neue Verfahren einfliesen zu lassen. Empirische Vergleiche unter- mauern dessen Effizienz. Die Grenzen von Optimierungsverfahren werden diskutiert. Danach wird Lernen in neuronalen Netzen als statistisches SchĂ€tzproblem aufgefast. Die GĂŒte der SchĂ€tzung kann mit bekannten statistischen Verfahren berechnet wer- den. Es wird nachgewiesen, das durch UnzulĂ€nglichkeiten neuronalen Lernens die Angaben zur GĂŒte nicht robust oder zu ungenau sind. Das Bestreben, diese UnzulĂ€nglichkeiten herauszufiltern, fĂŒhrt auf eine neue theoretische Sichtweise des Gewichtungsraums. Er mus in natĂŒrlicher Weise als Mannigfaltigkeit verstanden werden. Es zeigt sich, das die Berechnung der kanonischen Metrik im Gewichtungsraum NP-hart ist. Zugleich wird nachgewiesen, das eine effiziente Approximation der Metrik möglich ist. Damit ist es möglich, Lernergebnisse im Gewichtungsraum zu clustern und zu visualisieren. Als eine weitere Anwendung dieser Theorie wird ein robustes Verfahren der Modellauswahl vorgestellt und an einem Beispiel vorgefĂŒhrt. Schlieslich kann auch das im vorigen Absatz gestellte Problem durch ein neues Verfahren gelöst werden. Die physikalisch motivierte Boltzmann-Maschine wird dargestellt, und es wird argumentiert, warum hier das Schliesen NP-hart ist. Dies motiviert eine Beschršankung auf die genĂŒgend interessante Klasse der dezimierbaren Boltzmann-Maschinen. Eine neue Dezimierungsregel wird eingefšuhrt und gezeigt, das es keine weiteren gibt. Dezimierbare Boltzmann-Maschinen werden mit Mitteln der Wahrscheinlichkeitstheorie studiert und effiziente Lernalgorithmen vorgeschlagen. Die Gewichtungsraumstruktur kann auch hier erfolgreich ausgenutzt werden, was eine Anwendung demonstriert

    Bildfolgenbasierte Gewinnung und Nutzung partikelindividueller Bewegungsinformation in der optischen SchĂŒttgutsortierung

    Get PDF
    Die sensorgestĂŒtzte Sortierung ermöglicht die Trennung einzelner Partikel aus einem Materialstrom. In dieser Arbeit wird eine neue Gattung eines SchĂŒttgutsortiersystems mit FlĂ€chenkamera erforscht. Der Einsatz von Hochgeschwindigkeitskameras als Inspektionssensorik wirft aus Sicht der Informatik spannende Forschungsfragen hinsichtlich der Gewinnung und Nutzung weitergehender Merkmale, insbesondere von Bewegungsinformation ĂŒber zu sortierende Materialien, auf

    A criteria-based approach to modelling the task requirements and student abilities in computer science education

    Get PDF
    FĂŒr das junge Schulfach Informatik existieren meist nicht empirisch sondern fachlich begrĂŒndete Kompetenzmodelle, die einen Sollzustand beschreiben. Bislang fehlen AnsĂ€tze, die den Istzustand modellieren und einen Bezugsrahmen liefern, in dem informatikspezifische Anforderungen von Aufgaben und die korrespondierenden FĂ€higkeiten von SchĂŒlern darstellbar sind. In dieser Arbeit wird eine Methodik erprobt, ein solches Strukturmodell auf empirisch-analytischem Weg zu gewinnen. Das Modell soll sichtbar machen, welche Dimensionen das System kognitiver Anforderungen und FĂ€higkeiten aufspannen, die charakteristisch fĂŒr die Informatik in der Sekundarstufe sind. Als umfangreiches Untersuchungsmaterial stehen die Aufgaben und SchĂŒlerantworten des Online-Wettbewerbs Informatik-Biber zur VerfĂŒgung, der jĂ€hrlich mehrere Tausend Teilnehmer aller Schularten und Jahrgangsstufen der Sekundarstufe verzeichnet, MĂ€dchen wie Jungen. Davon ausgehend, dass neben dem Fachinhalt kognitive Kriterien wie der Abstraktionsgrad oder die Lernzielstufe die Aufgabenschwierigkeit bestimmen, wird ein Katalog informatikspezifischer Merkmale erstellt. In einer Expertenbefragung werden die Wettbewerbsaufgaben nach den Merkmalen klassifiziert. Eine Clusteranalyse der Aufgaben arbeitet vier Typen heraus: Wiedergabe, VerstĂ€ndnis, Anwendung und Problemlösung, die als Anforderungsdimensionen interpretiert werden. Weiter fĂŒhrt die Idee, dass ein SchĂŒler, der etwa abstrakte Aufgaben löst, die FĂ€higkeit besitzt, mit Abstraktion umzugehen. Die Aufgabenmerkmale werden mit den Antwortmustern der Teilnehmer zu Merkmalsmustern verknĂŒpft. Faktorenanalysen dieser Muster berechnen Faktoren, die als FĂ€higkeitsdimensionen interpretiert werden. Hier tritt die Datenproblematik zutage, die darin besteht, dass die Merkmale bereits im Aufgabensatz nur in bestimmten Kombinationen vorkommen. Sie sind konfundiert. So ist das Ergebnis der Aufgabenanalyse ein fundierter Entwurf eines mehrdimensionalen Anforderungsmodells. Der Ertrag aus der Analyse der SchĂŒlerantworten und Merkmalsmuster ist zunĂ€chst ein Vorgehensbericht, der auch die Konfundierung thematisiert, die die GĂŒltigkeit des FĂ€higkeitsmodells in Frage stellt. Um die FĂ€higkeitsdimensionen zu ĂŒberprĂŒfen, wird ein Leitfaden fĂŒr weitere Iterationen der Modellentwicklung erstellt, der die gezielte Aufgabenkonstruktion empfiehlt.Most competence models for informatics in secondary education are determined according to the structure of the subject. Therefore they represent the target state. Up to now, models representing the actual state, derived from empirical results, are rarely described. There is a strong need for approaches to describing the actual state in terms of task requirements and student abilities. In this thesis an empirical statistical procedure of developing a structural model is proven. The aim is to visualize the dimensions spanning the system of characteristic cognitive requirements and corresponding abilities relevant in computer science in secondary education. The German Informatik-Biber is member of an international initiative for the promotion of informatics, addressing students of all types of secondary school, girls and boys. The yearly contest with thousands of participants provides extensive and rich data for the investigation. Assuming that the task difficulty, beneath contents, depends on cognitive characteristics, a catalogue of criteria is specified. Criteria are, for example, the level of abstraction, or Bloom’s taxonomic level of learning goals. The tasks of the Informatik-Biber are classified into criteria categories through expert rating. A cluster analysis of the classified tasks results in four types: reproduction, comprehension, application, and problem solving. The types are interpreted as four dimensions of task requirements. The idea that someone who is able to solve abstract tasks is capable to deal with abstraction, as an example, leads even further. The criteria and the students’ answer patterns are combined to students’ criteria patterns. Factor analyses result in factors that can be interpreted as dimensions of students’ abilities. At this point a problem of the task set emerges: some criteria cannot be separated from each other because they only occur in certain combinations. So there are two conclusions. Task analysis results in a multidimensional model of task requirements, while pattern analysis of student answers does not result in a valid model. In fact the outcome is a guideline for continuing iterations of model development, placing emphasis on the construction of tasks, eliminating the problem of confounded variables. The intention is to prove the dimensions of student abilities

    Eine "grĂŒne" Zukunft fĂŒr Kunststoffe? Die Entwicklung von MĂ€rkten fĂŒr Biokunststoffe

    Get PDF
    Die Studie rekonstruiert die historische Entwicklung von MĂ€rkten fĂŒr Biokunststoffe aus einer wirtschaftssoziologischen Perspektive. Im ersten Teil werden die Entstehungsbedingungen alternativer Kunststoffvisionen dargestellt. Wie wurden „Biobasiertheit“ und „biologische Abbaubarkeit“ in der Kunststoffentwicklung zu potentiell wertvollen Produkteigenschaften? Die Untersuchung zeigt, dass sich die mit Biokunststoffen verknĂŒpften Wertversprechen im Kontext kollektiver Krisendiagnosen im letzten Drittel des 20. Jahrhunderts herausgebildet haben, als bis dahin geltende Zukunftsnarrative brĂŒchig wurden und sich neue Zukunftsnarrative formierten. Der zweite Teil der Studie analysiert, wie Unternehmen versucht haben, neue Marktbeziehungen fĂŒr „grĂŒne“ Kunststoffe aufzubauen und zu stabilisieren. Dabei stießen sie auf WiderstĂ€nde seitens der Entsorgungswirtschaft, des organisierten Umweltschutzes und staatlicher Regulationsinstanzen. Die Studie argumentiert, dass sich WiderstĂ€nde nicht allein verhindernd auf die Entwicklung von MĂ€rkten auswirken, sondern als Weichensteller fĂŒr die Ausrichtung von Innovationsstrategien fungieren und Abgrenzungsfolien fĂŒr den Entwurf alternativer ZukĂŒnfte bieten.1. Einleitung 2. MĂ€rkte, Marktinnovation und imaginierte ZukĂŒnfte 2.1. Die soziale Strukturierung von MĂ€rkten 2.1.1. Einbettung von MĂ€rkten in soziale Netzwerke 2.1.2. Einbettung von MĂ€rkten in Institutionen 2.1.3. Einbettung von MĂ€rkten in kognitiv-kulturelle Bedeutungsstrukturen 2.2. VerĂ€nderungsprozesse in der Ökonomie 2.3. Imaginierte ZukĂŒnfte und wirtschaftliche Dynamik 2.3.1. Der Markt als kreativer Prozess 2.3.2. PerformativitĂ€t (sozio-)technischer Visionen 2.3.3. Fiktionale Erwartungen in der Wirtschaftssoziologie 2.3.4. Krisen und Erwartungsdynamik 2.3.5. Neue Ideen und Realisierungsversuche 2.4. Zusammenfassung und Implikationen fĂŒr die empirische Analyse Teil I: (Biologische) Abbaubarkeit und Biobasiertheit als neue Innovationsziele (1970er-1980er Jahre) 3. Abbaubare Kunststoffe als Lösung fĂŒr das Litterproblem 3.1. Von utopischen zu dystopischen Stoffen 3.1.1. Kunststoffutopien im 20. Jahrhundert 3.1.2. Kunststoffe als ökologischer Albtraum 3.2. Abbaubarkeit als technikoptimistische Vision 3.2.1. Polymerforscher als ‚moderne Ökologen‘ 3.2.2. Abbaubarkeit als ökologische Requalifizierung von Kunststoffen 3.3. Umstrittene Erwartungen an abbaubare Kunststoffe 3.4. Zwischenfazit 4. Kunststoffe aus pflanzlichen Rohstoffen – Die Reaktivierung einer alten Vision 4.1. Neue Unsicherheiten, alte Visionen: Ökonomische Erwartungen in der Chemie- und Kunststoffindustrie 4.2. Kunststoffe als Energieverschwender und ökotopische Kunststoffvisionen 4.3. Die Vision einer europĂ€ischen ‚Biogesellschaft‘ 4.4. Zwischenfazit 5. PolyhydroxybuttersĂ€ure und Polylactide: von wertlosen Substanzen zu Innovationsobjekten 5.1. PolyhydroxybuttersĂ€ure: Bakterien als Kunststoffproduzenten 5.2. Polylactide: Die Wiederentdeckung eines ‚schlafenden Riesens‘ 5.3. Zwischenfazit Teil II: Die Marktentwicklung ‚grĂŒner‘ Kunststoffe (Mitte der 1980er Jahre bis heute) 6. Ein erster Markt fĂŒr abbaubare Kunststoffe 6.1. Abbaubare Kunststoffe als Lösung fĂŒr die Deponiekrise 6.2. Abbaubarkeit als Placebo, Fantasie und Greenwashing 6.3. Eine ‚neue Generation‘ biologisch abbaubarer Kunststoffe 6.4. Zwischenfazit 7. Von großen Hoffnungen zu „gelĂ€hmten MĂ€rkten“ in Deutschland 7.1. Eine neue Kreislaufwirtschaft fĂŒr kompostierbare Verpackungen 7.2. Abbaubarkeit vs. Recycling: Die Konkurrenz von Regulationsvisionen 7.3. Die Biotonne bleibt verschlossen: Gescheiterte Mobilisierung notwendiger Kooperationspartner 7.4. Kein gesamtökologischer Vorteil: Delegitimation durch den Umweltschutz 7.5. Zwischenfazit 8. Von der biologischen Abbaubarkeit zur Biobasiertheit 8.1. Neue Anwendungen: Biologisch abbaubare Kunststoffe in langlebigen Produkten 8.2. Neue Kategorie: Von biologisch abbaubaren Kunststoffen zu Biokunststoffen 8.3. Neues Innovationsziel: Biobasierte BestĂ€ndigkeit 8.5. Zwischenfazit 9. Schluss Anhang: Magazine Bibliographie Abbildunge
    corecore