13,996 research outputs found

    Null Fehler sind möglich!

    Get PDF
    Philip Bayard Crosby hat bereits in den 60er-Jahren seine »Mach’s gleich richtig«-Philosophie geprägt, die die Fehlervermeidung gegenüber einer Fehlerentdeckung in den Vordergrund stellt. Das mag nach altem Hut klingen. Bedenkt man aber, dass Unternehmen durchschnittlich 25 % ihrer Zeit damit verbringen, Fehler zu korrigieren und zu beseitigen statt sicherzustellen, dass diese gar nicht erst entstehen – so ist das Thema aktueller denn je. Denn heute – ein halbes Jahrhundert später – lesen wir täglich von Produktrückrufen in allen Lebensberei­chen: Ob defekte Airbags bei Fahrzeugen, reißende Klet­terseile, Faschingskostüme mit giftigen Farbstoffen und Babynahrung mit Glassplittern – alleine in Deutschland wurden im Jahr 2014 unglaubliche 1,9 Millionen Autos zurückgerufen! Nicht immer kann argumentiert werden, dass die Ursachen dieser Rückrufe durch Zeit- und Kos­tendruck verursacht werden. Häufig stellt man fest, dass insbesondere das Lernen aus Fehlern nicht konsequent umgesetzt ist. Doch warum ist das so und was können wir mit Industrie 4.0 dagegen tun

    Untersuchung des Drei-Eichbosonen-Vertex in W-Paarerzeugung bei LEP2

    Get PDF

    Produktion doppelt seltsamer Hyperonen in ultrarelativistischen Pb+Pb Kollisionen bei 158 AGeV

    Get PDF

    Auswirkungen des gesetzlichen Mindestlohnes auf die Beschäftigung und den Arbeitnehmerschutz in der Abfallwirtschaft

    Get PDF
    Der vorliegende Beitrag liefert eine Zusammenfassung der Ergebnisse der Evaluation der Einführung des Mindestlohnes in der Abfallwirtschaft zum 01.01.2010. Die Evaluation setzt sich aus einem Branchenbild sowie einer kausalen Wirkungsanalyse des Mindestlohnes auf Basis einer Unternehmensbefragung zusammen. Auf Basis der Befragungsdaten zeigt sich, dass die Betroffenheit der Branche vom Mindestlohn mit ca. 23% der Unternehmen und 6% der Beschäftigten als gering einzustufen ist. Die Resultate der Wirkungsanalyse mit Hilfe verschiedener Kontrollgruppenansätze deuten darauf hin, dass die Einführung des Mindestlohnes innerhalb der bisherigen Geltungsdauer auf die Beschäftigung keine messbaren Effekte entfaltet hat. Bezogen auf den Arbeitnehmerschutz lässt sich als Folge des Mindestlohnes eine Tendenz zur Verdichtung der Arbeit sowie zur Zunahme ungeschützter Beschäftigungsverhältnisse feststellen

    Effizienz als Leitbild der Wettbewerbspolitik: Für einen "more economic approach"

    Get PDF
    Die jüngsten Reformen im Europäischen Wettbewerbsrecht geben Anlaß, sich erneut mit Grundsatzfragen der Wettbewerbspolitik zu beschäftigen. Unter Rückgriff auf die moderne Wettbewerbstheorie, die Industrie- und die Neue Institutionenökonomik werden in diesem Paper die Grundlagen eines "more economic approach" entworfen. Wettbewerb wird als Parallel- und Austauschprozeß begriffen, in dem Werte (social surplus) geschaffen und angeeignet werden. Allokative, produktionstechnische und innovative Ineffizienzen sind in diesem Wettbewerbskonzept Folge einer mangelnden Aneignung von Wertschöpfung. Konkret wird in diesem Paper vorgeschlagen, daß Wettbewerbsbehörden und Gerichte in allen Verfahren gegen Unternehmen und Unternehmensgruppen einen überzeugend begründeten Effizienzeinwand als Rechtfertigung für ein in traditioneller Sicht wettbewerbsbeschränkendes Verhalten zulassen. Der Vorschlag basiert auf einer partialanalytisch interpretierten Theorie des "second-best"; bei ihr sind "second-best-tradeoffs" ausschließlich auf den relevanten Markt bezogen. Um Anschuldigungen zu entkräften, sollten die Beschuldigten zweierlei nachweisen: Erstens, das beanstandete Verhalten ist eine Reaktion auf ein identifiziertes Marktversagen oder technische oder dynamische (Neuerungen betreffende) Ineffizienz im relevanten Markt. Zweitens, das beanstandete Verhalten steigert per Saldo die Wohlfahrt. Die Kartellbehörden hätten zwei Dinge zu prüfen: Erstens, behindert das beanstandete Verhalten in wesentlicher Weise spätere private oder staatliche Versuche, die Gründe für das Marktversagen, die technische oder dynamische Ineffizienz zu beseitigen? Zweitens, gibt es weniger stark gegen die Antitrust-Gesetze verstoßende Maßnahmen zur Erreichung derselben Wohlfahrtssteigerung? Wenn die Unternehmen ihre Argumente überzeugend dargelegt und die Kartellbehörden die beiden Fragen mit nein beantwortet haben, dann sollte das Verfahren eingestellt werden. Das Paper diskutiert auch die Vor- und Nachteile eines innermarktlichen "second-best"-Ansatzes in der Wettbewerbspolitik und zeigt die Vorteile gegenüber einer Wettbewerbspolitik auf, die nur den Wettbewerb schützen will. -- Taking the fundamental and comprehensive reform of EU competition policy which embodies a shift from a formalistic regulatory approach towards a more economic approach as a point of departure, this article argues that it is time for antitrust policy to move beyond structural understandings of competition ("preserving competition") and into the realm of explicit welfare analysis. A "more economic approach" should reflect current economic thinking about competition, incentives and efficiency. Competition is defined in the paper as a process of creating and appropriating value (social surplus). Allocative, technical and innovative inefficiencies are viewed as fundamentally due to failures of capturing value. The paper argues that antitrust laws should recognize a defence for all private acts that restrain ?competition? under the traditional antitrust analysis but advance total welfare. The proposed efficiency defence is, however, limited to intramarket second-best tradeoffs, i.e. tradeoffs involving market failures in the relevant market. To rebut a finding of illegality based upon a traditional presumption of anticompetitive effects, defendants should have to establish, first, that the challenged conduct is responsive to an identifiable market failure, broadly defined as allocative, technical or innovative inefficiency in the relevant market; second, that the conduct produces a net increase in total welfare ("intramarket second-best claim"). The antitrust authorities should accept the defence if, first, the conduct will not substantially impair the ability of public or private actors subsequently to ameliorate the effects of the market failure; and if, second, there is no less restrictive alternative consistent with the antitrust laws that could achieve similar welfare gains. The paper also assesses the costs and benefits of implementing an intra-market second-best defence and argues that this approach provides better criteria for a workable antitrust policy than an antitrust standard based on protecting "competition".more economic approach,second-best tradeoff,Williamson-tradeoff,"Post Chicago" antitrust policy,efficiency defense,property rights

    Ist der Subtraktionstest ein geeignetes Verfahren zur Ermittlung missbräuchlich überhöhter Netznutzungsentgelte?

    Get PDF
    Die Arbeit untersucht den von der "Arbeitgruppe Netznutzung Strom der Kartellbehörden des Bundes und der Länder" vorgeschlagenen Subtraktionstest, mit dessen Hilfe missbräuchlich überhöhte Netznutzungsentgelte für die Durchleitung von Strom identifiziert werden sollen. Dabei kommen wir zu einer insgesamt negativen Beurteilung: (1) Die Trennschärfe des Subtraktionstests kann erheblich sinken, wenn ein weiterer Test zur Aufdeckung von Missbrauch vorhanden ist. (2) Der Test führt zu falschen Entscheidungen, wenn die Beschaffungs- und Vertriebskosten falsch gemessen werden. (3) Die mit dem Test verbundenen Verhaltensreaktionen können zu Preiserhöhungen und einer Abschwächung des Kostensenkungswettbewerbs führen

    Die ökonomischen Eigenschaften von Software

    Get PDF
    Software ist ein Gut, welches besondere ökonomische Eigenschaften aufweist. In diesem Artikel werden - ausgehend von einer allgemeinen Definition des Gutes Software - systematisch zentrale ökonomische Eigenschaften herausgearbeitet, welche Implikationen für die Produktion und Kostenstruktur, die Nachfrage, der Bestreitbarkeit von Softwaremärkten und der Allokationseffizienz haben. Dabei hat es sich als sinnvoll erwiesen, die einzelnen Eigenschaften unter folgende Oberbegriffe zu subsummieren: Software als System zur Datenverarbeitung, Software als System von Befehlen bzw. Anweisungen, Software als rekombinierbares System, Software als ein nur in diskreten Einheiten nutzbares Gut, Software als komplexes System und Software als ein immaterielles Gut. Es zeigt sich, dass Software eine Fülle von ökonomisch relevanten Eignschaften aufweist, die von Netzwerkeffekten über subadditiver Nutzenfunktion bis hin zur Nichtrivalität reichen. Besonders hervorzuheben ist, dass Software sich von anderen Informationsgütern fundamental unterscheidet: Zum Einen fehlt ein aus Kundensicht relevanter additiver Nutzen, zum Anderen ist der durchschnittliche Nutzer/Konsument lediglich an dem Funktionieren der Algorithmen interessiert, nicht aber an der zugrundeliegenden Information.additiver Nutzen, binäre Nachfrage, digitale Güter, Erfahrungsgut, Humankapital, Informationgut, Kompatibilität, Komplexität, Netzwerkeffekte, Nichtrivalität im Konsum, Open Source, Rekombinierbarkeit, Software, subadditive Kostenfunktion, Wissen

    Die wirtschaftliche Entwicklung im Inland zur Jahresmitte 2011 - Zunehmende Risiken für die Konjunktur

    Get PDF
    Die Expansion in Deutschland hat sich im Verlauf der ersten Hälfte dieses Jahres nach sehr schwungvollem Beginn spürbar verlangsamt. Dämpfend wirkten vor allem der Außenhandel und die privaten Konsumausgaben. Es ist allerdings schwierig, aus dem Quartalsverlauf die konjunkturelle Grundtendenz herauszulesen. Das erste Quartal war wohl durch die Witterung und die ungewöhnlich späte Lage des Osterfestes begünstigt, das zweite wurde durch die Abschaltung von mehreren Atomreaktoren beeinflusst, die sich in einem deutlichen Rückgang der Energieerzeugung niederschlug. Allerdings lassen sowohl realwirtschaftliche als auch umfragebasierte Indikatoren wenig Zweifel daran, dass das BIP derzeit schwächer wächst als im Durchschnitt des laufenden Aufschwungs. Die Zunahme der Industrieproduktion wie auch der Bautätigkeit haben sich seit Beginn des Jahres verlangsamt. Gleichzeitig verschlechterten sich alle Klimaindikatoren, auch wenn sie immer noch in einem Bereich liegen, der davon ausgehen lässt, dass die Wirtschaft wächst. Deutlich verschlechtert haben sich die internationalen Rahmenbedingungen. Daher dürfte die Außenwirtschaft auch 2012 kaum einen Beitrag zum Wachstum liefern. Dies schlägt erfahrungsgemäß auf die Unternehmensinvestitionen durch, bei denen eine Verlangsamung zu erwarten ist. Der Wohnungsbau dürfte hingegen insbesondere von den wohl weiterhin günstigen Hypothekenzinsen und der anhaltend stabilen Beschäftigung profitieren, die auch die privaten Konsumausgaben stützt. Alles in allem prognostizieren wir, dass das reale BIP in diesem Jahr um 2,9% steigen wird (Tabelle 1). Darin spiegeln sich jedoch im Wesentlichen der statistische Überhang aus dem Vorjahr und das starke erste Quartal wider. Für das zweite Halbjahr 2011 und für 2012 sind nur geringe Zuwächse zu erwarten. Für das kommende Jahr erwarten wir eine Zunahme des BIP um 1,0%.[...]Konjunktur; wirtschaftliche Entwicklung; Inland

    Eine statistische Methode zur Erkennung von Dokumentstrukturen

    Get PDF
    This PhD thesis is on the topic of document recognition. It particularly discusses the aspects of learning document models and the recognition of the logical structure of documents. In order to achieve high reliability and user friendliness, we describe an interactive system which can easily be adapted to new document classes. In an initial learning session the system is able to generate a recognition model based on a small set of completely tagged logical documents. In the successive recognition sessions, the user interactively corrects the recognition errors of the system. In order to prevent it from repeating the same errors again, these corrections are automatically integrated to the model thanks to the system's incremental learning capabilities. The representation of the document model is based on a novel, statistical formalism. It is based on n-grams, which have been generalized to be able to represent tree structures. The basic principle consists in the representation of local patterns in tree structures using the conditional probabilities of n-grams. Such a statistical model is able to represent one document class at a time. In the discussion of the expressiveness of the statistical model, we introduce the notion of the entropy of a model. We further introduce a learning algorithm, which estimates the n-gram probabilities of the model based on a set of sample documents. The same algorithm is again used in the incremental learning steps. The recognition of the physical structure of a document is based on classical methods that have been documented in the literature. However, the logical structure tree is here constructed stepwise on top of the physical structure, using a heuristic bottom-up procedure. The optimal solution is found in an efficient way by a quality measure and a best-first search strategy. The approach has been empirically validated on three different document classes, the main test series consisting in 25 documents of an article collection with average structural complexity and containing a total of 400 pages. The tests revealed that the recognition rate of the system constantly improves with the number of recognized documents. When the end of this training and recognition phase has been reached, about one correction is necessary every four pages. Finally, possibilities of integrating the statistical n-gram model with existing standards like SGML/DSSSL are discussed. To this purpose, a method which translates a statistical model into the corresponding DTD is described.Die vorliegende Dissertation behandelt die Erkennung von Dokumenten. Es werden schwerpunktmässig die Aspekte des Lernens von Dokumentmodellen und der Erkennung der logischen Struktur von Dokumenten betrachtet. Um sowohl eine hohe Zuverlässigkeit als auch Bedienungsfreundlichkeit zu erreichen, wird ein interaktives System beschrieben, das sich leicht an neue Dokumentklassen anpassen lässt. Das System benötigt eine initiale Lernfähigkeit, indem es aus vollständigen, logischen Dokumenten ein vorläufiges Erkennungsmodell generieren kann. In darauf folgenden Erkennungsvorgängen werden allfällige Fehler interaktiv vom Benutzer korrigiert. Durch die inkrementelle Lernfähigkeit des Systems werden die Korrekturen in das Modell integriert, und so die Wiederholung desselben Fehlers verhindert. Für die Darstellung des Dokumentmodells wird ein neuartiger, statistischer Formalismus verwendet. Er basiert auf n-Grammen, die in einer Weise erweitert wurden, dass sie auch Baumstrukturen repräsentieren können. Das Grundprinzip basiert auf der Darstellung lokaler Muster in Baumstrukturen durch die bedingten Wahrscheinlichkeiten von n-Grammen. Ein derartiges statistisches Modell vermag jeweils eine Dokumentklasse vollständig zu beschreiben. In der Diskussion um die Repräsentationsfähigkeit des statistischen Modells wird der Begriff der Entropie eingeführt. Es wird ein Lernalgorithmus vorgestellt, der die n-Gramm-Wahrscheinlichkeiten aus vorgelegten Beispieldokumenten schätzt. Derselbe Algorithmus gelangt auch in inkrementellen Lernphasen zur Anwendung. Die Erkennung der physischen Struktur eines Dokuments erfolgt mit klassischen Methoden aus der einschlägigen Literatur. Auf der physischen Struktur eines zu erkennenden Dokuments wird mit einem bottom-up Verfahren der logische Strukturbaum konstruiert. Die Heuristik wählt unter Verwendung einer Bewertungsfunktion und einer best-first Suchstrategie effizient eine optimale Lösung aus. Der Ansatz wird an Dokumenten aus drei verschiedenen Klassen validiert. Die Haupttestserie besteht aus 25 Dokumenten mit insgesamt 400 Seiten einer Serie von Artikeln mittlerer Komplexität. Die Tests belegen, dass die Erkennungsleistung des Systems mit der Anzahl erkannter Dokumente zunimmt, so dass schliesslich etwa eine Korrektur pro vier Seiten nötig ist. Schliesslich werden Integrationsmöglichkeiten des statistischen n-Gramm-Modells mit bestehenden Standards wie zum Beispiel SGML/DSSSL erforscht. Es wird dazu eine Methode vorgestellt, die ein statistisches Modell in eine entsprechende DTD übersetzt
    corecore