360 research outputs found

    Moment characterization of higher-order risk preferences

    Get PDF
    It is often said that prudence and temperance play key roles in aversion to negative skewness and kurtosis, respectively. This paper puts a new perspective on these relationships and presents a characterization of higher-order risk preferences in terms of statistical moments. An implication is, for example, that prudence implies preference for distributions with higher skewness as defined by all odd moments. Moreover, we show that this preference is robust towards variation in kurtosis as defined by all even moments. We thus speak of the kurtosis robustness feature of prudence. Further, we show that all higher-order risk preferences of odd order imply skewness preference, but for different distributions than prudence. Similar results are presented for temperance and higher-order risk preferences of even order that can be related to kurtosis aversion and have a skewness robustness feature.decision making under risk, higher-order risk preferences, kurtosis aversion, moments, prudence, skewness preference, temperance

    An experimental methodology testing for prudence and third-order preferences

    Get PDF
    We propose an experimental method to test individuals for prudence (i.e. downside risk aversion) outside the expected utility framework. Our method relies on a novel representation of compound lotteries which allows for a systematic parameterization that captures the full generality of prudence. Therefore, we develop a general technique for lottery calibration in experiments. Since we investigate a very subtle third-order property we test our method in the laboratory employing a factorial design. We find that it yields robust results and that prudence is observed on the aggregate as well as on the individual level. Further we show that preferences based on statistical moments, in particular skewness seeking, can at most approximately explain individuals' behavior in the experiment.Decision making under uncertainty, risk preferences, prudence, downside risk, statistical moments, laboratory experiment

    Treatment of Double Default Effects within the Granularity Adjustment for Basel II

    Get PDF
    Within the Internal Ratings-Based (IRB) approach of Basel II it is assumed that idiosyncratic risk has been fully diversi?ed away. The impact of undiversi?ed idiosyncratic risk on portfolio Value-at-Risk can be quanti?ed via a granularity adjustment (GA). We provide an analytic formula for the GA in an extended single- factor CreditRisk+ setting incorporating double default e?ects. It accounts for guarantees and their e?ect of reducing credit risk in the portfolio. Our general GA very well suits for application under Pillar 2 of Basel II as the data inputs are drawn from quantities already required for the calculation of IRB capital charges.analytic approximation, Basel II, counterparty risk, double default, granularity adjustment, IRB approach, securitization

    Artificial Neural Network methods applied to sentiment analysis

    Get PDF
    Sentiment Analysis (SA) is the study of opinions and emotions that are conveyed by text. This field of study has commercial applications for example in market research (e.g., “What do customers like and dislike about a product?”) and consumer behavior (e.g., “Which book will a customer buy next when he wrote a positive review about book X?”). A private person can benefit from SA by automatic movie or restaurant recommendations, or from applications on the computer or smart phone that adapt to the user’s current mood. In this thesis we will put forward research on artificial Neural Network (NN) methods applied to SA. Many challenges arise, such as sarcasm, domain dependency, and data scarcity, that need to be addressed by a successful system. In the first part of this thesis we perform linguistic analysis of a word (“hard”) under the light of SA. We show that sentiment-specific word sense disambiguation is necessary to distinguish fine nuances of polarity. Commonly available resources are not sufficient for this. The introduced Contextually Enhanced Sentiment Lexicon (CESL) is used to label occurrences of “hard” in a real dataset with its sense. That allows us to train a Support Vector Machine (SVM) with deep learning features that predicts the polarity of a single occurrence of the word, just given its context words. We show that the features we propose improve the result compared to existing standard features. Since the labeling effort is not negligible, we propose a clustering approach that reduces the manual effort to a minimum. The deep learning features that help predicting fine-grained, context-dependent polarity are computed by a Neural Network Language Model (NNLM), namely a variant of the Log-Bilinear Language model (LBL). By improving this model the performance of polarity classification might as well improve. Thus, we propose a non-linear version of the LBL and the vectorized Log-Bilinear Language model (vLBL), because non-linear models are generally considered more powerful. In a parameter study on a language modeling task, we show that the non-linear versions indeed perform better than their linear counterparts. However, the difference is small, except for settings where the model has only few parameters, which might be the case when little training data is available and the model therefore needs to be smaller in order to avoid overfitting. An alternative approach to fine-grained polarity classification as used above is to train classifiers that will do the distinction automatically. Due to the complexity of the task, the challenges of SA in general, and certain domain-specific issues (e.g., when using Twitter text) existing systems have much room to improve. Often statistical classifiers are used with simple Bag-of-Words (BOW) features or count features that stem from sentiment lexicons. We introduce a linguistically-informed Convolutional Neural Network (lingCNN) that builds upon the fact that there has been much research on language in general and sentiment lexicons in particular. lingCNN makes use of two types of linguistic features: word-based and sentence-based. Word-based features comprise features derived from sentiment lexicons, such as polarity or valence and general knowledge about language, such as a negation-based feature. Sentence-based features are also based on lexicon counts and valences. The combination of both types of features is superior to the original model without these features. Especially, when little training data is available (that can be the case for different languages that are underresourced), lingCNN proves to be significantly better (up to 12 macro-F1 points). Although, linguistic features in terms of sentiment lexicons are beneficial, their usage gives rise to a new set of problems. Most lexicons consist of infinitive forms of words only. Especially, lexicons for low-resource languages. However, the text that needs to be classified is unnormalized. Hence, we want to answer the question if morphological information is necessary for SA or if a system that neglects all this information and therefore can make better use of lexicons actually has an advantage. Our approach is to first stem or lemmatize a dataset and then perform polarity classification on it. On Czech and English datasets we show that better results can be achieved with normalization. As a positive side effect, we can compute better word embeddings by first normalizing the training corpus. This works especially well for languages that have rich morphology. We show on word similarity datasets for English, German, and Spanish that our embeddings improve performance. On a new WordNet-based evaluation we confirm these results on five different languages (Czech, English, German, Hungarian, and Spanish). The benefit of this new evaluation is further that it can be used for many other languages, as the only resource that is required is a WordNet. In the last part of the thesis, we use a recently introduced method to create an ultradense sentiment space out of generic word embeddings. This method allows us to compress 400 dimensional word embeddings down to 40 or even just 4 dimensions and still get similar results on a polarity classification task. While the training speed increases by a factor of 44, the difference in classification performance is not significant.Sentiment Analyse (SA) ist das Untersuchen von Meinungen und Emotionen die durch Text übermittelt werden. Dieses Forschungsgebiet findet kommerzielle Anwendungen in Marktforschung (z.B.: „Was mögen Kunden an einem Produkt (nicht)?“) und Konsumentenverhalten (z.B.: „Welches Buch wird ein Kunde als nächstes kaufen, nachdem er eine positive Rezension über Buch X geschrieben hat?“). Aber auch als Privatperson kann man von Forschung in SA profitieren. Beispiele hierfür sind automatisch erstellte Film- oder Restaurantempfehlungen oder Anwendungen auf Computer oder Smartphone die sich der aktuellen Stimmungslage des Benutzers anpassen. In dieser Arbeit werden wir Forschung auf dem Gebiet der Neuronen Netze (NN) angewendet auf SA vorantreiben. Dabei ergeben sich viele Herausforderungen, wie Sarkasmus, Domänenabhängigkeit und Datenarmut, die ein erfolgreiches System angehen muss. Im ersten Teil der Arbeit führen wir eine linguistische Analyse des englischen Wortes „hard“ in Hinblick auf SA durch. Wir zeigen, dass sentiment-spezifische Wortbedeutungsdisambiguierung notwendig ist, um feine Nuancen von Polarität (positive vs. negative Stimmung) unterscheiden zu können. Häufig verwendete, frei verfügbare Ressourcen sind dafür nicht ausreichend. Daher stellen wir CESL (Contextually Enhanced Sentiment Lexicon), ein sentiment-spezifisches Bedeutungslexicon vor, welches verwendet wird, um Vorkommen von „hard“ in einem realen Datensatz mit seinen Bedeutungen zu versehen. Das Lexikon erlaubt es eine Support Vector Machine (SVM) mit Features aus dem Deep Learning zu trainieren, die in der Lage ist, die Polarität eines Vorkommens nur anhand seiner Kontextwörter vorherzusagen. Wir zeigen, dass die vorgestellten Features die Ergebnisse der SVM verglichen mit Standard-Features verbessern. Da der Aufwand für das Erstellen von markierten Trainingsdaten nicht zu unterschätzen ist, stellen wir einen Clustering-Ansatz vor, der den manuellen Markierungsaufwand auf ein Minimum reduziert. Die Deep Learning Features, die die Vorhersage von feingranularer, kontextabhängiger Polarität verbessern, werden mittels eines neuronalen Sprachmodells, genauer eines Log-Bilinear Language model (LBL)s, berechnet. Wenn man dieses Modell verbessert, wird vermutlich auch das Ergebnis der Polaritätsklassifikation verbessert. Daher führen wir nichtlineare Versionen des LBL und vectorized Log-Bilinear Language model (vLBL) ein, weil nichtlineare Modelle generell als mächtiger angesehen werden. In einer Parameterstudie zur Sprachmodellierung zeigen wir, dass nichtlineare Modelle tatsächlich besser abschneiden, als ihre linearen Gegenstücke. Allerdings ist der Unterschied gering, es sei denn die Modelle können nur auf wenige Parameter zurückgreifen. So etwas kommt zum Beispiel vor, wenn nur wenige Trainingsdaten verfügbar sind und das Modell deshalb kleiner sein muss, um Überanpassung zu verhindern. Ein alternativer Ansatz zur feingranularen Polaritätsklassifikation wie oben verwendet, ist es, einen Klassifikator zu trainieren, der die Unterscheidung automatisch vornimmt. Durch die Komplexität der Aufgabe, der Herausforderungen von SA im Allgemeinen und speziellen domänenspezifischen Problemen (z.B.: wenn Twitter-Daten verwendet werden) haben existierende Systeme noch immer großes Optimierungspotential. Oftmals verwenden statistische Klassifikatoren einfache Bag-of-Words (BOW)-Features. Alternativ kommen Zähl-Features zum Einsatz, die auf Sentiment-Lexika aufsetzen. Wir stellen linguistically-informed Convolutional Neural Network (lingCNN) vor, dass auf dem Fakt beruht, dass bereits viel Forschung in Sprachen und Sentiment-Lexika geflossen ist. lingCNN macht von zwei linguistischen Feature-Typen Gebrauch: wortbasierte und satzbasierte. Wort-basierte Features umfassen Features die von Sentiment-Lexika, wie Polarität oder Valenz (die Stärke der Polarität) und generellem Wissen über Sprache, z.B.: Verneinung, herrühren. Satzbasierte Features basieren ebenfalls auf Zähl-Features von Lexika und auf Valenzen. Die Kombination beider Feature-Typen ist dem Originalmodell ohne linguistische Features überlegen. Besonders wenn wenige Trainingsdatensätze vorhanden sind (das kann der Fall für Sprachen sein, die weniger erforscht sind als englisch). lingCNN schneidet signifikant besser ab (bis zu 12 macro-F1 Punkte). Obwohl linguistische Features basierend auf Sentiment-Lexika vorteilhaft sind, führt deren Verwendung zu neuen Problemen. Der Großteil der Lexika enthält nur Infinitivformen der Wörter. Dies gilt insbesondere für Sprachen mit wenigen Ressourcen. Das ist eine Herausforderung, weil der Text der klassifiziert werden soll in der Regel nicht normalisiert ist. Daher wollen wir die Frage beantworten, ob morphologische Information für SA überhaupt notwendig ist oder ob ein System, dass jegliche morphologische Information ignoriert und dadurch bessere Verwendung der Lexika erzielt, einen Vorteil genießt. Unser Ansatz besteht aus Stemming und Lemmatisierung des Datensatzes, bevor dann die Polaritätsklassifikation durchgeführt wird. Auf englischen und tschechischen Daten zeigen wir, dass durch Normalisierung bessere Ergebnisse erzielt werden. Als positiven Nebeneffekt kann man bessere Wortrepresentationen (engl. word embeddings) berechnen, indem das Trainingskorpus zuerst normalisiert wird. Das funktioniert besonders gut für morphologisch reiche Sprachen. Wir zeigen auf Datensätzen zur Wortähnlichkeit für deutsch, englisch und spanisch, dass unsere Wortrepresentationen die Ergebnisse verbessern. In einer neuen WordNet-basierten Evaluation bestätigen wir diese Ergebnisse für fünf verschiedene Sprachen (deutsch, englisch, spanisch, tschechisch und ungarisch). Der Vorteil dieser Evaluation ist weiterhin, dass sie für viele Sprachen angewendet werden kann, weil sie lediglich ein WordNet als Ressource benötigt. Im letzten Teil der Arbeit verwenden wir eine kürzlich vorgestellte Methode zur Erstellen eines ultradichten Sentiment-Raumes aus generischen Wortrepresentationen. Diese Methode erlaubt es uns 400 dimensionale Wortrepresentationen auf 40 oder sogar nur 4 Dimensionen zu komprimieren und weiterhin die gleichen Resultate in Polaritätsklassifikation zu erhalten. Während die Trainingsgeschwindigkeit um einen Faktor von 44 verbessert wird, sind die Unterschiede in der Polaritätsklassifikation nicht signifikant

    Native defects in the Co2_2TiZZ (Z=Z= Si, Ge, Sn) full Heusler alloys: formation and influence on the thermoelectric properties

    Full text link
    We have performed first-principles investigations on the native defects in the full Heusler alloys Co2_2TiZZ (ZZ one of the group IV elements Si, Ge, Sn), determining their formation energies and how they influence the transport properties. We find that Co vacancies (Vc) in all compounds and the TiSn_\text{Sn} anti-site exhibit negative formation energies. The smallest positive values occur for Co in excess on anti-sites (CoZ_Z or CoTi_\text{Ti}) and for TiZ_Z. The most abundant native defects were modeled as dilute alloys, treated with the coherent potential approximation in combination with the multiple-scattering theory Green function approach. The self-consistent potentials determined this way were used to calculate the residual resistivity via the Kubo-Greenwood formula and, based on its energy dependence, the Seebeck coefficient of the systems. The latter is shown to depend significantly on the type of defect, leading to variations that are related to subtle, spin-orbit coupling induced, changes in the electronic structure above the half-metallic gap. Two of the systems, VcCo_\text{Co} and CoZ_Z, are found to exhibit a negative Seebeck coefficient. This observation, together with their low formation energy, offers an explanation for the experimentally observed negative Seebeck coefficient of the Co2_2TiZZ compounds as being due to unintentionally created native defects

    Treatment of Double Default Effects within the Basel Regulatory Framework and a Theoretical and an Experimental Investigation of Higher-Order Risk Preferences

    Get PDF
    The financial crisis since 2007 has drastically demonstrated the importance of banking regulation. In the first two chapters of this dissertation, we present mathematical methods for the treatment of double default effects in the Basel regulatory framework. The first chapter is concerned with double default effects within the granularity adjustment, whereas the second chapter deals with double default effects within the Internal-Ratings-Based approach. Both methods consistently fit in the current framework and they do neither require extensive data nor computational time. Thus, we argue, they very well suit for practical application. The remaining two chapters are concerned with higher-order risk preferences such as prudence or temperance. In the third chapter, we provide a moment characterization of higher-order risk preferences. We claim that this characterization gives a better understanding of how all higher-order risk preferences relate to skewness preference and kurtosis aversion. The final chapter presents a method to test for prudence and skewness seeking and reports results from a controlled laboratory experiment

    Zur Erreichbarkeit regional-ökonomischer Zentren: Die Messbarkeit verkehrlicher Anbindungsqualität

    Get PDF
    Die infrastrukturelle Anbindung von Städten oder Regionen innerhalb des gesamten Verkehrsnetzes eines Landes bestimmt nachhaltig, in welchem Maße diese am gesamtwirtschaftlichen Wachstum partizipieren können. Unzureichend vorhandene Verkehrsinfrastruktur führt zu Wohlfahrtseinbußen; Output und Produktivität der Wirtschaft werden entscheidend durch die Akkumulation von Infrastrukturkapital beeinflusst. Globalisierung und zunehmend überregionaler Wettbewerb stellen folglich nicht nur hohe Anforderungen an die Effektivität von Infrastrukturnetzen in Städten und Regionen, sondern insbesondere auch an deren Anbindungsqualität untereinander. Wie der vorliegende Beitrag zeigt, bestehen trotz der enormen Investitionen in die ostdeutsche Verkehrsinfrastruktur in den letzten 20 Jahren bezüglich verkehrlicher Anbindungsqualität weiterhin signifikante Unterschiede zu Westdeutschland.Verkehrserschließung Verkehrsinfrastrukturpolitik Regionalökonomik Zentraler Ort Deutschland

    Joint measurement of risk aversion, prudence and temperance

    Get PDF
    We propose a method to measure the intensity of risk aversion, prudence (downside risk aversion) and temperance (outer risk aversion) in experiments. Higher-order risk compensations are defined within the proper risk apportionment model of Eeckhoudt and Schlesinger [American Economic Review, 96 (2006) 280] that are elicited using a multiple price list format. This approach is not based on expected utility theory. In our experiment we find evidence for risk aversion, prudence and temperance. Women demand higher risk compensations for all orders. The highest compensation is demanded for taking downside risk, not for being (second order) risk-loving. This highlights the importance of prudence when considering economic decisions under risk.Decision making under risk, laboratory experiment, prudence, risk aversion, temperance, gender differences
    • …
    corecore