15 research outputs found

    The Network Dynamics Of Social Influence In The Wisdom Of Crowds

    Get PDF
    Research on the wisdom of crowds is motivated by the observation that the average belief in a large group can be accurate even when group members are individually inaccurate. A common theoretical assumption in previous research is that accurate group beliefs can emerge only when group members are statistically independent. However, network models of belief formation suggest that the effect of social influence depends on the structure of social networks. We present a theoretical overview and two experimental studies showing that, under the right conditions, social influence can improve the accuracy of both individual group members and the group as a whole. The results support the argument that interacting groups can produce collective intelligence that surpasses the collected intelligence of independent individuals

    Black-Box Parallelization for Machine Learning

    Get PDF
    The landscape of machine learning applications is changing rapidly: large centralized datasets are replaced by high volume, high velocity data streams generated by a vast number of geographically distributed, loosely connected devices, such as mobile phones, smart sensors, autonomous vehicles or industrial machines. Current learning approaches centralize the data and process it in parallel in a cluster or computing center. This has three major disadvantages: (i) it does not scale well with the number of data-generating devices since their growth exceeds that of computing centers, (ii) the communication costs for centralizing the data are prohibitive in many applications, and (iii) it requires sharing potentially privacy-sensitive data. Pushing computation towards the data-generating devices alleviates these problems and allows to employ their otherwise unused computing power. However, current parallel learning approaches are designed for tightly integrated systems with low latency and high bandwidth, not for loosely connected distributed devices. Therefore, I propose a new paradigm for parallelization that treats the learning algorithm as a black box, training local models on distributed devices and aggregating them into a single strong one. Since this requires only exchanging models instead of actual data, the approach is highly scalable, communication-efficient, and privacy-preserving. Following this paradigm, this thesis develops black-box parallelizations for two broad classes of learning algorithms. One approach can be applied to incremental learning algorithms, i.e., those that improve a model in iterations. Based on the utility of aggregations it schedules communication dynamically, adapting it to the hardness of the learning problem. In practice, this leads to a reduction in communication by orders of magnitude. It is analyzed for (i) online learning, in particular in the context of in-stream learning, which allows to guarantee optimal regret and for (ii) batch learning based on empirical risk minimization where optimal convergence can be guaranteed. The other approach is applicable to non-incremental algorithms as well. It uses a novel aggregation method based on the Radon point that allows to achieve provably high model quality with only a single aggregation. This is achieved in polylogarithmic runtime on quasi-polynomially many processors. This relates parallel machine learning to Nick's class of parallel decision problems and is a step towards answering a fundamental open problem about the abilities and limitations of efficient parallel learning algorithms. An empirical study on real distributed systems confirms the potential of the approaches in realistic application scenarios

    La valoración de empreses mediante la lógica borrosa

    Get PDF
    Programa de Doctorat en Empresa[spa] La complejidad de la toma de decisiones en el campo de la economía y las finanzas se ha incrementado en los últimos años. Como resultado, se está prestando cada vez más atención al desarrollo e implementación de modelos matemáticos que puedan dar respuesta a estos problemas. La investigación en el campo de la lógica borrosa ha sido un tema de creciente interés durante muchas décadas, ya que es un concepto fundamental y común en la ciencia. Desde 1965, cuando se publicó el título seminal "Fuzzy sets" (Zadeh, L. A. 1965), se produjo un cambio de la lógica binaria a la lógica multivalente. Este cambio permite dar paso a teorías relacionadas con la incertidumbre, a través de una metodología borrosa, para poder considerar todos los escenarios posibles en la toma de decisiones, teniendo en cuenta la objetividad y subjetividad de los parámetros a considerar. En general, el objetivo principal de esta tesis doctoral es identificar las características y oportunidades de negocio a través de un análisis de valoración de empresas, que permita una mejor interpretación del contexto incierto para la toma de decisiones. Es decir, la teoría de la decisión en la incertidumbre se desarrolla con la valoración de empresas. Se analiza la situación en la que se encuentra y se estudian las aportaciones que podemos hacer en este campo con los principales algoritmos de lógica difusa estudiados por autores como J. Gil Aluja, A. Kaufmann, R. Yager, entre otros, con especial énfasis en aquellos que han sido aplicados al ámbito empresarial y financiero. La valoración de empresas es un proceso fundamental y complejo en los sistemas económico-financieros. En un entorno que evoluciona hacia formas más complejas e inciertas, es necesario presentar nuevos modelos de valoración empresarial más dinámicos basados en técnicas de tratamiento y gestión de la incertidumbre y toma de decisiones, para eliminar la ambigüedad y la confusión en entornos inciertos. La primera aportación de este trabajo es el análisis del estado de la cuestión realizado a través de dos estudios bibliométricos que estudian las aportaciones de la comunidad científica a la lógica borrosa y la valoración empresarial. Destaca la importancia de los factores subjetivos a la hora de tomar decisiones en un entorno económico y financiero. La segunda contribución es el desarrollo de aplicaciones que muestren la toma de decisiones en la incertidumbre aplicada a los métodos de valoración de empresas. Este estudio nos permite desarrollar algoritmos genéricos y modelos matemáticos que se pueden aplicar a la realidad empresarial, para probar su utilidad. En este trabajo, se destacan el coeficiente de adecuación, el coeficiente de calificación, la distancia de Hamming, la teoría del clon, el modelo de preferencia subjetiva, el algoritmo húngaro, los operadores OWA, los intervalos y los expertones. La tercera contribución es un nuevo algoritmo que combina la matemática borrosa y la valoración de empresas, lo que contribuye al desarrollo de la teoría de la decisión en el ámbito empresarial. En concreto, se desarrolla un modelo de valoración de empresas mediante el descuento de flujos de caja y las matemáticas borrosas, mostrando su utilidad y la posibilidad de ser aplicado por la comunidad académica y profesional en el posterior análisis del valor de una empresa. El modelo propuesto sistematiza y ordena el uso de intervalos para establecer un valor de negocio mínimo y máximo para la empresa. Por lo tanto, hemos encontrado un intervalo de confianza del posible valor comercial. Finalmente, podríamos decir que a nivel general hay dos aportaciones importantes a destacar en esta tesis doctoral: la aplicabilidad y el desarrollo. Aplicamos algoritmos y modelos en los métodos de valoración de empresas y desarrollamos un nuevo algoritmo que contribuye al desarrollo de la teoría de la decisión

    La valoración de empreses mediante la lógica borrosa

    Full text link
    [spa] La complejidad de la toma de decisiones en el campo de la economía y las finanzas se ha incrementado en los últimos años. Como resultado, se está prestando cada vez más atención al desarrollo e implementación de modelos matemáticos que puedan dar respuesta a estos problemas. La investigación en el campo de la lógica borrosa ha sido un tema de creciente interés durante muchas décadas, ya que es un concepto fundamental y común en la ciencia. Desde 1965, cuando se publicó el título seminal "Fuzzy sets" (Zadeh, L. A. 1965), se produjo un cambio de la lógica binaria a la lógica multivalente. Este cambio permite dar paso a teorías relacionadas con la incertidumbre, a través de una metodología borrosa, para poder considerar todos los escenarios posibles en la toma de decisiones, teniendo en cuenta la objetividad y subjetividad de los parámetros a considerar. En general, el objetivo principal de esta tesis doctoral es identificar las características y oportunidades de negocio a través de un análisis de valoración de empresas, que permita una mejor interpretación del contexto incierto para la toma de decisiones. Es decir, la teoría de la decisión en la incertidumbre se desarrolla con la valoración de empresas. Se analiza la situación en la que se encuentra y se estudian las aportaciones que podemos hacer en este campo con los principales algoritmos de lógica difusa estudiados por autores como J. Gil Aluja, A. Kaufmann, R. Yager, entre otros, con especial énfasis en aquellos que han sido aplicados al ámbito empresarial y financiero. La valoración de empresas es un proceso fundamental y complejo en los sistemas económico-financieros. En un entorno que evoluciona hacia formas más complejas e inciertas, es necesario presentar nuevos modelos de valoración empresarial más dinámicos basados en técnicas de tratamiento y gestión de la incertidumbre y toma de decisiones, para eliminar la ambigüedad y la confusión en entornos inciertos. La primera aportación de este trabajo es el análisis del estado de la cuestión realizado a través de dos estudios bibliométricos que estudian las aportaciones de la comunidad científica a la lógica borrosa y la valoración empresarial. Destaca la importancia de los factores subjetivos a la hora de tomar decisiones en un entorno económico y financiero. La segunda contribución es el desarrollo de aplicaciones que muestren la toma de decisiones en la incertidumbre aplicada a los métodos de valoración de empresas. Este estudio nos permite desarrollar algoritmos genéricos y modelos matemáticos que se pueden aplicar a la realidad empresarial, para probar su utilidad. En este trabajo, se destacan el coeficiente de adecuación, el coeficiente de calificación, la distancia de Hamming, la teoría del clon, el modelo de preferencia subjetiva, el algoritmo húngaro, los operadores OWA, los intervalos y los expertones. La tercera contribución es un nuevo algoritmo que combina la matemática borrosa y la valoración de empresas, lo que contribuye al desarrollo de la teoría de la decisión en el ámbito empresarial. En concreto, se desarrolla un modelo de valoración de empresas mediante el descuento de flujos de caja y las matemáticas borrosas, mostrando su utilidad y la posibilidad de ser aplicado por la comunidad académica y profesional en el posterior análisis del valor de una empresa. El modelo propuesto sistematiza y ordena el uso de intervalos para establecer un valor de negocio mínimo y máximo para la empresa. Por lo tanto, hemos encontrado un intervalo de confianza del posible valor comercial. Finalmente, podríamos decir que a nivel general hay dos aportaciones importantes a destacar en esta tesis doctoral: la aplicabilidad y el desarrollo. Aplicamos algoritmos y modelos en los métodos de valoración de empresas y desarrollamos un nuevo algoritmo que contribuye al desarrollo de la teoría de la decisión

    Beating human analysts in nowcasting corporate earnings by using publicly available stock price and correlation features

    No full text
    Corporate earnings are a crucial indicator for investment and business valuation. Despite their importance and the fact that classic econometric approaches fail to match analyst forecasts by orders of magnitude, the automatic prediction of corporate earnings from public data is not in the focus of current machine learning research. In this paper, we present for the first time a fully automatized machine learning method for earnings prediction that at the same time a) only relies on publicly available data and b) can outperform human analysts. The latter is shown empirically in an experiment involving all S&P 100 companies in a test period from 2008 to 2012. The approach employs a simple linear regression model based on a novel feature space of stock market prices and their pairwise correlations. With this work we follow the recent trend of nowcasting, i.e., of creating accurate contemporary forecasts of undisclosed target values based on publicly observable proxy variables

    For Good Measure:Advancing Research on Well-Being Metrics Beyond GDP

    Get PDF
    The 2009 Commission on the Measurement of Economic Performance and Social Progress (“Stiglitz-Sen-Fitoussi” Commission) concluded that we should move away from over-reliance on GDP when assessing a country’s health, towards a broader dashboard of indicators that would reflect concerns such as the distribution of well-being and sustainability in all of its dimensions. This book includes contributions from members of the OECD-hosted High Level Expert Group on the Measurement of Economic Performance and Social Progress, the successor of the Stiglitz-Sen-Fitoussi Commission, and their co-authors on the latest research in this field. These contributions look at key issues raised by the 2009 Commission that deserved more attention, such as how to better include the environment and sustainability in our measurement system, and how to improve the measurement of different types of inequalities, of economic insecurity, of subjective well-being and of trust. A companion volume Beyond GDP: Measuring What Counts for Economic and Social Performance presents an overview by the co-chairs of the High Level Expert Group, Joseph E. Stiglitz, Jean-Paul Fitoussi and Martine Durand of the progress accomplished since the 2009 report, of the work conducted by the Group over the past five years, and of what still needs to be done

    Business Cycles in Economics

    Get PDF
    The business cycles are generated by the oscillating macro-/micro-/nano- economic output variables in the economy of the scale and the scope in the amplitude/frequency/phase/time domains in the economics. The accurate forward looking assumptions on the business cycles oscillation dynamics can optimize the financial capital investing and/or borrowing by the economic agents in the capital markets. The book's main objective is to study the business cycles in the economy of the scale and the scope, formulating the Ledenyov unified business cycles theory in the Ledenyov classic and quantum econodynamics

    Three Risky Decades: A Time for Econophysics?

    Get PDF
    Our Special Issue we publish at a turning point, which we have not dealt with since World War II. The interconnected long-term global shocks such as the coronavirus pandemic, the war in Ukraine, and catastrophic climate change have imposed significant humanitary, socio-economic, political, and environmental restrictions on the globalization process and all aspects of economic and social life including the existence of individual people. The planet is trapped—the current situation seems to be the prelude to an apocalypse whose long-term effects we will have for decades. Therefore, it urgently requires a concept of the planet's survival to be built—only on this basis can the conditions for its development be created. The Special Issue gives evidence of the state of econophysics before the current situation. Therefore, it can provide excellent econophysics or an inter-and cross-disciplinary starting point of a rational approach to a new era

    Covid-19 and Capitalism

    Get PDF
    This open access book provides a comprehensive analysis of the socioeconomic determinants of Covid-19. From the end of 2019 until presently, the world has been ravaged by the Covid-19 pandemic. Although the cause of this is (obviously) a virus, the extent to which this virus spread, and therefore the number of infections and deaths, was largely determined by socio-economic factors. From this, it follows that the course of the pandemic varies greatly from one country to another. This observation applies both to countries’ resilience to such a pandemic (which is mainly rooted in the period preceding the outbreak of the virus) and to the way in which countries have reacted to the virus (including the political choices on how to respond). Meanwhile, research has made it clear that the nature of this response (e.g., elimination policy, mitigation policy, and proceeding herd immunity) was, on the one hand, strongly determined by political and ideological factors and, on the other hand, was highly influential in the factors of success or failure in combating the pandemic. The book focuses on the situation in a number of Western regions (notably the USA, the UK, and the EU and its Member States). The author addresses the reasons why in many Western countries both pandemic prevention and response policies to Covid-19 have failed. The book concludes with recommendations concerning the rearrangement of the socio-economic order that could increase the resilience of (Western) societies against such pandemics
    corecore