54 research outputs found

    Calculating Evolutionary Dynamics in Structured Populations

    Get PDF
    Evolution is shaping the world around us. At the core of every evolutionary process is a population of reproducing individuals. The outcome of an evolutionary process depends on population structure. Here we provide a general formula for calculating evolutionary dynamics in a wide class of structured populations. This class includes the recently introduced “games in phenotype space” and “evolutionary set theory.” There can be local interactions for determining the relative fitness of individuals, but we require global updating, which means all individuals compete uniformly for reproduction. We study the competition of two strategies in the context of an evolutionary game and determine which strategy is favored in the limit of weak selection. We derive an intuitive formula for the structure coefficient, σ, and provide a method for efficient numerical calculation

    Evolution of in-group favoritism

    Get PDF
    In-group favoritism is a central aspect of human behavior. People often help members of their own group more than members of other groups. Here we propose a mathematical framework for the evolution of in-group favoritism from a continuum of strategies. Unlike previous models, we do not pre-suppose that players never cooperate with out-group members. Instead, we determine the conditions under which preferential in-group cooperation emerges, and also explore situations where preferential out-group helping could evolve. Our approach is not based on explicit intergroup conflict, but instead uses evolutionary set theory. People can move between sets. Successful sets attract members, and successful strategies gain imitators. Individuals can employ different strategies when interacting with in-group versus out-group members. Our framework also allows us to implement different games for these two types of interactions. We prove general results and derive specific conditions for the evolution of cooperation based on in-group favoritism

    Fast flowing populations are not well mixed

    Get PDF
    In evolutionary dynamics, well-mixed populations are almost always associated with all-to-all interactions; mathematical models are based on complete graphs. In most cases, these models do not predict fixation probabilities in groups of individuals mixed by flows. We propose an analytical description in the fast-flow limit. This approach is valid for processes with global and local selection, and accurately predicts the suppression of selection as competition becomes more local. It provides a modelling tool for biological or social systems with individuals in motion.Comment: 19 pages, 8 figure

    Detecting the Collapse of Cooperation in Evolving Networks

    Get PDF
    The sustainability of biological, social, economic and ecological communities is often determined by the outcome of social conflicts between cooperative and selfish individuals (cheaters). Cheaters avoid the cost of contributing to the community and can occasionally spread in the population leading to the complete collapse of cooperation. Although such collapse often unfolds unexpectedly, it is unclear whether one can detect the risk of cheater’s invasions and loss of cooperation in an evolving community. Here, we combine dynamical networks and evolutionary game theory to study the abrupt loss of cooperation with tools for studying critical transitions. We estimate the risk of cooperation collapse following the introduction of a single cheater under gradually changing conditions. We observe an increase in the average time it takes for cheaters to be eliminated from the community as the risk of collapse increases. We argue that such slow system response resembles slowing down in recovery rates prior to a critical transition. In addition, we show how changes in community structure reflect the risk of cooperation collapse. We find that these changes strongly depend on the mechanism that governs how cheaters evolve in the community. Our results highlight novel directions for detecting abrupt transitions in evolving networks

    Infectious Disease Modeling of Social Contagion in Networks

    Get PDF
    Many behavioral phenomena have been found to spread interpersonally through social networks, in a manner similar to infectious diseases. An important difference between social contagion and traditional infectious diseases, however, is that behavioral phenomena can be acquired by non-social mechanisms as well as through social transmission. We introduce a novel theoretical framework for studying these phenomena (the SISa model) by adapting a classic disease model to include the possibility for ‘automatic’ (or ‘spontaneous’) non-social infection. We provide an example of the use of this framework by examining the spread of obesity in the Framingham Heart Study Network. The interaction assumptions of the model are validated using longitudinal network transmission data. We find that the current rate of becoming obese is 2 per year and increases by 0.5 percentage points for each obese social contact. The rate of recovering from obesity is 4 per year, and does not depend on the number of non-obese contacts. The model predicts a long-term obesity prevalence of approximately 42, and can be used to evaluate the effect of different interventions on steady-state obesity. Model predictions quantitatively reproduce the actual historical time course for the prevalence of obesity. We find that since the 1970s, the rate of recovery from obesity has remained relatively constant, while the rates of both spontaneous infection and transmission have steadily increased over time. This suggests that the obesity epidemic may be driven by increasing rates of becoming obese, both spontaneously and transmissively, rather than by decreasing rates of losing weight. A key feature of the SISa model is its ability to characterize the relative importance of social transmission by quantitatively comparing rates of spontaneous versus contagious infection. It provides a theoretical framework for studying the interpersonal spread of any state that may also arise spontaneously, such as emotions, behaviors, health states, ideas or diseases with reservoirs.National Institutes of Health (U.S.) (grant R01GM078986)National Science Foundation (U.S.)Bill & Melinda Gates FoundationTempleton FoundationNational Institute on Aging (grant P01 AG031093)Framingham Heart Study (contract number N01-HC-25195

    Pay-off scarcity causes evolution of risk-aversion and extreme altruism

    Get PDF
    All organisms descend from populations with limited resources, so it is clear why evolution should select strategies that win resources at the expense of competitors. Less obvious is how altruistic behaviours evolve, whereby an individual helps others despite expense to itself. Modelling simple agents using evolutionary game theory, it is shown that steady states of extreme altruism can evolve when pay-offs are very rare compared with death. In these states, agents give away most of their wealth. A new theorem for general evolutionary models shows that, when pay-offs are rare, evolution no longer selects strategies to maximize income (average pay-off), but to minimize the risk of missing-out entirely on a rare resource. Principles revealed by the model are widely applicable, where the game represents rare life-changing events: disasters or gluts

    Natural Intelligence and Anthropic Reasoning

    Get PDF
    This paper aims to justify the concept of natural intelligence in the biosemiotic context. I will argue that the process of life is (i) a cognitive/semiotic process and (ii) that organisms, from bacteria to animals, are cognitive or semiotic agents. To justify these arguments, the neural-type intelligence represented by the form of reasoning known as anthropic reasoning will be compared and contrasted with types of intelligence explicated by four disciplines of biology – relational biology, evolutionary epistemology, biosemiotics and the systems view of life – not biased towards neural intelligence. The comparison will be achieved by asking questions related to the process of observation and the notion of true observers. To answer the questions I will rely on a range of established concepts including SETI (search for extraterrestrial intelligence), Fermi’s paradox, bacterial cognition, versions of the panspermia theory, as well as some newly introduced concepts including biocivilisations, cognitive/semiotic universes, and the cognitive/semiotic multiverse. The key point emerging from the answers is that the process of cognition/semiosis – the essence of natural intelligence – is a biological universal.Brunel University Londo

    Caratterizzazione di alcuni siti della rete accelerometrica nazionale al fine di individuare la risposta sismica locale

    Get PDF
    Le indagini geotecniche finalizzate alla stima della risposta sismica locale si limitano molto spesso ai primi 30 m di profonditĂ , valore che Ăš diventato uno standard per la classificazione delle caratteristiche di un sito. Negli anni ’90 Borcherdt (1994) e Martin e Dobry (1994) suggerirono 30 m come la profonditĂ  standard di indagine per la verifica delle strutture. Boore et al. (1993, 1994, 1997) e Boore e Joyner (1997) basarono le regressioni per il calcolo delle leggi predittive del moto del suolo sullo stesso parametro. Nel 1997 negli Stati Uniti il National Earthquake Hazards Reduction Program (NEHRP) nella stesura delle norme tecniche per le costruzioni in zona sismica (FEMA, 1997) utilizza per la prima volta il parametro Vs30 come indice per la classificazione dei suoli, con lo scopo di definirne l’amplificazione. Le norme tecniche per le costruzioni in zona sismica della comunitĂ  Europea, EC8 (ENV, 1998) ente da dati provenienti dagli Stati Uniti occidentali e, utilizzando dati provenienti dalla stessa regione, Wald & Mori (2000) segnalano che le VS,30 non sono molto ben correlate con l’entitĂ  dell’amplificazione, in quanto esiste una forte dispersione dei dati. La figura 1.1 mostra il rapporto tra le amplificazioni, mediate sull’intervallo di frequenza compreso tra 3-5 Hz. raccomandano lo stesso parametro per suddividere i terreni, anche se le classi differiscono in parte dalla classificazione NEHRP. Infine, anche in Italia, le Norme Tecniche per le Costruzioni (Normative Tecniche per le Costruzioni, Gazzetta Ufficiale del 14/01/2008) adottano la stessa suddivisione dei terreni adottata dall’EC8.L’attendibilitĂ  della velocitĂ  delle onde di taglio nei primi 30 m (VS,30) come estimatore della risposta sismica di un sito, in termini di frequenza e amplificazione, Ăš tuttavia molto discussa.Innanzitutto il parametro Ăš stato ricavato unicamente da dati provenienti dagli Stati Uniti occidentali e, utilizzando dati provenienti dalla stessa regione, Wald & Mori (2000) segnalano che le Vs30 non sono molto ben correlate con l’entitĂ  dell’amplificazione, in quanto esiste una forte dispersione dei dati. La figura 1.1 mostra il rapporto tra le amplificazioni, mediate sull’intervallo di frequenza compreso tra 3-5 Hz. I valori risultano effettivamente molto dispersi, ma questo risultato puĂČ essere spiegato col fatto che non tutte le classi di sito hanno frequenza di risonanza compreso in questo intervallo di frequenza. PerciĂČ per alcuni siti la media Ăš stata calcolata nell’intorno della frequenza di risonanza (sulle amplificazioni massime), mentre per altri Ăš stata calcolata sulle armoniche superiori, che hanno ampiezze minori. Lavori eseguiti con dati provenienti da altre regioni sottolineano come le Vs30 non siano buoni estimatori per la predizione di amplificazioni in bacini profondi (Park & Hashash, 2004), per la stima delle amplificazioni in altre regioni (Stewart et al., 2003) o in presenza di inversioni di velocitĂ  (Di Giacomo et al., 2005). Uno studio recente, eseguito su dati giapponesi (Zhao et al., 2006) si Ăš evitato l’uso della Vs30 perchĂ© strati spessi di terreno rigido posti sopra il substrato roccioso amplificano il moto di lungo periodo, mentre gli strati sottili e soffici tendono ad amplificare il moto di corto periodo: ciĂČ significa che la VS,30 non puĂČ rappresentare il periodo predominante del sito, dato che si basa solo sugli strati superficiali. Secondo Mucciarelli e Gallipoli (2006) il confronto tra l’amplificazione sismica al sito e la Vs30 mostra che quest’ultimo parametro non Ăš adeguato per spiegare gli effetti di sito osservati in Italia a causa delle situazioni geologiche particolari che sono diffuse nel nostro paese. La figura 1.2 mostra la distribuzione dell’ampiezza rispetto alla classe di sito, in cui si vede che le classi sono mal discriminate e le mediane delle classi A e B (indicate dalla linea nera) sono uguali. È perĂČ necessario notare che questo grafico Ăš stato costruito utilizzando le ampiezze ricavate col metodo dei rapporti spettrali H/V, ma in letteratura (Bard, 1999) Ăš dimostrato che tali rapporti spettrali permettono di stimare la frequenza di risonanza, ma falliscono nella stima del valore di amplificazione. In particolare la Vs30 sottostima gli effetti locali ai siti con inversione di velocitĂ  e li sovrastima in siti con bacini profondi. La Vs30 sembra fornire dei buoni risultati solo in siti che abbiano un profilo di velocitĂ  monotono, crescente con la profonditĂ  e un forte contrasto di impedenza nella prima decina di metri. Questo studio si propone di verificare l’attendibilitĂ  della velocitĂ  delle onde di taglio valutate nei primi 30 m come estimatore della risposta sismica di un sito. Per questo scopo sono state selezionate 45 stazioni della Rete Accelerometrica Nazionale, di cui si conoscono i profili stratigrafici e i profili di velocitĂ  delle onde di taglio e di compressione. Inoltre sono state raccolte le registrazioni strong motion relative ai terremoti registrati da queste stazioni. Gli effetti di sito sono stati valutati in due modi: · Le registrazioni sono state utilizzate per calcolare i rapporti spettrali H/V per ricavare la frequenza fondamentale propria di ciascun sito (f0) e il relativo valore di amplificazione; · I profili di velocitĂ  delle onde di taglio sono serviti per ricavare il modello teorico monodimensionale per il calcolo della funzione di trasferimento del sito, eseguito per mezzo del modello proposto da Haskell e Thomson (Haskell, 1953, Thomson 1950), da cui ricavare la f0 e l’amplificazione. I valori ottenuti con i due metodi sono stati poi confrontati per verificare la congruenza dei risultati. I profili di velocitĂ  hanno permesso di classificare le stazioni utilizzando la velocitĂ  media delle onde di taglio nei primi 30 m (Vs30), secondo la normativa italiana. I risultati ottenuti dalla valutazione della risposta di ciascun sito, espressi in termini di frequenza fondamentale e amplificazione, sono stati correlati con la rispettiva classe di sito per verificare l’attendibilitĂ  del parametro delle Vs30 come estimatore degli effetti di sito

    Lighting up the new order

    No full text
    • 

    corecore