2,495 research outputs found

    The AEP algorithm for the fast computation of the distribution of the sum of dependent random variables

    Get PDF
    We propose a new algorithm to compute numerically the distribution function of the sum of dd dependent, non-negative random variables with given joint distribution.Comment: Published in at http://dx.doi.org/10.3150/10-BEJ284 the Bernoulli (http://isi.cbs.nl/bernoulli/) by the International Statistical Institute/Bernoulli Society (http://isi.cbs.nl/BS/bshome.htm

    Targeting the acute promyelocytic leukemia-associated fusion proteins PML/RARα and PLZF/RARα with interfering peptides

    Get PDF
    In acute promyelocytic leukemia (APL), hematopoietic differentiation is blocked and immature blasts accumulate in the bone marrow and blood. APL is associated with chromosomal aberrations, including t(15;17) and t(11;17). For these two translocations, the retinoic acid receptor alpha (RARα) is fused to the promyelocytic leukemia (PML) gene or the promyelocytic zinc finger (PLZF) gene, respectively. Both fusion proteins lead to the formation of a high-molecular-weight complex. High-molecular-weight complexes are caused by the “coiled-coil” domain of PML or the BTB/POZ domain of PLZF. PML/RARα without the “coiled-coil” fails to block differentiation and mediates an all-trans retinoic acid-response. Similarly, mutations in the BTB/POZ domain disrupt the high-molecular-weight complex, abolishing the leukemic potential of PLZF/RARα. Specific interfering polypeptides were used to target the oligomerization domain of PML/RARα or PLZF/RARα. PML/RARα and PLZF/RARα were analyzed for the ability to form high-molecular-weight complexes, the protein stability and the potential to induce a leukemic phenotype in the presence of the interfering peptides. Expression of these interfering peptides resulted in a reduced replating efficiency and overcame the differentiation block induced by PML/RARα and PLZF/RARα in murine hematopoietic stem cells. This expression also destabilized the PLZF/RARα-induced high-molecular-weight complex formation and caused the degradation of the fusion protein. Targeting fusion proteins through interfering peptides is a promising approach to further elucidate the biology of leukemia

    Quantum-spacetime scenarios and soft spectral lags of the remarkable GRB130427A

    Get PDF
    We process the Fermi LAT data on GRB130427A using the Fermi Science Tools, and we summarize some of the key facts that render this observation truly remarkable, especially concerning the quality of information on high-energy emission by GRBs. We then exploit this richness for a search of spectral lags, of the type that has been recently of interest for its relevance in quantum-spacetime research. We do find some evidence of systematic soft spectral lags: when confining the analysis to photons of energies greater than 5 GeV there is an early hard development of minibursts within this long burst. The effect turns out to be well characterized quantitatively by a linear dependence, within such a miniburst, of the detection time on energy. With the guidance of our findings for GRB130427A we can then recognize that some support for these features is noticeable also in earlier Fermi-LAT GRBs, particularly for the presence of hard minibursts whose onset is marked by the highest-energy photon observed for the GRB. A comparison of these features for GRBs at different redshifts provides some encouragement for a redshift dependence of the effects of the type expected for a quantum-spacetime interpretation, but other aspects of the analysis appear to invite the interpretation as intrinsic properties of GRBs

    Confronto tra metodi di datazione per ammassi stellari aperti giovani: la Lithium Depletion Boundary e le isocrone teoriche di Sequenza Principale e di Pre-sequenza

    Get PDF
    Nel disco della nostra Galassia sono presenti raggruppamenti di stelle che prendono il nome di ammassi aperti: per le stelle che ne fanno parte si possono supporre con buona approssimazione stessa età, composizione chimica originale e distanza dalla Terra; l’unico parametro che le differenzia è la massa. Queste caratteristiche fanno sì che un ammasso sia un “laboratorio ideale” per lo studio dell’evoluzione stellare. Infatti, per stelle di una data composizione chimica i tempi evolutivi variano in funzione della massa (in particolare, stelle più massicce evolvono più velocemente): studiando gli ammassi è quindi possibile osservare le caratteristiche osservative di stelle della stessa età ed alla stessa distanza da noi in diverse fasi evolutive. Per le stelle appartenenti ad un ammasso aperto, il confronto tra tali osservabili e le predizioni dei modelli di evoluzione stellare serve sia per testare la bontà di suddetti modelli che per determinare altre caratteristiche dell’ammasso considerato. I tre principali metodi di datazione degli ammassi aperti si basano appunto su tale confronto e sono il metodo della Lithium Depletion Boundary (abbreviato LDB), quello della luminosità al Turn Off/Overall Contraction (abbreviato TO/OC) e quello delle isocrone di Pre-sequenza. Mentre il metodo della luminosità al TO/OC si basa sulle caratteristiche osservative delle stelle alla fine della fase di combustione centrale dell’idrogeno, detta Sequenza Principale, gli altri due sfruttano quelle della fase evolutiva immediatamente precedente ad essa, detta per tale motivo Pre-sequenza Principale. Un problema ben noto in letteratura è la differenza tra le età ottenute per uno stesso ammasso tramite metodi di datazione diversi. In particolare, c’è stato un notevole interesse nel paragonare due metodi completamente diversi: quello del confronto teoria-osservazioni per la luminosità della fase di TO/OC e quello della LDB, che si basa invece sulle predizioni dell’abbondanza superficiale di Litio per le stelle dell’ammasso e sulla misura di tali abbondanze. I primi studi effettuati tramite il metodo della LDB davano età sistematicamente più alte rispetto a quello della luminosità al TO/OC, di un fattore pari a circa (1.2÷1.6). Ad esempio, verso la fine degli anni ’90 la datazione tramite la LDB attribuiva all’ammasso aperto delle Pleiadi un’età di circa 120 Myr (Basri et al., 1996; Stauffer et al., 1998), mentre l’età stimata tramite il TO/OC era circa 79 Myr (Patenaude 1978). Analogamente, per l’ammasso Alpha Persei le età stimate tramite la LDB e la luminosità al TO/OC erano rispettivamente circa 78 Myr (Basri & Martin, 1999; Stauffer et al., 1999) e circa 63 Myr (Patenaude 1978). Differenze analoghe sono state riscontrate da Oliveira et al. (2003) per quanto riguarda le stime di età ottenute tramite la LDB e le isocrone di PMS per due ammassi aperti, NGC 2547 e IC 2391: per NCG 2547 il primo metodo dava un’età compresa nell’intervallo (35÷54) Myr, mentre il secondo (20÷35) Myr; per IC 2391 le età ottenute con i due metodi sono rispettivamente (48÷50)±5 Myr e (25÷40) Myr. Più recentemente singoli ammassi sono stati datati con vari metodi, ma in letteratura non è presente una revisione sistematica del problema delle discrepanze in età dovute all'utilizzo di metodi diversi. Lo scopo di questa tesi è colmare questa lacuna verificando se, confrontando i risultati più recenti disponibili in letteratura per i singoli ammassi, le differenze tra i risultati dei tre metodi continuano a persistere, oppure se negli anni le migliori tecniche osservative e la migliore precisione dei modelli stellari delle diverse fasi evolutive coinvolte hanno portato ad un maggior accordo tra i risultati ottenuti con metodi diversi. Gli ammassi aperti studiati nella presente tesi sono i nove appartenenti alla nostra Galassia per i quali si hanno stime di età tramite la LDB: Pleiadi, Alpha Persei, NGC 2547, IC 2391, Blanco 1, NGC 2169 e NGC 1960. Questi ammassi si trovano nel disco galattico, tutti in un raggio di circa 1 kpc dalla Terra, con valori di metallicità [Fe/H] che variano da circa -0.14 dex a circa +0.03 dex ed età comprese tra i 10 ed i 150 Myr. Per ognuno degli ammassi sopraelencati, ho considerato tutte le stime di età disponibili dal 2000 in poi. Quello che è emerso dal confronto è che i risultati dei tre metodi di datazione per i nove ammassi aperti studiati sono in accordo entro gli errori, a parte il caso di Alpha Persei per il quale la Lithium Depletion Boundary dà un’età maggiore oltre le rispettive barre di errore sia rispetto al metodo della luminosità al TO/OC, che a quello delle isocrone di PMS. Per questo ammasso, le età stimate tramite il metodo della LDB potrebbero essere messe in discussione: infatti, gli autori che hanno utilizzato questo metodo di datazione sembrano aver considerato un limite troppo poco stringente per discriminare tra le stelle di Pre-sequenza che hanno bruciato il Litio atmosferico e quelle che invece lo hanno preservato (in base alla larghezza equivalente della riga del Litio). Correggendo tale limite, si vede infatti che la LDB dell’ammasso non è ben definita e che quindi non è possibile datare correttamente l’ammasso tramite tale metodo con i dati spettroscopici attualmente a disposizione. Per gli ammassi NGC 2547 ed IC 4665, invece, il metodo della luminosità al TO/OC dà un’età maggiore rispetto agli altri due metodi di datazione. Tuttavia in entrambi i casi, l’incertezza sulla stima di età al TO/OC è talmente alta che si ha comunque accordo entro gli errori con le rispettive età ottenute tramite la LDB e tramite le isocrone di PMS. Come è stato evidenziato da alcuni autori, per questi due ammassi il metodo della luminosità al TO/OC è meno affidabile a causa del basso numero di stelle presenti nella parte alta della Sequenza Principale. Un risultato che è stato sottolineato nel presente lavoro è che non è più presente un’evidente discrepanza tra le età ottenute tramite il metodo della LDB e tramite quello della luminosità al TO/OC: infatti, si ha ancora una sovrastima dell’età da parte della LDB, ma comunque entro i rispettivi errori. La riduzione della discrepanza tra i due metodi è principalmente dovuta al miglioramento degli input fisici inseriti nei modelli stellari, che ha portato ad un aumento delle età stimate tramite la luminosità al TO/OC. Anche per quanto riguarda le stime di età ottenute tramite la LDB e tramite le isocrone di PMS, non sono più presenti le evidenti discrepanze riscontrate una quindicina di anni fa, tanto che attualmente i risultati dei due metodi sono confrontabili

    Self-Learning Longitudinal Control for On-Road Vehicles

    Get PDF
    Fahrerassistenzsysteme (Advanced Driver Assistance Systems) sind ein wichtiges Verkaufsargument für PKWs, fordern jedoch hohe Entwicklungskosten. Insbesondere die Parametrierung für Längsregelung, die einen wichtigen Baustein für Fahrerassistenzsysteme darstellt, benötigt viel Zeit und Geld, um die richtige Balance zwischen Insassenkomfort und Regelgüte zu treffen. Reinforcement Learning scheint ein vielversprechender Ansatz zu sein, um dies zu automatisieren. Diese Klasse von Algorithmen wurde bislang allerdings vorwiegend auf simulierte Aufgaben angewendet, die unter idealen Bedingungen stattfinden und nahezu unbegrenzte Trainingszeit ermöglichen. Unter den größten Herausforderungen für die Anwendung von Reinforcement Learning in einem realen Fahrzeug sind Trajektorienfolgeregelung und unvollständige Zustandsinformationen aufgrund von nur teilweise beobachteter Dynamik. Darüber hinaus muss ein Algorithmus, der in realen Systemen angewandt wird, innerhalb von Minuten zu einem Ergebnis kommen. Außerdem kann das Regelziel sich während der Laufzeit beliebig ändern, was eine zusätzliche Schwierigkeit für Reinforcement Learning Methoden darstellt. Diese Arbeit stellt zwei Algorithmen vor, die wenig Rechenleistung benötigen und diese Hürden überwinden. Einerseits wird ein modellfreier Reinforcement Learning Ansatz vorgeschlagen, der auf der Actor-Critic-Architektur basiert und eine spezielle Struktur in der Zustandsaktionswertfunktion verwendet, um mit teilweise beobachteten Systemen eingesetzt werden zu können. Um eine Vorsteuerung zu lernen, wird ein Regler vorgeschlagen, der sich auf eine Projektion und Trainingsdatenmanipulation stützt. Andererseits wird ein modellbasierter Algorithmus vorgeschlagen, der auf Policy Search basiert. Diesem wird eine automatisierte Entwurfsmethode für eine inversionsbasierte Vorsteuerung zur Seite gestellt. Die vorgeschlagenen Algorithmen werden in einer Reihe von Szenarien verglichen, in denen sie online, d.h. während der Fahrt und bei geschlossenem Regelkreis, in einem realen Fahrzeug lernen. Obwohl die Algorithmen etwas unterschiedlich auf verschiedene Randbedingungen reagieren, lernen beide robust und zügig und sind in der Lage, sich an verschiedene Betriebspunkte, wie zum Beispiel Geschwindigkeiten und Gänge, anzupassen, auch wenn Störungen während des Trainings einwirken. Nach bestem Wissen des Autors ist dies die erste erfolgreiche Anwendung eines Reinforcement Learning Algorithmus, der online in einem realen Fahrzeug lernt

    Transfomer Models: From Model Inspection to Applications in Patents

    Get PDF
    L'elaborazione del linguaggio naturale viene utilizzata per affrontare diversi compiti, sia di tipo linguistico, come ad esempio l'etichettatura della parte del discorso, il parsing delle dipendenze, sia più specifiche, come ad esempio la traduzione automatica e l'analisi del sentimento. Per affrontare questi compiti, nel tempo sono stati sviluppati approcci dedicati.Una metodologia che aumenta le prestazioni in tutti questi casi in modo unificato è la modellazione linguistica, che consiste nel preaddestrare un modello per sostituire i token mascherati in grandi quantità di testo, in modo casuale all'interno di pezzi di testo o in modo sequenziale uno dopo l'altro, per sviluppare rappresentazioni di uso generale che possono essere utilizzate per migliorare le prestazioni in molti compiti contemporaneamente.L'architettura di rete neurale che attualmente svolge al meglio questo compito è il transformer, inoltre, le dimensioni del modello e la quantità dei dati sono essenziali per lo sviluppo di rappresentazioni ricche di informazioni. La disponibilità di insiemi di dati su larga scala e l'uso di modelli con miliardi di parametri sono attualmente il percorso più efficace verso una migliore rappresentazione del testo.Tuttavia, i modelli di grandi dimensioni comportano una maggiore difficoltà nell'interpretazione dell'output che forniscono. Per questo motivo, sono stati condotti diversi studi per indagare le rappresentazioni fornite da modelli di transformers.In questa tesi indago questi modelli da diversi punti di vista, studiando le proprietà linguistiche delle rappresentazioni fornite da BERT, per capire se le informazioni che codifica sono localizzate all'interno di specifiche elementi della rappresentazione vettoriale. A tal fine, identifico pesi speciali che mostrano un'elevata rilevanza per diversi compiti di sondaggio linguistico. In seguito, analizzo la causa di questi particolari pesi e li collego alla distribuzione dei token e ai token speciali.Per completare questa analisi generale ed estenderla a casi d'uso più specifici, studio l'efficacia di questi modelli sui brevetti. Utilizzo modelli dedicati, per identificare entità specifiche del dominio, come le tecnologie o per segmentare il testo dei brevetti. Studio sempre l'analisi delle prestazioni integrandola con accurate misurazioni dei dati e delle proprietà del modello per capire se le conclusioni tratte per i modelli generici valgono anche in questo contesto.Natural Language Processing is used to address several tasks, linguistic related ones, e.g. part of speech tagging, dependency parsing, and downstream tasks, e.g. machine translation, sentiment analysis. To tackle these tasks, dedicated approaches have been developed over time.A methodology that increases performance on all tasks in a unified manner is language modeling, this is done by pre-training a model to replace masked tokens in large amounts of text, either randomly within chunks of text or sequentially one after the other, to develop general purpose representations that can be used to improve performance in many downstream tasks at once.The neural network architecture currently best performing this task is the transformer, moreover, model size and data scale are essential to the development of information-rich representations. The availability of large scale datasets and the use of models with billions of parameters is currently the most effective path towards better representations of text.However, with large models, comes the difficulty in interpreting the output they provide. Therefore, several studies have been carried out to investigate the representations provided by transformers models trained on large scale datasets.In this thesis I investigate these models from several perspectives, I study the linguistic properties of the representations provided by BERT, a language model mostly trained on the English Wikipedia, to understand if the information it codifies is localized within specific entries of the vector representation. Doing this I identify special weights that show high relevance to several distinct linguistic probing tasks. Subsequently, I investigate the cause of these special weights, and link them to token distribution and special tokens.To complement this general purpose analysis and extend it to more specific use cases, given the wide range of applications for language models, I study their effectiveness on technical documentation, specifically, patents. I use both general purpose and dedicated models, to identify domain-specific entities such as users of the inventions and technologies or to segment patents text. I always study performance analysis complementing it with careful measurements of data and model properties to understand if the conclusions drawn for general purpose models hold in this context as well

    Self-Learning Longitudinal Control for On-Road Vehicles

    Get PDF
    Reinforcement Learning is a promising tool to automate controller tuning. However, significant extensions are required for real-world applications to enable fast and robust learning. This work proposes several additions to the state of the art and proves their capability in a series of real world experiments

    An interview with Giorgio Dall'Aglio

    Get PDF
    In the fourth interview of the series, Dependence Modeling presents a conversation with Giorgio Dall'Aglio, an Italian mathematician and probabilist who is internationally acknowledged as one of the main contributors to the theory of Distributions with Given Marginals. In addition to describing his career path and his achievements in mathematics and probability, Giorgio Dall'Aglio portraits the several milestone mathematicians he met during his long career. In the following, our questions to Giorgio Dall'Aglio are typeset in bold-face
    • …
    corecore