106 research outputs found

    Childhood leukaemia: long-term excess mortality and the proportion ‘cured'

    Get PDF
    Survival from childhood leukaemia has increased, but the proportion of children cured is unknown. The proportion ‘cured' is defined as the proportion of survivors for whom, as a group, there is no longer excess mortality compared to the general population. Average time to cure is defined as the time since diagnosis at which the excess mortality rate has declined to or below a predetermined small value. Data on children diagnosed with leukaemia during 1971–2000 in Great Britain were used to estimate trends in survival, the proportion cured and the average time to cure. Five-year survival for all types of leukaemia combined rose from 33 to 79% by 2000. The percentage cured rose from 25 to 68% by 1995; it is predicted to increase to 73% for those diagnosed more recently. Average time to cure increased from 12 years (95% confidence interval (CI): 11–14) to 19 years (95% CI: 14–26) for lymphoid leukaemia (average annual increase of 0.3 years; P<0.001), but remained at about 5 years for acute nonlymphoblastic leukaemia. The proportion of children cured of leukaemia has risen dramatically, but the period of excess mortality associated with lymphoid leukaemia has also increased, possibly because of late relapse, secondary malignancy and toxicity from treatment

    Physician career satisfaction within specialties

    Get PDF
    <p>Abstract</p> <p>Background</p> <p>Specialty-specific data on career satisfaction may be useful for understanding physician workforce trends and for counseling medical students about career options.</p> <p>Methods</p> <p>We analyzed cross-sectional data from 6,590 physicians (response rate, 53%) in Round 4 (2004-2005) of the Community Tracking Study Physician Survey. The dependent variable ranged from +1 to -1 and measured satisfaction and dissatisfaction with career. Forty-two specialties were analyzed with survey-adjusted linear regressions</p> <p>Results</p> <p>After adjusting for physician, practice, and community characteristics, the following specialties had significantly higher satisfaction levels than family medicine: pediatric emergency medicine (regression coefficient = 0.349); geriatric medicine (0.323); other pediatric subspecialties (0.270); neonatal/prenatal medicine (0.266); internal medicine and pediatrics (combined practice) (0.250); pediatrics (0.250); dermatology (0.249);and child and adolescent psychiatry (0.203). The following specialties had significantly lower satisfaction levels than family medicine: neurological surgery (-0.707); pulmonary critical care medicine (-0.273); nephrology (-0.206); and obstetrics and gynecology (-0.188). We also found satisfaction was significantly and positively related to income and employment in a medical school but negatively associated with more than 50 work-hours per-week, being a full-owner of the practice, greater reliance on managed care revenue, and uncontrollable lifestyle. We observed no statistically significant gender differences and no differences between African-Americans and whites.</p> <p>Conclusion</p> <p>Career satisfaction varied across specialties. A number of stakeholders will likely be interested in these findings including physicians in specialties that rank high and low and students contemplating specialty. Our findings regarding "less satisfied" specialties should elicit concern from residency directors and policy makers since they appear to be in critical areas of medicine.</p

    Guidelines for the use and interpretation of assays for monitoring autophagy (4th edition)1.

    Get PDF
    In 2008, we published the first set of guidelines for standardizing research in autophagy. Since then, this topic has received increasing attention, and many scientists have entered the field. Our knowledge base and relevant new technologies have also been expanding. Thus, it is important to formulate on a regular basis updated guidelines for monitoring autophagy in different organisms. Despite numerous reviews, there continues to be confusion regarding acceptable methods to evaluate autophagy, especially in multicellular eukaryotes. Here, we present a set of guidelines for investigators to select and interpret methods to examine autophagy and related processes, and for reviewers to provide realistic and reasonable critiques of reports that are focused on these processes. These guidelines are not meant to be a dogmatic set of rules, because the appropriateness of any assay largely depends on the question being asked and the system being used. Moreover, no individual assay is perfect for every situation, calling for the use of multiple techniques to properly monitor autophagy in each experimental setting. Finally, several core components of the autophagy machinery have been implicated in distinct autophagic processes (canonical and noncanonical autophagy), implying that genetic approaches to block autophagy should rely on targeting two or more autophagy-related genes that ideally participate in distinct steps of the pathway. Along similar lines, because multiple proteins involved in autophagy also regulate other cellular pathways including apoptosis, not all of them can be used as a specific marker for bona fide autophagic responses. Here, we critically discuss current methods of assessing autophagy and the information they can, or cannot, provide. Our ultimate goal is to encourage intellectual and technical innovation in the field

    Caratterizzazione di alcuni siti della rete accelerometrica nazionale al fine di individuare la risposta sismica locale

    Get PDF
    Le indagini geotecniche finalizzate alla stima della risposta sismica locale si limitano molto spesso ai primi 30 m di profondità, valore che è diventato uno standard per la classificazione delle caratteristiche di un sito. Negli anni ’90 Borcherdt (1994) e Martin e Dobry (1994) suggerirono 30 m come la profondità standard di indagine per la verifica delle strutture. Boore et al. (1993, 1994, 1997) e Boore e Joyner (1997) basarono le regressioni per il calcolo delle leggi predittive del moto del suolo sullo stesso parametro. Nel 1997 negli Stati Uniti il National Earthquake Hazards Reduction Program (NEHRP) nella stesura delle norme tecniche per le costruzioni in zona sismica (FEMA, 1997) utilizza per la prima volta il parametro Vs30 come indice per la classificazione dei suoli, con lo scopo di definirne l’amplificazione. Le norme tecniche per le costruzioni in zona sismica della comunità Europea, EC8 (ENV, 1998) ente da dati provenienti dagli Stati Uniti occidentali e, utilizzando dati provenienti dalla stessa regione, Wald & Mori (2000) segnalano che le VS,30 non sono molto ben correlate con l’entità dell’amplificazione, in quanto esiste una forte dispersione dei dati. La figura 1.1 mostra il rapporto tra le amplificazioni, mediate sull’intervallo di frequenza compreso tra 3-5 Hz. raccomandano lo stesso parametro per suddividere i terreni, anche se le classi differiscono in parte dalla classificazione NEHRP. Infine, anche in Italia, le Norme Tecniche per le Costruzioni (Normative Tecniche per le Costruzioni, Gazzetta Ufficiale del 14/01/2008) adottano la stessa suddivisione dei terreni adottata dall’EC8.L’attendibilità della velocità delle onde di taglio nei primi 30 m (VS,30) come estimatore della risposta sismica di un sito, in termini di frequenza e amplificazione, è tuttavia molto discussa.Innanzitutto il parametro è stato ricavato unicamente da dati provenienti dagli Stati Uniti occidentali e, utilizzando dati provenienti dalla stessa regione, Wald & Mori (2000) segnalano che le Vs30 non sono molto ben correlate con l’entità dell’amplificazione, in quanto esiste una forte dispersione dei dati. La figura 1.1 mostra il rapporto tra le amplificazioni, mediate sull’intervallo di frequenza compreso tra 3-5 Hz. I valori risultano effettivamente molto dispersi, ma questo risultato può essere spiegato col fatto che non tutte le classi di sito hanno frequenza di risonanza compreso in questo intervallo di frequenza. Perciò per alcuni siti la media è stata calcolata nell’intorno della frequenza di risonanza (sulle amplificazioni massime), mentre per altri è stata calcolata sulle armoniche superiori, che hanno ampiezze minori. Lavori eseguiti con dati provenienti da altre regioni sottolineano come le Vs30 non siano buoni estimatori per la predizione di amplificazioni in bacini profondi (Park & Hashash, 2004), per la stima delle amplificazioni in altre regioni (Stewart et al., 2003) o in presenza di inversioni di velocità (Di Giacomo et al., 2005). Uno studio recente, eseguito su dati giapponesi (Zhao et al., 2006) si è evitato l’uso della Vs30 perché strati spessi di terreno rigido posti sopra il substrato roccioso amplificano il moto di lungo periodo, mentre gli strati sottili e soffici tendono ad amplificare il moto di corto periodo: ciò significa che la VS,30 non può rappresentare il periodo predominante del sito, dato che si basa solo sugli strati superficiali. Secondo Mucciarelli e Gallipoli (2006) il confronto tra l’amplificazione sismica al sito e la Vs30 mostra che quest’ultimo parametro non è adeguato per spiegare gli effetti di sito osservati in Italia a causa delle situazioni geologiche particolari che sono diffuse nel nostro paese. La figura 1.2 mostra la distribuzione dell’ampiezza rispetto alla classe di sito, in cui si vede che le classi sono mal discriminate e le mediane delle classi A e B (indicate dalla linea nera) sono uguali. È però necessario notare che questo grafico è stato costruito utilizzando le ampiezze ricavate col metodo dei rapporti spettrali H/V, ma in letteratura (Bard, 1999) è dimostrato che tali rapporti spettrali permettono di stimare la frequenza di risonanza, ma falliscono nella stima del valore di amplificazione. In particolare la Vs30 sottostima gli effetti locali ai siti con inversione di velocità e li sovrastima in siti con bacini profondi. La Vs30 sembra fornire dei buoni risultati solo in siti che abbiano un profilo di velocità monotono, crescente con la profondità e un forte contrasto di impedenza nella prima decina di metri. Questo studio si propone di verificare l’attendibilità della velocità delle onde di taglio valutate nei primi 30 m come estimatore della risposta sismica di un sito. Per questo scopo sono state selezionate 45 stazioni della Rete Accelerometrica Nazionale, di cui si conoscono i profili stratigrafici e i profili di velocità delle onde di taglio e di compressione. Inoltre sono state raccolte le registrazioni strong motion relative ai terremoti registrati da queste stazioni. Gli effetti di sito sono stati valutati in due modi: · Le registrazioni sono state utilizzate per calcolare i rapporti spettrali H/V per ricavare la frequenza fondamentale propria di ciascun sito (f0) e il relativo valore di amplificazione; · I profili di velocità delle onde di taglio sono serviti per ricavare il modello teorico monodimensionale per il calcolo della funzione di trasferimento del sito, eseguito per mezzo del modello proposto da Haskell e Thomson (Haskell, 1953, Thomson 1950), da cui ricavare la f0 e l’amplificazione. I valori ottenuti con i due metodi sono stati poi confrontati per verificare la congruenza dei risultati. I profili di velocità hanno permesso di classificare le stazioni utilizzando la velocità media delle onde di taglio nei primi 30 m (Vs30), secondo la normativa italiana. I risultati ottenuti dalla valutazione della risposta di ciascun sito, espressi in termini di frequenza fondamentale e amplificazione, sono stati correlati con la rispettiva classe di sito per verificare l’attendibilità del parametro delle Vs30 come estimatore degli effetti di sito

    Search for gravitational waves associated with gamma-ray bursts detected by Fermi and Swift during the LIGO–Virgo run O3b

    Get PDF
    We search for gravitational-wave signals associated with gamma-ray bursts (GRBs) detected by the Fermi and Swift satellites during the second half of the third observing run of Advanced LIGO and Advanced Virgo (2019 November 1 15:00 UTC–2020 March 27 17:00 UTC). We conduct two independent searches: a generic gravitational-wave transients search to analyze 86 GRBs and an analysis to target binary mergers with at least one neutron star as short GRB progenitors for 17 events. We find no significant evidence for gravitational-wave signals associated with any of these GRBs. A weighted binomial test of the combined results finds no evidence for subthreshold gravitational-wave signals associated with this GRB ensemble either. We use several source types and signal morphologies during the searches, resulting in lower bounds on the estimated distance to each GRB. Finally, we constrain the population of low-luminosity short GRBs using results from the first to the third observing runs of Advanced LIGO and Advanced Virgo. The resulting population is in accordance with the local binary neutron star merger rate

    Monitoring of Biodistribution and Persistence of Conditionally Replicative Adenovirus in a Murine Model of Ovarian Cancer Using Capsid-Incorporated mCherry and Expression of Human Somatostatin Receptor Subtype 2 Gene

    No full text
    A significant limiting factor to the human clinical application of conditionally replicative adenovirus (CRAd)-based virotherapy is the inability to noninvasively monitor these agents and their potential persistence. To address this issue, we proposed a novel imaging approach that combines transient expression of the human somatostatin receptor (SSTR) subtype 2 reporter gene with genetic labeling of the viral capsid with mCherry fluorescent protein. To test this dual modality system, we constructed the Ad5/3Δ24pIXcherry/SSTR CRAd and validated its capacity to generate fluorescent and nuclear signals in vitro and following intratumoral injection. Analysis of 64 Cu-CB-TE2A-Y3-TATE biodistribution in mice revealed reduced uptake in tumors injected with the imaging CRAd relative to the replication-incompetent, Ad-expressing SSTR2 but significantly greater uptake compared to the negative CRAd control. Optical imaging demonstrated relative correlation of fluorescent signal with virus replication as determined by viral genome quantification in tumors. Positron emission tomography/computed tomography studies demonstrated that we can visualize radioactive uptake in tumors injected with imaging CRAd and the trend for greater uptake by standardized uptake value analysis compared to control CRAd. In the aggregate, the plasticity of our dual imaging approach should provide the technical basis for monitoring CRAd biodistribution and persistence in preclinical studies while offering potential utility for a range of clinical applications
    corecore