106 research outputs found

    Fire design in safety engineering: likely fire curve for people’s safety

    Get PDF
    The present study analyses fire design settings according to Fire Safety Engineering (FSE) for the simulation of fire in civil activities and compares these simulations developed using natural and analytic fire curves. The simulated Heat Rate Release (HRR) curve, appropriately linearized, allows for the estimation of a Likely Fire Curve (LFC). The analytic curves have been introduced for the purpose of evaluating the strength and integrity of the structure, and the adoption of these curves in the fire safety engineering was made following the assumption that the phenomena of major intensity ensure the safe approach of fire design. This argument describes the method adopted for determining a likely fire model that guarantees a greater adherence of the virtualized phenomenon with respect to the potential event. The study showed that the analytic curve, adopted in order to verify the structural strength, in the beginning phases of fire produces fields of temperature and toxic concentrations lower than those obtained by simulation of the Likely Fire Curve. The assumption of the Likely Fire Curve model safeguards exposed people during self-rescue and emergency procedure. The programs used since 2011 for the simulation are FDS (Fire Dynamic Simulator v. 5.4.3) and Smokeview (5.4.8). Comparative analysis was developed using thermo-fluid dynamic parameters (temperature and heat release rate) relevant to the safety of the exposed persons; the case study focuses on children and employees of the nursery. The main result shows that the safety criterion, implicitly included in the analytical fire curves - normally used for fire resistance - doesn’t have the same applicability of a performance based approach on safety evaluation involving people. This paper shows that the Likely Fire Curve assumption involves a thermo-chemical stress more relevant to assessing the safety of exposed people

    Pianificazione della sicurezza antincendio negli asili nido

    Get PDF
    Lo scopo della sicurezza antincendio nelle strutture finalizzate all’attività di asili nido, con riferimento all’incolumità dei bambini, soggetti particolarmente bisognevoli di protezione attiva, rende opportuno un esame puntuale del quadro tecnico normativo, al fine di verificare l’efficacia dei requisiti minimi richiesti e garantire il non superamento dei livelli di accettabilità. Allo stato attuale, l’allegato I al D.P.R. 1 agosto 2011 n. 151 [1] colloca tra le attività soggette ai controlli di prevenzione incendi anche gli asili nido; pertanto, l’attività n° 67 (ex 85) amplia il campo di applicazione dalle scuole di ogni ordine, grado e tipo, collegi, accademie con oltre 100 persone presenti agli Asili nido con oltre 30 persone presenti. Fino all’emanazione della regola tecnica di progettazione, costruzione ed esercizio degli asili nido (D.M. 16/07/2014) [2], per la suddetta attività si sono adottati i metodo e criteri ingegneristici della sicurezza antincendio proposti dalle linee guida dalla direzione regionale del Friuli Venezia Giulia o dal comando provinciale di Palermo. La normativa vigente, risolve formalmente il problema dell’adeguamento legislativo, introducendo l’osservanza della norma tecnica verticale anche per gli asili nido, ma tale provvedimento di fatto non risolve né le condizioni di criticità derivanti dalle caratteristiche psicofisiche degli utenti, né le condizioni di criticità strutturali ed organizzative che edifici storici o ubicati in ambiti urbanistici di particolari specificità possono presentare. Tale deficit può essere superato adottando il Decreto Ministeriale 9 maggio 2007 "direttive per l'attuazione dell'approccio ingegneristico alla sicurezza antincendio” nell’ambito dei procedimenti di prevenzione incendi [3]. In questo articolo viene proposto, nell’ambito della fire safety engineering, un criterio di modellazione del fire design per la determinazione dei parametri termo-fluidodinamici rilevanti per la sicurezza degli esposti in asili nido ed il confronto con le rispettive curva di incendio naturale e nominali di più frequente utilizzo. I fattori determinanti nella difesa dagli incendi in queste attività sono influenzati pesantemente dalle peculiarità che contraddistinguono gli utenti: bambini tra 0 e 3 anni di età, non autosufficienti e bisognevoli di assistenza in condizioni ordinarie e ancor più in caso di emergenza. Gli strumenti di modellazione adottati per la simulazioni sono FDS 5 e Smokeview 5.4.8 prodotti dal National Institute of Standards and Technology (NIST) [4], [5]. Il volume di studio analizzato risulta circoscritto al solo spazio della sala multiattività ed è stato simulato per una durata del fenomeno non superiore ai 15 minuti dopo l’innesco, in considerazione del fatto che la valutazione del flusso di pericolo verso gli esposti è rilevante solo in questa prima fase nella quale viene attivato l’autosoccorso. Sono stati costruiti in FDS tre ambienti con arredo tipico presente in asilo nido [6], differenziati per dimensioni geometriche, aperture di ventilazione e quantitativo di materiale combustibile. Per ognuno dei tre ambienti è stata prevista una duplice simulazione; in un caso, i parametri d’incendio sono stati ricavati dalla simulazione caratterizzata dalla funzione HRR analitica, mentre nell’altro caso la funzione HRR è stata ricavata a posteriori, procedendo ad una simulazione di incendio naturale nel locale realisticamente arredato, condizionata dall’innesco minimo efficace. Dall’andamento delle curve HRR simulate, opportunamente linearizzate, sono state quindi ricavate tre Curva di Incendio Verosimili (CIV). Il confronto tra i parametri d’incendio ha riguardato le curve di rilascio termico [kW-t] costruite sulla base dei risultati delle tre differenti simulazioni esaminate e le corrispondenti curve d’incendio analitiche che costituiscono il riferimento normativo nell’ambito dell’ingegneria antincendio. Le curve naturali di più consolidato utilizzo sono state introdotte allo scopo di procedere alla verifica della resistenza strutturale: l’adozione di questi modelli nell’ambito della ingegneria antincendio finalizzata alla sicurezza degli esposti è avvenuta per analogia, nell’assunto che i fenomeni di intensità rilevante che queste rappresentano garantiscano un’implicita cautela nella scelta del fire design. Lo studio evidenzia invece che la curva analitica, la cui adozione è adatta allo scopo di verificare la resistenza strutturale, genera campi di temperature e di concentrazioni tossiche inferiori a quelli ottenuti con la simulazione completa dell’incendio naturale nelle fasi di innesco e crescita, cioè nelle fasi temporali che richiedono l’attivazione dell’autosoccorso e la gestione dell’esodo. Questo risultato dimostra che l’assunzione del criterio di verifica implicitamente contenuto nelle curve di incendio analitiche non presenta il carattere di cautela che un criterio uniformato dovrebbe contenere. Tale considerazione indica l’opportunità di adottare i modelli di fluido dinamica computazionale allo scopo di dimensionare la curva d’incendio rappresentativa del modello di sollecitazione in esame (HRRCIV); l’adozione del suddetto modello per l’analisi termo-fluido dinamica e d’esodo estesa all’intera struttura garantisce una maggiore verosimiglianza degli scenari d’incendio scelti per la valutazione di sicurezza degli esposti, che nel caso specifico sono risultati più gravosi. Poter disporre di modelli termo-chimici ad hoc per le diverse attività soggette ai controlli di prevenzione incendi rappresenta il punto di partenza per progettare il complesso di misure gestionali e di protezione idonee al raggiungimento del luogo sicuro in tempi compatibili con il superamento dei livelli di letalità nella struttura causati dell’incendio. Questo concetto viene riassunto con la formula ASET>RSET [7]; la combinazione tra sollecitazione termica e concentrazione dei gas tossici rappresenta l’elemento che maggiormente condiziona il tempo disponibile all’esodo

    parSMURF, a high-performance computing tool for the genome-wide detection of pathogenic variants.

    Get PDF
    BACKGROUND: Several prediction problems in computational biology and genomic medicine are characterized by both big data as well as a high imbalance between examples to be learned, whereby positive examples can represent a tiny minority with respect to negative examples. For instance, deleterious or pathogenic variants are overwhelmed by the sea of neutral variants in the non-coding regions of the genome: thus, the prediction of deleterious variants is a challenging, highly imbalanced classification problem, and classical prediction tools fail to detect the rare pathogenic examples among the huge amount of neutral variants or undergo severe restrictions in managing big genomic data. RESULTS: To overcome these limitations we propose parSMURF, a method that adopts a hyper-ensemble approach and oversampling and undersampling techniques to deal with imbalanced data, and parallel computational techniques to both manage big genomic data and substantially speed up the computation. The synergy between Bayesian optimization techniques and the parallel nature of parSMURF enables efficient and user-friendly automatic tuning of the hyper-parameters of the algorithm, and allows specific learning problems in genomic medicine to be easily fit. Moreover, by using MPI parallel and machine learning ensemble techniques, parSMURF can manage big data by partitioning them across the nodes of a high-performance computing cluster. Results with synthetic data and with single-nucleotide variants associated with Mendelian diseases and with genome-wide association study hits in the non-coding regions of the human genome, involhing millions of examples, show that parSMURF achieves state-of-the-art results and an 80-fold speed-up with respect to the sequential version. CONCLUSIONS: parSMURF is a parallel machine learning tool that can be trained to learn different genomic problems, and its multiple levels of parallelization and high scalability allow us to efficiently fit problems characterized by big and imbalanced genomic data. The C++ OpenMP multi-core version tailored to a single workstation and the C++ MPI/OpenMP hybrid multi-core and multi-node parSMURF version tailored to a High Performance Computing cluster are both available at https://github.com/AnacletoLAB/parSMURF

    Ceftolozane/Tazobactam for Treatment of Severe ESBL-Producing Enterobacterales Infections: A Multicenter Nationwide Clinical Experience (CEFTABUSE II Study)

    Get PDF
    Background. Few data are reported in the literature about the outcome of patients with severe extended-spectrum beta-lactamase-producing Enterobacterales (ESBL-E) infections treated with ceftolozane/tazobactam (C/T), in empiric or definitive therapy.Methods. A multicenter retrospective study was performed in Italy (June 2016-June 2019). Successful clinical outcome was defined as complete resolution of clinical signs/symptoms related to ESBL-E infection and lack of microbiological evidence of infection. The primary end point was to identify predictors of clinical failure of C/T therapy.Results. C/T treatment was documented in 153 patients: pneumonia was the most common diagnosis (n = 46, 30%), followed by 34 cases of complicated urinary tract infections (22.2%). Septic shock was observed in 42 (27.5%) patients. C/T was used as empiric therapy in 46 (30%) patients and as monotherapy in 127 (83%) patients. Favorable clinical outcome was observed in 128 (83.7%) patients; 25 patients were considered to have failed C/T therapy. Overall, 30-day mortality was reported for 15 (9.8%) patients. At multivariate analysis, Charlson comorbidity index >4 (odds ratio [OR], 2.3; 95% confidence interval [CI], 1.9-3.5; P = .02), septic shock (OR, 6.2; 95% CI, 3.8-7.9; P < .001), and continuous renal replacement therapy (OR, 3.1; 95% CI, 1.9-5.3; P = .001) were independently associated with clinical failure, whereas empiric therapy displaying in vitro activity (OR, 0.12; 95% CI, 0.01-0.34; P < .001) and adequate source control of infection (OR, 0.42; 95% CI, 0.14-0.55; P < .001) were associated with clinical success.Conclusions. Data show that C/T could be a valid option in empiric and/or targeted therapy in patients with severe infections caused by ESBL-producing Enterobacterales. Clinicians should be aware of the risk of clinical failure with standard-dose C/T therapy in septic patients receiving CRRT

    Italian guidelines for the use of antiretroviral agents and the diagnostic-clinical management of HIV-1 infected persons. Update December 2014

    Get PDF

    The CAFA challenge reports improved protein function prediction and new functional annotations for hundreds of genes through experimental screens

    Get PDF
    Background The Critical Assessment of Functional Annotation (CAFA) is an ongoing, global, community-driven effort to evaluate and improve the computational annotation of protein function. Results Here, we report on the results of the third CAFA challenge, CAFA3, that featured an expanded analysis over the previous CAFA rounds, both in terms of volume of data analyzed and the types of analysis performed. In a novel and major new development, computational predictions and assessment goals drove some of the experimental assays, resulting in new functional annotations for more than 1000 genes. Specifically, we performed experimental whole-genome mutation screening in Candida albicans and Pseudomonas aureginosa genomes, which provided us with genome-wide experimental data for genes associated with biofilm formation and motility. We further performed targeted assays on selected genes in Drosophila melanogaster, which we suspected of being involved in long-term memory. Conclusion We conclude that while predictions of the molecular function and biological process annotations have slightly improved over time, those of the cellular component have not. Term-centric prediction of experimental annotations remains equally challenging; although the performance of the top methods is significantly better than the expectations set by baseline methods in C. albicans and D. melanogaster, it leaves considerable room and need for improvement. Finally, we report that the CAFA community now involves a broad range of participants with expertise in bioinformatics, biological experimentation, biocuration, and bio-ontologies, working together to improve functional annotation, computational function prediction, and our ability to manage big data in the era of large experimental screens.Peer reviewe
    corecore