245 research outputs found

    Italian National Recovery and Resilience Plan: a Healthcare Renaissance after the COVID-19 crisis?

    Get PDF
    : Proposed for the first time by European Commission in May 2020, the "NextGenerationEU" (NGEU) program is the European Union's most important effort to address key issues relating to public health and healthcare, digital and technological innovation, climate change, sustainable mobility, and key sociocultural aspects. In addition, the NGEU represents a response to the COVID-19 crisis through an extremely powerful financial intervention (over 800 billion euros). Italy is one of the main recipients of the NGEU plan's resources with almost 200 billion euros received in grants and loans. Implementation of the NGEU in Italy will take place through the National Recovery and Resilience Plan (NRRP). The NRRP not only describes how the NGEU resources will be used, but it singles out crucial public law reforms in national legislation and organization. Unsurprisingly, public health intervention represents a major component of the NRRP. Here we summarize and discuss the rules, regulations and perspective envisaged by the NRRP to foster effective healthcare and to reshape the Italian National Health System through the redesigning of primary care, enhanced communication between hospital and community healthcare, and stronger implementation of digital technologies in public health. (www.actabiomedica.it)

    Public health and public law issues for the toxicological risk assessment of chemical mixtures

    Get PDF
    Humans are simultaneously exposed to a near-infinite number of substances of both nutritional and toxicological interest. While traditional risk assessment has been based on the evaluation of effects of single substances, real-life exposure is characterized by their combination into chemical mixtures. As consequence, the need to focus on substance interactions is of considerable relevance. From the public health point of view, factors able to modulate the kinetic and toxicity of chemicals need to be included in the assessment of health effects. Several European projects including SOLUTIONS, EuroMix, ECD-MixRisk and HBM4EU have been implemented aiming at the characterization of hazardous properties of chemical mixtures and the development of new approaches and tools for their risk assessment, including advanced statistical methodologies. From the public law point of view, the legislative status of mixtures is outlined in a still general way, with a specific focus on a few substances only, e.g. dietary exposure to pesticide residues. Although some advances have been made with the ongoing revision of CLP Regulation specifically focusing also on chemical mixtures, identification of mixtures and the regulation of their use raise relevant and challenging issues to be timely addressed within a collaboration of specialists from toxicology, public health, and public law. Moreover, given the transnational scope of the problem, risk assessment of chemical mixtures presents a valuable occasion for a comparative law approach

    Towards the dismissal of null hypothesis/statistical significance testing in public health, public law and toxicology

    Get PDF
    Null hypothesis significance testing (NHST) text was once widely popular and almost systematically used for the identification of causal relations and for risk assessment in toxicology and medicine. Interestingly, the public law world has been more prudent and more advanced than the biomedical one in the use of this dichotomous approach, based on the conventional p-value cut-points of 0.05/0.001, to assess causality. The recent 2016 statement by the American Statistical Association, the joint action by methodologists in all fields of science, and not least the seminal decisions by the US Supreme Court have highlighted the pitfalls of the dichotomous approach embedded in NHST. Overall, they also indicated the need to entirely dismiss NHST when assessing causal relations, favoring instead a more flexible and adequate approach for data analysis and interpretation. The demise of statistical significance testing would have major beneficial implications for risk assessment in toxicology, public health, and human medicine, alongside important public law implications. It could also lead to a reanalysis and re-interpretation of previous studies and bodies of evidence that may have been inaccurately assessed due to the flaws inherent in NHST

    Revising the legislation of Ethics Committees to ease biomedical research in humans across the world: lessons from the COVID-19 emergency

    Get PDF
    : As a legislative domain that considerably influences implementation of biomedical research, the need to improve the legal rules surrounding the organization and functioning of Ethics Committees in public health, toxicology, and clinical medicine is widely recognized within and outside the European Union. Given the often-heard complaints by researchers about the complexity and length of both the application and the review process by Ethics Committees in the authorization of new studies, adjustments to their legislation appears to be warranted. Within the European Union this seems also all the timelier, given the upcoming new regulation of clinical trials to become effective in early 2022. For this process, valuable lessons can be gleaned from the COVID-19 pandemic and the changes in the functioning of Ethics Committees that were adopted to cope with the exceptional circumstances imposed by the health emergency. The pandemic experience clearly indicates that a more responsive and practical system of applications' review by the Ethics Committees can be squared with acceptable levels of transparency and reliability in ethical accountability. For this reason, countries like Italy should consider undertaking a significant revision of the public law rules that govern the review processes of Ethics Committees in light of the pandemic experience. (www.actabiomedica.it)

    Alimentazione, ambiente e malattie cronico-degenerative: nuove metodologie di valutazione del rischio

    Get PDF
    Introduzione La valutazione del rischio sanitario associato a fattori di interesse nutrizionale e/o tossicologico (risk assessment) rappresenta un ambito di grande interesse per la popolazione generale, la comunità scientifica e gli operatori di sanità pubblica. Tale processo mira a definire adeguate misure ed indicazioni di sicurezza alimentare, ambientale e occupazionale, e favorire un’appropriata comunicazione del rischio ed efficaci interventi di medicina preventiva. Alla valutazione dei rischi sanitari attribuibili ai diversi fattori di tipo chimico e fisico presenti negli alimenti e negli ambienti di vita e di lavoro (‘fattori ambientali’ in senso lato) contribuiscono da un lato i singoli ricercatori attraverso i loro lavori originali di ricerca o meta-analisi, dall’altro gli enti e le istituzioni specificatamente deputati al processo di risk assessment, quali nello specifico per l’Unione Europea la European Food Safety Authority (EFSA), con sede nel nostro Paese a Parma. La valutazione del rischio attribuibile ai fattori ambientali e nutrizionali prevede diverse fasi metodologiche, tre delle quali sono state soggette a profonde innovazioni nel corso degli ultimi anni e sono di seguito brevemente analizzate: 1) l’identificazione e la valutazione metodologica della letteratura epidemiologica; 2) l’analisi ed interpretazione dei risultati di tale letteratura; 3) la formulazione di valutazioni finali condivise, superando eventuali differenze di opinione tra gli esperti. Identificazione e valutazione della letteratura pertinente al risk assessment Non vi è dubbio come ogni processo di valutazione del rischio sanitario debba basarsi in primo luogo sull’identificazione della letteratura scientifica pertinente. A tal fine, è naturalmente necessario effettuare una ricerca bibliografica rigorosa, completa ed infine illustrata in modo ‘trasparente’. In questa prospettiva, la metodologia adottata dai processi di valutazione del rischio sanitario si avvicina molto a quella adottata per le rassegne sistematiche, caratterizzandosi per una scelta il più possibile estensiva delle ‘parole chiave’ per identificare la letteratura di interesse, e per una strategia di ricerca e selezione degli studi facilmente riproducibile da chiunque. Ciò comporta l’uso di archivi bibliografici quali PubMed e la nota banca dati da esso contenuta Medline, EMBASE, Scopus e Web of Science (anche quest’ultimi contenenti Medline), ed eventualmente Google Scholar (in realtà più motore di ricerca che archivio bibliografico in senso proprio). Viene talora utilizzata per il risk assessment anche la letteratura ‘grigia’, ritrovabile però mediante ricerche complesse e non facilmente riproducibili attraverso archivi quali Conference Proceedings Citation Indexes di WoS, ERIC, PsycINFO, CINHAL, ProQuest Dissertations & Theses Global, International Guideline Library, e l’URL http://www.opengrey.eu/. L’appropriatezza dell’uso di tale letteratura grigia è tuttavia controversa, trattandosi di materiale bibliografico talora di limitata qualità e non sottoposto a valutazione ‘tra pari’. Dopo aver identificato gli articoli di interesse, occorre valutarne la pertinenza mediante l’esame del loro testo integrale, ed infine compiere una valutazione della qualità metodologica (critical appraisal o risk of bias assessment). Quest’ultimo processo è estremamente delicato ed influenza in modo sostanziale l’intero processo di valutazione del rischio. Esso prevede la valutazione delle principali distorsioni metodologiche degli studi, quali errori nella stima espositiva, presenza di confondimento, distorsione di selezione e di classificazione degli esiti sanitari, descrizione incompleta dei risultati e improprietà dell’elaborazione statistica. Valutazioni di questo tipo vengono frequentemente effettuate mediante l’uso di ‘griglie’ precodificate (quali il Risk of Bias della Cochrane Collaboration, o l’OHAT del National Toxicologiy Program statunitense). L’uso di tali griglie, tuttavia, non elimina del tutto la soggettività intrinseca del processo valutativo, con inevitabili conseguenze sul giudizio globale dell’evidenza scientifica resa disponibile da tali studi e quindi sui risultati finali del risk assessment, specie qualora ci si intenda basare essenzialmente sugli studi considerati di buona qualità. In questa prospettiva, una valutazione troppo severa delle distorsioni comporta l’eliminazione ingiustificata di studi potenzialmente interessanti (sino ad azzerare in alcuni casi l’intera disponibilità di studi!), compromettendo il processo di risk assessment. Al contrario, un processo di valutazione delle distorsioni troppo blando può portare all’inclusione nel processo valutativo di letteratura di validità incerta o francamente inadeguata, anche in questo caso viziando le valutazioni finali. Metodologia di analisi ed interpretazione dei dati L’analisi dei dati complessivamente generati dalla letteratura scientifica, sia di tipo epidemiologico che tossicologico, rappresenta un passaggio cruciale per il risk assessment. In questo ambito, due sono le metodologie epidemiologico-biostatistiche il cui uso si sta progressivamente diffondendo nell’ambito della sanità pubblica, con effetti benefici anche sul processo di risk assessment. In primo luogo, nel corso degli ultimi anni si è assistito ad un incremento esponenziale dell’uso di metodologie biostatistiche ‘dose-risposta’ nell’ambito del processo di risk assessment e più in generale nella ricerca epidemiologica e nelle rassegne sistematiche. Tali metodologie consistono essenzialmente nella cosiddetta spline regression analysis, di cui oggi è divenuto sempre più frequente l’applicazione non solo agli studi originali ma anche alle meta-analisi, mediante routines messe a punto da statistici quali l’italiano Nicola Orsini (www.ncbi.nlm.nih.gov/pubmed/22135359). Tali procedure, il cui codice sorgente è liberamente disponibile per programmi statistici quali R e Stata (https://ideas.repec.org/c/boc/bocode/s458546.html), permettono uno straordinario rafforzamento del processo di risk assessment, in quanto consentono di modellizzare con precisione relazioni complesse quali quelle caratterizzanti gli effetti sanitari dei fattori ambientali e nutrizionali. Tali relazioni, infatti, sono frequentemente non-lineari, caratterizzandosi per curve ad ‘U’ o ‘J’ o di tipologia più complessa, persino nei casi di sostanze cancerogene specie se non genotossiche e certamente nel caso di fattori nutrizionali. La descrizione precisa la rappresentazione grafica di tali relazioni dose-risposta non lineari permette pertanto di identificare le soglie espositive alle quali si verificano effetti carenziali e/o tossici in associazione a specifiche esposizioni ambientali e nutrizionali. Tali informazioni sono di grande rilevanza per il risk assessment in quanto permettono di individuare standards quali il ‘safe level’, l’upper level e il lower level delle esposizioni di interesse. I processi di valutazione del rischio hanno infatti generalmente e arbitrariamente assunto l’esistenza di relazioni lineari tra esposizioni ed effetti sanitari, ignorando la complessità di tali relazioni specie nel caso di fattori aventi sia proprietà nutrizionali che tossicologiche. Pertanto, sulla base di tali erronee assunzioni di linearità, sono state generalmente utilizzate nel risk assessment metodologie biostatistiche quali procedure di regressione logistica o lineare o persino semplici analisi di correlazione. Per quanto riguarda le meta-analisi, l’assunzione aprioristica di relazioni lineari tra esposizioni e relativi effetti sanitari ha portato al diffondersi dell’uso dei forest plots, cioè della rappresentazione grafica del rischio relativo associato alla categoria espositiva più elevata esaminata in ciascun studio rispetto a quella meno elevata, con in aggiunta il calcolo del rischio relativo cumulativo. I limiti di tale metodologia sono evidenti: essa non è infatti in grado di modellizzare le relazioni dose-risposta complesse e non lineari, ed in modo particolare quelle che possono caratterizzare i livelli espositivi intermedi. In secondo luogo, tale approccio è caratterizzato dalla comparazione delle categorie espositive tratte dai diversi studi e generalmente assai diverse tra loro. Tale eterogeneità determina l’impropriatezza delle comparazioni effettuate tra gli studi e dello stesso rischio relativo cumulativo, come evidenziano altresì le profonde differenze tra i risultati generati dalle due metodologie in alcuni specifici contesti di valutazione del rischio (https://www.ahajournals.org/doi/pdf/10.1161/JAHA.116.004210). Una seconda, fondamentale problematica metodologica associata all’analisi dei dati ed all’interpretazione dei risultati è legata all’uso del valore della cosiddetta ‘funzione P’ come indicatore della presenza di effetti ‘causali’, generalmente attraverso la sua dicotomizzazione sulla base delle due soglie tradizionali pari a 0.05 e 0.001. Questo approccio consente l’individuazione in un singolo studio o in una meta-analisi della cosiddetta ‘significatività statistica’ dei risultati ottenuti, cioè dell’erroneità della cosiddetta ‘ipotesi nulla’. Tale metodologia ha sfortunatamente pervaso l’intera ricerca biomedica (nonché altre discipline) da quasi un secolo, da quando cioè nel 1925 lo statistico inglese Ronald Fisher ipotizzò come un valore di P inferiore a 0.05 consentisse di attribuire l’esistenza della cosiddetta ‘significatività’ alle differenze osservate tra singoli sottogruppi nell’ambito di uno studio. Questo approccio ha esercitato gravi effetti sull’analisi e l’interpretazione dei risultati della ricerca scientifica, assegnando in modo erroneo a tale valore di 0.05 la capacità di validare o escludere l’effettiva esistenza di relazioni causali. Intere generazioni di professionisti e ricercatori, specie in ambito sanitario, si sono così formate all’uso di tale criterio ‘convenzionale’ nell’interpretazione dei risultati delle analisi statistiche, col rischio di commettere in tal modo seri errori metodologici quali l’attribuzione di un effettivo ruolo causale alle associazioni ‘statisticamente significative’ (<0.05 e soprattutto <0.001) o l’esclusione di tale nesso di causalità nel caso opposto. L’apprezzabile lavoro di metodologi quale l’epidemiologo statunitense Kenneth Rothman e numerosi altri ricercatori e metodologi, e più recentemente dell’intera Associazione Statistica degli Stati Uniti (https://amstat.tandfonline.com/doi/full/10.1080/00031305.2016.1154108) ha evidenziato l’impropriatezza delle interpretazioni basate sulla significatività statistica e quindi su soglie prefissate del valore di P. Recentemente, un articolo di Nature (https://www.nature.com/articles/d41586-019-00857-9), sottoscritto da diverse centinaia di ricercatori e prontamente ripreso dalla Società Italina di Igiene nel numero del 13 aprile 2019 di ‘Igienisti-on-line’ (http://www.igienistionline.it/archivio/2019/10.htm), ha ribadito l’importanza di abbandonare l’uso e il concetto della significatività statistica, a favore dell’analisi delle stime di effetto, della loro instabilità statistica (illustrata dagli intervalli di confidenza) e dell’analisi delle distorsioni metodologiche caratterizzanti i singoli studi. Anche nelle procedure di risk assessment, pertanto, l’uso della significatività statistica sta conoscendo una profonda ‘crisi d’identità’, con progressiva diminuzione della sua utilizzazione e della sua validità metodologica, come già da tempo riconosciuto da Enti quali l’EFSA (https://efsa.onlinelibrary.wiley.com/doi/epdf/10.2903/j.efsa.2011.2372). Gestione delle differenze di opinione nel processo di valutazione del rischio I processi di valutazione del rischio sono generalmente effettuati da gruppi di lavoro comprendenti diversi esperti nelle tematiche prese in esame (quali epidemiologia, tossicologia e nutrizione). Tali esperti procedono all’individuazione della letteratura di interesse, all’analisi dei suoi risultati eventualmente anche mediante la conduzione di meta-analisi e la considerazione delle evidenze e plausibilità biologico-tossicologiche accanto a quelle epidemiologiche, ed infine all’individuazione di standard espositivi quali ad esempio average requirement (AR), adequate intake (AI), Tolerable Upper Intake Level (UL) e reference intake range (RI). Può naturalmente accadere che nel processo di risk assessment i membri di un singolo gruppo di lavoro manifestino differenze interpretative e valutative anche marcate sui reali livelli espositivi, carenziali o da eccesso, associabili ad effetti nocivi per la salute umana, e quindi sugli esiti del risk assessment. Esistono al proposito modalità per la gestione e la composizione di tali conflitti d’opinione, che prevedono tra l’altro la formulazione corretta dei quesiti, la formazione progressiva di un consenso tra gli esperti, e la documentazione trasparente e accurata di tale processo e delle aree residue di incertezza. Tecniche di gestione e superamento delle differenze d’opinione di questo tipo sono denominate Expert Knowledge Elicitation, e sono sempre più frequentemente adottate da agenzie quali l’EFSA (https://efsa.onlinelibrary.wiley.com/doi/epdf/10.2903/j.efsa.2014.3734). Tali metodologie, di cui esistono diverse varianti, mirano ad ottenere dagli esperti l’affinamento delle proprie opinioni sulle soglie di rischio, procedendo con sistematici aggiustamenti e riesami al progressivo avvicinamento delle opinioni dei diversi esperti, senza permettere a nessuno di essi di ‘prevaricare’ nel processo decisionale, e al contempo evitando di renderne irrilevante il contributo. Un interessante esempio dell’uso e dell’importanza di tali metodologie nel processo di valutazione del rischio è stato recentemente offerto da EFSA nel formulare la sua opinione sui livelli ottimali dell’assunzione di sodio attraverso la dieta, pubblicata nel settembre 2019 (https://efsa.onlinelibrary.wiley.com/doi/epdf/10.2903/j.efsa.2019.5778)

    Cadmium exposure and risk of prediabetes and diabetes: A systematic review and dose-response meta-analysis

    Get PDF
    BACKGROUND AND AIM: Elevated cadmium exposure has been associated with altered glucose metabolism, albeit the shape of such relation is still debated. We aimed at investigating the shape of the relation between cadmium exposure and type 2 diabetes and prediabetes. METHODS: We performed a systematic review with meta-analysis on the relation between biomarkers of cadmium exposure and disease risk. After performing an online literature search through March 15, 2021, we identified 34 eligible studies with cohort, cross-sectional and case-control design. RESULTS:In the meta-analysis comparing highest-versus-lowest cadmium exposure, there was an increased type 2 diabetes risk, with summary risk ratios (RRs) of 1.30 (95% confidence interval (CI): 1.00-1.69), 1.22 (95% CI 1.00-1.50), and 1.47 (95% CI 1.01-2.13) for blood, urine, and toenail cadmium concentrations, respectively. Similarly, we found a higher prediabetes risk in subjects with higher both urine and blood cadmium concentrations with RRs of 1.41 (95% CI 1.15-1.73) and 1.38 (95% CI 1.16-1.63), respectively. In the dose-response meta-analysis, compared with no exposure, prediabetes risk increased up to approximately 2 µg Cd/g creatinine, above which it reached a plateau with RR of 1.40 (95% CI 1.12-1.76) at 2 µg Cd/g creatinine. We also detected a substantial linear positive association between diabetes risk and urinary cadmium, with RR of 1.30 (95% CI 0.92-1.84) at 2.0 µg Cd/g creatinine. Diabetes risk also appeared to increase with higher blood cadmium concentrations but only above 1 µg/L, with RR of 3.25 (95% CI 1.13-9.37) at 2 µg/L. Despite limited data, there was little indication of differences in association by study design (cohort vs. case-control or cross-sectional), method of cadmium assessment, or sex (male vs. female). CONCLUSIONS:Overall, there was consistent evidence for a positive association between cadmium exposure and both prediabetes and diabetes risk. KEYWORDS: Heavy metals, Cardiovascular diseases, Endocrine disrupting chemicals, Environmental epidemiology, Toxicolog

    Dual role of selenium in health and disease

    Get PDF
    The relation between selenium and the etiology of human diseases is still partially unclear, appears to have a Janus-faced nature and is influenced by the chemical form of the element. While selenium was suggested to decrease cancer risk by observational studies and a randomized controlled trial (RCT), recent large RCTs showed no effect or even adverse effects of selenium on cancer risk, suggesting that the earliest studies were affected by exposure misclassification or unmeasured confounding. RCTs also showed no influence of selenium on cardiovascular risk and an adverse effect on diabetes risk. Conversely, RCTs indicated a beneficial effect of selenium on Keshan disease, a cardiomyopathy described in low-selenium areas in China, though the etiology of this disease is still not entirely elucidated. Selenium may also be involved in the etiology of neurological disease. This dual and intriguing activity of selenium on human health shown by epidemiologic studies is mirrored by laboratory studies. Thus, there is the need of a reassessment of what constitutes a safe intake of selenium in humans
    • …
    corecore