729 research outputs found

    The environment and amyotrophic lateral sclerosis: converging clues from epidemiologic studies worldwide

    Get PDF
    The etiology of one of the most severe human neurological diseases, amyotrophic lateral sclerosis (ALS), remains obscure nearly 150 years after its original description by Charcot, despite substantial advancements in the biomedical research on this disease. The possibility that one or more environmental risk factors may trigger or contribute to the degenerative process of motor neurons characterizing this devastating disease remains appealing, and it is supported by a number of epidemiologic studies, though specific causative factors are yet to be confirmed. Among these, pesticides, the metalloid selenium and heavy metals, trauma, electrical shocks, magnetic fields and several other environmental factors, including infectious agents, have been associated with an excess risk of the disease, and geographical analyses appear to add support for an environmental etiology of the disease.Converging indications from different epidemiologic studies and contexts represent an important clue to the validity of etiological hypotheses. Therefore, the results of the study by Das et al. published in this issue of the Journal appear to be particularly interesting as they add further indications of an etiologic role in ALS of some putative environmental risk factors from a setting entirely different from those subject of epidemiologic studies in Western countries, and apparently never previously investigated with regard to the study hypotheses. In particular, this study, carried out in eastern India using a sound methodological approach, provides evidence of an etiologic role of pesticides (not farming per se), smoking, and electrical shock, though these results must be weighed against studies that have reported conflicting results, duly mentioned by the authors. This discrepancy underscores the need to address these etiological hypotheses in large epidemiologic studies in different geographic areas, seeking better concordance. Such effort would greatly help to confirm or refute previously identified risk factors and make them more specific, e.g., to identify the specific toxin in tobacco smoke, or single drinking water chemicals and neurotoxic pesticides to which the neurodegenerative process may be at least in part ascribed. Furthermore, this evidence should be further investigated in light of the results of genetic studies, whose contribution may be to identify factors that make some people more susceptible to environmental factors, in line with the environment-gene interplay that is currently considered to underlie most chronic disease. Although researchers have so far been unable to confirm in an unequivocal manner an environmental etiology of ALS or to identify any of its singular causes, valuable contributions, studies such as the present one by Das et al. are important to elucidate this still elusive and disturbing issue, which should be considered a primary research priority in biomedical research

    Frutalose®, a mixture of fructans obtained from enzymatic hydrolysis of chicory inulin, and normal defecation: evaluation of a health claim pursuant to Article 13(5) of Regulation (EC) No 1924/2006

    Get PDF
    Following an application from Sensus B.V. (Royal Cosun), submitted for authorisation of a health claim pursuant to Article 13(5) of Regulation (EC) No 1924/2006 via the Competent Authority of the Netherlands, the EFSA Panel on Dietetic Products, Nutrition and Allergies (NDA) was asked to deliver an opinion on the scientific substantiation of a health claim related to Frutalose® and maintenance of normal defecation. The scope of the application was proposed to fall under a health claim based on newly developed scientific evidence. The Panel considers that Frutalose®, a mixture of fructans obtained from enzymatic hydrolysis of chicory inulin, is sufficiently characterised. The claimed effect proposed by the applicant is ‘contributes to regular bowel function by increasing stool frequency’. The proposed target population is ‘the general healthy adult population’. Maintenance of normal defecation is a beneficial physiological effect provided that it does not result in diarrhoea. One human intervention study showed an effect of Frutalose® on the maintenance of normal defecation by increasing stool frequency and improving stool consistency (softer stools) when consumed daily at a dose of 15 g for 8 weeks. The results have not been replicated in other studies. There is a plausible mechanism by which Frutalose® could exert the claimed effect. The Panel concludes that the evidence provided is insufficient to establish a cause and effect relationship between the consumption of Frutalose® and maintenance of normal defecation under the proposed conditions of use

    More results but no clear conclusion on selenium and cancer.

    Get PDF
    More results but no clear conclusion on selenium and cancer

    Alimentazione, ambiente e malattie cronico-degenerative: nuove metodologie di valutazione del rischio

    Get PDF
    Introduzione La valutazione del rischio sanitario associato a fattori di interesse nutrizionale e/o tossicologico (risk assessment) rappresenta un ambito di grande interesse per la popolazione generale, la comunità scientifica e gli operatori di sanità pubblica. Tale processo mira a definire adeguate misure ed indicazioni di sicurezza alimentare, ambientale e occupazionale, e favorire un’appropriata comunicazione del rischio ed efficaci interventi di medicina preventiva. Alla valutazione dei rischi sanitari attribuibili ai diversi fattori di tipo chimico e fisico presenti negli alimenti e negli ambienti di vita e di lavoro (‘fattori ambientali’ in senso lato) contribuiscono da un lato i singoli ricercatori attraverso i loro lavori originali di ricerca o meta-analisi, dall’altro gli enti e le istituzioni specificatamente deputati al processo di risk assessment, quali nello specifico per l’Unione Europea la European Food Safety Authority (EFSA), con sede nel nostro Paese a Parma. La valutazione del rischio attribuibile ai fattori ambientali e nutrizionali prevede diverse fasi metodologiche, tre delle quali sono state soggette a profonde innovazioni nel corso degli ultimi anni e sono di seguito brevemente analizzate: 1) l’identificazione e la valutazione metodologica della letteratura epidemiologica; 2) l’analisi ed interpretazione dei risultati di tale letteratura; 3) la formulazione di valutazioni finali condivise, superando eventuali differenze di opinione tra gli esperti. Identificazione e valutazione della letteratura pertinente al risk assessment Non vi è dubbio come ogni processo di valutazione del rischio sanitario debba basarsi in primo luogo sull’identificazione della letteratura scientifica pertinente. A tal fine, è naturalmente necessario effettuare una ricerca bibliografica rigorosa, completa ed infine illustrata in modo ‘trasparente’. In questa prospettiva, la metodologia adottata dai processi di valutazione del rischio sanitario si avvicina molto a quella adottata per le rassegne sistematiche, caratterizzandosi per una scelta il più possibile estensiva delle ‘parole chiave’ per identificare la letteratura di interesse, e per una strategia di ricerca e selezione degli studi facilmente riproducibile da chiunque. Ciò comporta l’uso di archivi bibliografici quali PubMed e la nota banca dati da esso contenuta Medline, EMBASE, Scopus e Web of Science (anche quest’ultimi contenenti Medline), ed eventualmente Google Scholar (in realtà più motore di ricerca che archivio bibliografico in senso proprio). Viene talora utilizzata per il risk assessment anche la letteratura ‘grigia’, ritrovabile però mediante ricerche complesse e non facilmente riproducibili attraverso archivi quali Conference Proceedings Citation Indexes di WoS, ERIC, PsycINFO, CINHAL, ProQuest Dissertations & Theses Global, International Guideline Library, e l’URL http://www.opengrey.eu/. L’appropriatezza dell’uso di tale letteratura grigia è tuttavia controversa, trattandosi di materiale bibliografico talora di limitata qualità e non sottoposto a valutazione ‘tra pari’. Dopo aver identificato gli articoli di interesse, occorre valutarne la pertinenza mediante l’esame del loro testo integrale, ed infine compiere una valutazione della qualità metodologica (critical appraisal o risk of bias assessment). Quest’ultimo processo è estremamente delicato ed influenza in modo sostanziale l’intero processo di valutazione del rischio. Esso prevede la valutazione delle principali distorsioni metodologiche degli studi, quali errori nella stima espositiva, presenza di confondimento, distorsione di selezione e di classificazione degli esiti sanitari, descrizione incompleta dei risultati e improprietà dell’elaborazione statistica. Valutazioni di questo tipo vengono frequentemente effettuate mediante l’uso di ‘griglie’ precodificate (quali il Risk of Bias della Cochrane Collaboration, o l’OHAT del National Toxicologiy Program statunitense). L’uso di tali griglie, tuttavia, non elimina del tutto la soggettività intrinseca del processo valutativo, con inevitabili conseguenze sul giudizio globale dell’evidenza scientifica resa disponibile da tali studi e quindi sui risultati finali del risk assessment, specie qualora ci si intenda basare essenzialmente sugli studi considerati di buona qualità. In questa prospettiva, una valutazione troppo severa delle distorsioni comporta l’eliminazione ingiustificata di studi potenzialmente interessanti (sino ad azzerare in alcuni casi l’intera disponibilità di studi!), compromettendo il processo di risk assessment. Al contrario, un processo di valutazione delle distorsioni troppo blando può portare all’inclusione nel processo valutativo di letteratura di validità incerta o francamente inadeguata, anche in questo caso viziando le valutazioni finali. Metodologia di analisi ed interpretazione dei dati L’analisi dei dati complessivamente generati dalla letteratura scientifica, sia di tipo epidemiologico che tossicologico, rappresenta un passaggio cruciale per il risk assessment. In questo ambito, due sono le metodologie epidemiologico-biostatistiche il cui uso si sta progressivamente diffondendo nell’ambito della sanità pubblica, con effetti benefici anche sul processo di risk assessment. In primo luogo, nel corso degli ultimi anni si è assistito ad un incremento esponenziale dell’uso di metodologie biostatistiche ‘dose-risposta’ nell’ambito del processo di risk assessment e più in generale nella ricerca epidemiologica e nelle rassegne sistematiche. Tali metodologie consistono essenzialmente nella cosiddetta spline regression analysis, di cui oggi è divenuto sempre più frequente l’applicazione non solo agli studi originali ma anche alle meta-analisi, mediante routines messe a punto da statistici quali l’italiano Nicola Orsini (www.ncbi.nlm.nih.gov/pubmed/22135359). Tali procedure, il cui codice sorgente è liberamente disponibile per programmi statistici quali R e Stata (https://ideas.repec.org/c/boc/bocode/s458546.html), permettono uno straordinario rafforzamento del processo di risk assessment, in quanto consentono di modellizzare con precisione relazioni complesse quali quelle caratterizzanti gli effetti sanitari dei fattori ambientali e nutrizionali. Tali relazioni, infatti, sono frequentemente non-lineari, caratterizzandosi per curve ad ‘U’ o ‘J’ o di tipologia più complessa, persino nei casi di sostanze cancerogene specie se non genotossiche e certamente nel caso di fattori nutrizionali. La descrizione precisa la rappresentazione grafica di tali relazioni dose-risposta non lineari permette pertanto di identificare le soglie espositive alle quali si verificano effetti carenziali e/o tossici in associazione a specifiche esposizioni ambientali e nutrizionali. Tali informazioni sono di grande rilevanza per il risk assessment in quanto permettono di individuare standards quali il ‘safe level’, l’upper level e il lower level delle esposizioni di interesse. I processi di valutazione del rischio hanno infatti generalmente e arbitrariamente assunto l’esistenza di relazioni lineari tra esposizioni ed effetti sanitari, ignorando la complessità di tali relazioni specie nel caso di fattori aventi sia proprietà nutrizionali che tossicologiche. Pertanto, sulla base di tali erronee assunzioni di linearità, sono state generalmente utilizzate nel risk assessment metodologie biostatistiche quali procedure di regressione logistica o lineare o persino semplici analisi di correlazione. Per quanto riguarda le meta-analisi, l’assunzione aprioristica di relazioni lineari tra esposizioni e relativi effetti sanitari ha portato al diffondersi dell’uso dei forest plots, cioè della rappresentazione grafica del rischio relativo associato alla categoria espositiva più elevata esaminata in ciascun studio rispetto a quella meno elevata, con in aggiunta il calcolo del rischio relativo cumulativo. I limiti di tale metodologia sono evidenti: essa non è infatti in grado di modellizzare le relazioni dose-risposta complesse e non lineari, ed in modo particolare quelle che possono caratterizzare i livelli espositivi intermedi. In secondo luogo, tale approccio è caratterizzato dalla comparazione delle categorie espositive tratte dai diversi studi e generalmente assai diverse tra loro. Tale eterogeneità determina l’impropriatezza delle comparazioni effettuate tra gli studi e dello stesso rischio relativo cumulativo, come evidenziano altresì le profonde differenze tra i risultati generati dalle due metodologie in alcuni specifici contesti di valutazione del rischio (https://www.ahajournals.org/doi/pdf/10.1161/JAHA.116.004210). Una seconda, fondamentale problematica metodologica associata all’analisi dei dati ed all’interpretazione dei risultati è legata all’uso del valore della cosiddetta ‘funzione P’ come indicatore della presenza di effetti ‘causali’, generalmente attraverso la sua dicotomizzazione sulla base delle due soglie tradizionali pari a 0.05 e 0.001. Questo approccio consente l’individuazione in un singolo studio o in una meta-analisi della cosiddetta ‘significatività statistica’ dei risultati ottenuti, cioè dell’erroneità della cosiddetta ‘ipotesi nulla’. Tale metodologia ha sfortunatamente pervaso l’intera ricerca biomedica (nonché altre discipline) da quasi un secolo, da quando cioè nel 1925 lo statistico inglese Ronald Fisher ipotizzò come un valore di P inferiore a 0.05 consentisse di attribuire l’esistenza della cosiddetta ‘significatività’ alle differenze osservate tra singoli sottogruppi nell’ambito di uno studio. Questo approccio ha esercitato gravi effetti sull’analisi e l’interpretazione dei risultati della ricerca scientifica, assegnando in modo erroneo a tale valore di 0.05 la capacità di validare o escludere l’effettiva esistenza di relazioni causali. Intere generazioni di professionisti e ricercatori, specie in ambito sanitario, si sono così formate all’uso di tale criterio ‘convenzionale’ nell’interpretazione dei risultati delle analisi statistiche, col rischio di commettere in tal modo seri errori metodologici quali l’attribuzione di un effettivo ruolo causale alle associazioni ‘statisticamente significative’ (<0.05 e soprattutto <0.001) o l’esclusione di tale nesso di causalità nel caso opposto. L’apprezzabile lavoro di metodologi quale l’epidemiologo statunitense Kenneth Rothman e numerosi altri ricercatori e metodologi, e più recentemente dell’intera Associazione Statistica degli Stati Uniti (https://amstat.tandfonline.com/doi/full/10.1080/00031305.2016.1154108) ha evidenziato l’impropriatezza delle interpretazioni basate sulla significatività statistica e quindi su soglie prefissate del valore di P. Recentemente, un articolo di Nature (https://www.nature.com/articles/d41586-019-00857-9), sottoscritto da diverse centinaia di ricercatori e prontamente ripreso dalla Società Italina di Igiene nel numero del 13 aprile 2019 di ‘Igienisti-on-line’ (http://www.igienistionline.it/archivio/2019/10.htm), ha ribadito l’importanza di abbandonare l’uso e il concetto della significatività statistica, a favore dell’analisi delle stime di effetto, della loro instabilità statistica (illustrata dagli intervalli di confidenza) e dell’analisi delle distorsioni metodologiche caratterizzanti i singoli studi. Anche nelle procedure di risk assessment, pertanto, l’uso della significatività statistica sta conoscendo una profonda ‘crisi d’identità’, con progressiva diminuzione della sua utilizzazione e della sua validità metodologica, come già da tempo riconosciuto da Enti quali l’EFSA (https://efsa.onlinelibrary.wiley.com/doi/epdf/10.2903/j.efsa.2011.2372). Gestione delle differenze di opinione nel processo di valutazione del rischio I processi di valutazione del rischio sono generalmente effettuati da gruppi di lavoro comprendenti diversi esperti nelle tematiche prese in esame (quali epidemiologia, tossicologia e nutrizione). Tali esperti procedono all’individuazione della letteratura di interesse, all’analisi dei suoi risultati eventualmente anche mediante la conduzione di meta-analisi e la considerazione delle evidenze e plausibilità biologico-tossicologiche accanto a quelle epidemiologiche, ed infine all’individuazione di standard espositivi quali ad esempio average requirement (AR), adequate intake (AI), Tolerable Upper Intake Level (UL) e reference intake range (RI). Può naturalmente accadere che nel processo di risk assessment i membri di un singolo gruppo di lavoro manifestino differenze interpretative e valutative anche marcate sui reali livelli espositivi, carenziali o da eccesso, associabili ad effetti nocivi per la salute umana, e quindi sugli esiti del risk assessment. Esistono al proposito modalità per la gestione e la composizione di tali conflitti d’opinione, che prevedono tra l’altro la formulazione corretta dei quesiti, la formazione progressiva di un consenso tra gli esperti, e la documentazione trasparente e accurata di tale processo e delle aree residue di incertezza. Tecniche di gestione e superamento delle differenze d’opinione di questo tipo sono denominate Expert Knowledge Elicitation, e sono sempre più frequentemente adottate da agenzie quali l’EFSA (https://efsa.onlinelibrary.wiley.com/doi/epdf/10.2903/j.efsa.2014.3734). Tali metodologie, di cui esistono diverse varianti, mirano ad ottenere dagli esperti l’affinamento delle proprie opinioni sulle soglie di rischio, procedendo con sistematici aggiustamenti e riesami al progressivo avvicinamento delle opinioni dei diversi esperti, senza permettere a nessuno di essi di ‘prevaricare’ nel processo decisionale, e al contempo evitando di renderne irrilevante il contributo. Un interessante esempio dell’uso e dell’importanza di tali metodologie nel processo di valutazione del rischio è stato recentemente offerto da EFSA nel formulare la sua opinione sui livelli ottimali dell’assunzione di sodio attraverso la dieta, pubblicata nel settembre 2019 (https://efsa.onlinelibrary.wiley.com/doi/epdf/10.2903/j.efsa.2019.5778)

    Cadmium exposure and risk of prediabetes and diabetes: A systematic review and dose-response meta-analysis

    Get PDF
    BACKGROUND AND AIM: Elevated cadmium exposure has been associated with altered glucose metabolism, albeit the shape of such relation is still debated. We aimed at investigating the shape of the relation between cadmium exposure and type 2 diabetes and prediabetes. METHODS: We performed a systematic review with meta-analysis on the relation between biomarkers of cadmium exposure and disease risk. After performing an online literature search through March 15, 2021, we identified 34 eligible studies with cohort, cross-sectional and case-control design. RESULTS:In the meta-analysis comparing highest-versus-lowest cadmium exposure, there was an increased type 2 diabetes risk, with summary risk ratios (RRs) of 1.30 (95% confidence interval (CI): 1.00-1.69), 1.22 (95% CI 1.00-1.50), and 1.47 (95% CI 1.01-2.13) for blood, urine, and toenail cadmium concentrations, respectively. Similarly, we found a higher prediabetes risk in subjects with higher both urine and blood cadmium concentrations with RRs of 1.41 (95% CI 1.15-1.73) and 1.38 (95% CI 1.16-1.63), respectively. In the dose-response meta-analysis, compared with no exposure, prediabetes risk increased up to approximately 2 µg Cd/g creatinine, above which it reached a plateau with RR of 1.40 (95% CI 1.12-1.76) at 2 µg Cd/g creatinine. We also detected a substantial linear positive association between diabetes risk and urinary cadmium, with RR of 1.30 (95% CI 0.92-1.84) at 2.0 µg Cd/g creatinine. Diabetes risk also appeared to increase with higher blood cadmium concentrations but only above 1 µg/L, with RR of 3.25 (95% CI 1.13-9.37) at 2 µg/L. Despite limited data, there was little indication of differences in association by study design (cohort vs. case-control or cross-sectional), method of cadmium assessment, or sex (male vs. female). CONCLUSIONS:Overall, there was consistent evidence for a positive association between cadmium exposure and both prediabetes and diabetes risk. KEYWORDS: Heavy metals, Cardiovascular diseases, Endocrine disrupting chemicals, Environmental epidemiology, Toxicolog
    • …
    corecore