24 research outputs found

    Global, regional, and national mortality among young people aged 10–24 years, 1950–2019: a systematic analysis for the Global Burden of Disease Study 2019

    Get PDF
    Summary: Background Documentation of patterns and long-term trends in mortality in young people, which reflect huge changes in demographic and social determinants of adolescent health, enables identification of global investment priorities for this age group. We aimed to analyse data on the number of deaths, years of life lost, and mortality rates by sex and age group in people aged 10–24 years in 204 countries and territories from 1950 to 2019 by use of estimates from the Global Burden of Diseases, Injuries, and Risk Factors Study (GBD) 2019. Methods We report trends in estimated total numbers of deaths and mortality rate per 100 000 population in young people aged 10–24 years by age group (10–14 years, 15–19 years, and 20–24 years) and sex in 204 countries and territories between 1950 and 2019 for all causes, and between 1980 and 2019 by cause of death. We analyse variation in outcomes by region, age group, and sex, and compare annual rate of change in mortality in young people aged 10–24 years with that in children aged 0–9 years from 1990 to 2019. We then analyse the association between mortality in people aged 10–24 years and socioeconomic development using the GBD Socio-demographic Index (SDI), a composite measure based on average national educational attainment in people older than 15 years, total fertility rate in people younger than 25 years, and income per capita. We assess the association between SDI and all-cause mortality in 2019, and analyse the ratio of observed to expected mortality by SDI using the most recent available data release (2017). Findings In 2019 there were 1·49 million deaths (95% uncertainty interval 1·39–1·59) worldwide in people aged 10–24 years, of which 61% occurred in males. 32·7% of all adolescent deaths were due to transport injuries, unintentional injuries, or interpersonal violence and conflict; 32·1% were due to communicable, nutritional, or maternal causes; 27·0% were due to non-communicable diseases; and 8·2% were due to self-harm. Since 1950, deaths in this age group decreased by 30·0% in females and 15·3% in males, and sex-based differences in mortality rate have widened in most regions of the world. Geographical variation has also increased, particularly in people aged 10–14 years. Since 1980, communicable and maternal causes of death have decreased sharply as a proportion of total deaths in most GBD super-regions, but remain some of the most common causes in sub-Saharan Africa and south Asia, where more than half of all adolescent deaths occur. Annual percentage decrease in all-cause mortality rate since 1990 in adolescents aged 15–19 years was 1·3% in males and 1·6% in females, almost half that of males aged 1–4 years (2·4%), and around a third less than in females aged 1–4 years (2·5%). The proportion of global deaths in people aged 0–24 years that occurred in people aged 10–24 years more than doubled between 1950 and 2019, from 9·5% to 21·6%. Interpretation Variation in adolescent mortality between countries and by sex is widening, driven by poor progress in reducing deaths in males and older adolescents. Improving global adolescent mortality will require action to address the specific vulnerabilities of this age group, which are being overlooked. Furthermore, indirect effects of the COVID-19 pandemic are likely to jeopardise efforts to improve health outcomes including mortality in young people aged 10–24 years. There is an urgent need to respond to the changing global burden of adolescent mortality, address inequities where they occur, and improve the availability and quality of primary mortality data in this age group

    Global burden of 369 diseases and injuries in 204 countries and territories, 1990-2019: a systematic analysis for the Global Burden of Disease Study 2019

    Get PDF

    Five insights from the Global Burden of Disease Study 2019

    Get PDF
    The Global Burden of Diseases, Injuries, and Risk Factors Study (GBD) 2019 provides a rules-based synthesis of the available evidence on levels and trends in health outcomes, a diverse set of risk factors, and health system responses. GBD 2019 covered 204 countries and territories, as well as first administrative level disaggregations for 22 countries, from 1990 to 2019. Because GBD is highly standardised and comprehensive, spanning both fatal and non-fatal outcomes, and uses a mutually exclusive and collectively exhaustive list of hierarchical disease and injury causes, the study provides a powerful basis for detailed and broad insights on global health trends and emerging challenges. GBD 2019 incorporates data from 281 586 sources and provides more than 3.5 billion estimates of health outcome and health system measures of interest for global, national, and subnational policy dialogue. All GBD estimates are publicly available and adhere to the Guidelines on Accurate and Transparent Health Estimate Reporting. From this vast amount of information, five key insights that are important for health, social, and economic development strategies have been distilled. These insights are subject to the many limitations outlined in each of the component GBD capstone papers.Peer reviewe

    Alcohol use and burden for 195 countries and territories, 1990-2016: a systematic analysis for the Global Burden of Disease Study 2016

    Get PDF
    BACKGROUND: Alcohol use is a leading risk factor for death and disability, but its overall association with health remains complex given the possible protective effects of moderate alcohol consumption on some conditions. With our comprehensive approach to health accounting within the Global Burden of Diseases, Injuries, and Risk Factors Study 2016, we generated improved estimates of alcohol use and alcohol-attributable deaths and disability-adjusted life-years (DALYs) for 195 locations from 1990 to 2016, for both sexes and for 5-year age groups between the ages of 15 years and 95 years and older. METHODS: Using 694 data sources of individual and population-level alcohol consumption, along with 592 prospective and retrospective studies on the risk of alcohol use, we produced estimates of the prevalence of current drinking, abstention, the distribution of alcohol consumption among current drinkers in standard drinks daily (defined as 10 g of pure ethyl alcohol), and alcohol-attributable deaths and DALYs. We made several methodological improvements compared with previous estimates: first, we adjusted alcohol sales estimates to take into account tourist and unrecorded consumption; second, we did a new meta-analysis of relative risks for 23 health outcomes associated with alcohol use; and third, we developed a new method to quantify the level of alcohol consumption that minimises the overall risk to individual health. FINDINGS: Globally, alcohol use was the seventh leading risk factor for both deaths and DALYs in 2016, accounting for 2·2% (95% uncertainty interval [UI] 1·5–3·0) of age-standardised female deaths and 6·8% (5·8–8·0) of age-standardised male deaths. Among the population aged 15–49 years, alcohol use was the leading risk factor globally in 2016, with 3·8% (95% UI 3·2–4·3) of female deaths and 12·2% (10·8–13·6) of male deaths attributable to alcohol use. For the population aged 15–49 years, female attributable DALYs were 2·3% (95% UI 2·0–2·6) and male attributable DALYs were 8·9% (7·8–9·9). The three leading causes of attributable deaths in this age group were tuberculosis (1·4% [95% UI 1·0–1·7] of total deaths), road injuries (1·2% [0·7–1·9]), and self-harm (1·1% [0·6–1·5]). For populations aged 50 years and older, cancers accounted for a large proportion of total alcohol-attributable deaths in 2016, constituting 27·1% (95% UI 21·2–33·3) of total alcohol-attributable female deaths and 18·9% (15·3–22·6) of male deaths. The level of alcohol consumption that minimised harm across health outcomes was zero (95% UI 0·0–0·8) standard drinks per week. INTERPRETATION: Alcohol use is a leading risk factor for global disease burden and causes substantial health loss. We found that the risk of all-cause mortality, and of cancers specifically, rises with increasing levels of consumption, and the level of consumption that minimises health loss is zero. These results suggest that alcohol control policies might need to be revised worldwide, refocusing on efforts to lower overall population-level consumption. FUNDING: Bill & Melinda Gates Foundation

    The Law of Service Robots

    No full text
    Il settore della robotica attiene alla progettazione e costruzione di un complesso variegato ed eterogeneo di macchine, quali robot, soldati e chirurghi, sistemi automatizzati di trasporto aereo, terrestre e marittimo, applicazioni industriali nell’ambito manifatturiero o nella agricoltura, robotica di servizio e altro ancora. Si tratta di un settore per eccellenza interdisciplinare la varietà di ambiti e applicazioni del quale fa sì che si discuta ancora sulla definizione di robot e su alcune sue proprietà: l’autonomia, l’adattatività o i gradi di interattività. Su queste basi, il problema, attualmente, non è tanto quello di determinare se e in che modo i robot ”agiscano”; la questione verte piuttosto sulla circostanza che l'interattività, autonomia e adattabilità dei robot comportano l’imprevedibilità delle loro azioni, sia nei confronti dei programmatori e costruttori di tali agenti artificiali sia dei loro stessi proprietari. Anche rivolgendo l'attenzione unicamente allo specifico ambito della robotica di servizio, le implicazioni sottese alle caratteristiche di tali agenti artificiali involgono questioni complesse rispetto alle responsabilità connesse al loro operare, rendendo opportuna per chiunque intenda investire nel settore una riflessione circa le questioni giuridiche e la normativa connesse alla progettazione e commercializzazione di robot di servizio. Non essendo possibile condurre un'analisi puntuale dei profili giuridici rilevanti rispetto ad ogni singolo impiego dei robot di servizio, si è deciso di condurre l'analisi dei profili giuridici rispetto a tre macro-categorie che permettano di ricomprendere le principali implicazioni giuridiche che entrano verosimilmente in gioco rispetto alla robotica di servizio nel suo complesso: 1) telepresenza mediante robot; 2) robot courier all'interno di ambienti di differente complessità; 3) droni-quadricotteri operanti in contesti urbani, nell'ottica della spinta evolutiva che le tecnologie ICT imprimono nella progettazione degli spazi urbani (c.d. smart cities o città intelligenti). A corredo delle macro-categorie è stato considerato anche il peculiare campo emergente della c.d. “cloud robotics”, ovvero uno scenario in cui i robot sfruttano infrastrutture di tipo cloud disponibili in Rete al fine di migliorare il proprio apprendimento e la relativa performance. Tra i possibili servizi basati sulla cloud robotics, ad esempio, Telecom Italia sta studiando una soluzione software/hardware in grado di connettere da remoto robot di servizio attraverso reti a banda larga per fornire funzionalità di supporto allo sviluppo di applicazioni da parte di altri operatori. Se la ricognizione pratica dei progetti di Telecom Italia non presenta particolari difficoltà, un tentativo di aprioristica classificazione dei robot impiegati a seconda dei differenti tipi di automazione si rivela non solo più complesso, ma potenzialmente sterile nell'ottica di basare su detta classificazione la rilevazione dei profili e delle norme giuridiche di volta in volta rilevanti. Ciò perché, se da un lato il diritto non ha ancora pienamente catalogato e definito molti aspetti legati al digitale ed alle reti di comunicazione elettronica, regolando e governando con difficoltà il mondo immateriale dei byte, dall'altro, nel campo della robotica, le cose si complicano ulteriormente, dato che con essa le inedite potenzialità del digitale abbandonano il mondo virtuale per incidere direttamente, senza mediazione alcuna, sulla realtà fisica. Ecco che, per quanto si cerchi di individuare parametri oggettivi, la malleabilità logica delle tecnologie digitali, la continua evoluzione delle stesse, e la multi-funzionalità potenziale di ogni macchina rendono vano ogni tentativo. Pensare quindi di comporre astratte categorie di robot sulla base delle caratteristiche della macchina, dell'uso a cui essa sia destinata, delle sue modalità di esecuzione o ancora del grado di autonomia nell'agire, sarebbe, allo stato attuale, verosimilmente inutile: pensare oggi di trattare un quid in piena evoluzione attraverso categorie e definizioni preconcette, basate su prototipi o su ipotesi astratte, rischia cioè di tradursi in un modus operandi inattendibile e, in ultima istanza, inservibile. Sarebbe da preferirsi, invece, un approccio pragmatico caso per caso, senza che giuristi, produttori e inventori si lascino imbrigliare da categorie e vincoli (anche mentali) che difficilmente possono appartenere ad un mondo che ancora non esiste: di conseguenza, ciò che si ritiene fondamentale è piuttosto un'analisi puntuale dei progetti in via di sviluppo (ai fini della presente ricerca, si intende, da parte di Telecom Italia), la cui complessa architettura impone un approccio quanto più concreto possibile. I principali aspetti giuridici potenzialmente rilevanti per gli scenari di sperimentazione di Telecom Italia sono quindi analizzati in conformità all’impostazione metodologica appena descritta e, laddove possibile, si è cercato di unire all'analisi di tali profili anche alcune prime raccomandazioni di policy, con esplicito riferimento alla normativa di volta in volta rilevante. Ogni profilo giuridico viene esaminato secondo uno schema espositivo comune: l'analisi si apre con un'introduzione alla materia giuridica in relazione alle casistiche-tipo dei robot di servizio, vengono successivamente considerate le problematiche giuridiche rilevanti e la normativa di riferimento applicabili ed infine viene ponderata la possibile ripartizione delle responsabilità tra i vari soggetti coinvolti nella progettazione e realizzazione dei prototipi sviluppati da Telecom Italia. Seguendo questa impostazione, i profili giuridici che si sono considerati hanno per oggetto: la responsabilità civile e penale; la privacy e il trattamento dei dati; la digital forensics e la cyber security; i diritti su beni immateriali. La gestione di profili di responsabilità civile nell’ambito degli scenari di robotica di servizio è cruciale nell’ottica della implementazione concreta dei singoli progetti e della loro sostenibilità economica: un’analisi delle relazioni tra i vari soggetti e dei rispettivi profili di rischio risulta determinante per individuare gli accorgimenti e le cautele che consentono di ridurre il rischio a carico di determinati attori del sistema, trasferendolo su altri soggetti oppure neutralizzandolo. La costruzione, la commercializzazione e l’uso dei droni rilevano ai fini della responsabilità civile sia sul piano del fatto illecito in senso stretto, sia sul piano della c.d. responsabilità “indiretta” (di padroni e committenti) e della responsabilità oggettiva o quasi oggettiva (c.d. danno imputabile a cose). L’aspetto che più rileva per inquadrare le differenti modalità con le quali può concretizzarsi la responsabilità degli agenti è quello delle diverse forme di imputabilità: accanto alla tradizionale imputabilità “soggettiva” per dolo o colpa, vi sono una serie di criteri di imputabilità cosiddetta “speciale”, che prescindono - in tutto o in parte - dall’esistenza di uno stato soggettivo rilevante in capo all’agente e fondano l’imputabilità su diversi elementi (la relazione con l’oggetto/soggetto causatore del danno; l’assunzione del rischio; la valutazione del rapporto socio-economico tra danneggiante e danneggiato e la conseguente imputazione del danno al soggetto che appare maggiormente in grado di sostenerlo economicamente). Soprattutto in questa seconda categoria di criteri di imputazione troveranno soluzione i casi nei quali l’imprevedibilità delle azioni dei robot inducono a teorizzare una capacità di autodeterminazione delle macchine e a preconizzare una di sorta “responsabilità del robot” che non può trovare al momento collocazione nel nostro ordinamento: esso, infatti, individua quali possibili centri di imputazione della responsabilità civile unicamente le persone fisiche e giuridiche. Pertanto, le conseguenze giuridicamente rilevanti che derivano dall’imprevedibilità dell’azione dei robot saranno sussumibili nella categoria del caso fortuito/forza maggiore ovvero costituiranno fonte di responsabilità risarcitoria in capo al soggetto o ai soggetti cui potranno venire ricondotte sulla base delle regole di imputabilità (soggettiva o oggettiva) previste dall’ordinamento. Per gli operatori del settore il punto critico è costituito dalla preventiva identificazione del soggetto sul quale possano ricadere le conseguenze della responsabilità civile derivante dai robot e dagli strumenti e modalità con cui detta responsabilità possa essere allocate su soggetti diversi, attraverso clausole di esenzione di responsabilità, meccanismi di rivalsa, responsabilità solidale. Generalmente è esclusa nel nostro ordinamento la possibilità di limitare preventivamente la responsabilità extracontrattuale con apposite clausole di esonero, al contrario di quello che invece può avvenire in ambito contrattuale. Pertanto, un modo con il quale può essere gestito il rischio derivante dalla progettazione, costruzione e utilizzo dei robot è quello di stipulare contratti adeguati che gestiscano l’allocazione del rischio e delle relative responsabilità tra i diversi soggetti. Nei casi in cui non possa essere concluso un contratto è comunque consigliabile prevedere e cercare di creare una relazione tra l’attore e il soggetto destinatario delle interferenze causate dalla macchina: ad esempio, mediante annunci con appositi cartelli posti nell’area di azione del robot, controllo degli accessi all’area, tracciatura del raggio di azione del robot. Tali iniziative potranno valere quale limitazione “indiretta” di responsabilità. In una diversa prospettiva, un altro punto cruciale per la gestione della responsabilità è la tracciabilità delle operazioni compiute attraverso i robot mediante registrazioni di sistema (log) dei parametri rilevanti di funzionamento del robot, riprese video dell’attività svolta, relazioni scritte sulle missioni compiute, rapporti relativi alla situazione ambientale in cui il robot opera. Quale strumento di gestione del rischio vi è, infine, la stipula di apposite assicurazioni contro la responsabilità civile, sia quelle eventualmente imposte dalla legge, sia quelle che l’agente reputi opportuno adottare a propria tutela. Le caratteristiche essenziali dei robot di servizio unitamente alla loro interazione con il mondo reale aprono scenari nuovi anche in relazione ai profili di responsabilità penale. Poiché la creazione, la gestione e l’utilizzo dei robot di servizio possono coinvolgere numerose persone (dal progettista, al produttore di un singolo componente, dall’assemblatore al gestore della piattaforma cloud che fornisce il servizio per la gestione dell’agente artificiale, fino ad arrivare all’utente finale o al pilota nel caso dei droni), eventuali profili di responsabilità dovranno essere ricostruiti, caso per caso, a seconda delle circostanze di fatto che hanno determinato nella fattispecie concreta la lesione di interessi protetti dall’ordinamento. In caso di responsabilità penale colposa si dovrà inoltre analizzare lo specifico comportamento per verificare se siano state previste adeguate misure di sicurezza atte ad evitare l’evento e, in caso affermativo, per quali motivi esse non abbiano nel concreto funzionato. Se l'eventuale danneggiamento di beni materiali da parte di un robot non integra alcun reato, in quanto non è previsto nel nostro ordinamento un reato di danneggiamento colposo, diversa è la situazione nell’ipotesi di danni cagionati a persone fisiche, condotta qualificata come reato di lesioni personali e che è punita sia a titolo di dolo che a titolo di colpa. L'allocazione della responsabilità penale per i danni fisici arrecati dall'interazione di un agente artificiale con uno o più esseri umani sarà determinata dall'analisi del singolo fatto concreto: a seconda della causa dell'azione del robot, la responsabilità potrebbe confluire in capo al produttore, al gestore della piattaforma operativa, fino al pilota nel caso di caduta a terra improvvisa di un drone. Un secondo profilo giuridico riguarda la problematica attinente al trattamento di dati personali: nei casi del robot courier e della telepresenza, trattandosi di attività prestabilite e ben delineate nei presupposti operativi, sarà sufficiente redigere una chiara privacy policy per dirimere ogni possibile controversia. Diverso il caso dei droni, per i quali il regolamento ENAC prevede la necessità di una specifica analisi da riportare nella documentazione sottoposta all'Ente Nazionale per l'Aviazione Civile ai fini del rilascio dell'autorizzazione di volo e stabilisce che debba in ogni caso essere rispettato il principio di necessità (secondo cui i sistemi informativi ed i programmi informatici devono essere configurati in modo da ridurre al minimo l’utilizzazione di dati personali e dati identificativi). In caso di trattamento illecito di dati personali, l’allocazione della responsabilità va calibrata sulla scorta dell’attività posta in essere in concreto dai soggetti che il codice privacy configura come “titolare del trattamento”. Essendo il reato costruito come un illecito per modalità di lesione, la responsabilità penale potrà essere correttamente allocata solo individuando esattamente chi si è assunto la responsabilità degli adempimenti previsti dal codice privacy: una concreta valutazione del rischio di integrazione del reato sarà quindi strettamente vincolata e dipendente da una corretta individuazione del tipo di dati trattati e della loro natura ma soprattutto delle persone che avranno il potere di decidere le finalità e le modalità del trattamento dei dati. In relazione all'attività svolta dai droni, viene inoltre in rilievo la questione relativa alla possibile captazione di notizie o immagini attinenti alla vita privata, che potrebbe integrare il reato di interferenze illecite nella vita privata. Il bene giuridico protetto da tale norma sta lentamente evolvendo, in virtù dell’interpretazione giurisprudenziale, dalla tutela del domicilio alla tutela della riservatezza. Sebbene la Corte di Cassazione e la Corte Costituzionale si siano espresse sul punto restringendo l’ambito di tutela del domicilio, restano aperte numerose questioni giuridico-interpretative nel caso in cui atti capaci di interferire illecitamente con la vita privata altrui siano posti in essere da agenti artificiali quali i droni. In ragione di tali incertezze, l’unico criterio che si può indicare al fine di soddisfare l’esigenza di certezza del diritto da parte di chi intenda investire nel settore è che il nostro ordinamento giuridico, seguendo l’attuale tendenza europea, dovrebbe nel prossimo futuro tendere ad una maggiore protezione della riservatezza e dei dati personali dei cittadini. Come si evince, quindi, poiché i robot sono forniti dell’abilità di sentire, elaborare e memorizzare il mondo intorno a loro, essi costituiscano potenzialmente un pericolo per la privacy: essi possono, infatti, vedere e sentire ciò che sovente è inibito all’uomo, possono accedere a luoghi normalmente irraggiungibili e possiedono una resistenza e una memoria sempre più spesso superiori a quelle umane. Uno dei principali problemi di privacy è legato alla circostanza che la memoria interna dei robot di servizio è spesso alquanto limitata; per questa ragione, tradizionalmente, tutta una serie di dati viene trasmessa dal dispositivo all’esterno per finalità di analisi e memorizzazione. D’altra parte, l’avvento della cloud robotics, utilizzata per l’archiviazione e per l’elaborazione dei dati solleva dal dover passare per il produttore: la sicurezza delle informazioni su cloud un tempo assai controversa, diviene oggi sempre più solida, specialmente grazie ai nuovi sistemi di cifratura omomorfica, che sarebbe opportuno venissero previsti nel contratto col cloud provider, insieme a specifiche attinenti alla geolocalizzazione delle server farm. Ripetto alle potenziali ricadute su privacy e trattamento di dati personali in caso di telepresenza a fini universitari e di robot museali: nel primo caso, mentre per i dati riguardanti l’osservatore non emergono problemi di riservatezza particolarmente rilevanti, non altrettanto si può dire per i dati di docenti e discenti presenti in aula: sul punto si possono immaginare sia soluzioni di privacy by design (ad es., un saluto vocale in cui il robot trasmette un’informativa sulla privacy) sia soluzioni più tradizionali, come l’affissione di cartelli simili a quelli usati per segnalare la presenza di telecamere. Il discorso è analogo per i robot museali, che sollevano ancora minori problemi, considerato che essi si muovono in spazi ridotti e di norma sono totalmente autonomi; in questo caso, l’unico accorgimento consiste nel far sì che l’addetto al robot o chi abbia accesso alla memoria dello stesso (e, nel caso di cloud robotics, al web storage) si impegni a non divulgare in alcun modo le informazioni per tal via apprese. I robot courier, invece, si muovono in spazi ampi e complessi, sono in grado di acquisire un considerevole novero di dati anche sensibili e, grazie a sistemi di face recognition, possono riconoscere l’utente. In uno scenario di trial convegnistico potrebbe essere sufficiente inserire un’apposita indicazione nei moduli di registrazione all’incontro; nel caso di centri commerciali o ambienti analoghi, si potrebbe procedere a limitare, via privacy by design, l’operatività della face recognition (quando non la fissazione stessa del video) alla fase in cui il potenziale cliente attiva volontariamente il robot, salvaguardandosi così l’immagine di quanti si incroceranno nel percorso. Rispetto, ai dati sensibili del potenziale cliente, si potrebbe poi immaginare un’informativa con sistema “a spunta” tale per cui, in assenza di consenso, non si proceda all’interazione. Quanto ai droni-quadricotteri, è intuitivo che essi sollevino problemi di privacy maggiori rispetto ai robot di servizio, potendo essere raffigurati, in sostanza, come vere e proprie telecamere volanti. Una recente comunicazione della Commissione Europea sull’uso civile dei sistemi aerei a pilotaggio remoto ha chiarito che la loro progressiva integrazione nello spazio aereo dovrà essere accompagnata da un adeguato dibattito pubblico sullo sviluppo di misure in grado di affrontare le preoccupazioni della società, tra cui la tutela dei dati e della vita privata, In Italia è prevista una disciplina specifica, contenuta nel regolamento ENAC all’art. 22, disposizione di chiusura della sez. IV (“Disposizioni Generali per i Sistemi Aeromobili a Pilotaggio Remoto”) e rubricato “Protezione dei dati e privacy. Quantunque la disposizione per lo più rinvii alla disciplina sulla protezione dei dati personali, va apprezzata l’esplicitazione della necessità che la documentazione richiesta dia conto dei problemi sollevati dal drone in materia di privacy, nonché la sensibilità del legislatore che coglie il trend della minimizzazione della raccolta dei dati. Il rinvio alla determinazioni del Garante, poi, si potrà rivelare uno strumento assai agile, in considerazione delle semplici e rapide procedure decisionali dell’Autorità. Poiché un aspetto fondamentale da considerarsi nel momento dell’accertamento della responsabilità in caso di incidente dovuto a malfunzionamento del robot o del drone è rappresentato dalla possibilità di ricostruire le modalità con cui esso è stato progettato e ha operato in concomitanza dell’evento dannoso, risultano di grande importanza le discipline della digital forensics e della sicurezza informatica collegata alla robotica. Nel caso in cui un robot subisca un cyber attacco cui consegua un incidente o anche solo un malfunzionamento, la digital forensics diventa strategica per cercare di comprendere le ragioni del malfunzionamento attraverso il recupero e la cristallizzazione di prove digitali. In caso di utilizzo di sistemi di cloud robotics potrebbe aumentare il rischio di una responsabilità a carico del gestore del servizio cloud che, in caso di mancata adozione delle misure di sicurezza previste dal codice privacy potrebbe incorrere in una sanzione di natura penale o in una richiesta di risarcimento da parte del danneggiato. Allo stesso modo anche lo sviluppatore di applicazioni per il robot o per il drone dovrà sempre tenere in grande considerazione i profili di sicurezza perché, qualora attraverso una sua applicazione fosse possibile perpetrare un attacco informatico, sarebbe possibile far ricadere su di lui la responsabilità dell’evento dannoso o del malfunzionamento. Con un minor grado di rischio, anche altri soggetti come il produttore e l’assemblatore del robot o del drone e l’utente possono essere responsabili a vario titolo in caso di malfunzionamento. Va anche considerato che, in caso di incidente, l’utente potrebbe essere in grado di alterare significativamente la prova digitale qualora la stessa non sia residente nei cloud server; per questa ragione, sarebbe interessante ipotizzare per i droni e robot una “black box” che permetta di registrare, cristallizzare e conservare in modo idoneo tutti gli eventi che precedono l’eventuale incidente. Tra i prioritari aspetti legali interconnessi cui le discipline della digital forensics e cyber security dovranno quindi rivolgere la loro attenzione vi sono: la formalizzazione di regole e procedure per l’acquisizione e l’utilizzo della prova informatica nel rispetto di best practices nazionali e internazionali; la formalizzazione di regole e procedure di cyber sicurezza idonee a proteggere il robot o il drone da eventuali attacchi informatici; il rispetto della privacy dell’utente che andrà costantemente bilanciato con esigenze di conservazione e di sicurezza del dato, proprie della digital forensics e della

    Anesthesia for Minimally Invasive Cosmetic Surgery of the Head and Neck

    No full text
    corecore