90 research outputs found

    Bioconjugation of a PNA Probe to Zinc Oxide Nanowires for Label-Free Sensing

    Get PDF
    Zinc oxide nanowires (ZnONWs) are largely used in biosensing applications due to their large specific surface area, photoluminescence emission and electron mobility. In this work, the surfaces of ZnONWs are modified by covalent bioconjugation of a peptidic nucleic acid (PNA) probe whose sequence is properly chosen to recognize a complementary DNA (cDNA) strand corresponding to a tract of the CD5 mRNA, the main prognostic marker of chronic lymphatic leukemia. The interaction between PNA and cDNA is preliminarily investigated in solution by circular dichroism, CD melting, and polyacrylamide gel electrophoresis. After the immobilization of the PNA probe on the ZnONW surface, we demonstrate the ability of the PNA-functionalized ZnONW platform to detect cDNA in the μM range of concentration by electrical, label-free measurements. The specificity of the sensor is also verified against a non-complementary DNA sequence. These preliminary results highlight the potential application of PNA-bioconjugated ZnONWs to label-free biosensing of tumor markers

    Does morbid obesity influence perioperative outcomes after video-assisted thoracic surgery (VATS) lobectomy for non-small cell lung cancer? Analysis of the Italian VATS group registry

    Get PDF
    Objectives: Obesity in Europe, and worldwide, has been an increasing epidemic during the past decades. Moreover, obesity has important implications regarding technical issues and the risks associated with surgical interventions. Nevertheless, there is a lack of evidence assessing the influence of obesity on video-assisted thoracic surgery (VATS) lobectomy results. Our study aimed to assess the impact of morbid obesity on perioperative clinical and oncological outcomes after VATS lobectomy using a prospectively maintained nationwide registry. Methods: The Italian VATS lobectomy Registry was used to collect all consecutive cases from 55 Institutions. Explored outcome parameters were conversion to thoracotomy rates, complication rates, intra-operative blood loss, surgical time, hospital postoperative length of stay, chest tube duration, number of harvested lymph-node, and surgical margin positivity. Results: From 2016 to 2019, a total of 4412 patients were collected. 74 patients present morbid obesity (1.7%). Multivariable-adjusted analysis showed that morbid obesity was associated with a higher rate of complications (32.8% vs 20.3%), but it was not associated with a higher rate of conversion, and surgical margin positivity rates. Moreover, morbid obesity patients benefit from an equivalent surgical time, lymph-node retrieval, intraoperative blood loss, hospital postoperative length of stay, and chest tube duration than non-morbid obese patients. The most frequent postoperative complications in morbidly obese patients were pulmonary-related (35%). Conclusion: Our results showed that VATS lobectomy could be safely and satisfactorily conducted even in morbidly obese patients, without an increase in conversion rate, blood loss, surgical time, hospital postoperative length of stay, and chest tube duration. Moreover, short-term oncological outcomes were preserved

    miRNAs Expression Analysis in Paired Fresh/Frozen and Dissected Formalin Fixed and Paraffin Embedded Glioblastoma Using Real-Time PCR

    Get PDF
    miRNAs are small molecules involved in gene regulation. Each tissue shows a characteristic miRNAs epression profile that could be altered during neoplastic transformation. Glioblastoma is the most aggressive brain tumour of the adult with a high rate of mortality. Recognizing a specific pattern of miRNAs for GBM could provide further boost for target therapy. The availability of fresh tissue for brain specimens is often limited and for this reason the possibility of starting from formalin fixed and paraffin embedded tissue (FFPE) could very helpful even in miRNAs expression analysis. We analysed a panel of 19 miRNAs in 30 paired samples starting both from FFPE and Fresh/Frozen material. Our data revealed that there is a good correlation in results obtained from FFPE in comparison with those obtained analysing miRNAs extracted from Fresh/Frozen specimen. In the few cases with a not good correlation value we noticed that the discrepancy could be due to dissection performed in FFPE samples. To the best of our knowledge this is the first paper demonstrating that the results obtained in miRNAs analysis using Real-Time PCR starting from FFPE specimens of glioblastoma are comparable with those obtained in Fresh/Frozen samples

    Evoluzione tecnologica e trasparenza nei procedimenti “algoritmici”

    No full text
    Consiglio di Stato; sezione IV; sentenza 8 aprile 2019, n. 2270; Pres. Carbone; Est. Lamberti; M. A. e altri (Avv. Ursini) c. Ministero dell’Istruzione dell’Università e della Ricerca (Avvocatura Generale dello Stato). La decisione amministrativa automatizzata, assunta mediante l’utilizzo di un algoritmo, comporta che: a) l’algoritmo e le “regole” in esso espresse siano “conoscibili” secondo una declinazione rafforzata del principio di trasparenza, anche se in un linguaggio differente da quello giuridico; b) la motivazione del provvedimento sia “traslata” nell’algoritmo; c) la regola algoritmica sia soggetta alla piena cognizione, e al pieno sindacato, del giudice amministrativo. La sentenza tratta il delicato problema della automazione delle procedure amministrative, fornendo una pietra miliare sulla interpretazione e declinazione dei provvedimenti adottati mediante le stesse e sui conseguenti profili di responsabilità amministrativa. L’affidamento di processi decisionali ad un “algoritmo” comporta che, il risultato derivante da tale applicazione debba essere considerato un “atto amministrativo informatico” con conseguente rispetto dei princìpi che conformano il nostro ordinamento e che regolano lo svolgersi dell’attività amministrativa, con conseguenti obblighi di trasparenza e conoscibilità

    Il “Watever it takes” e l’impegno dell’Europa. Un “Recovery Fund” che vale più del piano Marshall

    No full text
    Un “Recovery Fund” che ha il sapore del primo vero atto di una ritrovata unità politica e solidale dell’Europa sognata dai padri fondatori. Jacques Delors avrebbe commentato: “Il fiore della speranza di nuovo al centro del giardino dell’Europa”. Dal Whatever it takes, di Draghi all’invito della Von der Leyen a combattere un evento straordinario come il coronavirus, con strumenti straordinari, come il Recovery fund. Il primo atto di unità politica dalla creazione dell’Unione Europea, rischiava di naufragare a causa della insipienza di pochi. Questi pochi piccoli paesi che non si rendevano apparentemente conto della portata e della forza travolgente che questo accordo avrà in termini di competitività a livello mondiale

    Intelligenza artificiale ed etica dell'algoritmo

    No full text
    1. La nuova frontiera delle società «intelligenti» - Premesse Delineare il perimetro effettivo del fenomeno dell’Intelligenza Artificiale (d’ora in avanti indifferentemente IA — Intelligenza Artificiale o AI — Artificial Intelligence), per quanto ad oggi possibile, ed apprezzarne i vantaggi e le potenzialità, così come individuarne le criticità, non è impresa facile. Tenterò in questo breve scritto, di fornire un contributo interpretativo dello stato attuale del fenomeno e, se possibile, di tracciare le linee di una sua regolazione eterointrodotta o, addirittura, endoprocedimentalizzata, all’interno della produzione algoritmica che governerà l’agere di questa nuova, affascinante scommessa. L’intelligenza è sì anche, la capacità di integrare le informazioni del mondo mutevole che ci circonda, elaborarle e concretizzarle in azioni e movimenti, grazie alla comunicazione degli stimoli e delle informazioni; se ciò è vero, la capacità di una macchina di mettere in correlazione fra loro grandi quantità di informazioni e dati, elaborarli secondo una determinata formula preconfezionata (l’algoritmo) e dare il risultato previsto e richiesto, può dirsi essere simile all’intelligenza umana. Tuttavia, nonostante la capacità delle macchine di imparare da se stesse, attraverso il c.d. machine learning, o addirittura di elaborare nuovi percorsi di apprendimento con il c.d. « deep learning », alle stesse manca la capacità, tutta umana, di valutazione delle molteplici variabili impreviste o imprevedibili: il cosiddetto discernimento. Ciò che occorre fare, medio tempore, è conoscere e regolare i vari fenomeni; a fortiori e principaliter quello dell’algoritmo, al fine di tutelare il consumatore ed evitare, per quanto possibile, ogni deriva commerciale che usi il flusso dei dati in corso, a fini eminentemente speculativi e, nel contempo, consenta una competitività responsabile. Torna qui il tema eterno della libertà di iniziativa economica privata di cui all’art. 41 della nostra Costituzione, vis à vis, la necessità di individuare la giusta regolazione per la salvaguardia dei diritti inviolabili dell’uomo. L’Agenda digitale europea ha imposto delle scadenze ben precise; il GDPR ha imposto date stringenti; è già oggi necessario incasellare una serie di responsabilità potenziali e numerosi alert, per far sì che la difesa della privacy sia, anche, difesa della dignità umana, tutela del consumatore e rispetto dei diritti fondamentali. Tuttavia, forse, occorre osservare che nel mondo 4.0 e 5.0, la disponibilità dei dati come contributo al bene comune è universalmente inteso quale bene della vita. È infatti, fondamentale, tenere presente che i dati, se utilizzati in maniera idonea possono rappresentare un fattore di riferimento esponenziale per la ricerca in tutti i campi. Ciò posto, ritengo che, lo sviluppo dell’Intelligenza Artificiale sia un bene per la società e che porterà ad uno stravolgimento del sistema facendo saltare tutti i paradigmi cui eravamo abituati, ma se noi saremo ancora dotati di intelligenza e me lo auguro, sapremo sfruttare al meglio questa nuova opportunità. 2. Intelligenza Artificiale e sistemi neurali complessi Negli ultimi anni, il mondo sta investendo nello studio e nell’applicazione dell’AI, tuttavia, ad oggi, non esiste una disciplina normativa che dia dei parametri certi di riferimento in merito a tutte le implicazioni che tale attività può produrre. Come detto, i sistemi neurali complessi e gli algoritmi sono in grado di far « imparare » le macchine, nel senso di affinare le tecniche di ricerca e di risoluzione di problemi rispetto agli obiettivi dati, attraverso un sofisticato sistema di correlazione dei famosi big data, che sono una fonte quasi inesauribile di informazioni sulle persone di ogni età, sesso e nazionalità. È quindi fondamentale che l’algoritmo sia progettato correttamente, o che vi sia un controllo su di esso. Come sappiamo, già Isaac Asimov, nel racconto « Circolo vizioso » del 1942 aveva teorizzato quelle che vengono definite « Le 3 leggi della robotica », al fine di facilitare una futura convivenza tra uomo e macchina: 1. Un robot non può recar danno a un essere umano né può permettere che, a causa del proprio mancato intervento, un essere umano riceva danno. 2. Un robot deve obbedire agli ordini impartiti dagli esseri umani, purché tali ordini non contravvengano alla Prima Legge. 3. Un robot deve proteggere la propria esistenza, purché questa autodifesa non contrasti con la Prima o con la Seconda Legge.» Ciò che qui occorre sottolineare, è che le 3 leggi della robotica di cui sopra, sono rimaste, almeno per ora, su un piano meramente teorico, non trovando alcuna concreta applicazione nella realtà. Inoltre, a parere di chi scrive, queste leggi, per molti versi sono state superate nei fatti e andrebbero riviste e aggiornate alla luce dei nuovi principi etici e morali che si sono venuti a sviluppare sino ad oggi. Riflessione di non poco conto se pensiamo che due robot, recentemente messi a confronto, hanno iniziato a dialogare tra loro in inglese e, dopo qualche ora, parlavano in una lingua non più comprensibile; l’esperimento è stato interrotto, con la motivazione di “guasto di programmazione”ma la cosa ha lasciato non pochi dubbi circa le reali implicazioni di una robotica dotata di IA senza controllo. 3. Intelligenza Artificiale e progettazione algoritmica 3.1 Tenuto conto delle potenzialità dell’AI, oggi moltissime imprese in tutto il mondo si stanno concentrando nello studio di algoritmi necessari per il suo sviluppo. Nel 2015 Google ha introdotto nel suo motore di ricerca l’algoritmo RankBrain basato su un approccio in grado di imparare dall’esperienza, cioè di identificare patterns tra ricerche complesse apparentemente non correlate e capire che, in realtà, esse sono molto simili tra loro. Questo approccio ha permesso a Google di rispondere in modo più pertinente a quel 15% di ricerche (450 milioni su 3 miliardi giornalieri) che contengono sequenze di parole mai digitate prima da nessun utente. Allora, il tema non è, solo, come potrebbe sembrare facile sostenere, rendere meno disponibili i nostri dati in nome della privacy, ma, eminentemente, determinare il perimetro del loro utilizzo. È evidente, quindi, che uno dei problemi più importanti da risolvere, dato il continuo e crescente sviluppo e utilizzo dell’AI, è la necessità di fare in modo che le applicazioni di intelligenza artificiale rispondano a criteri etici accettabili. Ciò premesso, non sembra qui azzardato sostenere che, alla luce dei condivisi valori etici, proprio i paesi Europei potrebbero cimentarsi nella scrittura di queste « linee guida » su come deve essere progettato l’algoritmo. Questa è un’opportunità che l’Italia, e l’Europa in generale, deve necessariamente cogliere; disegnare l’algoritmo che governerà la futura AI, o i requisiti che questo dovrà avere, per essere legittimamente introdotto in beni e servizi, ed effettuare un continuo controllo etico dello stesso, significherebbe, non solo esportare i valori e la cultura del nostro Continente nel resto del mondo, ma principalmente e soprattutto, acquisire ed accrescere in maniera significativa il ruolo dell’Europa nel mondo. Questa mia riflessione ha trovato riscontro, sia nella comunicazione della Commissione del 7.12.2018, che espone un piano coordinato sull’intelligenza artificiale (24) sia con la prima bozza resa nota dalla Commissione Europea di linee guida etiche sull’AI; guida predisposta dall’High Level Expert Group on Artificial Intelligence, che comprende ben 52 esperti da tutte le parti del mondo (di cui 2italiani). È evidente che l’AI non è solo un obiettivo di grande interesse economico, ma può anche essere uno strumento di dominio. Non è un caso, infatti, che i maggiori investimenti in intelligenza artificiale sono quelli dei due grandi giganti del ventunesimo secolo, Stati Uniti e Cina, con un probabile vantaggio dei cinesi in termini di fondi investiti. Alla luce della velocità con cui l’AI si sta evolvendo, forse una delle iniziative da mettere in campo in Europa, e sicuramente in Italia, è quella di preparare le future generazioni, non solo all’utilizzo degli strumenti che in parte già esistono e funzionano con l’intelligenza artificiale, ma anche allo studio delle tecnologie che possono portare a disegnare gli algoritmi regolatori della stessa AI. 3.2 Ciò premesso, un tema di fondamentale importanza e strettamente connesso all’Intelligenza Artificiale come detto, è quello della tutela della privacy, e quindi della tutela dei dati personali, tenuto conto della circostanza che la fame di dati e di consensi alla condivisione degli stessi è altissima, non solo per fini commerciali, ma anche per lo sviluppo stesso dell’intelligenza artificiale. Per cercare di trovare delle risposte si potrebbe partire proprio dal GDPR, le cui disposizioni sono divenute definitivamente applicabili in tutti i Paesi membri dell’Unione Europea il 25 maggio 2018 e in Italia con il Decreto Legislativo n. 101 del 10 agosto 2018. Nel Decreto si stabilisce tra l’altro, che gli individui hanno il diritto di non essere oggetto di una decisione basata esclusivamente su un trattamento automatizzato, ad eccezione dei casi in cui questa sia imposta dalla legge, derivi da un obbligo contrattuale o sia giustificata dal consenso esplicito del soggetto. 3.3 Un altro principio fondamentale ai fini della tutela dei dati personali del singolo da eventuali future aggressioni da parte dell’AI è quello, in base al quale è necessario raccogliere presso l’interessato, da parte del titolare del trattamento, un consenso informato circa il trattamento dei dati stessi. Una delle principali fonti di elaborazione per l’intelligenza artificiale siano i Big Data Analytics, cioè la combinazione di enormi volumi di dati e di informazioni di diversa provenienza. La relazione tra AI e Big Data è bidirezionale; da un lato l’AI ha bisogno di una grande quantità di dati da analizzare, dall’altro lato, i Big Data utilizzano tecniche di AI per estrarre valori predeterminati da tali dati. In aggiunta a ciò, bisogna dire che i Big Data hanno ancora un alto margine di errore e distorsione dei dati in ingresso, l’AI potrebbe apprendere informazioni non corrette in base alle quali poi prenderebbe decisioni non corrette, e il tutto rischierebbe di generare un circolo vizioso di operazioni di trattamento dati auto generate ed errate. Ad ogni modo, una prima e soddisfacente risposta a questo problema è stata fornita appunto dal GDPR di cui sopra, grazie al quale, si auspica, sarà possibile sviluppare sistemi di intelligenza artificiale, rispondenti a tali principi e quindi, non comportino rischi per la privacy degli individui. 4. L’intelligenza Artificiale ed il suo impatto pratico Prima di procedere alla trattazione sull’impatto dell’IA in campo giuridico, è bene accennare — in via puramente generale e senza presunzione di alcuna esaustività — il tema dell’impatto che l’IA ha avuto sino ad oggi ed avrà nel prossimo futuro sulla società e sul mondo del lavoro. 4.1 L’avvento dell’IA sta velocemente cancellando o trasformando quasi tutti i lavori in cui l’uomo si è rivelato, oltre che sostituibile, decisamente più lento dei « programmi intelligenti», da un lato riducendo i posti di lavoro, ma dall’altro creando « nuove professionalità » con competenze specifiche per gestire i pro- grammi di IA. L’IA non ha eliminato i mestieri, ma ha sostituito e sostituirà le competenze richieste dal mercato. Un recente studio del World Economic Forum ha stimato che nei prossimi cinque anni 75 milioni di addetti saranno sostituiti da macchine, ma che nello stesso periodo proprio quelle macchine dovrebbero rendere necessari 133 milioni di nuovi occupati. Ciò in quanto la domanda di mercato non richiede più forza lavoro, ma specifiche competenze per utilizzare al meglio le automazioni in grado di garantire, in minor tempo e con un minor costo, la medesima prestazione che sarebbe stata resa dalla quella stessa forza lavoro. L’impatto dell’IA ci obbliga ad una rimeditazione della storica bipartizione blue collar e white collar, operata su base di rilevanza sociale. Per la IA, infatti, i blue collar si identificano con i lavori — connaturati da più o meno alta professionalizzazione — che richiedono una manipolazione fisica, ricomprendendo al suo interno anche professionalità proprie della categoria dei gold collar (per es. i chirurghi). Ai fini dell’applicazione dell’IA la distinzione tra un chirurgo e un orologiaio potrebbe non essere così evidente, nonostante la separazione sociale tra le due professioni. Al contrario, per quanto possa sembrare assurdo, sono i white collar quelli più minacciati dai programmi di IA. Per il resto, è necessario avviare un processo formativo ben studiato, che consenta la migliore conversione dei lavoratori all’interno delle aziende. In questo percorso sarà fondamentale la collaborazione di tutte le parti sociali e, se la contrattazione collettiva (la più adatta ad adottare soluzioni innovative alle mutevoli realtà della nuova economia e dei nuovi lavori) non cederà alla tentazione di arroccarsi su posizioni ormai obsolete, ma avrà il coraggio di sperimentare formule nuove, allora un quadro di regole certe e condivise in tutti i settori (magari con l’aiuto delle blockchain) potrebbe fare da cornice per il sicuro ed utile superamento della quarta rivoluzione industriale. 4.2 Sulla Società La riduzione dei posti di lavoro ed il contemporaneo incremento delle professionalità richieste, conseguenti all’implementazione delle tecnologie di IA pone un evidente problema sociale: un aumento di produttività a cui fa da contraltare una sempre maggiore diffusione della povertà. Tale antinomia può essere giustificata dal fatto che l’avvento delle IA sta velocemente trasformando l’economia da sistema incentrato sul lavoro a sistema incentrato sul capitale. La sostituzione delle competenze richieste dal mercato è così rapida che nell’arco di un ventennio si assisterà alla nascita ed alla morte di specifici lavori strettamente connessi all’evoluzione informatica. La società potrebbe non avere il tempo materiale per adeguarsi al progresso tecnologico, aumentando notevolmente il rischio di disoccupazione complessiva per rapida obsolescenza delle competenze. Noi da inguaribili ottimisti, riteniamo che, se opportunamente indirizzata l’energia dello sviluppo e se adeguatamente individuati i perimetri entro i quali la tecnologia potrà muoversi nel mercato, il futuro potrà riservarci delle sorprese positive

    Rusticalita e resilienza trasformativa a confronto con l'intelligenza artificiale e l'arte

    No full text
    Si è svolto a Noto, una ridente cittadina siciliana, densa di storia e di tradizioni, seduti attorno ad un tavolo specchiato, disegnato dal maestro Michelangelo Pistoletto e denominato “love difference” il terzo convegno di M’Ama-art/Mamaseeds, la Startup delle filiere agroalimentari, per il recupero delle antiche semenze e la salvaguardia delle biodiversità. Ideato da Alessia Montani, la Presidente di Mamaseeds ed organizzato con la direzione di Diplomatia, rappresentata da Rosario Filippo Tomarchio, membro del comitato esecutivo operativo e project manager di HPC che fra l’altro, ci ha parlato di sicurezza alimentare. Il convegno multidisciplinare ha visto coinvolti membri della società civile, professionisti rappresentanti delle istituzioni, università, agricoltori, esponenti della migliore tradizione turistico-alberghiera e della cucina tradizionale, esperti delle antiche semenze e dei grani antichi; tutti riuniti attorno al tavolo specchiato del maestro Michelangelo Pistoletto. 23 sedute dedicate ai paesi che si affacciano sul mare nostrum per un incontro, uno scambio, una condivisione e una discussione sui problemi della società globale che lo specchio di cui è fatto il tavolo, riflette ogni momento. Una globalità che non finisce a causa della terribile pandemia, ma che si rinnova all’insegna della cooperazione e della solidarietà, abbandonando a tratti la competizione

    IA, Smart contract e decisioni algoritmiche

    No full text
    Si pensi infatti, agli strabilianti risultati che potrebbe raggiungere l’IA se ben veicolata ed utilizzata, nella Sanità, nell’ambiente, nella mobilità, nella sicurezza, nell’impresa, nella PA, in termini di efficienza ed efficacia, nello snellimento dei processi in tutti i campi. Non sfugge infatti, come in questi ultimi 10 anni vi sia stato un cambiamento d’epoca che, accelerato dal Covid-19, è destinato a portare benessere e sviluppo esponenziale ad intere civiltà e, come avremo modo di trattare per chi ci seguirà, financo a contribuire in maniera determinante al raggiungimento dell’obiettivo hunger zero (l’eliminazione della fame nel mondo) nel 2030. Questo processo deve essere accompagnato da una profonda conoscenza dell’IA, dei suoi molteplici vantaggi, ma anche dei suoi rischi e criticità. Ciò deve portare, progressivamente, ad una attenta pianificazione delle risorse e degli investimenti, nonché alla necessaria formazione a tutti i livelli. C’è molto da fare e deve essere fatto subito. Con i 200 e oltre miliardi a disposizione fra le risorse del Recovery Plan per la next generation EU, abbiamo l’opportunità di cambiare tutta l’infrastruttura del paese
    corecore