University of Pisa

Electronic Thesis and Dissertation Archive - Università di Pisa
Not a member yet
    59032 research outputs found

    Prognostic role of the end-systolic hypointensity of papillary muscles in early post-contrast cine images (Dark-Paps sign) in patients with preserved left ventricular ejection fraction.

    No full text
    Objectives: we sought to evaluate the prognosis role of papillary muscle abnormalities in patients with ventricular arrhythmias, preserved left ventricular systolic ejection fraction (LVEF) without a definite diagnosis of cardiac disease. Methods: 391 patients with >500/24h premature ventricular complexes and/or with non-sustained ventricular tachycardia (NSVT), preserved LVEF and no history of cardiac disease, were enrolled. Different features of papillary muscles were considered: supernumerary muscles, papillary thickness, the attachment, late gadolinium enhancement (LGE). Dark-Paps was defined as end-systolic signal hypointensity of both papillary muscles in early post-contrast cine images. Mitral valve prolapse, mitral annular disjunction (MAD), myocardial LGE were considered. Results: Dark-Paps was found in 79 (20%) of patients and was more frequent in females. It was associated with higher prevalence of mitral valve prolapse and MAD. During a median follow-up of 2534 days, 22 hard cardiac events occurred. At Kaplan-Meier curve analysis patients with Dark-Paps were at higher risk of events than those without (p<0.0001). Dark-Paps was significantly associated with hard cardiac events in all the multivariate models. Dark-Paps improved prognostic estimation when added to NSVT (p=0.0006), to LGE of LV walls (p=0.005) and to a model including NSVT+LGE (p=0.014). Dark-Paps allowed a significant net reclassification when add to NSVT (NRI 0.30, p =0.03), to LGE (NRI 0.25, p =0.04), and to NSVT + LGE (NRI 0.32, p =0.02). Conclusions: Dark-Paps is a novel prognostic marker in patients with ventricular arrhythmias and preserved ejection fraction

    LOCALIZED VERSUS 360° INTRAOPERATIVE LASER RETINOPEXY IN CASES OF RHEGMATOGENOUS RETINAL DETACHMENT WITH MILD-TO-MODERATE GRADEPROLIFERATIVE VITREORETINOPATHY

    No full text
    Rhegmatogenous retinal detachment is a serious and sight-threatening condition in which neurosensory retina separates from the retinal pigment epithelium and is associated with retinal ruptures that allow vitreous to accumulate in sub-retinal space. At present, pars plana vitrectomy is the most frequently performed technique for the treatment of rhegmatogenous retinal detachment. Its increasing use in recent years is attributable to various factors resulting from technological progress, including improvements in fluid dynamics, the production of small-gauge instrumentation, and the commercialization of intraocular tamponades (perfluorocarbon liquid, silicone oils, and gases). Laser photocoagulation is commonly used to ensure adherence between retinal pigment epithelium and neurosensory retina. Circumferential argon laser photocoagulation was also performed to prevent retinal detachment in eyes with lattice degeneration and/or retinal breaks. During retinal detachment surgery, once the retinal breaks have been identified and the retina has been reattached, the surgeon has two treatment options: to perform extensive 360° laser retinopexy or to apply localized laser photocoagulation just encircling the ruptures, sparing all the remaining retina. Which of the two is the best approach is still a matter of debate and no clear answers have been reported in the literature. I aimed the compare the efficacy of the two techniques and the respective primary success rate. This is one of the first prospective studies that aimed to compare intraoperative localized and circumferential laser retinopexy in eyes with RRD treated with PPV and air tamponade

    Lo sviluppo di studi traslazionali in medicina del lavoro, nuove prospettive di ricerca in vitro per la valutazione dei fibroblasti polmonari dei soggetti esposti ad agenti metallici e minerali, chimici occupazionali di nuova generazione.

    No full text
    Con il termine Contaminant of Emerging Concern (CEC) ci si riferisce, secondo la normativa europea ed internazionale, a sostanze chimiche non ancora normate di cui si trova traccia nelle matrici ambientali, che vengono indicate con il termine italiano di Microinquinanti Emergenti (MIE). Si tratta di sostanze non necessariamente di recente introduzione ma composti la cui pericolosità è in attivo dibattito e di cui si temono gli effetti per la salute umana e per l’ambiente. Includono tantissimi tipi di sostanze il cui elenco è in continua evoluzione. Il nostro è uno studio pilota svolto per comprendere i meccanismi di azione ed interazione dei nuovi inquinanti ambientali lavorativi, in particolare agenti metallici e minerali, al fine di attuare una prevenzione primaria, una diagnosi precoce ed eventuale prevenzione terziaria con terapie adeguate. Tale studio viene svolto in vitro su colture cellulari primarie di fibroblasti polmonari umani sani, al fine di dimostrare i meccanismi patogenetici che stanno alla base dello sviluppo della fibrosi polmonare che si riscontra nei pazienti esposti

    Smoke detection per un sistema di monitoraggio industriale basata su una rete neurale

    No full text
    Il presente lavoro di tesi ha come scopo il rilevamento di fumi per un sistema di monitoraggio industriale. Tale attività è stata svolta nell’ambito di un tirocinio presso la ditta Sigma Ingegneria S.r.l. di Lucca. La piattaforma in questione è composta da un carrello, capace di muoversi su un binario, e da un drone aereo, in grado di sollevare carichi utili rilevanti. Nell’elaborato si considera esclusivamente il carrello. Una prima analisi preliminare sulla sensoritista a bordo carrello ha portato alla scelta di due sensori per la qualità dell’aria e di due sensori di visione, quali una termocamera e una stereocamera, entrambe dotate di sensori RGB, su cui si è posta l’attenzione. Per il raggiungimento dell’obiettivo di rilevamento dei fumi la preferenza è ricaduta sull’utilizzo delle reti neurali artificiali. La progettazione della rete avviene in diverse fasi: scelta del task, scelta del modello, creazione del dataset, configurazione delle impostazioni, addestramento della rete e, infine, la detection. A seconda del tipo di obiettivo da raggiungere le reti neurali possono svolgere vari tipi di task, nello specifico il rilevamento dei fumi rientra nel task del rilevamento.Il fulcro del lavoro è stato la scelta di un modello pre-addestrato, costruito su una specifica famiglia di modelli di reti neurali convoluzionali, chiamata EfficientDet. Le reti neurali, in linea generale, sono una famiglia di reti neurale utilizzate per il riconoscimento delle immagini. La loro peculiarità è la presenza dei livelli di convoluzione, i quali estraggono, attraverso l’uso dei filtri, delle caratteristiche dell’immagine. Nel dettaglio la famiglia delle EfficientDet, costruita sulla EfficientNet, sono una nuova famiglia di metodi per il rilevamento degli oggetti, ottimizzate dall’utilizzo del compound scaling method, che permette di scalare il modello da un modello base a modelli più efficienti e dei blocchi piramidali bidirezionali, che permettono, invece, il fluire delle informazioni in due direzioni, dall’alto verso il basso e dal basso verso l’alto. La creazione del dataset è avvenuta in più fasi. Il dataset di partenza è stato fornito dall’Università degli studi di San Diego, costituito da un set di foto di incendi. La necessità di ampliare i campi di rilevamento dei fumi a vari ambienti, che spaziano dall’outdoor all’indoor, da situazioni diurne con luminosità più o meno accentuata a condizioni notturne, ha portato ad un aumento personalizzato del dataset. Tale procedura è avvenuta in più step e in vari contesti e stagioni, tramite video realizzati presso alcune cartiere di Capannori e di Porcari, e altri video, fatti, invece, presso la Sigma Ingegneria di Lucca con l’ausilio di una macchina del fumo e di un fumogeno bianco. Dall’acquisizione video sono state ricavate le immagini, all'interno delle quali sono state scontornate manualmente le nuvole di fumo, per consentire l'etichettatura. Tale procedura è stata eseguita con un apposito software open-source, chiamato Roboflow. Inoltre, grazie ad una specifica funzionalità, che permette di aumentare l’esposizione e la luminosità delle immagini con valori settati manualmente, si è incrementato ulteriormente lo stesso dataset. Una volta creato il dataset per l’addestramento della rete è possibile esportarlo nel formato voluto. Con la configurazione si analizzano gli strumenti su cui si basa il modello, nel nostro caso specifico, il framework TensorFlow e la sua API di Object Detection e le impostazioni, che influiscono sulla perfomance della rete, quali parametri e iperparametri. Tra gli iperparametri si è posta l’attenzione su numero di epoche, batch size e numero di passi per epoca. La valutazione di questi valori è avvenuta in maniera empirica. Provando varie combinazioni, infatti, il risultato raggiunto è il miglior compromesso tra prestazione del training e limiti computazionali, dovuti sia al compilatore utilizzato sia alla durata della fase di addestramento. La fase finale della detection viene suddivisa, a sua volta, in diverse fasi. Nella prima fase di acquisizione, tramite la funzione VideoCapture, propria di OpenCV, è stato possibile acquisire video e i frame acquisiti sono stati poi convertiti in tensori di input per il rilevamento. Nella fase successiva si applica un filtro per permettere il rilevamento, anche dei fumi scuri. Esso è rappresentato da un’operazione di inversione dell’immagine, che rielabora l’immagine nel formato standard RGB costruendone il negativo. Nella ultima fase, tramite una funzione specifica dell’API Object Detection si creano i box attorno all’oggetto da rilevare e i risultati vengono, poi, visualizzati a schermo. L’efficienza del modello viene valutata in base a due criteri di valutazione: la presenza dei falsi positivi e/o negativi e le modalità di rilevamento. Più falsi positivi, ovvero più oggetti che sono fumo, ma che vengono rilevati come tali, sono presenti minore sarà la resa del rilevamento dei fumi. In particolare, è stato scelto di suddividere le modalità di rilevamento in tre categorie: rilevamento continuo, in cui il rilevamento avviene per un numero consistente di frame, senza evidenti discontinuità, rilevamento intermittente, in cui il rilevamento avviene per alcuni frame con pause brevi ed infine rilevamento discontinuo, in cui il rilevamento avviene per pochi frame con pausa più lunghe. Al fine di eseguire una campagna di test semplice, ma al tempo stesso rappresentativa del contesto di applicazione di questo sistema di monitoraggio, il modello è stato provato nella realtà produttiva di Sigma Ingegneria, e in ambiente casalingo, sia outdoor che indoor, al fine di aumentare le casistiche di valutazione del modello. I contesti analizzano si differenziano in diurni, notturni e outdoor con condizioni diverse di luminosità e presenza di vari oggetti esterni. In tutti i casi il fumo viene rilevato, ma con continuità variabile. Inolre si nota una certa presenza di falsi positivi e negativi, dovuta a diversi fattori ambientali. In conclusione, il modello proposto raggiunge l’obiettivo in maniera quasi ottimale ed i suoi limiti possono essere superati tramite dei miglioramenti, sia in termini di efficienza stessa del modello della famiglia EfficientDet, sia in termini di strumentistica computazionale, quale il compilatore impiegato, e qualitativa della progettazione della rete neurale, come ampliamento ulteriore del dataset in altri e più vari contesti. Quindi, tra gli obiettivi futuri previsti dal progetto, oltre ad un miglioramento negli strumenti computazionale e qualitativo, si è previsto l’utilizzo di un framework diverso da TensorFlow. Il confronto tra framework permette di poter testare il modello di rilevamento su basi differenti, in modo da valutarne eventuali miglioramenti o peggioramenti in termini di efficienza

    Sviluppo di nuovi sistemi di abbattimento di contaminanti chimici tramite l'uso di plasma freddo

    No full text
    La presente tesi è stata sviluppata con l’obiettivo di sfruttare i benefici indotti dalla tecnologia al plasma freddo nel campo ambientale, per l’abbattimento di molecole inquinanti, recalcitranti a quelli che sono i processi depurativi tradizionali, in modo da ottenere gli elementi conoscitivi per la valutazione di una possibile applicazione a livello industriale. I plasmi freddi, che sono convenientemente generati da scariche elettriche a temperatura e pressione ambiente, costituiscono ambienti di reazione molto reattivi e fortemente ossidanti per la presenza di elettroni, molecole eccitate, specie atomiche e radicaliche. Nonostante siano numerose le applicazioni tecnologiche di questi plasmi in processi di rilevanza ambientale e commerciale, la chimica di questi sistemi è tuttora non ben nota sia per quanto riguarda i prodotti che i meccanismi di reazione. Lo studio si è sviluppato lungo due vie di ricerca riguardanti: l’abbattimento di inquinanti in fase gassosa, condotto in collaborazione con la facoltà di ingegneria dell’Università di Pisa, e l’abbattimento di tensioattivi in acque reflue provenienti dal lavaggio di un impianto di produzione di un’azienda farmaceutica. La prima linea di ricerca si è focalizzata sullo studio dell’interazione tra molecole inquinanti che costituiscono i gas generati dai processi di combustione con il plasma freddo. In particolare lo studio si è concentrato sull’abbattimento di ossidi di azoto prodotti da un motore Diesel. I motivi che hanno sollecitato questa ricerca sono le nuove normative imposte dall’Organizzazione Internazionale Marittima in vigore da Gennaio 2021 che hanno esteso le limitazioni sulle emissioni alle imbarcazioni con lunghezza superiore ai 24 m e stazza lorda inferiore alle 500 t, andando ad includere il settore dei grandi yacht. Quest’ultimi adottano motorizzazioni Diesel ad alta potenza specifica che, in assenza di sistemi di post-trattamento dei gas di scarico, non rientrano nei limiti di emissioni di ossidi di azoto richiesti. Attualmente l’unico sistema di post-trattamento disponibile sul mercato conforme alle norme antinquinamento è il catalizzatore SCR. Esso però presenta costi elevati, necessita di ampi spazi in sala macchine ed ha bassa efficienza di abbattimento sui gas di scarico con temperatura inferiore ai 250°C. Data l’importanza degli spazi ed il prevalente utilizzo di bassi carichi motore, l’SCR si è dimostrato inadeguato sugli yacht, aprendo la strada a metodologie alternative per l’abbattimento di inquinanti in fase gas, tra cui il loro assorbimento in soluzioni acquose. Gli ossidi di azoto presenti nei gas di scarico sono perlopiù insolubili in acqua, ma la loro solubilità aumenta con lo stato di ossidazione; è quindi possibile abbatterli con un opportuno lavaggio dopo averli ossidati attraverso l’azione del plasma. Il plasma freddo utilizzato nel presente studio è costituito da un gas ionizzato i cui elettroni raggiungono elevate temperature grazie a un processo di accelerazione, mentre le altre specie restano a temperatura ambiente. L’alta energia acquisita dagli elettroni del plasma porta alla formazione di specie fortemente reattive che, in presenza di ossigeno, esercitano una forte azione ossidante sul flusso di gas che vi entra in contatto. Avvenuta l’ossidazione, gli ossidi di azoto possono essere disciolti in soluzione acquosa sotto forma di nitriti, riducendo il loro rilascio in atmosfera. Oltre all’abbattimento di ossidi di azoto in fase gas lo studio si è esteso alla possibilità di applicare il plasma freddo per l’abbattimento di idrocarburi incombusti, altra categoria di molecole estremamente nocive prodotte nei processi di combustione. In questo caso non c’è stata una effettiva necessità che ha mosso la ricerca verso una specifica applicazione reale; ma è stato uno studio volto a individuare eventuali nuove molecole con cui il plasma freddo può interagire per ampliare lo spettro applicativo di questa affascinante tecnologia. La seconda linea di ricerca si è focalizzata sullo studio dell’interazione tra plasma e specie inquinanti in fase liquida. In particolare lo studio si è concentrato sull’abbattimento di tensioattivi: principali molecole inquinanti costituenti le acque reflue provenienti da impianti industriali del settore farmaceutico. La normativa di riferimento è il decreto 152 del 2006, secondo cui i reflui scaricati in acque superficiali devono avere concentrazioni di tensioattivi totali non superiori a 2 mg/L, se scaricati in rete fognaria non superiore a 4 mg/L. I sistemi di depurazione attualmente utilizzati, tipicamente carboni attivi, anche se teoricamente efficienti nel ridurre la concentrazione di tensioattivi al di sotto del limite imposto, presentano consistenti criticità di tipo tecnico e gestionale, in quanto hanno prestazioni che decadono con l’esaurirsi del materiale e necessitano di continuo monitoraggio e ripristino. Per questo motivo lo studio, condotto in collaborazione con un’ azienda farmaceutica specializzata nella produzione di prodotti oftalmici, ha avuto l’obiettivo di individuare una possibile alternativa di purificazione delle acque reflue attraverso l’uso di plasma freddo , in modo da risolvere le criticità sopra esposte. In entrambe le linee di ricerca, la finalità ultima del lavoro è stata determinare, su scala pilota, parametri ottimali per la conduzione dei processi, studiarne efficienza ed efficacia ed arrivare quindi a poterne valutare oggettivamente la possibile applicazione su scala industriale. Lo studio dei processi di abbattimento attraverso l’uso del NTP (acronimo di Non Thermal Plasma) è stato condotto grazie ad una serie di reattori prototipali messi a punto e forniti da una società che si occupa della industrializzazione della tecnologia al plasma freddo con l’obiettivo principale di sanificare l’aria e le superfici da contaminazioni biologiche e chimiche

    Effetti della somministrazione di lino sul profilo lipidico di bovine di razza Bruna e Frisona Italiana

    No full text
    Il giusto equilibrio tra acidi grassi saturi, trans, omega-3 e CLA è uno degli aspetti fondamentali per prevenire diverse malattie. Esistono infatti evidenze sperimentali che stabiliscono una relazione tra una dieta ricca di acidi grassi saturi e trans e malattie dall’apparato cardiocircolatorio e sindrome metaboliche. Il latte è sicuramente un’importante fonte alimentare di queste sostanze. L’alimentazione dell’animale è un efficiente strumento, per ottenere una modifica della composizione in acidi grassi del latte, nella direzione di una diminuzione degli acidi grassi saturi ed un aumento dell’acido vaccenico, del CLA e dell’acido α-linolenico, che numerosi lavori hanno dimostrato avere un ruolo positivo nella prevenzione di molte malattie. Il lino (Linum usitatissimum) può sicuramente svolgere questo ruolo, in quanto fonte di acidi grassi polinsaturi della serie omega-3. L’esperimento di tesi è stato condotto al fine di verificare l’effetto dell’integrazione con semi di lino estruso sul profilo in acidi grassi del latte di bovine di razza Frisona e di razza Bruna. Lo studio è stato condotto su 30 bovine, 25 Brune e 5 Frisone, riunite in un unico gruppo prima Controllo (senza integrazione) poi Lino (con integrazione), sulle quali sono stati effettati 4 campionamenti settimanali per periodo di trattamento. I risultati dell’esperimento mostrano che la dieta ha influenzato la frazione degli acidi grassi del latte prodotto sia in termini quantitativi che in termini qualitativi

    Nuovi complessi dinucleari di rutenio: sintesi, citotossicità e interazione con biosubstrati

    No full text
    Lo scopo del presente lavoro di tesi si focalizza sulla sintesi, lo studio di reattività e di interazione con biosubstrati di due classi di complessi dinucleari a base di rutenio. Il primo studio consiste nella sintesi e caratterizzazione di nuovi complessi dirutenaciclopentenoni neutri e dei corrispondenti derivati cationici, ottenuti per protonazione dei precedenti. Questi ultimi sono stati successivamente analizzati per verificare la possibile interazione con diversi biosubstrati. L’interazione con DNA e RNA è stata studiata tramite titolazioni spettroscopiche dirette, saggio di spostamento del bromuro di etidio e misure di viscosità, mentre l’interazione con la BSA è stata indagata tramite titolazioni spettrofluorimetriche, monitorando la variazione del segnale di fluorescenza della proteina. Successivamente, anche l’attività citotossica di questi complessi è stata testata. La seconda parte del lavoro di tesi ha riguardato la sintesi e la caratterizzazione di nuovi complessi dinucleari di rutenio cationici ottenuti in seguito al coupling C-C di una serie di alchini con il legante vinile coordinato a ponte al core (Ru2Cp2(CO)2) e ha mostrato la formazione di due diversi prodotti in base all’alchino utilizzato. Tutti i prodotti sono stati caratterizzati tramite spettroscopia IR e NMR, e in alcuni casi sono stati ottenuti cristalli idonei a studi di diffrazione a raggi X

    Integrazione della prospettiva dei pazienti nella valutazione HTA dei percorsi assistenziali di patologie rare e oncologiche

    No full text
    Questo lavoro di tesi, effettuato in collaborazione con l’Istituto di Management della Scuola Sant’Anna, parte dall’individuazione di possibili criticità nei percorsi assistenziali associati a patologie rare e oncologiche mediante una valutazione HTA (Health Technology Assessment) dei percorsi stessi valorizzando la prospettiva dei pazienti attraverso l’analisi di questionari a loro somministrati. Una volta identificate queste criticità, il focus si sposta sulla creazione di un’applicazione digitale per il telemonitoraggio delle patologie esaminate che possa aiutare a ridurre il livello delle criticità stesse

    Study, development and testing of innovative electrolytes for redox flow batteries

    No full text
    Durante questo dottorato è stata condotta una serie di studi incentrati sull’esplorazione di nuovi approcci per la risoluzione di alcune delle più tipiche problematiche delle batterie a flusso. Le attività di ricerca sono state indirizzate verso lo sviluppo di fluidi elettroattivi innovativi, rivolgendo una particolare attenzione allo studio di nuovi sistemi più performanti dal punto di vista della densità e dell'efficienza energetica, della stabilità e della riduzione dell'aggressività nei confronti delle altre componenti della batteria. Per la preparazione degli elettroliti oggetto dello studio, in ambiente sia acquoso che non acquoso, sono stati adottati due approcci principali: l’utilizzo di liquidi ionici come mezzo per modulare le caratteristiche di solubilità delle specie redox, e l’impiego di specifici agenti complessanti per incrementare la stabilità degli elettroliti. I risultati ottenuti da questo progetto di dottorato hanno certamente contribuito a confermare l’applicabilità dei nuovi approcci studiati come validi strumenti per il miglioramento delle prestazioni di elettroliti per batterie a flusso (sia acquosi che non acquosi) in termini sia di densità energetica che di stabilità. I metodi qui proposti possono quindi rappresentare un primo promettente passo verso la soluzione di alcune delle più importanti criticità delle batterie a flusso. During this PhD thesis a series of studies focused on the investigation and on the improvement of RFBs issues have been carried on. The research activities have been centered on the development of innovative redox-active fluids, with a particular attention on the study of novel approaches for the realization of systems characterized by improved energy density, efficiency, stability and a reduced aggressiveness toward the other battery components. Two main approaches have been followed for the preparation and the testing of innovative electrolyte systems, both in aqueous and in non-aqueous environments: the use of ionic liquid as a mean to tune the solubility properties of the redox active compounds, and the adoption of specific complexing agents for the enhancement of the electrolyte stability. The results obtained from of this PhD project have certainly contributed to assess the applicability of the investigated novel approaches for the realization of aqueous and non-aqueous RFB electrolytes with enhanced energy density and stability characteristics. The promising methods here proposed could therefore represent a first valuable step towards the solution of some of the most typical issues and limitations of redox flow battery technologies

    Agostino Scilla. Frammenti di un discorso pittorico

    No full text
    Il caso di Agostino Scilla, pittore e “filosofo” del secondo Seicento, è, se si vuole, privilegiato per lo studioso che si rivolge alla storia delle scienze e delle arti. Nato a Messina nel 1629, compì un apprendistato pittorico a Roma sotto Andrea Sacchi nella seconda metà degli anni Quaranta, per poi stabilirsi a Messina e tornare a più riprese a Roma, dove tornerà a vivere nel 1679, in fuga dalla rivolta antispagnola di Messina del 1674-1678, fino alla morte sopraggiunta nel 1700. All'attività di pittore testimoniata da pale d'altare, nature morte, dipinti di storia biblica e “ritratti filosofici” giunti fino a noi, affiancò un interesse continuato verso l'antiquaria e la storia naturale. È esattamente il motivo per cui Scilla va considerato un oggetto d'indagine di particolare importanza. La compresenza, in una sola persona, di due autori – un filosofo che si occupa di storia naturale e un pittore – richiede uno studio che è certamente di storia dell'arte, ma deve ambire allo stesso tempo a inoltrarsi nei territori della “storia sociale” e della “storia delle mentalità” (o meglio, “storia dei sistemi di pensiero”): quali condizioni storiche hanno potuto produrre la singolare figura di un pittore che si occupa al tempo stesso di storia naturale? Il trattato sui fossili dal titolo La vana speculazione disingannata dal senso, pubblicato e diffuso da Scilla tra il 1670 e il 1671, riscosse un successo italiano ed europeo che lo rendono un fatto rilevante nella storia della cultura europea del Seicento. Queste caratteristiche consentono di ragionare della vita e delle opere di Agostino Scilla come di punti di accesso al sistema di trasformazioni storiche avvenute, in diversi campi del sapere e dell'agire delle civiltà europee, tra la fine del XVI secolo e la metà del XVIII secolo. Se in Agostino Scilla la pratica pittorica è rivendicata come pratica scientifica, come si dovrà comportare lo storico delle scienze? È necessario, naturalmente, avere un'idea della storia delle scienze che non consista in un disvelamento progressivo e con pochi intoppi, ma che la definisca come risultante di conflitti, interazioni, dibattiti: anche la verità scientifica si costituisce storicamente. Il che non rende la pratica scientifica equiparabile a tutti gli altri fenomeni culturali, sebbene sia necessario ammettere che con essi ha interazioni e scambi continui. Sebbene non si possa negare che fu fondamentale il contributo degli artisti allo sviluppo della scienza del Seicento, bisogna ricordare che rispetto alla tendenza del pensiero scientifico del secolo, che in generale mira a una “scienza generale dell'ordine” (per via matematica, tassonomica o sperimentale) l'arte e la letteratura a esso contemporanee sembrano procedere in direzione opposta. In realtà, si tratterebbe di un rapporto di “ritorno del superato” tra il sistema delle similitudini e delle corrispondenze (in sostanza, del pensiero analogico tardo-medievale e rinascimentale), sempre più relegato, nel tempo, al campo artistico letterario, e la razionalità secentesca – una tensione che si sviluppa sia all'interno del campo artistico e letterario, sia all'interno del campo filosofico e scientifico, che in quello che ho voluto definire “lungo XVII secolo” vanno incontro alla loro definizione e separazione come specifici ambiti di pertinenza discorsiva. È per questo che la “retorica visiva” barocca ha in realtà diversi campi di applicazione e si trova stretta tra il suo uso come “tecnica di persuasione” e la sua possibilità di esporre prove scientificamente fondate, senza che si possano escludere situazioni intermedie. Il mestiere di pittore permette ad Agostino Scilla di accreditarsi come indagatore di storia naturale credibile, sfruttando la retorica visiva come mezzo di persuasione attraverso prove, ma questo non è l'unico effetto della compresenza di due figure autoriali in un solo personaggio storico. La pratica della storia naturale doveva in qualche modo strutturare la sua immagine sociale come “pittor filosofo”, con l'effetto di potersi accreditare come pittore colto, praticante di un'arte liberale, in grado di rivendicare quella “libertà dell'artista” che costituisce uno dei temi fondamentali della storia dell'arte del Seicento. Attraverso un ragionamento sull'articolazione dello spazio sociale – economico e politico – della Messina degli anni precedenti la rivolta antispagnola, e tenendo conto dei rapporti italiani ed europei sia della classe dirigente messinese, sia di Scilla stesso, è possibile fornire alcuni chiarimenti circa le variazioni del suo stile, che vanno contemporaneamente ricondotte alle esigenze del mercato artistico interno messinese e all'aspirazione di Scilla di tornare a Roma; particolarmente rilevanti da questo punto di vista sono i due soggiorni romani del pittore, accertati per il 1662 e per il 1670, e che possono contribuire a una definizione delle oscillazioni stilistiche di Scilla in rapporto anche a un più generale dibattito – talvolta implicito – sulla forma e la natura della rappresentazione, che implica una riflessione sulla historia – sia pure naturalis – tanto quanto sui fondamenti e sulle finalità della raffigurazione pittorica

    13,337

    full texts

    59,053

    metadata records
    Updated in last 30 days.
    Electronic Thesis and Dissertation Archive - Università di Pisa is based in Italy
    Access Repository Dashboard
    Do you manage Open Research Online? Become a CORE Member to access insider analytics, issue reports and manage access to outputs from your repository in the CORE Repository Dashboard! 👇