112 research outputs found

    Application of novel technologies for the development of next generation MR compatible PET inserts

    Get PDF
    Multimodal imaging integrating Positron Emission Tomography and Magnetic Resonance Imaging (PET/MRI) has professed advantages as compared to other available combinations, allowing both functional and structural information to be acquired with very high precision and repeatability. However, it has yet to be adopted as the standard for experimental and clinical applications, due to a variety of reasons mainly related to system cost and flexibility. A hopeful existing approach of silicon photodetector-based MR compatible PET inserts comprised by very thin PET devices that can be inserted in the MRI bore, has been pioneered, without disrupting the market as expected. Technological solutions that exist and can make this type of inserts lighter, cost-effective and more adaptable to the application need to be researched further. In this context, we expand the study of sub-surface laser engraving (SSLE) for scintillators used for PET. Through acquiring, measuring and calibrating the use of a SSLE setting we study the effect of different engraving configurations on detection characteristics of the scintillation light by the photosensors. We demonstrate that apart from cost-effectiveness and ease of application, SSLE treated scintillators have similar spatial resolution and superior sensitivity and packing fraction as compared to standard pixelated arrays, allowing for shorter crystals to be used. Flexibility of design is benchmarked and adoption of honeycomb architecture due to geometrical advantages is proposed. Furthermore, a variety of depth-of-interaction (DoI) designs are engraved and studied, greatly enhancing applicability in small field-of-view tomographs, such as the intended inserts. To adapt to this need, a novel approach for multi-layer DoI characterization has been developed and is demonstrated. Apart from crystal treatment, considerations on signal transmission and processing are addressed. A double time-over-threshold (ToT) method is proposed, using the statistics of noise in order to enhance precision. This method is tested and linearity results demonstrate applicability for multiplexed readout designs. A study on analog optical wireless communication (aOWC) techniques is also performed and proof of concept results presented. Finally, a ToT readout firmware architecture, intended for low-cost FPGAs, has been developed and is described. By addressing the potential development, applicability and merits of a range of transdisciplinary solutions, we demonstrate that with these techniques it is possible to construct lighter, smaller, lower consumption, cost-effective MRI compatible PET inserts. Those designs can make PET/MRI multimodality the dominant clinical and experimental imaging approach, enhancing researcher and physician insight to the mysteries of life.La combinación multimodal de Tomografía por Emisión de Positrones con la Imagen de Resonancia Magnética (PET/MRI, de sus siglas en inglés) tiene clara ventajas en comparación con otras técnicas multimodales actualmente disponibles, dada su capacidad para registrar información funcional e información estructural con mucha precisión y repetibilidad. Sin embargo, esta técnica no acaba de penetrar en la práctica clínica debido en gran parte a alto coste. Las investigaciones que persiguen mejorar el desarrollo de insertos de PET basados en fotodetectores de silicio y compatibles con MRI, aunque han sido intensas y han generado soluciones ingeniosas, todavía no han conseguido encontrar las soluciones que necesita la industria. Sin embargo, existen opciones todavía sin explorar que podrían ayudar a evolucionar este tipo de insertos consiguiendo dispositivos más ligeros, baratos y con mejores prestaciones. Esta tesis profundiza en el estudio de grabación sub-superficie con láser (SSLE) para el diseño de los cristales centelladores usados en los sistemas PET. Para ello hemos caracterizado, medido y calibrado un procedimiento SSLE, y a continuación hemos estudiado el efecto que tienen sobre las especificaciones del detector las diferentes configuraciones del grabado. Demostramos que además de la rentabilidad y facilidad de uso de esta técnica, los centelladores SSLE tienen resolución espacial equivalente y sensibilidad y fracción de empaquetamiento superiores a las matrices de centelleo convencionales, lo que posibilita utilizar cristales más cortos para conseguir la misma sensibilidad. Estos diseños también permiten medir la profundidad de la interacción (DoI), lo que facilita el uso de estos diseños en tomógrafos de radio pequeño, como pueden ser los sistemas preclínicos, los dedicados (cabeza o mama) o los insertos para MRI. Además de trabajar en el tratamiento de cristal de centelleo, hemos considerado nuevas aproximaciones al procesamiento y transmisión de la señal. Proponemos un método innovador de doble medida de tiempo sobre el umbral (ToT) que integra una evaluación de la estadística del ruido con el propósito de mejorar la precisión. El método se ha validado y los resultados demuestran su viabilidad de uso incluso en conjuntos de señales multiplexadas. Un estudio de las técnicas de comunicación óptica analógica e inalámbrica (aOWC) ha permitido el desarrollo de una nueva propuesta para comunicar las señales del detector PET insertado en el gantry a un el procesador de señal externo, técnica que se ha validado en un demostrador. Finalmente, se ha propuesto y demostrado una nueva arquitectura de análisis de señal ToT implementada en firmware en FPGAs de bajo coste. La concepción y desarrollo de estas ideas, así como la evaluación de los méritos de las diferentes soluciones propuestas, demuestran que con estas técnicas es posible construir insertos de PET compatibles con sistemas MRI, que serán más ligeros y compactos, con un reducido consumo y menor coste. De esta forma se contribuye a que la técnica multimodal PET/MRI pueda penetrar en la clínica, mejorando la comprensión que médicos e investigadores puedan alcanzar en su estudio de los misterios de la vida.Programa Oficial de Doctorado en Ingeniería Eléctrica, Electrónica y AutomáticaPresidente: Andrés Santos Lleó.- Secretario: Luis Hernández Corporales.- Vocal: Giancarlo Sportell

    Radiotherapy dosimetry with ultrasound contrast agents

    Get PDF

    Radiotherapy dosimetry with ultrasound contrast agents

    Get PDF

    Characterization of the very-high-energy emission from pulsars with the Magic telescopes

    Get PDF
    Tesis inédita de la Universidad Complutense de Madrid, Facultad de Ciencias Físicas, Departamento de Física Atómica, Molecular y Nuclear, leída el 09/02/2016En 1967, la estudiante de doctorado Jocelyn Bell Burnell, observ o por primera vez la se~nal procedente de un p ulsar. Estos objetos estelares han sido desde entonces intensamente estudiados a todas las longitudes de onda. Debido a su intenso campo magn etico y gravitatorio, los p ulsares se han convertido en uno de los mejores laboratorios para el estudio de la materia en condiciones extremas. Recientemente, la detecci on de emisi on de muy alta energ as (VHE > 100 GeV) del p ulsar del Cangrejo ha obligado a replantearnos nuestras ideas sobre el funcionamiento de estas estrellas, ya que tal emisi on parec a descartada a priori por los modelos te oricos existentes. Estos modelos proponen distintos lugares en las magnetosferas de los p ulsares, y en torno a estas, como origen de la emisi on de muy alta energ a detectada, cada uno con caracter sticas propias en la distribuci on espectrales de energ a y en las curva de luz esperadas. Las observaciones de los p ulsares a muy altas energ as son por lo tanto fundamentales para entender la ubicaci on y los mecanismos de la emisi on y distinguir entre los distintos modelos. Esta tesis trata de la caracterizaci on de la emisi on de muy alta energ a de los p ulsares. Este estudio est a basado en las observaciones de p ulsares con los telescopios MAGIC y Fermi-LAT y en una estimaci on anal tica de la e ciencia de emisi on en rayos X y rayos gamma de los p ulsares en el contexto del modelo del \outer gap" o de \zona externa"...For several decades, since their discovery in 1967 by Jocelyn Bell Burnell, pulsars have been under intense investigation. Due to their huge magnetic and gravitational elds, pulsars are one of the best laboratories to study matter in extreme conditions. Recently, the detection of emission from the Crab pulsar at Very High Energies (VHE, > 100 GeV) was a breakthrough, as such emission was totally unexpected. Even though pulsars are being deeply studied, their emission location and mechanisms are still poorly understood. Several regions where the VHE gamma rays are expected to be emitted where proposed, each of them exhibiting di erent features in the pulsars emission, such as energy spectrum and light curve properties. The observation of pulsars at VHE is then fundamental in order to understand their emission properties and distinguish between the current models. This thesis deals with the characterization of the VHE emission from pulsars. This study relies on the observations of pulsars with the MAGIC telescopes and the analytic calculation of the pulsar X-ray and gamma-ray emission e ciencies in the framework of the outer-gap model. Two pulsars were selected for the observations with the MAGIC telescopes, namely, the Crab and Geminga pulsars. These pulsars are the two brightest gamma-ray pulsars observable from the Northern Hemisphere. The study of the Crab pulsar revealed the signi cant emission from the interpulse region, also called bridge, located between the two main peaks. This component, already observed at low energies and predicted at VHE, was not previously detected at VHE. Furthermore, the relative emission between the two main peaks and the bridge was computed, including the analysis of 6.5 years of Fermi-LAT data. The behaviors of P2/P1 and bridge/P1 revealed a similar trend, unveiling similar properties in the emission of these distinct components...Depto. de Estructura de la Materia, Física Térmica y ElectrónicaFac. de Ciencias FísicasTRUEunpu

    Long distance free-space quantum key distribution

    Get PDF
    In the age of information and globalisation, secure communication as well as the protection of sensitive data against unauthorised access are of utmost importance. Quantum cryptography currently provides the only way to exchange a cryptographic key between two parties in an unconditionally secure fashion. Owing to losses and noise of today's optical fibre and detector technology, at present quantum cryptography is limited to distances below a few 100 km. In principle, larger distances could be subdivided into shorter segments, but the required quantum repeaters are still beyond current technology. An alternative approach for bridging larger distances is a satellite-based system, that would enable secret key exchange between two arbitrary points on the globe using free-space optical communication. The aim of the presented experiment was to investigate the feasibility of satellite-based global quantum key distribution. In this context, a free-space quantum key distribution experiment over a real distance of 144 km was performed. The transmitter and the receiver were situated in 2500 m altitude on the Canary Islands of La Palma and Tenerife, respectively. The small and compact transmitter unit generated attenuated laser pulses, that were sent to the receiver via a 15-cm optical telescope. The receiver unit for polarisation analysis and detection of the sent pulses was integrated into an existing mirror telescope designed for classical optical satellite communications. To ensure the required stability and efficiency of the optical link in the presence of atmospheric turbulence, the two telescopes were equipped with a bi-directional automatic tracking system. Still, due to stray light and high optical attenuation, secure key exchange would not be possible using attenuated pulses in connection with the standard BB84 protocol. The photon number statistics of attenuated pulses follows a Poissonian distribution. Hence, by removing a photon from all pulses containing two or more photons, an eavesdropper could measure its polarisation without disturbing the polarisation state of the remaining pulse. In this way, he can gain information about the key without introducing detectable errors. To protect against such attacks, the presented experiment employed the recently developed method of using additional "decoy" states, i.e., the the intensity of the pulses created by the transmitter were varied in a random manner. By analysing the detection probabilities of the different pulses individually, a photon-number-splitting attack can be detected. Thanks to the decoy-state analysis, the secrecy of the resulting quantum key could be ensured despite the Poissonian nature of the emitted pulses. For a channel attenuation as high as 35 dB, a secret key rate of up to 250 bit/s was achieved. Our outdoor experiment was carried out under real atmospheric conditions and with a channel attenuation comparable to an optical link from ground to a satellite in low earth orbit. Hence, it definitely shows the feasibility of satellite-based quantum key distribution using a technologically comparatively simple system

    LHCb Particle Identification Upgrade: Technical Design Report

    Get PDF
    The LHCb upgrade will take place in the second long shutdown of the LHC, currently scheduled to begin in 2018. The upgrade will enable the experiment to run at luminosities of 2 x 10^33 cm^-2 s^-1 and will read out data at a rate of 40MHz into a exible software-based trigger. All sub-detectors of LHCb will be re-designed to comply with these new operating conditions. This Technical Design Report presents the upgrade plans of the Ring Imaging Cherenkov (RICH) system, the calorimeter system and the muon system, which together provide the particle identication capabilities of the experiment

    Strategies of development and maintenance in supervision, control, synchronization, data acquisition and processing in light sources

    Get PDF
    Programa Oficial de Doutoramento en Tecnoloxías da Información e as Comunicacións. 5032V01[Resumo] Os aceleradores de partículas e fontes de luz sincrotrón, evolucionan constantemente para estar na vangarda da tecnoloxía, levando os límites cada vez mais lonxe para explorar novos dominios e universos. Os sistemas de control son unha parte crucial desas instalacións científicas e buscan logra-la flexibilidade de manobra para poder facer experimentos moi variados, con configuracións diferentes que engloban moitos tipos de detectores, procedementos, mostras a estudar e contornas. As propostas de experimento son cada vez máis ambiciosas e van sempre un paso por diante do establecido. Precísanse detectores cada volta máis rápidos e eficientes, con máis ancho de banda e con máis resolución. Tamén é importante a operación simultánea de varios detectores tanto escalares como mono ou bidimensionáis, con mecanismos de sincronización de precisión que integren as singularidades de cada un. Este traballo estuda as solucións existentes no campo dos sistemas de control e adquisición de datos nos aceleradores de partículas e fontes de luz e raios X, ó tempo que explora novos requisitos e retos no que respecta á sincronización e velocidade de adquisición de datos para novos experimentos, a optimización do deseño, soporte, xestión de servizos e custos de operación. Tamén se estudan diferentes solucións adaptadas a cada contorna.[Resumen] Los aceleradores de partículas y fuentes de luz sincrotrón, evolucionan constantemente para estar en la vanguardia de la tecnología, y poder explorar nuevos dominios. Los sistemas de control son una parte fundamental de esas instalaciones científicas y buscan lograr la máxima flexibilidad para poder llevar a cabo experimentos más variados, con configuraciones diferentes que engloban varios tipos de detectores, procedimientos, muestras a estudiar y entornos. Los experimentos se proponen cada vez más ambiciosos y en ocasiones más allá de los límites establecidos. Se necesitan detectores cada vez más rápidos y eficientes, con más resolución y ancho de banda, que puedan sincronizarse simultáneamente con otros detectores tanto escalares como mono y bidimensionales, integrando las singularidades de cada uno y homogeneizando la adquisición de datos. Este trabajo estudia los sistemas de control y adquisición de datos de aceleradores de partículas y fuentes de luz y rayos X, y explora nuevos requisitos y retos en lo que respecta a la sincronización y velocidad de adquisición de datos, optimización y costo-eficiencia en el diseño, operación soporte, mantenimiento y gestión de servicios. También se estudian diferentes soluciones adaptadas a cada entorno.[Abstract] Particle accelerators and photon sources are constantly evolving, attaining the cutting-edge technologies to push the limits forward and explore new domains. The control systems are a crucial part of these installations and are required to provide flexible solutions to the new challenging experiments, with different kinds of detectors, setups, sample environments and procedures. Experiment proposals are more and more ambitious at each call and go often a step beyond the capabilities of the instrumentation. Detectors shall be faster, with higher efficiency, more resolution, more bandwidth and able to synchronize with other detectors of all kinds; scalars, one or two-dimensional, taking into account their singularities and homogenizing the data acquisition. This work examines the control and data acquisition systems for particle accelerators and X- ray / light sources and explores new requirements and challenges regarding synchronization and data acquisition bandwidth, optimization and cost-efficiency in the design / operation / support. It also studies different solutions depending on the environment

    Simulation Studies of Digital Filters for the Phase-II Upgrade of the Liquid-Argon Calorimeters of the ATLAS Detector at the High-Luminosity LHC

    Get PDF
    Am Large Hadron Collider und am ATLAS-Detektor werden umfangreiche Aufrüstungsarbeiten vorgenommen. Diese Arbeiten sind in mehrere Phasen gegliedert und umfassen unter Anderem Änderungen an der Ausleseelektronik der Flüssigargonkalorimeter; insbesondere ist es geplant, während der letzten Phase ihren Primärpfad vollständig auszutauschen. Die Elektronik besteht aus einem analogen und einem digitalen Teil: während ersterer die Signalpulse verstärkt und sie zur leichteren Abtastung verformt, führt letzterer einen Algorithmus zur Energierekonstruktion aus. Beide Teile müssen während der Aufrüstung verbessert werden, damit der Detektor interessante Kollisionsereignisse präzise rekonstruieren und uninteressante effizient verwerfen kann. In dieser Dissertation werden Simulationsstudien präsentiert, die sowohl die analoge als auch die digitale Auslese der Flüssigargonkalorimeter optimieren. Die Korrektheit der Simulation wird mithilfe von Kalibrationsdaten geprüft, die im sog. Run 2 des ATLAS-Detektors aufgenommen worden sind. Der Einfluss verschiedener Parameter der Signalverformung auf die Energieauflösung wird analysiert und die Nützlichkeit einer erhöhten Abtastrate von 80 MHz untersucht. Des Weiteren gibt diese Arbeit eine Übersicht über lineare und nichtlineare Energierekonstruktionsalgorithmen. Schließlich wird eine Auswahl von ihnen hinsichtlich ihrer Leistungsfähigkeit miteinander verglichen. Es wird gezeigt, dass ein Erhöhen der Ordnung des Optimalfilters, der gegenwärtig verwendete Algorithmus, die Energieauflösung um 2 bis 3 % verbessern kann, und zwar in allen Regionen des Detektors. Der Wiener Filter mit Vorwärtskorrektur, ein nichtlinearer Algorithmus, verbessert sie um bis zu 10 % in einigen Regionen, verschlechtert sie aber in anderen. Ein Zusammenhang dieses Verhaltens mit der Wahrscheinlichkeit fälschlich detektierter Kalorimetertreffer wird aufgezeigt und mögliche Lösungen werden diskutiert.:1 Introduction 2 An Overview of High-Energy Particle Physics 2.1 The Standard Model of Particle Physics 2.2 Verification of the Standard Model 2.3 Beyond the Standard Model 3 LHC, ATLAS, and the Liquid-Argon Calorimeters 3.1 The Large Hadron Collider 3.2 The ATLAS Detector 3.3 The ATLAS Liquid-Argon Calorimeters 4 Upgrades to the ATLAS Liquid-Argon Calorimeters 4.1 Physics Goals 4.2 Phase-I Upgrade 4.3 Phase-II Upgrade 5 Noise Suppression With Digital Filters 5.1 Terminology 5.2 Digital Filters 5.3 Wiener Filter 5.4 Matched Wiener Filter 5.5 Matched Wiener Filter Without Bias 5.6 Timing Reconstruction, Optimal Filtering, and Selection Criteria 5.7 Forward Correction 5.8 Sparse Signal Restoration 5.9 Artificial Neural Networks 6 Simulation of the ATLAS Liquid-Argon Calorimeter Readout Electronics 6.1 AREUS 6.2 Hit Generation and Sampling 6.3 Pulse Shapes 6.4 Thermal Noise 6.5 Quantization 6.6 Digital Filters 6.7 Statistical Analysis 7 Results of the Readout Electronics Simulation Studies 7.1 Statistical Treatment 7.2 Simulation Verification Using Run-2 Data 7.3 Dependence of the Noise on the Shaping Time 7.4 The Analog Readout Electronics and the ADC 7.5 The Optimal Filter (OF) 7.6 The Wiener Filter 7.7 The Wiener Filter with Forward Correction (WFFC) 7.8 Final Comparison and Conclusions 8 Conclusions and Outlook AppendicesThe Large Hadron Collider and the ATLAS detector are undergoing a comprehensive upgrade split into multiple phases. This effort also affects the liquid-argon calorimeters, whose main readout electronics will be replaced completely during the final phase. The electronics consist of an analog and a digital portion: the former amplifies the signal and shapes it to facilitate sampling, the latter executes an energy reconstruction algorithm. Both must be improved during the upgrade so that the detector may accurately reconstruct interesting collision events and efficiently suppress uninteresting ones. In this thesis, simulation studies are presented that optimize both the analog and the digital readout of the liquid-argon calorimeters. The simulation is verified using calibration data that has been measured during Run 2 of the ATLAS detector. The influence of several parameters of the analog shaping stage on the energy resolution is analyzed and the utility of an increased signal sampling rate of 80 MHz is investigated. Furthermore, a number of linear and non-linear energy reconstruction algorithms is reviewed and the performance of a selection of them is compared. It is demonstrated that increasing the order of the Optimal Filter, the algorithm currently in use, improves energy resolution by 2 to 3 % in all detector regions. The Wiener filter with forward correction, a non-linear algorithm, gives an improvement of up to 10 % in some regions, but degrades the resolution in others. A link between this behavior and the probability of falsely detected calorimeter hits is shown and possible solutions are discussed.:1 Introduction 2 An Overview of High-Energy Particle Physics 2.1 The Standard Model of Particle Physics 2.2 Verification of the Standard Model 2.3 Beyond the Standard Model 3 LHC, ATLAS, and the Liquid-Argon Calorimeters 3.1 The Large Hadron Collider 3.2 The ATLAS Detector 3.3 The ATLAS Liquid-Argon Calorimeters 4 Upgrades to the ATLAS Liquid-Argon Calorimeters 4.1 Physics Goals 4.2 Phase-I Upgrade 4.3 Phase-II Upgrade 5 Noise Suppression With Digital Filters 5.1 Terminology 5.2 Digital Filters 5.3 Wiener Filter 5.4 Matched Wiener Filter 5.5 Matched Wiener Filter Without Bias 5.6 Timing Reconstruction, Optimal Filtering, and Selection Criteria 5.7 Forward Correction 5.8 Sparse Signal Restoration 5.9 Artificial Neural Networks 6 Simulation of the ATLAS Liquid-Argon Calorimeter Readout Electronics 6.1 AREUS 6.2 Hit Generation and Sampling 6.3 Pulse Shapes 6.4 Thermal Noise 6.5 Quantization 6.6 Digital Filters 6.7 Statistical Analysis 7 Results of the Readout Electronics Simulation Studies 7.1 Statistical Treatment 7.2 Simulation Verification Using Run-2 Data 7.3 Dependence of the Noise on the Shaping Time 7.4 The Analog Readout Electronics and the ADC 7.5 The Optimal Filter (OF) 7.6 The Wiener Filter 7.7 The Wiener Filter with Forward Correction (WFFC) 7.8 Final Comparison and Conclusions 8 Conclusions and Outlook Appendice

    Unravelling motor protein organization on lysosomal membranes with super-resolution microscopy

    Get PDF
    This thesis first develops new methods for high-throughput and multi-color super-resolution microscopy (Chapters 2 and 3). Subsequently, I apply these methods to study the organization of motor proteins on the lysosome membrane inside cells with the purpose of determining how intracellular transport can be regulated via motor-protein organization (Chapter 4). Chapter 1 is an Introduction to the state of the art for our knowledge in microtubule-based intracellular transport. Chapter 2 introduces the single molecule localization techniques that improve the spatial resolution of light microscopy. This chapter emphasizes the Stochastic Optical Reconstruction Microscopy (STORM) technique, which I used to study the organization of microtubule based motor proteins around lysosomes as well as the fusion and fission of mitochondria. Chapter 3 describes the development of two new techniques: (i) the use of microfluidic devices to improve the throughput of correlative live-cell and super-resolution microscopy, thus allowing to observe rare events and (ii) sequential multi-color imaging that increases the number of colors that can be imaged with STORM. Chapter 4 focuses on the biological application of sequential multicolor imaging to study the 3D organization of dynein and kinesin on lysosomal membranes. Conclusions and Future Perspectives are provided in Chapter 5.El transporte intracelular es de vital importancia para mantener la organización subcelular. Fallos en el transporte intracelular pueden desembocar en diversas enfermedades, especialmente si el fallo tiene lugar en el sistema nervioso. Los actores principales involucrados en el transporte intracelular son el citoesqueleto de microtúbulos y las proteínas motoras. El citoesqueleto de microtúbulos conecta la región perinuclear a la periferia de la célula, actuando así como carriles para el transporte. Las proteínas motoras se desplazan a lo largo del citoesqueleto de microtúbulos para llevar cargas. Hay dos tipos de familias de proteínas motoras que desplazan cargas a lo largo de los microtúbulos polarizados: la superfamilia de las kinesinas se mueve hacia el extremo positivo del carril microtubular mientras que las dineínas se mueven hacia el extremo negativo del carril microtubular. Desde su descubrimiento en los años sesenta, las proteínas motoras han sido extensamente estudiadas usando métodos in vitro de una sola molécula, permitiéndonos entender las bases del transporte intracelular. No obstante, las proteínas motoras, sus carriles microtubulares y las vesículas que portan tienen tamaños comprendidos de decenas a centenas de nanómetros, por debajo del límite de difracción de la microscopía óptica. Así, el estudio del tráfico intracelular en el contexto celular ha sido desafiante. Mientras que los estudios in vitro son altamente valiosos para mejorar nuestra comprensión de cómo funcionan las proteínas motoras, no pueden capturar la complejidad total del ambiente intracelular. Por tanto, es muy importante desarrollar nuevos métodos para superar el desafío de estudiar el transporte intracelular en células intactas. En la última década, el desarrollo y la llegada de los métodos de microscopía de superresolución, ha supuesto una revolución en el campo de la microscopía óptica. Estos métodos han hecho posible visualizar estructuras subcelulares con resolución espacial nanométrica, rompiendo el límite de difracción. Esta tesis primero desarrolla nuevos métodos para microscopía de alto rendimiento y superresolución multicolor (Capítulos 2 y 3). Seguidamente, aplico estos métodos para estudiar dentro de las células la organización de las proteínas motoras en la membrana del lisosoma con el objetivo de determinar cómo el transporte intracelular puede estar regulado a través de la organización de las proteínas motoras (Capítulo 4). El Capítulo 1 es una introducción al estado de la técnica para nuestro conocimiento en el transporte intracelular basado en microtúbulos. El Capítulo 2 introduce las técnicas de localización de una sola molécula que mejoran la resolución espacial de la microscopía óptica. Este capítulo enfatiza sobre la técnica de Microscopía de Reconstrucción Óptica Estocástica (STORM), que utilicé para estudiar la organización de las proteínas motoras interactuando con microtúbulos, encima de los lisosomas, así como la fusión y la fisión de las mitocondrias. El Capítulo 3 describe el desarrollo de dos nuevas técnicas: (i) el uso de dispositivos microfluídicos para mejorar el rendimiento de la tecnica de correlacion entre celulas vivas y la microscopía de superresolución permitiendo observar evento raros y (ii) imágenes secuenciales multicolor que incrementan el número de colores que pueden ser fotografiados con STORM. El Capítulo 4 se centra en la aplicación biológica de las imágenes secuenciales multicolor para estudiar la organización tridimensional de la dineína y kinesina en la membrana lisosomática. Las conclusiones y perspectivas de futuro se presentan en el Capítulo 5.Postprint (published version
    corecore