151 research outputs found

    Estimación de un modelo del precio de la energía eléctrica en Colombia con detección de puntos de volatilidad, utilizando la transformada Wavelet y series de tiempo

    Get PDF
    En este documento se propone una técnica para estimar un modelo del precio de la energía eléctrica en Colombia, utilizando las propiedades de filtrado de la Transformada Wavelet Discreta, TWD, y las técnicas tradicionales de modelación de series de tiempo ARIMA, GARCH -- Además, la detección de puntos de cambio en la varianza de la serie de precios a través del método detección de múltiples cambios en una secuencia de variables dependientes, en la cual la serie de precios spot se descompone en una serie de aproximación y varias de detalle -- Posteriormente, cada sub-serie por separado se modela con la técnica que mejor se ajusta a los datos, obteniendo como pronóstico final la suma de los pronósticos reconstruidos obtenidos de cada sub-serie -- La conclusión más importante del modelo propuesto es permitir una mayor precisión en el pronóstico y, a su vez, detectar puntos de cambio de volatilidad debidos a variables exógenas en la serie de precios spot del mercado eléctrico ColombianoIn this document we propose a technique to estimate a model of the price of electric power in Colombia, using the filtering properties of the Discrete Wavelet Transform (DWT) and the traditional time series modeling techniques ARIMA, GARCH; in addition, the detection of points of change in the variance of the price series through the detection method of multiple changes in a sequence of dependent variables; the series of spot prices is decomposed in a series of approximation and several details, then each sub-series separately is modeled with the technique that best fits the data -- The final forecast is the sum of the reconstructed forecasts obtained from each sub-series -- The most important conclusion of the proposed model is to allow greater precision in the forecast and, in turn, detect points of volatility change due to exogenous variables in the series of spot prices of the Colombian electricity marke

    Estudio de técnicas basadas en la transformada wavelet y optimización de sus parámetros para la clasificación por texturas de imágenes digitales

    Full text link
    El análisis y la gestión del territorio requieren el empleo de información captada por sensores aéreos o espaciales en forma de imágenes digitales. La caracterización de los elementos presentes en ellas se puede enfocar tanto estudiando la información espectral como la espacial, es decir, sus formas, tamaños, distribución de sus niveles de gris, etc. La caracterización de texturas consiste en su análisis ya que son indicativas de las diferentes clases temáticas o cubiertas del territorio. En el presente trabajo se abordan técnicas de análisis de texturas para clasificar diversos tipos de cubiertas del medio físico, basándonos en imágenes de distintas fuentes. Esas imágenes representan cubiertas vegetales arbóreas naturales (Sierra de Espadán), cubiertas mixtas de vegetación natural y cultivos (Menorca y Valle de Ayora) y zonas agrícolas de tipología hortícola fuertemente antropizadas en el área peri-urbana de Valencia. El análisis de texturas puede enfocarse desde diversos puntos de vista, bien estadísticos, estructurales, basados en modelos, basados en transformadas, etc. Dada la buena respuesta de algunos métodos estadísticos y las características específicas que presenta la Transformada Wavelet, se pretende determinar los rasgos texturales de unas imágenes mediante los dos métodos. En cuanto a estas variables, se han estudiado los estadísticos de 1er orden, los de 2º orden de la matriz de co-ocurrencias de niveles de gris y algunos obtenidos a partir del histograma. La transformada wavelet presenta un buen comportamiento a la hora del estudio de la relación espacio-frecuencia, al basarse en funciones matemáticas que cortan datos o señales en diferentes componentes de frecuencia y estudian cada uno de ellos con una resolución ajustada a su escala. La transformada se pone en práctica mediante bancos de filtros paso alto y paso bajo bidimensionales formados por los coeficientes de las funciones que permiten obtener la información de altas y bajas frecuencias enFernández Sarriá, A. (2007). Estudio de técnicas basadas en la transformada wavelet y optimización de sus parámetros para la clasificación por texturas de imágenes digitales [Tesis doctoral no publicada]. Universitat Politècnica de València. https://doi.org/10.4995/Thesis/10251/1955Palanci

    Transformadas Wavelet impacto fundamental en Procesamiento de señales y compresión de imágenes

    Get PDF
    En este trabajo se mostrará el concepto de Transformadas de Fourier y Transformadas Wavelet, sus propiedades, teoremas, proposiciones que las soportan. Se mostrará soluciones en series de Fourier que representan a las soluciones de procesamiento de señales y la Transformada Wavelet que permite la compresión de datos e imágenes. En general, el procesamiento de señales y en particular, la compresión de imágenes es una de las necesidades más importantes en aplicaciones como la codificación y transmisión de grandes cantidades de información, dichas aplicaciones han motivado el surgimiento y ampliación de herramientas que se han hecho fundamentales para el procesamiento de señales como por ejemplo la transformada de Fourier Discreta (DFT), la transformada Coseno Discreta (DCT) y la transformada Wavelet Discreta (DWT), entre otras

    Diseño, implementación y simulación del procesador externo de sonido de un implante coclear

    Get PDF
    En este Proyecto Fin de Carrera se ha llevado a cabo una labor de documentación con la cual se ha podido tener una visión global y aproximada al mundo de la implantación con fines auditivos. Después de adquirir unos conocimientos iniciales, se comenzó a desarrollar la estrategia de codificación del habla CIS, estudiando el comportamiento de cada etapa de procesado del conjunto de veintidós canales y relacionando cada bloque con un comportamiento biológico y psicoacústico. Una vez diseñado e implementado el sistema en un modelo hardware, se ha observado el comportamiento global del sistema de codificación tomando como referencia las formantes vocálicas antes y después del procesado. Las formantes han sufrido un desplazamiento a frecuencias superiores. Sin embargo el sistema implementado ha seguido realizando una clasificación de las vocales en conjuntos disjuntos, con lo que se siguen pudiendo establecer fronteras de decisión entre clases. Es decir, se mantienen las diferencias vocálicas sin presentar solapamientos significativos de formantes que dificulten la distinción. Se han generado ficheros de audio mediante la reconstrucción de la señal procesada. El resultado observado es una constatación de que, dependiendo del grado de daño en el sistema auditivo, la percepción auditiva del implantado difiere de la de un normoyente. La estrategia CIS que se ha tratado no es más que una pequeña muestra del conjunto de técnicas de codificación del habla usadas actualmente. Multitud de equipos de investigación estudian día a día cómo mejorar estas estrategias y crear nuevos métodos de codificación que se adapten mejor al complejo mundo de la psicoacústica. La implantación auditiva abarca estrategias multidisciplinares de las áreas biomédica y electrónica. Gracias a la evolución de estos dispositivos, hoy en día se consigue superar la barrera social y cognitiva que supone la imposibilidad de comunicarse verbalmente de muchas personas. La evolución de los implantes cocleares va de la mano de los últimos avances en electrónica. Los implantes cocleares son dispositivos cada vez más miniaturizados, más precisos y con mayor autonomía. Las investigaciones para tratar la hipoacusia severa avanzan en dos caminos. Por un lado el perfeccionamiento de las técnicas de codificación del habla y el uso de implantes ipsilaterales, los cuales estimulan las células ciliadas remanentes con el fin de potenciar la audición y acercar la percepción del implantado a la de un normoyente. Por otro lado se están llevando a cabo investigaciones con células madre, con el objetivo de regenerar las células ciliadas y las células del ganglio espiral mediante el uso de neurotrofinas y factores de crecimiento. Entendiendo las telecomunicaciones como el conjunto de áreas científicas que estudian las técnicas para llevar a cabo comunicaciones a larga distancia, se puede asegurar que no existe mayor distancia para la comunicación que la imposibilidad de escuchar a otra persona. Es por todo esto que los implantes cocleares y el resto de técnicas que ayudan a superar barreras cognitivas deben permanecer como prioridades indiscutibles en las áreas de investigación.Escuela Técnica Superior de Ingeniería de TelecomunicaciónUniversidad Politécnica de Cartagen

    Cancelación de Ecos Multicanal

    Get PDF
    La idea básica de la cancelación de ecos es bloquear la señal desde la sala remota para que no se realimente. Para ello se coloca un sistema adaptativo en medio que genere “idealmente” la misma señal que proviene de la sala local y se envía de vuelta a la sala remota la diferencia entre la señal estimada y la que retorna de la sala local, en lugar de esta última. La introducción de múltiples canales permite capturar la espacialidad de los locutores pero introduce una alta correlación entre las señales que afecta el comportamiento del cancelador adaptativo. Este inconveniente de mal condicionamiento del sistema, conocido como problema de la no‐unicidad, puede hacer incluso que el sistema adaptativo converja a una solución no única. En la cancelación de ecos multicanal estas soluciones no sólo dependen de las respuestas al impulso de la sala local, sino también de las respuestas al impulso de la sala remota. Las respuestas al impulso de las salas típicas en aplicaciones manos libres, que requieren de la cancelación de ecos, son extremadamente grandes (del orden de miles de coeficientes). La enorme longitud de las respuestas al impulso no sólo se traduce en un gran volumen de operaciones matemáticas sino también en un retardo inadmisible perceptualmente. En la primera parte de esta tesis se estudia el problema de la cancelación de ecos acústicos multicanal. A continuación se exploran y comparan diferentes técnicas de filtrado adaptativo multicanal en la búsqueda de la idoneidad para la aplicación de la cancelación de ecos. Para ello se establecen ocho experimentos: el primero y el cuarto, de un solo canal (caso más simple); el segundo, quinto y séptimo, de dos canales (caso estéreo: más simple del caso multicanal general); el tercero, sexto y octavo, de cinco canales (caso multicanal típico en aplicaciones domésticas y de videoconferencia). Los experimentos son elegidos de manera tal que constituyan casos críticos con una muy elevada correlación inter‐canal para poder estimar el comportamiento de los algoritmos en una situación muy crítica. Estas técnicas de filtrado adaptativo no pueden ser aplicadas directamente a un sistema de cancelación de ecos acústicos multicanal adaptativo por el retardo y la carga computacional que imponen las largas respuestas al impulso acústicas involucradas. Por ello, en la segunda parte de la tesis, se estudian arquitecturas de filtrado adaptativo multirresolución para abordar el problema en el dominio del tiempo y la frecuencia: descomposición en subbandas y filtrado adaptativo en el dominio de la frecuencia particionado por bloques. Por último se hace un estudio para la decorrelación inter‐canal que busca un mejor condicionamiento del problema: la decorrelación mediante la transformación adaptativa de Karhunen‐Loève y la introducción de ruido de banda ancha decorrelado. Esta última técnica permite afrontar el problema de la cancelación de ecos multicanal sin detección de doble locución. Finalmente se intenta buscar una valoración subjetiva de los resultados. En los apéndices se tratan dos temas muy importantes para el desarrollo de esta tesis. El primero trata de la simulación y medición de salas. Ambas técnicas son muy importantes para la cancelación de ecos multicanal porque permiten disponer de respuestas al impulso en diferentes condiciones, correlación, etc. sobre las que basar las simulaciones de los algoritmos desarrollados y analizados en la tesis. La segunda trata de las técnicas de gradiente conjugado que, aunque son un algoritmo de optimización para la minimización de funciones, por su importancia en esta investigación merece un estudio detallado. El uso de las técnicas de gradiente conjugado en la cancelación de ecos acústicos multicanal es uno de los aportes fundamentales de esta investigación y de ello se derivan diferentes algoritmos adaptativos

    Técnicas de microscopía para la mejora en resolución, obtención de seccionado óptico y medida cuantitativa de fase

    Get PDF
    La microscopía óptica convencional alcanzó el límite en resolución que predice la difracción por medio del empleo de sofisticados objetivos de microscopio, que consiguen la captura de la información espacial en el espacio de la muestra con un ángulo de captura de prácticamente 70º en aire, esto es, aperturas numéricas (NA) de 0.9 (y mayores si existe un medio de inmersión). Existe la posibilidad de sobrepasar dicho límite o, mejor dicho, encontrar otro límite en resolución siempre que el microscopio que se emplee no pueda entenderse como un microscopio convencional. Por otro lado, los microscopios convencionales carecen de capacidad de seccionado óptico ya que, cuando se tiene una muestra tridimensional, no sólo se obtiene la imagen de la zona enfocada dentro de la misma sino que se recibe luz de todos los planos que se encuentren fuera del plano de foco. Este efecto perturba la calidad de las imágenes bidimensionales obtenidas con el microscopio reduciendo notablemente el contraste y, además, impide la realización de imágenes tridimensionales a partir de la compilación de pilas de secciones ópticas obtenidas para distintos planos de foco. Nuevamente, es posible obtener la mencionada capacidad de seccionado óptico por medio del empleo de algunos microscopios ópticos no convencionales Además en los últimos años se han desarrollado una serie de técnicas alter-nativas a la microscopia convencional que son capaces de proporcionar in-formación de fase de las muestras, esto es, información de las variaciones de índice de refracción en su interior o del espesor de las mismas. Como veremos, dicha información de fase puede ser relevante en el estudio y la caracterización de distintos tipos de muestras. A pesar de que para alcanzar las prestaciones arriba mencionadas se debe aumentar la complejidad tecnológica con respecto a los microscopios convencionales, los beneficios que ello reporta justifica con creces dicha complejidad. Los objetivos de esta Memoria son múltiples. En primer lugar, se pretende aunar en un mismo marco teórico distintas técnicas pertenecientes a la microscopía óptica no convencional, en concreto, CLSM, SIM y DHM. Asimismo se mostrarán algunas de las limitaciones prácticas de las mismas. Para cada una de estas técnicas se presentarán propuestas de implementaciones alternativas así como las ventajas que representa el empleo de estos nuevos sistemas. Para llevar a cabo los objetivos arriba señalados, se comenzará tratando desde un punto de vista teórico la microscopía convencional en el Capítulo 2. Con ello, no sólo se presentará el tipo de cálculos que se requieren para la comprensión de las distintas técnicas de microscopía aquí recogidas, sino que también se podrán entender las limitaciones de la microscopía convencional de una manera estricta. En el Capítulo 3 se hará, en primer lugar, una introducción teórica acerca de la microscopía confocal de barrido. En éste realiza-remos una propuesta de un sistema de adquisición de imágenes confocales alternativo que, además, permitirá mejorar la calidad de las imágenes obtenidas. En el Capítulo 4 introduciremos la técnica SIM de manera rigurosa, pre-sentando los cálculos necesarios para la obtención de imágenes mediante este tipo de sistema. En este capítulo, distinguiremos entre los distintos sistemas que se pueden implementar y propondremos un novedoso sistema para gene-rar iluminación estructurada en el que la frecuencia del patrón de iluminación se pueda variar de una manera muy sencilla. Además, propondremos un algo-ritmo de reconstrucción alternativo para la obtención de imágenes. En el Capítulo 5 nos centraremos en la microscopía holográfica digital. Para llegar a entender el funcionamiento de este tipo de técnica, haremos una pequeña introducción teórica sobre holografía clásica y holografía digital. Esto nos permitirá entender las limitaciones de la técnica, a partir de lo cual realizaremos tanto una propuesta para mejorar sus prestaciones como un desarrollo teórico con el fin de optimizar los parámetros de captura. Por último, en el Capítulo 6, aunaremos las técnicas SIM y DHM en lo que llamaremos microscopía holográfica digital por iluminación estructurada (SI-DHM) en una propuesta novedosa para mejorar la resolución de un DHM convencional. Asimismo, pre-sentaremos un algoritmo mediante el cual se facilita la implementación práctica de esta técnica

    ANÁLISIS DE LA ACÚSTICA DE SALAS MEDIANTE LA UTILIZACIÓN DE ARRAYS DE MICRÓFONOS CIRCULARES

    Full text link
    Esta tesis doctoral aborda el estudio y análisis de la acústica de salas mediante un proceso de descomposición del campo sonoro muestreado con arrays circulares de micrófonos. El comportamiento acústico de una sala teniendo en cuenta todos los factores espaciales no es algo trivial. Este problema es conocido desde la antigüedad: griegos y romanos comenzaron a cuidar las cualidades acústicas en sus construcciones arquitectónicas basándose principalmente en diseños puramente prácticos. Más tarde sería el físico Sabine y su modelo estadístico para la medida del tiempo de reverberación de salas en que daría lugar al análisis moderno de la acústica arquitectónica. En la actualidad existen múltiples y avanzados métodos de análisis basados en el estudio de las respuestas al impulso de las salas capturadas mediante la utilización de fuentes de sonido y micrófonos de precisión que han contribuido a nuevos avances y mejoras dentro de este campo de la acústica. Los métodos mas modernos propuestos recientemente utlizan arrays de micrófonos para intentar capturar el campo de forma más precisa y con todas sus características espaciales, sin embargo todavía no han sido explotados convenientemente para obtener conclusiones significativas y relevantes sobre la acústica final de salas y sus aspectos geométricos. En esta tesis se lleva a cabo una metodología de análisis de salas basada en técnicas de descomposición de onda plana y de beamforming modal. Mediante la construcción de un array circular con micrófonos cardioides, así como de la implementación de un algoritmo de deteccion de máximos locales en ecogramas basado en morfología de imagen, se obtienen, analizan y comparan la acústica de las salas (reflexiones, absorciones, etc) permitiendo extrapolar una serie de conclusiones sobre sus características, comportamiento y calidad. Los resultados obtenidos por ambos métodos de análisis se comparan para identificar las reflexiones más significativas de las salas extrayendo informaciTorres Aranda, AM. (2012). ANÁLISIS DE LA ACÚSTICA DE SALAS MEDIANTE LA UTILIZACIÓN DE ARRAYS DE MICRÓFONOS CIRCULARES [Tesis doctoral no publicada]. Universitat Politècnica de València. https://doi.org/10.4995/Thesis/10251/1822

    Aportaciones del tratamiento de imágenes a la dosimetría en radioterapia

    Get PDF
    RESUMEN En la radioterapia moderna prácticamente toda la información anatómica del paciente que va a ser sometido a un tratamiento se obtiene a partir de múltiples imágenes digitales que proceden de diversos equipos generadores de imagen (radiógrafos digitales, tomógrafos, equipos de resonancia magnética etc.). Las cada vez más sofisticadas propuestas de tratamiento están condenadas al fracaso si la información anatómica inicial del paciente es insuficiente o incorrecta. Asimismo, la importancia de la verificación del tratamiento no debe ser ignorada. Es inconcebible destinar una amplia gama de recursos técnicos y humanos para un diseñar un tratamiento exquisito y no tomar posteriormente la precaución de validar dicho cálculo sobre el paciente. Este control de calidad se realiza exclusivamente mediante imágenes que deben ser analizadas objetivamente. Se hace pues patente la necesidad de disponer de sistemas de análisis y tratamiento digital de imágenes con funciones ad-hoc para esta especialidad ya que de la calidad de estas imágenes depende en buen grado el éxito de un tratamiento de cáncer. A lo largo de esta memoria se expondrán los procedimientos desarrollados y aplicados para resolver diversos problemas clínicos que han ido surgiendo en el Servicio de Radioterapia del Hospital Clínico Universitario de Valencia. Como objetivo principal de esta Tesis se plantea la aportación del procesado de imágenes a todas las etapas del proceso de radioterapia en las que su uso contribuye a mejorar el tratamiento de los pacientes. En un primer capítulo se desarrollan los fundamentos de la física de los haces de radiación de uso terapéutico, junto con una descripción del proceso completo de la radioterapia. Con él se pretende introducir una terminología que no es excesivamente conocida fuera del ámbito de la Radiofísica, pero que resulta imprescindible para comprender adecuadamente los motivos que han provocado el planteamiento de los procesados de imagen que se muestran en esta memoria. Asimismo, el resultado de los distintos procesados de imagen tienen unas interesantes repercusiones dosimétricas que deben ser evaluadas con herramientas de Radiofísica como las que se introducen en este capítulo. Los conceptos relativos al tratamiento de imágenes que se utilizan en esta memoria se introducen a medida que son necesarios. En definitiva, en este capítulo se establece un lenguaje base para una Tesis de tratamiento de imágenes aplicado a la Radiofísica y Radioterapia a presentar en el programa de doctorado de Óptica. Los distintos procesados de imagen que se realizados han supuesto la programación de una gran cantidad de software de tratamiento digital de imágenes, tanto de ámbito general como específico para las imágenes de uso médico. El desarrollo de software se ha agrupado en una aplicación global de tratamiento digital de imágenes que se introduce en el capítulo 2 y se desarrolla extensamente en el Libro 2 de esta Tesis. En el capítulo 3 se procede a un análisis detallado del simulador de radioterapia, que es principal dispositivo generador de imágenes que se utilizará en esta memoria. Este equipo es capaz de producir reconstrucciones tomográficas del paciente, por lo que se evalúan sus prestaciones como tomógrafo adaptado a las necesidades de radioterapia. Los conceptos descritos serán de utilidad en los siguientes capítulos. Como cualquier generador de imagen, el simulador de radioterapia tiene ventajas y limitaciones en comparación con sistemas homólogos. En el capítulo 4 se exponen estas ventajas desde un punto de vista dosimétrico, estableciendo criterios de cálculo de distribución de dosis a pacientes que sólo son posibles utilizando imágenes obtenidas con un simulador. Se describen determinadas limitaciones del sistema y se proponen técnicas basadas en tratamiento digital de las imágenes para minimizarlas o eliminarlas. El resultado de estos procesados tiene interesantes repercusiones dosimétricas, que se discuten este capítulo. Como consecuencia directa de los distintos análisis de calidad de las imágenes del Simulador expuestas en el capítulo 3 y de las mejoras de imágenes propuestas en el capítulo 4, se procedió al desarrollo de un nuevo sistema de reconstrucción tomográfica de imágenes acoplable a un simulador de radioterapia que pudiera compendiar los resultados de las investigaciones realizadas hasta el momento. El capítulo 5 describe el diseño y realización práctica de este prototipo de reconstrucción tomográfica. Se estudian los fundamentos teóricos de la reconstrucción de imágenes bidimensionales a partir de proyecciones y se desarrolla la implementación del algoritmo de reconstrucción en un hardware estándar. Por ultimo se evalúan las prestaciones del prototipo como sistema de generación de imágenes para radioterapia. Una de las ventajas del Simulador frente a otros sistemas de imagen utilizados en radioterapia es la posibilidad de adquirir imágenes secuenciadas del paciente en tiempo real, permitiendo la visualización del movimiento de los órganos internos relativos al campo de irradiación. En el capítulo 6 se exponen las repercusiones reales de estos movimientos en los tratamientos de radioterapia. Se propone y realiza un sistema automático de detección y evaluación de los movimientos de órganos que permite generar imágenes que resumen el movimiento fisiológico del paciente. Estas imágenes se utilizan posteriormente en el planificador para el cálculo dosimétrico del paciente teniendo en cuenta de forma precisa dichos movimientos. El beneficio de este procesado se muestra a través de aplicaciones clínicas. Por último, en el capítulo 7, se introducen sistemas de comparación de imágenes de verificación de tratamiento, como método de evaluación objetiva de la fidelidad del mismo. Para la comparación entre las imágenes de planificación del tratamiento y de verificación se propone y desarrolla un sistema interactivo de corrección geométrica y fusión de las imágenes. Para las sucesivas imágenes de verificación obtenidas durante el tratamiento, se propone un método automático de comparación y detección de variaciones espaciales basado en el análisis frecuencial de las imágenes. Los procedimientos desarrollados y descritos en esta Tesis están siendo utilizados actualmente como parte de la rutina clínica diaria del Servicio de Radioterapia del Hospital Clínico Universitario de Valencia. En un segundo libro, que hace las veces de apéndice, se incluye la descripción del software de tratamiento de imágenes desarrollado para la realización de esta Tesis (Capítulo 2) y el software de reconstrucción tomográfica correspondiente al capítulo 5. Los distintos programas están incluidos en un CD adjunto y pueden ejecutarse desde él sin necesidad de instalación. Dentro de la carpeta correspondiente a cada programa se ha incluido una colección de imágenes y ficheros de prueba. El CD de software incluye los siguientes directorios: ATWIMAGE Contiene el Sistema de Tratamiento Digital de Imágenes. ATWVDENS Contiene el software de videodensitometría. RECOFAN Contiene el software de reconstrucción tomográfica. El resto del volumen contiene los manuales de instrucciones completos de ATW Image y ATW Vdens. __________________________________________________________________________________________________Modern radiotherapy depends on digital imaging to acquire exact anatomic information, so there is an increasing need of having quality control systems and procedures to assure image fidelity. In this dissertation, a set of digital image processing techniques developed to solve real clinical problems in the Radiation Oncology Dept., Hospital Clinico Universitario. Valencia. Spain, is presented. The main goal of this work is to show that image processing is of dosimetric interest in all stages of the treatment and helps to improve treatment quality. Some basic radiation physic principles help to understand that geometric quality of the images are of more importance than visual quality. Several imaging tools have been developed for this work. These include a complete medical imaging software, a tomographic reconstruction system for radiotherapy simulators and a videodensitometer. It has been developed a method for the tomographic reconstruction of big volumes using partial slices, allowing the scanning of patients up to 60 cm diameter, together with an algorithm to select and locate the minimum number of tomographic slices required to perform a true 3D dosimetry and evaluation of structure volumes. Following this tomographic acquisition enhancement, work has been done to manage physiological movement in radiotherapy treatments. Using the fluoroscopy facility of the radiotherapy simulation, a procedure has been invented to automatically analyze an evaluate the extent of organ motion within the patient due to respiration. Using an algorithm based on correlation with adapted filters, the frequency and amplitude of a pseudo periodic movement is detected and measured. Different image resolutions, time resolutions and adapted filters have been tested until clinically acceptable processing times and results have been achieved. The procedure has also been clinically tested. Finally, image comparison techniques have been implemented. By means of a spatial warping algorithm, images form different imaging modalities (CT, MR, DR, CR, Portal Vision etc.) can be objectively compared and fused if needed

    Uso de detectores de la radiación para el desarrollo de técnicas de reconstrucción espacial en residuos radiactivos

    Get PDF
    Los residuos radiactivos de Muy Baja Actividad, RBBA, y los de Baja y Media actividad, RBMA, que se generan en España provienen mayoritariamente de instalaciones nucleares, donde se encuentran las centrales nucleares españolas y, en mucha menor medida, de instalaciones radiactivas como son los procedentes de hospitales y centros de investigación. La retirada de este tipo de residuos es fundamental para que las instalaciones nucleares y radiactivas puedan seguir operando, por lo que es esencial su tratamiento, acondicionamiento y transporte al Centro de Almacenamiento de El Cabril, donde se dispone de dos repositorios, uno para los residuos de muy baja actividad y otro para los residuos de baja y media actividad. El Centro de Almacenamiento de El Cabril posee unos criterios de aceptación que han de ser verificados para cada uno de los residuos a almacenar en las diferentes celdas. Una de las características más importantes a evaluar y controlar es la actividad de los diferentes radionucleidos pertenecientes al inventario de referencia de El Cabril y presentes en el residuo. Por lo que todos y cada uno de los bultos (embalaje + residuo + material de acondicionamiento) a almacenar en el centro han de tener la actividad de cada radionucleido consignada. Es importante por tanto disponer de medios y métodos de caracterización de bultos de residuos a enviar a El Cabril, y verificar que no se superan los límites de actividad por bulto y totales permitidos en el centro. La cantidad de bultos ya almacenados en El Cabril supera la cantidad de 150.000, por lo que es imprescindible disponer de métodos de caracterización operativos que no los hagan inviable en relación con la retirada de éstos y la operación de las diferentes instalaciones nucleares y radiactivas. En los comienzos de la vida operativa de las instalaciones nucleares, era muy normal el uso de procesos de caracterización simples y a su vez demasiado conservadores, que implicaba, si no se mejoraban éstos, una superación a medio plazo la actividad total permitida en El Cabril. Los embalajes de residuos normalmente empleados en los inicios fue el bidón cilíndrico de 200 litros de capacidad. En este sentido, el siguiente paso, en la mejora de los procesos de caracterización, fue el considerar la homogeneidad en la distribución de la actividad en los bidones, tratando en la medida de lo posible evitar conservadurismos excesivos de actividad. En los desmantelamientos de las centrales nucleares pronto se concluyó que era necesario el uso de contenedores de mayor tamaño y de geometría prismática para, de esta manera, reducir el número de cortes a realizar in situ y optimizar el espacio de almacenamiento de residuos en si en El Cabril, por lo que se procedió a usar diferentes contenedores prismáticos con una capacidad variable de entre 1300 a 2000 litros. El siguiente paso por tanto en los procesos de caracterización era el de al menos disponer de métodos de caracterización que fueran capaces de proporcionar valores de actividad por volúmenes de 220 litros, volumen considerado como el mínimo para el control de la actividad a almacenar. Por lo hasta ahora indicado, es claro que la mejora en los procesos de caracterización de los residuos radiactivos a enviar a El Cabril es una acción que se convierte en obligatoria para tener el nivel de confianza adecuado, tanto en los límites individuales de actividad en volúmenes de 200 litros, como en la actividad total almacenada en El Cabril. El objetivo principal de la tesis es describir el estado del arte de uso de detectores de la radiación, así como evaluar y explorar nuevas técnicas para determinar la distribución espacial de la actividad dentro del residuo radiactivo bajo análisis. El trabajo se divide en dos partes claramente diferenciadas, por un lado, la descripción del estado del arte en el uso de los detectores que habitualmente se han estado usando en las centrales nucleares desarrollando una nueva metodología para determinar la distribución espacial de la actividad, y por otro, el uso de cámaras Gamma para obtener imágenes Gamma en 2 dimensiones acopladas a la imagen visible y el desarrollo posterior de imágenes Gamma en 3 dimensiones. En del primer apartado, el uso de los dispositivos habituales de detección de la actividad en las diferentes centrales nucleares es posible el uso de dispositivos con y sin capacidad espectrométrica. El objetivo principal de la técnica es la de dividir o digitalizar el material, o el término fuente de interés, en pequeñas porciones (segmentos) de geometría sencilla y generalmente la misma, teniendo únicamente que efectuar la modelización detallada de esta porción de geometría sencilla. Una vez definida esta geometría sencilla, se construirá el objeto original con las mismas, numerando cada porción y definiendo su posición geométrica en la gran pieza. Se efectuará la medida de caracterización real sobre el material (espectrométrica o no) en cada posición coincidente con cada segmento. Procediendo seguidamente a determinar la contribución directa o intrínseca a la medida de cada segmento, quitando la contribución a la medida del resto de segmentos. Una vez conocida la contribución directa de cada porción a la medida en su posición, se determina la actividad de ésta, procediendo finalmente a reconstruir la actividad del material, obteniendo así no solo la actividad total sino también la distribución de ésta en término fuente bajo análisis. Se han medido piezas de geometría compleja midiéndolas conjuntamente por ambos tipos de detectores, obteniendo una gran similitud entre los valores de actividad calculados. Estas medidas se han validado también con el uso de fuentes exentas de Cs-137 y Co-60 en un objeto de geometría compleja al que posteriormente se le aplicó una caracterización por espectrometría Gamma colimada en los segmentos virtuales en los que se dividió la misma. La segunda parte de la tesis realizada en el marco de la colaboración de la Empresa Nacional de Residuos Radiactivos, Enresa con el Instituto de Física Corpuscular, IFIC, centro mixto del CSIC y Universidad de Valencia, se han desarrollado dos prototipos de cámaras direccionales. Una cámara estenopeica Gamma y otra basada en efecto Compton, en las que se obtiene una proyección de imagen Gamma, en esta última además sin la necesidad del uso de colimadores o sin la necesidad de realizar segmentaciones virtuales del objeto bajo análisis, por lo que se simplifica enormemente el proceso desarrollado. Las cámaras desarrolladas se denominan GUALI I y II, acrónimo de Gamma Unit for Advance Location Imager, que básicamente consisten en la combinación de una cámara Gamma y visión artificial para la identificación y localización de radioisótopos en un término fuente en análisis. El equipo GUALI-I consta de un sistema integrado de visualización y medida de la radiación gamma cuyo objetivo es adquirir imágenes de radiación y visible, y superponerlas para la identificación y localización de radionucleidos emisores gamma y monitorizar su distribución espacial en una superficie o volumen. GUALI-I consta de los siguientes elementos: 1. Cámara gamma estenopeica. 2. Cámara visible. 3. Electrónica analógica, etapa digital y procesado primario. 4. Unidad de procesamiento y monitorización de datos. 5. Sistema de interacción y de comunicación remota con el operador. 6. Sistema de transporte manual. A partir de este desarrollo, en esta tesis se han realizado medidas para la optimización y mejora de diversas partes del prototipo, y se ha desarrollado una metodología de reconstrucción de imagen Gamma 3D, mediante el uso de GUALI I, combinado de cámaras Gamma y técnicas de visión artificial, para la caracterización de residuos radiactivos de centrales nucleares, como técnica a consolidar en el futuro de la caracterización de residuos radiactivos. Se describe el proceso de reconstrucción de la imagen Gamma en 3 dimensiones causada por el Cs-137 de un contenedor prismático de residuos, a partir de diferentes imágenes Gamma 2D tomadas y de la información suministrada por visión artificial en la imagen visible. Combinando la visión artificial, que permite la localización del sistema, se han tomado distintas medidas en diferente localizaciones (poses) del contenedor tratando de rodearlo a efectos de tener una visión tomográfica del mismo. El sistema de visión artificial permite una localización (orientación posición) precisa de cada pose. La tesis describe el proceso reconstructivo de la imagen tomográfica obtenida por este método, donde se comparan valores con diversas aproximaciones y también con las medidas realizadas por los métodos convencionales descritos en la primera parte de la tesis. Los métodos de contribución de dosis que se han ensayado e implementado son fundamentalmente dos métodos iterativos: Método iterativo de retroproyección denominado Additive Reconstruction Technique, ART. Método iterativo de retroproyección Maximum-Likelihood Expectation Technique, MLET. Como conclusiones, el valor de actividad de actividad de Cs-137 obtenido del método desarrollado es similar al valor asignado al contenedor en la central nuclear de José Cabrera, medido por medio de espectrometría Gamma a bulto entero por las dos caras longitudinales mayores. Como conclusiones de carácter general para los dos métodos desarrollados, la segmentación virtual del término fuente, de geometría simple o compleja, en piezas de geometría sencilla y fácilmente parametrizables por códigos de cálculo de blindajes, ha resultado ser un proceso altamente operativo, que permite realizar medidas in situ de manera bastante ágil y, cuyo resultado final ha resultado ser muy robusto y comparable a otros procesos más complejos y sofisticados. En esta tesis estas aproximaciones se establecen como prueba de concepto del prototipo y se establecen también posibles caminos de mejora de los métodos presentados tales como correcciones del autoblindaje y de la información de los espectros COMPTOM. Adicionalmente estos métodos se pueden realizar mediante un sistema de detección portable e implementables en campo, donde en entornos industriales pueden aparecer situaciones en las que otros sistemas de detección sean complejos de implementar o interpretar a priori. Como aplicaciones adicionales del sistema prototipo de detección portable presentado se pueden establecer mejores y más sistemáticas en instalaciones nucleares activas, puede ser de gran ayuda en los procesos de caracterización de la distribución espacial de la actividad. GUALI I a pesar de estar concebido como prototipo está listo para ser empleado en instalaciones nucleares y verificar sus capacidades, tanto a nivel de identificación espacial como de la cuantificación de la actividad. Estos usos de GUALI I permitirán realizar ajustes de cara a nuevos proyectos de caracterización, que automatizarán y mejorarán el proceso de cuantificación y distribución de la actividad gracias a la implementación de varios detectores tipo GUALI que, de manera automática y controlada, realizarán una tomografía pasiva al contenedor o equipo analizado. Como futuras líneas de ampliación además de la mejora en las técnicas de reconstrucción, la tecnología desarrollada se pretende emplear en un nuevo proyecto se denominará GATO, Guali for Advance TOmogrphy, será desarrollado por el IFIC con el patrocinio de Enresa, el objetivo es disponer de una herramienta puntera de control de calidad que permita caracterizar en detalle cada centímetro cuadrado del término fuente en análisis

    Sistema de procesamiento para identificación y cuantificación de agentes anestésicos

    Get PDF
    La celda de medición del sensor se ha descrito mediante un modelo matemático sencillo pero funcional que ha sido el fundamento para diseñar el instrumento y relacionar dos dominios importantes en los que pueden presentarse los resultados analizados: densidad de corriente y densidad de movilidad iónica. Se ha diseñado un sistema experimental que incluye a) una máquina dosificadora de anestesia que permite obtener distintas mezclas clínicas de agentes y gases, y b) un sistema de monitoreo y análisis basado en el condensador de aspiración y controlado por una computadora personal, la cual además tiene implementado en software un sistema de redes neuronales de retropropagación para el reconocimiento y clasificación de los datos entregados por el sensor. El sistema de reconocimiento procesa de manera preliminar los datos aplicándoles una reducción dimensional mediante PCA (análisis de componentes principales), método que resulta, al ser comparado con algunos otros, ser el más adecuado para expresar las características sobresalientes de los datos de forma compacta (solo 18 componentes se requieren para el reconocimiento). El resultado es que las redes neuronales asociadas, son relativamente sencillas, pequeñas y eficientes. El resultado de la investigación demuestra que los resultados son repetibles y diferentes para cada mezcla, aunque no todos los gases se identifican con igual facilidad, lo cual nos descubre la sensibilidad del instrumento para cada gas. En orden descendiente de porcentaje de reconocimiento se tiene: porcentaje de nitrógeno (94.98%), tipo de agente anestésico (91.04%), porcentaje de oxígeno (90.39%), porcentaje de óxido nitroso (88.96%), porcentaje de bióxido de carbono (86.60%) y porcentaje de agente anestésico (74.12%). El porcentaje de agente anestésico en la mezcla es el que el sistema encuentra más difícil de reconocer, y sin embargo el resultado indica que el sistema es sensible a ésta y a todas las demás características, y en el futuro deben encontrarse métodos para aumentar los niveles del reconocimiento, incluyendo mejoras en el diseño y construcción del sensor y su modelo matemático.La eliminación del dolor no es la única función de la anestesiología. En el quirófano es necesario mantener las funciones vitales del paciente ante los efectos desequilibrantes de la cirugía, la enfermedad y las intervenciones farmacológicas - incluyendo la anestesia - a través de frecuentes mediciones y ajustes. El monitoreo rápido y continuo de la anestesia puede mejorar de manera importante la eficacia del procedimiento y mantener la seguridad del paciente, por lo que organizaciones médicas y gubernamentales en muchos países han promovido fuertes recomendaciones a favor del monitoreo de gases. El problema principal es que las tecnologías existentes son demasiado caras y requieren mucho espacio y mantenimiento sofisticado, por lo que un gran número de salas quirúrgicas aún carecen de algún equipo de monitoreo adecuado. Este problema es aún más grave en hospitales con pocos recursos y en países subdesarrollados y de mediano desarrollo. Existe una clara necesidad para una nueva tecnología de medición de menor costo y pequeño tamaño que pueda incorporarse directamente al equipo de anestesia. El objetivo de esta investigación es el desarrollo de un sistema alternativo de reducido tamaño y costo, rápido y eficiente para monitorear gases anestésicos, basado en un condensador de aspiración diferencial de primer orden con barrido de campo, cuyo desarrollo se fundamenta en principios de espectroscopía de movilidad iónica y métodos de aspiración. La celda de medición de este instrumento es del tamaño de una caja de cerillos pequeña, sin partes móviles, ópticas o consumibles y se utilizan para su fabricación procesos de fabricación de tarjetas impresas, lo que implica un costo reducido y un diseño robusto. No requiere de altos voltajes ni grandes campos magnéticos, y las mediciones se realizan a presión barométrica
    corecore