389 research outputs found
Influência do caudal de ventilação no desempenho económico de um sistema AVAC de um edifício administrativo
Este estudo pretende analisar a influência do caudal de ar novo insuflado num edifício administrativo no desempenho energético do seu sistema AVAC.
O RSECE determina os caudais mínimos de AN para renovação do ar interior e qualidade do ar aceitável em espaços em que não haja fontes atípicas de poluentes e sem fumadores. Existe uma tendência para se projectar sistemas AVAC insuflando o caudal mínimo de AN, para assim se poupar no consumo de energia. No entanto, em determinadas situações, com esse procedimento está-se a fazer precisamente o contrário. Nessas situações não se está a aproveitar a oportunidade de aumentar a QAI e, simultaneamente, reduzir o consumo de energia.
Neste estudo calculou-se o consumo energético do sistema AVAC do edifício, inicialmente insuflando o caudal mínimo de AN, e depois repetiu-se o cálculo várias vezes aumentando esse mesmo caudal progressivamente. Este cálculo foi feito para dois tipos de sistemas de ar, CAV e VAV, e para três localizações diferentes do mesmo edifício. Foi também estudada a possibilidade do sistema funcionar em regime de “free cooling”, e também foram feitos cálculos para diferentes temperaturas de insuflação em situação de arrefecimento.
Concluiu-se que, para as localizações do edifício em que este apresenta necessidades de arrefecimento anuais superiores às de aquecimento, o caudal de AN responsável pelo menor consumo energético do seu sistema AVAC é superior ao mínimo imposto pelo RSECE.
Observou-se também que, quando se insufla no edifício o caudal mínimo de AN e o sistema está preparado para funcionar em regime de “free cooling”, conseguem-se poupanças no consumo energético anual do sistema bastante relevantes, independentemente do balanço entre as necessidades de aquecimento e arrefecimento anuais que o edifício apresenta. Em relação aos dois sistemas de ar estudados concluiu-se que, em qualquer das situações estudadas, o sistema VAV apresenta consumos energéticos inferiores
Exploring the arm MPAM extension for static partitioning virtualization
Dissertação de mestrado em Engenharia Eletrónica Industrial e ComputadoresOs sistemas embebidos desempenham um papel crucial na garantia da segurança dos sistemas de
transporte e controlo industrial. Estes sistemas, conhecidos como sistemas críticos de segurança, podem
ter consequências catastróficas em caso de falha. Nos últimos anos, e principalmente pressionados por
restrições SWaP-C, os sistemas embebidos consolidaram funções com diferentes níveis de criticidade,
criando uma nova classe de sistemas chamados sistemas de criticidade-mista.
A virtualização ganhou popularidade nos sistemas de criticidade-mista, pois permite a consolidação
e isolamento de múltiplos domínios numa mesma plataforma. Os hipervisores proporcionam isolamento
temporal e espacial, e as garantias freedom-from-interference satisfazem as normas de segurança. No
entanto, as plataformas modernas multicore também trazem dificuldades devido à interferência causada
por recursos de hardware partilhados (por exemplo, LLC, bus, e memória principal). Sem uma gestão
adequada, estas interferências podem prejudicar a previsibilidade temporal. Para responder a estes problemas, foram propostos mecanismos tais como a partição de cache e a reserva de largura de banda
de memória. Além disso, o recente lançamento da especificação da Arm, MPAM, que fornece novas
oportunidades para a regulação do acesso à memória.
Esta dissertação apresenta o design e implementação de um mecanismo de reserva de largura de
banda de memória (designado safe_mem), desenvolvido no hipervisor Bao. O safe_mem fornece reserva
de largura de banda limitando o acesso à memória por CPU a cada período, assegurando o isolamento
temporal no sistema. Esta dissertação também descreve o design e implementação de uma API para a
extensão MPAM, que inclui mecanismos de controlo de partição de cache. Por último, apresenta uma
análise relacionada com a contenção da memória e verifica a eficácia dos mecanismos implementados
para os processadores Arm Cortex-A.Embedded systems play a crucial role in ensuring the safety of transportation and industrial control
systems. These systems, known as safety-critical systems, can have catastrophic consequences in case
of failure. In recent years, and mainly pushed by Size, Weight, Power and Cost (SWaP-C) constraints,
embedded systems have consolidated functions with different criticality levels to create a new class of
systems called Mixed Criticality System (MCS).
Virtualization has gained popularity in MCS as it enables the consolidation and isolation of multiple
environments onto the same platform. Hypervisors provide temporal and spatial isolation, i.e., the freedom-from-interference guarantees required from safety standards. However, modern multicore platforms bring
difficulties due to the interference caused by shared hardware resources (e.g., Last-Level Cache (LLC),
system bus, and main memory). Without proper management, these interferences can harm timing
predictability. To address these issues, mechanisms such as cache partitioning and memory bandwidth
reservation have been proposed. Also, Arm’s recent release of the Memory System Resource Partitioning
and Monitoring (MPAM) specification provides new opportunities for memory access regulation.
This dissertation presents the design and implementation of a memory bandwidth reservation mechanism (named safe_mem) developed on top of the Bao hypervisor. The safe_mem provides bandwidth
reservation by limiting the memory access for each Central Process Unit (CPU) every period, ensuring
temporal isolation in the system. The dissertation also describes the design and implementation of an
Application Programming Interface (API) for the MPAM extension, which includes cache partitioning control
mechanisms. Lastly, presents an analysis related to memory contention and verifies the effectiveness of
the implemented mechanisms for Arm Cortex-A processors
Os efeitos da Trazodona na cognição humana: uma revisão sistemática
A trazodona é um antidepressivo amplamente utilizado, útil também no controlo da agitação e da insónia na doença de Alzheimer. É atualmente reconhecido um novo mecanismo de ação para a trazodona, com base nos seus efeitos na via da Unfolded Protein Response (UPR), restaurando a tradução de proteínas e atrasando a progressão neurodegenerativa em ratos. Esses mecanismos poderão ser encarados como promissores no tratamento modificador da demência.
Para explorar os efeitos da trazodona na cognição humana e procurar evidências clínicas de seus supostos benefícios em doenças neurodegenerativas, foi elaborada uma revisão sistemática para estudos que avaliaram o efeito de um mínimo de 25 mg de trazodona por dia, durante pelo menos uma semana, na cognição de indivíduos saudáveis ou com qualquer patologia com dezoito anos ou mais. A pesquisa foi realizada na MEDLINE, Web of Science e CENTRAL a partir das bases de dados da Cochrane, resultando num total de 16 estudos, após a seleção. Desses, sete estudos não evidenciaram qualquer efeito da trazodona sobre a cognição, cinco demostraram um efeito benéfico ao melhorar ou reduzir o declínio cognitivo e quatro evidenciaram função cognitiva deteriorada. A nossa análise destaca a possibilidade de um efeito duplo, dose-independente, da trazodona na cognição humana, com a utilização aguda associada ao comprometimento da função cognitiva e o uso a longo prazo com prevenção da deterioração da mesma. Não houve evidência de que a trazodona pudesse ser usada como um tratamento ativo de doenças neurodegenerativas por si só, mas a maioria (n = 12) dos nossos resultados indicam que o fármaco não possui efeito cognitivo prejudicial a longo prazo. Assim, estudos futuros devem explorar o papel da trazodona na via da UPR e as implicações em doenças neurodegenerativas em humanos.Trazodone is a widely used antidepressant, also useful in the control of agitation and insomnia in Alzheimer's disease. It is now recognized a new mechanism of action for trazodone, based on its effect on the Unfolded Protein Response (UPR) pathway, restoring protein translation and slowing neurodegenerative progression in mice. These mechanisms may be seen as promising in dementia modifying treatment.
To explore the effects of trazodone on human cognition and search for clinical evidence of its putative benefits in human's neurodegenerative diseases, a systematic review was conducted for studies that evaluated the effect of a minimum of 25 mg of trazodone daily, for at least one week, in the cognition of healthy or diseased patients with eighteen years or more. The search was run in MEDLINE, Web of Science, and CENTRAL from Cochrane databases, yielding a total of 16 studies, after selection. Overall, seven studies showed no effect of trazodone on cognition, five showed a beneficial effect by improving or reducing cognitive decline and four evidenced impaired cognitive function. Our analysis highlights the possibility of a dose-independent dual effect of trazodone on human cognition, with acute utilization associated with impaired cognitive function and long-term use with cognitive deterioration prevention. There was no evidence that trazodone could be used as an active treatment of neurodegenerative diseases itself, but the majority (n=12) of our findings indicate that it has no long-term cognitive detrimental effect. Future studies should explore trazodone's role in the UPR pathway and the implications in neurodegenerative diseases in humans
A Methodology to Estimate Real-world Vehicle Fuel Use and Emissions based on Certification Cycle Data
AbstractThis work presents a methodology to estimate vehicle fuel consumption and NOx mass emission rates using only public certification data from individual vehicles. Using on-road data collected from 14 vehicles it was possible to establish trends of fuel use and emissions according with the power demand, using the Vehicle Specific Power methodology, which were further applied to estimate modal fuel consumption and NOx emission rates on Diesel vehicles. Comparing with real-world operation, fuel consumption estimates presented average absolute deviations lower than 10%. Regarding NOx estimates, average absolute deviation is around 22%. With this method it is possible to evaluate an individual vehicle using public data without have to measure it on-road and establishing links between certification and real-world vehicle operation
Convolutional neural networks for myocardial perfusion SPECT imaging classification: a full and low-dose study
Thesis to obtain the Master of Science Degree in Biomedical EngineeringAs doenças cardiovasculares são a principal causa de morbilidade e mortalidade a nível mundial. A doença arterial coronária, uma das formas mais prevalentes das doenças cardiovasculares, caracteriza-se pela deposição de placas de ateroma nas artérias coronárias, levando consequentemente a diminuições da passagem do sangue pelas artérias, fenómeno este denominado por isquémia. As isquémias podem ser reversíveis, quando existe uma diminuição da passagem do sangue temporária, causada por exercício físico ou testes de esforço farmacológico ou irreversíveis quando o estreitamento e oclusão do vaso não é revertido em situações de repouso, levando à necrose dos tecidos. Neste sentido, a cintigrafia de perfusão do miocárdio (CPM) por tomografia computorizada por emissão de fotão único (SPECT) é um exame não-invasivo muito utilizado e designado para detetar alterações de perfusão no músculo cardíaco. Na prática, a SPECT utiliza traçadores radioativos que depois de administrados no doente permitem uma visualização do mesmo pelo corpo ou órgão de interesse. Na CPM, após administrado o radiofármaco, este é fixado parcialmente no miocárdio proporcionalmente ao fluxo sanguíneo do músculo. Na prática, em áreas indicativas de baixa perfusão, pode ser indicativo de isquémia reversível ou irreversível (enfarte). Se a região lesada se apresentar menos perfundida num estudo em esforço que num estudo em repouso, estaremos perante uma isquémia reversível. Se a região não apresentar reversibilidade de perfusão no estudo em repouso, estamos perante de uma isquémia irreversível e, portanto, um enfarte. Neste sentido, na CPM, é a comparação entre o estudo em esforço e em repouso que indica a presença ou ausência de estenoses. A quantificação dos estudos de CPM-SPECT envolve tipicamente a extração de parâmetros quantitativos obtidos dos estudos de esforço e repouso. Para isso, são utilizados softwares comercialmente disponíveis como o QPSTM/QGSTM e 4D-MSPECT. No entanto, os sistemas de aquisição sofrem de algumas limitações como a distorção espacial, atenuação dispersa e baixas contagens, o que pode contribuir para elevados níveis de ruído nas imagens. Assim, este aspeto pode levar ao viés na quantificação e consequente classificação, para além de serem processos demorados e muito dependentes do utilizador, levando a variabilidades intra e inter-operador significantes. Além disso, a CPM-SPECT sendo um exame que comporta radiação ionizante para o doente, é o que mais contribui em Portugal para a dose coletiva da população desde 2010. Para ultrapassar tais limitações, novos equipamentos especializados em imagem cardíaca nuclear têm sido desenvolvidos como os de Cádmio-zinco-telureto (CZT), permitindo uma melhor qualidade de imagem e redução de dose. Outra abordagem foi implementar algoritmos iterativos na reconstrução de imagem, melhorando também a relação sinal-ruído das mesmas. No entanto, ambos os métodos estão associados a custos elevados, sendo difíceis de implementar em muitos serviços. Neste sentido, tanto as questões na variabilidade de classificação como as preocupações de redução da dose podem impactar a verdadeira avaliação de estudos CPM-SPECT. Recentemente, com a ascensão do big-data e novos algoritmos de aprendizagem profunda como as redes neuronais, estes começaram a ser utilizados também no contexto da imagiologia médica, particularmente também na CPM. Para contexto, muitas arquiteturas de redes neuronais têm sido utilizadas nas mais variadas tarefas da imagiologia, sendo as redes neuronais convolucionais a que mais se destacou. Uma razão para tal, é a facilidade da sua utilização através de transfer learning, ou seja, a utilização de redes neuronais convolucionais pré-treinadas numa base de dados de grandes dimensões, como por exemplo o ImageNet, em que se congela os pesos das camadas anteriores ou parte deles, de forma a usar o que a rede aprendeu inicialmente num outro problema de classificação. Em adendo, com o desenvolvimento de arquiteturas cada vez mais complexas, a interpretabilidade destes modelos tornou-se mais difícil. Para isso, vários métodos foram desenvolvidos como forma de melhor perceber a tomada de decisão dos algoritmos nas mais variadas tarefas, dentro dos quais destacamos o Grad-CAM. Neste sentido, e para contexto, as redes neuronais convolucionais têm sido utilizadas na cardiologia nuclear nas mais variadas tarefas como na otimização da qualidade de imagens, na reconstrução de dados e na classificação de estudos para apoio ao diagnóstico. Adicionalmente, vários investigadores têm estudado particularmente a classificação em imagens de baixa dose depois de sobreamostragem para dose convencional. No entanto, a literatura ainda carece de estudos relativos à classificação de imagens de dose convencional e reduzida com posterior comparação entre ambas. Neste projeto temos como objetivo desenvolver um modelo de classificação de imagens reais full-time e low-time de perfusão do miocárdio, avaliando a aplicação do uso de imagens sintéticas geradas a partir do método de reamostragem de Poisson em tarefas de classificação.Myocardial perfusion imaging (MPI) by single-photon emission computed tomography (SPECT) plays a crucial role in the diagnosis of coronary artery disease. Moreover, the quantification of these images typically involves the extraction of quantitative parameters obtained from the rest stress perfusion. However, the acquisition systems have some limitations such as spatial blurring and low-count data, which may introduce bias in the classification. Additionally, these processes are time-consuming and user-dependent, leading to significant intra and inter-operator variability. Furthermore, over the years there has been a constant effort to reduce the dose of MPI. In this sense, both the variability classification issues and the dose reduction concerns can impact the true assessment of SPECT-MPI. In recent years, with the rise of artificial intelligence algorithms, several studies have proposed automatic Deep Learning techniques for the classification of MPI, moreover regarding low-count data. In this project, we ran 5 Convolutional Neural Network models with pre-trained weights: one trained on stress real full-time data (100%, as 100R), three individual models with synthetic 75%, 50% and 25% count settings and another one with all datasets combined (ALL). Thus, we compared their performance when tested on full-time and low-time studies and assessed the application of synthetic subsampled data from the Poisson Resampling technique in SPECT-MPI classification tasks. As a conclusion, both 100R and ALL models achieved good and similar results when tested with real full-time (100R model achieved an accuracy of 0.70 and ALL model achieved na accuracy of 0.65) and real low-time at 75% (both models achieved and accuracy of 0.71). Bellow this percentage, the models’ accuracy began to drop, possibly due to the limited information these images contain. Thus, subsampled data from a Poisson resampling method may be a possible solution to conduct further studies regarding the classification of low-time SPECT-MPI.N/
Improving Millennium Bank's personal finance manager: How to cater a more useful, usable and tech-advanced tool to gain competitive advantage in the Polish banking competitive arena
Double DegreeThis dissertation reviews and analyzes the best practices in the Online banking business, namely in those which concern the Personal Finance Manager (PFM) tools for clients. Poland is currently a European leading market in Online banking, ranking amongst the most technologically advanced platforms in the Continent and being considered very reliable when it comes to security of payments. Considering that the Polish banking sector reached saturation and further growth should not be expected1, industry-experts predict that profitability will be gained mostly through cost-savings deriving from less face-to-face contact in customer support which will gradually be replaced by online contact channels. This paper focuses on improving the Personal Finance Manager’s (PFM for short) functions of Millenium Bank’s online platform (which directly or indirectly correspond to money transactions) and aims at analyzing how to develop competitive advantage through a more feature-rich easy-to-use and intuitive online platform (hence the execution of a study on international best practices concerning PFM).
A study on the top 5 Polish retail banks is conducted to understand how advanced Millennium’s PFM is in relation with competition (whose results are compared with the aforementioned analysis on the best practices applied by internationally leading PFMs). Next, and on the basis of both these elements, specific suggestions were reached to improve the actual PFM tool. All in all, the objective of the report is to condense all the gathered information into a set of recommendations for Millennium to use in the development of their new PFM platform. The task was of special importance for two reasons: it is estimated that banks’ profitability in the future will be mostly driven by the “digitalization of clients” (resulting in cost savings for the institutions) rather than by the acquisition of new ones (which means that online banking platforms ought to be appeasing for customers); Millennium’s homebanking platform is already very advanced for Polish and even European standards, thus being hard to improve, even marginally
Design and Manufacture of a mini-turbojet
The development and production of small engines with a jet propulsion system is, relatively recent, taking into account that this type of gas turbine started to be studied and developed many years before the first construction of these small turbojets. However, with the time evolving, the gas turbines turned out to be a greater challenge, becoming more and more difficult to develop and improve. The gas turbine requires an intense study of the several areas related to its functioning, demanding additional knowledge and skill to improve a small detail. Although the detail could be small, the effect on overall performance would be considerable. Until recent times, these small engines were developed without a significant role in the aviation industry, being only used for model jet engines. Even though, in the account of the science evolution, these engines are being studied and prepared to integrate Unmanned Aerial Vehicles, UAV’s, as their propulsion system [1]. This dissertation consists on the development of a turbojet, in a small-scale, respecting the dimensions of the two, previously obtained, components, the compressor, and turbine, from the model turbo IHI RHB31 VZ21. To understand how to execute a design with suitable dimensions, the study of every present component in a turbojet was carried out, in parallel with the fundamental areas, regarding the functioning of a turbojet, such as thermodynamic cycles. At the end of a general study of the turbojet, the author proceeded to the design phase, in which the dimensioning process starts based on the information contained in the various sources of information, found at the bibliography. The dimensioning was carried through by the use of a scale factor. This scale factor was obtained by the compressor’s diameters ratio. In brief, in the Mr.Thomas Kamps’ book, the author advises the novice to divide his compressor diameter by the compressor used for Mr.Kamps’s engine. The diameters ratio, or the scale factor, was applied to the remaining components, produced by Mr.Thomas Kamps,in order to attain the measures for this gas turbine, respecting the recommended. The dimensions of the compressor shroud, inlet flange, diffuser, shaft, shaft housing, combustion chamber, fuel distribution ring, nozzle guide vanes, exhaust nozzle and, the last, outer casing were obtained. The next step was the design process of the referred components, in regard to the observed designs, found in the studied literature, using the three-dimensional design software CATIA V5R18. The design is an empiric process, which reveals itself as extremely difficult to consider one design as absolute. The manufacturing process of the turbojet was executed, at the time, the design process had been concluded. The following action was to acquire the necessary material for the production of the pieces, essentially, aluminum and stainless steel. The aluminum used was cast aluminum, being, then, worked to acquire the requested shape concerning the established design. The majority of the components were manufactured with stainless steel sheets, in which, the pieces were cut, according to their dimensions and shape, in-plane geometry. The chapter describing the manufacture process, as well as, the design process, is explained to allow a future reproduction of the work completed or adaptation for a different compressor/turbine set. Unfortunately, the fabrication of the diffuser and compressor shroud was not possible, since it had extremely small dimensions to be produced in the 5-axis vertical machining center. Moreover, the welding applied to the manufactured pieces was not executed with the required quality, even having increased the material thickness to facilitate the process, as it is explained in chapter 4.3. Therefore, one of the main objectives was not accomplished due to the insufficient means that disabled the manufacture of the jet engine’s parts.O desenvolvimento e produção de pequenos motores a propulsão jato é relativamente recente,
tendo em conta que, este tipo de turbina a gás começou a ser estudado e desenvolvido muito
antes. No entanto, com a evolução dos tempos, as turbinas a gás foram-se tornando um desafio cada vez mais dificil de as desenvolver e melhorar. Este tipo de motor requere um estudo
intenso das várias áreas relacionadas com o seu funcionamento, exigindo cada vez mais conhecimentos e perícia, para que um pequeno detalhe seja melhorado. Apesar de o detalhe poder
ser pequeno, o efeito no desempenho geral é considerável.
Até tempos recentes, estes pequenos motores foram desenvolvidos sem um papel significativo na indústria aeronáutica, apenas sendo utilizados para aeromodelos. Contudo, à conta da
evolução na ciência, estes motores começam a ser estudados e preparados para integrarem
Veículos Aéreos Não Tripulados, UAV, como o seu sistema de propulsão [1].
Este projeto consiste no desenvolvimento de um turbojato, respeitando as dimensões de dois
componentes previamente obtidos, o compressor e a turbina, do turbo modelo IHI RHB31 VZ21.
Para perceber como se executa o design com o dimensionamento adequado, o estudo de todo
componente presente num turbojato foi prosseguido, em paralelo com as áreas fundamentais
relativas ao funcionamento do turbojato, por exemplo, ciclos termodinâmicos. No final de um
estudo geral do turbojato, o autor prosseguiu para a fase de design, na qual o processo de
dimensionamento começa com base na informação contida nas várias fontes de informação, encontradas na bibliografia. O dimensionamento foi realizado pelo o uso de um fator de escala.
Este fator de escala foi obtido por uma razão de diâmetros de compressores. Sucintamente,
no livro do Sr.Thomas Kamps, o autor aconselha o novato a dividir o tamanho do seu compressor pelo do compressor utilizado para o motor do Sr.Thomas Kamps. A razão de diâmetros, ou
fator de escala, foi aplicada nos restantes componentes, produzidos pelo Sr.Thomas Kamps,
permitindo chegar às medidas para esta turbina a gás, respeitando o recomendado. As dimensões da cobertura do compressor, flange de entrada, difusor, veio, túnel de acoplamento do
veio, câmara de combustão, anel de distribuição do combustível, bocal anterior à turbina com
pás guias para o escoamento, bocal dos gases de escape e, por último, o invólucro externo,
foram obtidas. O próximo passo foi o processo de design dos componentes referidos, em relação aos designs observados na literatura estudada, utilizando o software de três dimensões
CATIA V5R18. O design é um processo empírico, que se torna extremamente difícil de considerar
um design como absoluto.
O processo de fabrico do turbojato foi realizado, aquando, o processo de design ter sido concluído. A próxima ação foi obter os materias necessários para a produção das peças, essencialmente, alumínio e aço inox. O alumínio usado foi alumínio fundido, sendo, depois, maquinado
para adquirir as formas exigidas relativas ao desgin estabelecido. A maioria dos componentes
foram produzidos com folhas de chapa de aço inox, na qual as peças foram cortadas, de acordo
com as suas dimensões e forma, em geometria plana. O capítulo que descreve o processo de
manufatura, assim como, o processo de design, é explicado para permitir uma futura reprodução do trabalho completado ou adaptação para um conjunto compressor/turbina diferente.
Infelizmente, a fabricação do difusor e cobertura do compressor não foi possível, sendo que tinham dimensões extremamente pequenas para serem produzidas numa fresadora vertical de
comando numérico de cinco eixos. Para além disso, a soldadura aplicada nas peças produzidas
não foi executada com a qualidade exigida, mesmo tendo-se aumentado a espessura das peças
para facilitar o processo, como foi explicado no capítulo 4.3. Portanto, um dos objetivos não
foi atingido devido aos meios insuficientes que impediram a fabricação das partes do motor a
jato
Influence of materials’ hygroscopicity in the control of relative humidity and temperature of old buildings
The comfort of buildings indoor environment and materials durability are severally affected by peaks of temperature and relative humidity (RH) in interior of buildings and therefore they should be controlled and damped.
The presence of people inside buildings as well as artificial illumination and all kind of equipment cause a releasing of moisture to environment, which originates an increment of its relative humidity. The occupants, artificial illumination and equipment also originate a temperature raising depending the occupants’ activity and the quantity and power of illumination and equipment. In order to reach an interior environment with values of relative humidity and temperature that ensure acceptable conditions to human health and materials longevity, it is important to install measures to control them. These measures can be active or passive if, respectively, they intend to remediate the
unacceptable values of RH or temperature or if those acceptable values are achieved by installing coating materials capable of control both parameters during all seasons. If the materials are able to control temperature and relative humidity of indoor, so they contribute to improving thermal and hygroscopic inertia of buildings.
Old buildings are characterized by having high thermal inertia and this means that its interior environment has a significant gap in relation to the exterior one, with regard to temperature. However, the temperature also affects relative humidity once both have an inverse relation of proportionality. This makes that it is important to damp relative humidity of old buildings indoor that would not have those values if it did not have high thermal inertia. This fact makes that be important to control relative humidity and temperature of old buildings indoor, preferably using passive measures, to preserve
some very important works of art, books or documents, in case of being a museum or an archive.
To control temperature and relative humidity of interior environment it is necessary to choose the best coating materials that can provide to buildings higher hygroscopic and thermal inertia. For that, it is indispensable to make correct materials characterization in order to discover their real behavior and, with base on those characteristics obtained experimentally, they could be properly chosen to be applied in buildings. In consequence of that, in the present dissertation, the materials behavior at different ranges of RH was analyzed as well as the time of exposition to those controlled environments. For that, it was chosen to make the tests of adsorption/desorption isotherm, Moisture Buffering Value (MBV), moisture permeability, thermal conductivity and response time. Additionally, the response of materials to certain interior environment was determined, by making a hygrothermal simulation in transient regime, with recourse to software Wufi Plus
Convolutional neural networks for myocardial perfusion SPECT imaging classification: a full and low-dose study
Mestrado em Engenharia BiomédicaABSTRACT - Myocardial perfusion imaging (MPI) by single-photon emission computed tomography (SPECT) plays a crucial role in the diagnosis of coronary artery disease. Moreover, the quantification of these images typically involves the extraction of quantitative parameters obtained from the rest stress perfusion. However, the acquisition systems have some limitations such as spatial blurring and low-count data, which may introduce bias in the classification. Additionally, these processes are time-consuming and user-dependent, leading to significant intra and inter-operator variability. Furthermore, over the years there has been a constant effort to reduce the dose of MPI. In this sense, both the variability classification issues and the dose reduction concerns can impact the true assessment of SPECT-MPI. In recent years, with the rise of artificial intelligence algorithms, several studies have proposed automatic Deep Learning techniques for the classification of MPI, moreover regarding low-count data. In this project, we ran 5 Convolutional Neural Network models with pre-trained weights: one trained on stress real full-time data (100%, as 100R), three individual models with synthetic 75%, 50%, and 25% count settings, and another one with all datasets combined (ALL). Thus, we compared their performance when tested on full-time and low-time studies and assessed the application of synthetic subsampled data from the Poisson Resampling technique in SPECT-MPI classification tasks. In conclusion, both 100R and ALL models achieved good and similar results when tested in real full-time (the 100R model achieved an accuracy of 0.70 and the ALL model achieved an accuracy of 0.65) and real low-time at 75% (both models achieved an accuracy of 0.71). Bellow this percentage, the models’ accuracy began to drop, possibly due to the limited information these images contain. Thus, subsampled data from a Poisson resampling method may be a possible solution to conduct further studies regarding the classification of low-time SPECT-MPI.RESUMO - As doenças cardiovasculares são a principal causa de morbilidade e mortalidade a nível mundial. A doença arterial coronária, uma das formas mais prevalentes das doenças cardiovasculares, caracteriza-se pela deposição de placas de ateroma nas artérias coronárias, levando consequentemente a diminuições da passagem do sangue pelas artérias, fenómeno este denominado por isquémia. As isquémias podem ser reversíveis, quando existe uma diminuição da passagem do sangue temporária, causada por exercício físico ou testes de esforço farmacológico ou irreversíveis quando o estreitamento e oclusão do vaso não é revertido em situações de repouso, levando à necrose dos tecidos. Neste sentido, a cintigrafia de perfusão do miocárdio (CPM) por tomografia computorizada por emissão de fotão único (SPECT) é um exame não-invasivo muito utilizado e designado para detetar alterações de perfusão no músculo cardíaco. Na prática, a SPECT utiliza traçadores radioativos que depois de administrados no doente permitem uma visualização do mesmo pelo corpo ou órgão de interesse. Na CPM, após administrado o radiofármaco, este é fixado parcialmente no miocárdio proporcionalmente ao fluxo sanguíneo do músculo. Na prática, em áreas indicativas de baixa perfusão, pode ser indicativo de isquémia reversível ou irreversível (enfarte). Se a região lesada se apresentar menos perfundida num estudo em esforço que num estudo em repouso, estaremos perante uma isquémia reversível. Se a região não apresentar reversibilidade de perfusão no estudo em repouso, estamos perante de uma isquémia irreversível e, portanto, um enfarte. Neste sentido, na CPM, é a comparação entre o estudo em esforço e em repouso que indica a presença ou ausência de estenoses. A quantificação dos estudos de CPM-SPECT envolve tipicamente a extração de parâmetros quantitativos obtidos dos estudos de esforço e repouso. Para isso, são utilizados softwares comercialmente disponíveis como o QPSTM/QGSTM e 4D-MSPECT. No entanto, os sistemas de aquisição sofrem de algumas limitações como a distorção espacial, atenuação dispersa e baixas contagens, o que pode contribuir para elevados níveis de ruído nas imagens. Assim, este aspeto pode levar ao viés na quantificação e consequente classificação, para além de serem processos demorados e muito dependentes do utilizador, levando a variabilidades intra e inter-operador significantes. Além disso, a CPM-SPECT sendo um exame que comporta radiação ionizante para o doente, é o que mais contribui em Portugal para a dose coletiva da população desde 2010. Para ultrapassar tais limitações, novos equipamentos especializados em imagem cardíaca nuclear têm sido desenvolvidos como os de Cádmio-zinco-telureto (CZT), permitindo uma melhor qualidade de imagem e redução de dose. Outra abordagem foi implementar algoritmos iterativos na reconstrução de imagem, melhorando também a relação sinal-ruído das mesmas. No entanto, ambos os métodos estão associados a custos elevados, sendo difíceis de implementar em muitos serviços. Neste sentido, tanto as questões na variabilidade de classificação como as preocupações de redução da dose podem impactar a verdadeira avaliação de estudos CPM-SPECT. Recentemente, com a ascensão do big-data e novos algoritmos de aprendizagem profunda como as redes neuronais, estes começaram a ser utilizados também no contexto da imagiologia médica, particularmente também na CPM. Para contexto, muitas arquiteturas de redes neuronais têm sido utilizadas nas mais variadas tarefas da imagiologia, sendo as redes neuronais convolucionais a que mais se destacou. Uma razão para tal, é a facilidade da sua utilização através de transfer learning, ou seja, a utilização de redes neuronais convolucionais pré-treinadas numa base de dados de grandes dimensões, como por exemplo o ImageNet, em que se congela os pesos das camadas anteriores ou parte deles, de forma a usar o que a rede aprendeu inicialmente num outro problema de classificação. Em adendo, com o desenvolvimento de arquiteturas cada vez mais complexas, a interpretabilidade destes modelos tornou-se mais difícil. Para isso, vários métodos foram desenvolvidos como forma de melhor perceber a tomada de decisão dos algoritmos nas mais variadas tarefas, dentro dos quais destacamos o Grad-CAM. Neste sentido, e para contexto, as redes neuronais convolucionais têm sido utilizadas na cardiologia nuclear nas mais variadas tarefas como na otimização da qualidade de imagens, na reconstrução de dados e na classificação de estudos para apoio ao diagnóstico. Adicionalmente, vários investigadores têm estudado particularmente a classificação em imagens de baixa dose depois de sobreamostragem para dose convencional. No entanto, a literatura ainda carece de estudos relativos à classificação de imagens de dose convencional e reduzida com posterior comparação entre ambas. Neste projeto temos como objetivo desenvolver um modelo de classificação de imagens reais full-time e low-time de perfusão do miocárdio, avaliando a aplicação do uso de imagens sintéticas geradas a partir do método de reamostragem de Poisson em tarefas de classificação.N/
Participatory design in children’s diet: strategies to design public services
This paper aims to show a project carried out by a student of the Design Master’s at Universidade de Aveiro, which consists of a Food Diary supported by a ludic and pedagogical kit implemented in 1st grade schools.
Western lifestyles have had several consequences in Public Health, particularly in children’s diets. With this project we intended to demonstrate the role of design in the development of a social project, in its ability to design in a participatory way and in its ability to change behaviours, in particular, children’s food behaviours.
The methodology applied has its roots in participatory design, thus the conceptual process was undertaken collaboratively with a diverse team of professionals, several institutions in the region and the children themselves, being the designer a mediator between their different contributions.
In its results, we would like to highlight the positive impact of this project in the children involved, who through the Kit’s usage, became aware of the unhealthy diet available to them, both at school and at home, and started demanding from their parents’ and the schools cooks’ healthier alternatives. It is our belief that this project could be implemented as a public service, in health or education sectors
- …