799 research outputs found
Analysis of interpretability methods applied to DCE-MRI of Breasts Images
Tese de mestrado integrado, Engenharia Biomédica e Biofísica (Sinais e Imagens Biomédicas), 2022, Universidade de Lisboa; Faculdade de CiênciasO cancro da mama é uma doença que afeta um elevado número de mulheres a uma escala mundial [1].
Os exames físicos e a mamografia são as formas mais eficazes de detetar lesões e nódulos na mama.
Contudo, estes métodos podem revelar-se inconclusivos. Uma maneira de solidificar o diagnóstico de
cancro da mama é a realização de testes suplementares, tal como a ressonância magnética. O exame de
ressonância magnética mais comum para detetar cancro da mama é DCE-MRI, um exame que obtém
imagens através da injeção de um agente de contraste [2]. A consolidação do diagnóstico pode também
ser realizada via meios de machine learning. Vários métodos de machine learning têm vindo a ajudar
técnicos a realizar tarefas como deteção e segmentação de tumores. Apesar destes métodos serem
eficazes, as tarefas que este realizam são caracterizadas por um elevado grau de responsabilidade visto
que estão diretamente relacionadas com o bem-estar de um ser humano. Isto leva à necessidade de
justificar os resultados destes métodos de maneira a aumentar a confiança nos mesmos. As técnicas que
tentam explicar os resultados de métodos de machine learning pertencem à área de Explainable Artificial
Intelligence [3].
Esta dissertação foca-se em aplicar e analisar métodos state-of-the-art de Explainable Artificial
Intelligence a modelos de machine learning. Como estes modelos foram construídos tendo como base
imagens de DCE-MR de mamas, os métodos aplicados a estes modelos visam explicar os seus resultados
visualmente. Um dos métodos aplicados foi SHAP, SHapley Addictive exPlanations. Este método pode
ser aplicado a uma variedade de modelos e baseia-se nos Shapley Values da teoria de jogos para explicar
a importância das características da imagem de acordo com os resultados do modelo [4]. Outro método
aplicado foi Local Interpretable Model-agnostic Explanations, ou LIME. Este método cria imagens
alteradas e testa-as nos modelos criados. Estas imagens perturbadas têm um peso de acordo com o grau
das perturbações. Quando testadas nos modelos, LIME calcula quais as perturbações que influenciam a
mudança do resultado do modelo e, consequentemente, encontra as áreas da imagem que são mais
importantes para a classificação da imagem de acordo com o modelo [5]. O último método aplicado foi
o Gradient-weighted Class Activation Mapping, ou Grad-CAM. Este método pode ser aplicado em
diversos modelos, sendo uma generalização do método CAM [6], mas apenas pode ser aplicado em
tarefas de classificação. O método de Grad-CAM utiliza os valores dos gradientes específicos de classes
e as feature maps extraídas de convolutional layers para realçar áreas discriminativas de uma certa classe
na imagem. Estas layers são componentes importantes que constituem o corpo dos modelos. Para lá
destes métodos, extraiu-se e analisou-se matrizes convolucionais, chamadas de filtros, usadas pelas
convolutional layers para obter o output destas layers. Esta tarefa foi realizada para observar os padrões
que estão a ser filtrados nestas camadas.
Para aplicar estes métodos, foi necessário construir e treinar vários modelos. Nesse sentido, três modelos
com a mesma estrutura foram criados para realizar tarefas de regressão. Estes modelos têm uma
arquitetura constituída por três convolutional layers seguidas de uma linear layer, uma dropout layer e
outra linear layer. Um dos modelos tem como objetivo medir a área do tumor em maximum intensity
projections dos volumes. Os outros dois modelos têm como objetivo medir a percentagem de redução
do tumor quando introduzido dois maximum intensity projections. A diferença entre estes dois modelos
está nas labels criadas para os inputs. Um dos modelos usa valores calculados através da diferença entre
a área dos tumores dos duas maximum intensity projections, enquanto o outro modelo usa valores da
regressão da área do tumor fornecidos por técnicos. A performance destes modelos foi avaliada através
da computação dos coeficientes de correlação de Pearson e de Spearman. Estes coeficientes são
calculados usando a covariância e o produto do desvio-padrão de duas variáveis, e diferem no facto de
o coeficiente de Pearson apenas captar relações lineares enquanto o coeficiente de Spearman capta
qualquer tipo de relação. Do modelo que teve como objetivo medir a área do tumor calculou-se os
coeficientes de Pearson e de Spearman de 0.53 e 0.69, respetivamente. O modelo que teve como objetivo calcular a percentagem de redução do tumor e que usou valores calculados como labels teve a
melhor performance dos três modelos, com coeficientes de Pearson e de Spearman com valores de 0.82
e 0.87, respetivamente. O último modelo utilizado não conseguiu prever corretamente os valores
fornecidos pelos técnicos e, consequentemente, este modelo foi descartado. De seguida, os métodos de
visualização de filtros e SHAP foram aplicados aos dois restantes modelos. A técnica de visualização
de filtros permitiu demonstrar as partes da imagem que estão a ser filtradas nas convolutional layers,
sendo possível observar certos padrões nestes filtros. O método SHAP realçou áreas da mama que
contribuíram para as previsões dos modelos. Como ambas as tarefas se focam em calcular algo através
da área dos tumores, consideramos imagens SHAP bem-sucedidas aquelas que realçam áreas do tumor.
Com isto em mente, as imagens obtidas através do método SHAP tiveram um sucesso de 57% e de 69%
para o modelo que mede a área do tumor e para o modelo que mede a percentagem de redução do tumor,
respetivamente.
Outro modelo foi construído com o objetivo de classificar pares de maximum intensity projections de
acordo com percentagem de redução de área do tumor. Cada par foi previamente classificado numa de
quatro classes, sendo que cada classe corresponde a uma redução incremental de 25%, ou seja, a primeira
classe corresponde a uma redução do tumor de 0% a 25%, enquanto a última classe corresponde a uma
redução do tumor de 75% a 100%. Este modelo tem uma arquitetura semelhante à de um modelo de
Resnet18 [7]. A performance deste modelo foi avaliada através de uma matriz de confusão. Através
desta matriz podemos observar um sucesso de 70% no que toca a previsões corretas feitas pelo modelo.
De seguida, os três métodos, SHAP, LIME e Grad-CAM, foram aplicados neste modelo. Como o
objetivo deste modelo baseia-se em classificar as imagens de acordo com a percentagem de redução de
tumor, também se considerou imagens de SHAP com sucesso aquelas que realçam áreas do tumor.
Tendo isto em conta, observou-se uma taxa de sucesso de 82% em realçar a zona do tumor nas maximum
intensity projections. As perturbações criadas para serem aplicadas no método LIME correspondem a
áreas quadradas na imagem. O método LIME cria imagens atribuindo valores nulos a estas áreas
aleatoriamente. O método LIME atribui um peso às imagens perturbadas de acordo com o nível de
perturbação que estas sofrem. Neste trabalho, duas diferentes perturbações foram criadas, sendo a
primeira perturbação áreas quadradas de 10 por 10 pixéis e a segunda áreas quadradas de 25 por 25
pixéis. Após a perturbação das imagens, estas foram inseridas novamente no modelo e as diferenças na
previsão do modelo foram aprendidas pelo algoritmo do LIME. Imagens criadas com as perturbações
mais pequenas tiveram uma maior taxa de sucesso que as perturbações maiores, realçando perturbações
na área do tumor com uma certidão de 48%. Apesar deste facto, as imagens criadas com as perturbações
de 25 por 25 pixéis tiveram os resultados mais claros no que toca a localizar o tumor visto que o tamanho
das perturbações permitiu englobar todo o tumor. Por último, o método Grad-CAM foi aplicado a todas
as importantes convolutional layers do modelo. Este método foi bastante eficaz a localizar as áreas
discriminativas de uma certa classe, visto que conseguiu localizar o tumor bastante facilmente quando
aplicado na última convolutional layer. Para lá deste facto, foi possível observar as áreas discriminativas
de uma certa classe nas imagens quando se aplica este método a convolutional layers intermédias.
Concluindo, a aplicação destas técnicas permitiu explicar parte das decisões feitas pelos modelos de
machine learning no âmbito da análise de imagens de DCE-MRI de cancro da mama.Computer aided diagnosis has had an exponential growth in medical imaging. Machine learning has
helped technicians in tasks such as tumor segmentation and tumor detection. Despite the growth in this
area, there is still a need to justify and fully understand the computer results, in order to increase the
trust of medical professionals in these computer tasks. By applying explainable methods to the machine
learning algorithms, we can extract information from techniques that are often considered black boxes.
This dissertation focuses on applying and analyzing state-of-the-art XAI (eXplainable Artificial
Intelligence) methods to machine learning models that handle DCE-MR (Dynamic Contrast-Enhanced
Magnetic Resonance) breast images. The methods used to justify the model’s decisions were SHAP
(SHapley Additive exPlanations) [4], LIME (Local Interpretable Model-agnostic Explanations) [5] and
Grad-CAM (Gradient-weighted Class Activation Mapping) [8], which correspond to three visual
explanation methods. SHAP uses Shapley Values from game theory to explain the importance of
features in the image to the model’s prediction. LIME is a method that uses weighted perturbed images
and tests then using the existing models. From the model’s response to these perturbed images, the
algorithm can find which perturbations cause the model to change its prediction and, consequently, can
find the important areas in the image that lead to the model’s prediction. Grad-CAM is a visual
explanation method that can be applied to a variety of neural network architectures. It uses gradient
scores from a specific class and feature maps extracted from convolutional layers to highlight classdiscriminative regions in the images.
Two neural network models were built to perform regression tasks such as measuring tumor area and
measuring tumor shrinkage. To justify the network’s results, filters were extracted from the network’s
convolutional layers and the SHAP method was applied. The filter visualization technique was able to
demonstrate which parts of the image are being convoluted by the layer’s filters while the SHAP method
highlighted the areas of the tumor that contributed most to the model’s predictions. The SHAP method
had a success rate of 57% at highlighting the correct area of the breast when applied to the neural network
which measured the tumor area, and a success rate of 69% when applied to the neural network which
measured the tumor shrinkage. Another model was created using a Resnet18’s architecture. This
network had the task of classifying the breast images according to the shrinkage of the tumor and the
SHAP, LIME and Grad-CAM methods were applied to it. The SHAP method had a success rate of 82%.
The LIME method was applied two times by using perturbations of different sizes. The smaller sized
perturbations performed better, having a success rate of 48% at highlighting the tumor area, but the
larger sized perturbations had better results in terms of locating the entire tumor, because the area
covered was larger. Lastly, the Grad-CAM method excelled at locating the tumor in the breast when
applied to the last important convolutional layer in the network
Modelling the behaviour of reinforced concrete beams strengthened with FRP
Comunicação apresentada em III European Conference on Computational Mechanics Solids, Structures and Coupled Problems in Engineering, Lisbon, 5–8 June 2006The strengthening of reinforced concrete structures with fiber reinforced polymers
(FRP) is particularly attractive due to their mechanical properties. The understanding of the premature failure modes is of great importance. Since rupture is frequently found to occur at the interface FRP concrete, there is a clear need to study the nature of the bonding so as to develop techniques to permit its design modeling. The stress distribution in shear test models
does not precisely match the one obtained in flexural reinforcement; in the latter, according to various authors [1, 2], in addition to the stresses tangential to the interface, normal stresses are also important. In this paper, a numerical model is presented to describe the behavior of reinforced concrete beams strengthened with FRP. This model is based on previous studies focused both on: i) the distribution of shear stresses at the interface FRP concrete and on ii) the stress concentration at the plate ends in flexural models. Furthermore, the importance of the flexural cracks in the premature rupture of the element is also analyzed. The behavior of reinforced c concrete beams strengthened with both FRP laminates and sheets is considered. The FRP epoxy concrete arrangement and the flexural cracks are modeled with interface elements with initial zero thickness, using a discrete approach and a localized damage
model. A softening behavior is adopted to simulate the stress transfer along the FRP-
-concrete interface. The importance of considering the mixed mode of fracture is discussed. Mention is also made to some of the main mathematical models found in the literature
Modelling the behaviour of the bonding of fibre reinforced concrete at the plate end
Comunicação apresentada em International Symposium Polymers in Concrete (ISPIC 2006), Guimarães, 2006In this paper, the finite element method is used to analyse the behaviour of concrete
externally strengthened by fibre reinforced polymers (FRP). This model aims to analyse the stress distribution in the FRP-concrete interface at the plate end of a bending beam. The behaviour of the concrete-poxy-FRP arrangement is modelled with interface elements with initial zero thickness, using a discrete crack approach. A localized damage model is adopted for the interface and a parametric study is performed to approximate the material parameters adopted. The importance of each parameter is assessed. This model is subsequently verified
using experimental data collected from the literature. Finally, a proposal is made concerning the adoption of a relation GF
II/GF for the interface behaviour. Mention is also made to some of the main mathematical models found in the literature, which are compared to the present approach
Anthropomorphic finger for grasping applications: 3D printed endoskeleton in a soft skin
Application of soft and compliant joints in grasping mechanisms received an
increasing attention during recent years. This article suggests the design and
development of a novel bio-inspired compliant finger which is composed of a 3D
printed rigid endoskeleton covered by a soft matter. The overall integrated
system resembles a biological structure in which a finger presents an
anthropomorphic look. The mechanical properties of such structure are enhanced
through optimization of the repetitive geometrical structures that constructs a
flexure bearing as a joint for the fingers. The endoskeleton is formed by
additive manufacturing of such geometries with rigid materials. The geometry of
the endoskeleton was studied by finite element analysis (FEA) to obtain the
desired properties: high stiffness against lateral deflection and twisting, and
low stiffness in the desired bending axis of the fingers. Results are validated
by experimental analysis
Public spaces built in Porto from 1890 to 2010. Types and formal identity.
We have analyzed the evolution of the spatial features of Porto's city public spaces from 1890 until 2010. Having as base the variation of intensity, by decade, of selected spatial features (dimensions, functional segregation, cloistered space, geometric regularity and formal identity), our objective was to pinpoint certain types of spatial characteristics that helped to interpret the diverse shapes of public spaces built in Porto during the period of time covered by this study. The making of these "clusters" was done by associating spaces (the object of our study) that showed greater similarities of spatial features (the variables that we listed above).The creation of 4 "clusters" made possible to confirm the set of dates of 1910, 1960 and 1990 as an important hinge in the spatial variation of the predominant types of spatial features. This allowed to verify that the set of clusters which presented the strongest formal identity was not, contrary to what might be though, comprised by the set that is made up of the cluster that share the more traditional compositional structure
Projeto de execução de um viaduto rodoviário construído tramo a tramo
Trabalho de Projeto para obtenção do grau de Mestre em Engenharia CivilO presente trabalho, intitulado “Projeto de Execução de um Viaduto Rodoviário Construído Tramo a Tramo”, constitui o Trabalho Final de Mestrado (TFM) que se engloba no Mestrado em Engenharia Civil – Ramo de Estruturas e tem em vista a obtenção do grau de Mestre. Sob a orientação do Doutor Luciano Jacinto, este trabalho teve como principal objetivo a aplicação das competências e conhecimentos adquiridos ao longo da vida académica e, simultaneamente, permitir um pré-contacto com a vida profissional.
Devendo cumprir todas as disposições regulamentares aplicáveis, o projeto deve também dar garantias de funcionalidade, viabilidade económica e durabilidade. As soluções adotadas utilizam métodos construtivos comuns, de forma a serem de fácil execução. Foram contemplados todos os condicionamentos inerentes à obra, nomeadamente a geotecnia do solo, a topografia do terreno, a base de traçado e a atividade sísmica prevista.
O dimensionamento estrutural foi feito com recurso a um software de cálculo automático (SAP2000), a partir do qual foi possível obter os esforços aplicados à estrutura. A construção do tabuleiro será feita Tramo a Tramo com Viga de Lançamento inferior. Todos os elementos são de betão armado, sendo que o tabuleiro é de betão préesforçado (pós-tensão).
O projeto é constituído por Peças Escritas e Peças Desenhadas. As Peças Escritas são compostas por memória descritiva e justificativa, cálculos justificativos e anexos de cálculo. Por sua vez, as Peças Desenhadas incluem desenhos de dimensionamento geral, desenhos de betão armado e pormenores.Abstract: The following work, entitled “Projeto de Execução de um Viaduto Rodoviário Construído Tramo a Tramo”, is the final work of my master’s degree in Civil Engineering – Structures’ branch. It was conducted under the orientation of Doutor Luciano Jacinto. The main goal of this work is to apply the competences and knowledges learnt during my academic path and, at the same time, to realise how professional life can be.
The regulatory provisions must be followed. The project should be functional, economic viable and durable. The adopted solutions use common constructive methods in order to be easily performed. All the constraints inherent to the work were took into account such as soil geotechnics, land topographic, road design and expected seismic activity.
The structural design was done using structural software (SAP2000), with which it was possible to obtain the sectional forces applied to the structure. The bridge deck construction is planned to be made span by span with a form traveller. All the elements are in reinforced concrete and the deck in prestressed concrete (post-tensioned).
The project has written and drawing parts. The written parts consist of descriptive and justificative memory, calculations and attachments. The drawing parts include general design drawings, reinforced concrete drawings and details.N/
A aplicação imediata dos direitos e garantias individuais : a busca de uma exegese emancipatória
Orientador: Professor Clèmerson Merlin ClèveDissertação (mestrado) - Universidade Federal do Paraná, Setor de Ciências Jurídicas, Curso de Pós-Graduação em DireitoInclui referências: p. 187-191Resumo: Procurou-se investigar os contornos do artigo 5º, § Io, da Carta Constitucional brasileira, porque as respostas obtidas na doutrina nacional, apesar de aparentemente ampliativas, revelam-se, no fundo, muito tímidas, uma vez que acabam por equiparar a aplicação imediata dos direitos fundamentais com a força normativa da Constituição. A partir dessa constatação, enveredou-se pelos caminhos da hermenêutica constitucional, como meio hábil para produção de novo resultado. Socorreu-se, também, do direito comparado, uma vez que a norma em exame foi colhida pelo legislador-constituinte em diplomas de outros países. Para a interpretação da Constituição, foram fixados alguns pontos relevantes, tais como divisão das normas constitucionais em regras e princípios, adoção da lei de colisão como mecanismo para solução de conflito aparente de normas, análise dos elementos de interpretação das normas e alguns métodos de interpretação. Sobre o último aspecto, reconhecendo a inexistência de um método único ou ideal, decidiu-se por acolher a teoria estrutural-concretizante de Friedrich Müller como método razoável de interpretação (concretização das normas). Também foram objeto de exame alguns princípios constitucionais que orientam a interpretação das normas constitucionais e das normas infraconstitucionais. Os princípios da interpretação conforme, da força normativa, da unidade, da proporcionalidade, da supremacia da Constituição, da presunção de constitucionalidade, dentre outros, servem de norte ao intérprete. Por fim, por esses caminhos se chegou à conclusão de que o art. 5.°, § Io, da Constituição Federal determina a aplicação imediata do caput e dos seus incisos (direitos e deveres individuais e coletivos), independentemente de interpositio legislatoris. Havendo lacuna legislativa, pode e deve ser completado o dispositivo constitucional, diante do caso concreto, pelo Poder Judiciário, por força de expressa disposição constitucional, independentemente de mandado de injunção, ao qual cabe garantir e efetivar os demais direitos fundamentais, sempre que houver omissão legislativa. Por fim, conclui-se que a integração da norma constitucional pelo Poder Judiciário não é ato de puro decisionismo, mas sim de concretização segundo os limites e termos da própria positivação normativa e dos demais princípios que orientam e regem essa tarefa
Colaboração premiada: perspectivas teóricas e práticas
- Divulgação dos SUMÁRIOS das obras recentemente incorporadas ao acervo da Biblioteca Ministro Oscar Saraiva do STJ. Em respeito à Lei de Direitos Autorais, não disponibilizamos a obra na íntegra.- Localização na estante: 343.911(81) C683p- Coordenado por: João Pedro Gebran Net
- …