303 research outputs found

    Extracting Negative Biomedical Relations from Literature

    Get PDF
    Tese de mestrado, Bioinformática e Biologia Computacional, Universidade de Lisboa, Faculdade de Ciências, 2021The prevalent source for obtaining scientific knowledge remains the scientific literature. Considering that the focus of biomedical research has shifted from individual entities to whole biological systems, understanding the relations between those entities has become paramount for generating knowledge. Relations between entities can either be positive, if there is evidence of an association, or negative, if there is no evidence of an association. To this date, most relation extraction systems focus on extracting positive relations, therefore few knowledge bases contain negative relations. Disregarding negative relations leads to the loss of valuable information that could be used to advance biomedical research. This work presents the Negative Phenotype¬Disease Relations (NPDR) dataset, which describes a subset of negative disease¬phenotype relations from a gold¬standard knowledge base made available by the Human Phenotype Ontology (HPO), and an automatic extraction system developed to automatically annotate the entities and extract the relations from the NPDR dataset. The NPDR dataset was constructed by analysing 177 medical documents and consists of 347 manually annotated at the document¬level relations, from which 222 were inferred from the HPO gold¬standard knowledge base, and 125 were new annotated relations. The main categories of the dataset are the characterization of the entities that participate in the negative relation; the characterization of the sentence that implies the negative relation; and the characterization of the location of the entities and sentences in the article. The automatic extraction system was created to evaluate the impact of the NPDR dataset on the Named-Entity Recognition (NER), Named¬Entity Linking (NEL) and Relation Extraction (RE) text mining tasks. The NER task showed an average of 20.77% more entities annotated when using disease and phenotype synonyms lexica generated from the NPDR dataset, when comparing the number of annotations produced by the OMIM and HPO lexica. The increase in annotated entities also resulted in 15.11% more relations extracted. The RE task performed poorly, with the highest accuracy being 8.84%.Texto livre continua a ser, aos dias de hoje, o principal meio de produção e partilha de conhecimento. Mais concretamente, a literatura biomédica é a principal fonte de conhecimento clínico e biológico para investigadores e clínicos. Porém, à medida que a informação contida em texto livre, correspondente ao número de publicações de artigos científicos aumenta a um ritmo exponencial, torna¬se difícil para os investigadores manterem¬se a par dos desenvolvimentos dos variados domínios científicos. Para além disso, extrair informação textual relevante é uma tarefa laboriosa e morosa para seres humanos, uma vez que a maioria da informação se encontra retida em texto livre não estruturado. Embora esta tarefa possa resultar em erros quando realizada por computadores, só poderá ser alcançada por meio de processos automáticos. Nesse sentido, métodos de prospeção de texto são uma alternativa interessante para reduzir o tempo despendido por especialistas na obtenção de informação relevante, para além de também cobrirem um largo volume de dados provenientes da literatura biomédica. Métodos de prospeção de texto incluem várias tarefas, tais como Named¬Entity Recognition (NER), Named¬Entity Linking (NEL) e Extração de Relações (ER). O NER identifica as entidades mencionadas no texto, o NEL mapeia as entidades reconhecidas a entradas numa base de dados, e o ER identifica relações entre as entidades reconhecidas. Visto que o foco da investigação biomédica mudou de entidades individuais, tais como genes, proteínas ou fármacos, para sistemas biológicos num todo, métodos de ER automáticos tornaram¬se fundamentais para entender relações entre entidades, tais como interações proteína¬proteína, interações fármaco¬fármaco, ou relações gene¬doença. Estas relações podem ser classificadas como negativas, caso haja evidência de não associação entre as entidades, ou positivas, caso haja evidência de associação entre as entidades. ER pode ser efetuada através de múltiplas abordagens que diferem nos métodos que empregam. Essas abordagens podem ser divididas nos seguintes grupos: coocorrência, que é a abordagem mais simples, uma vez que apenas visa a identificação das entidades na mesma frase; baseada em regras, que são definidas manualmente ou automaticamente; e aprendizagem automática, que utiliza corpora biomédica anotada para aplicar supervisão distante. Métodos de supervisão distante podem ainda ser categorizados em feature¬based e kernel¬based. Aos dias de hoje, a maioria dos sistemas de ER não diferenciam entre relações positivas, negativas ou falsas, porém podem¬se salientar algumas excepções, tais como os sistemas Excerbt e BeFree. O primeiro combina análises sintáticas e semânticas com abordagens de regras e aprendizagem automática, e foi adaptado de forma a detetar representações léxicas negadas de itens léxicos (tais como verbos, nomes ou adjetivos) para a anotação do Negatome, uma base de dados de proteínas que não interagem entre si. O segundo sistema utiliza uma combinação de métodos kernelbased, nomeadamente o Shallow Linguistic Kernel e Dependency Kernel. Para a anotação do corpus GAD usando este sistema, também foi treinado um classificador para distinguir entre relações positivas, negativas e falsas entre genes e doenças. Estima¬se que 13.5% das frases de resumos da literatura biomédica possuem expressões negadas. Desconsiderar expressões que poderão, potencialmente, conter relações negativas pode levar à perda de informação valiosa. Porém, a maioria das bases de dados de extrações de relações biomédicas visam apenas recolher relações positivas entre entidades biomédicas. No entanto, exemplos negativos e positivos são igualmente importantes para treinar, afinar e avaliar sistemas de extração de relações. Contudo, uma vez que os exemplos negativos não se encontram tão documentados como os positivos, poucas bases de dados os contêm. Para além disso, a maioria das bases de dados de extração de relações biomédicas não diferencia entre relações falsas, em que duas relações não estão relacionadas, e negativas, em que existe afirmação de não associação entre duas entidades. Adicionalmente, alguns datasets de padrão prata (compostos por dados gerados de forma automática) também contêm relações negativas falsas que são desconhecidas ou não estão documentadas. Logo, a exploração dessas relações é um bom ponto de partida para expandir as bases de dados de relações biomédicas e populá¬las com exemplos negativos corretos. Este trabalho produziu um dataset de anotações de fenótipos e doenças humanas e as suas relações negativas, o datasetNegative Phenotype¬Disease Relations(NPDR), e um módulo de anotação automática de entidades e relações. Para a realização da primeira etapa da criação do dataset NPDR, foi necessário re alizar a recolha dos identificadores PubMed (PMIDs) associados à relações negativas descritas numa base de dados padrão¬ouro, disponibilizada pela Human Phenotype Ontology (HPO). A partir desses PMIDs foi possível extrair artigos completos que foram subsequentemente analisados manualmente. Essa análise consistiu na descrição das entidades que participam na relação negativa, que compreende a análise dos fenótipos, doenças e os seus genes associados; a descrição das frases que sugerem a relação a negativa, que engloba a caracterização do token de negação usado na frase e a coocorrência das entidades; e a descrição da localização das entidades e frases no artigo. O dataset NPDR contem um total de 347 relações anotadas ao nível do documento, das quais 222 foram obtidas a partir da base de dados padrão¬ouro da HPO, e 125 são novas relações. De forma a avaliar o impacto do dataset NPDR na anotação e extração automática de entidades e as suas relações, a partir dos artigos reunidos para o desenvolvimento da criação do dataset, um pipeline que realiza NER, ER e extrai frases de negação foi implementado. NER reconhece fenótipos humanos e doenças, e ER extrai e classifica a relação entre as entidades. De modo a obter os artigos num formato que fosse legível por máquina, dois métodos foram empregues. O primeiro método consistiu em reunir os PMIDs a partir do dataset NPDR, para os converter nos seus identificadores PubMed Central (PMCIDs) correspondentes, de forma a extrair os artigos completos usando a API do PubMed. O segundo método consistiu na conversão dos artigos reunidos para a construção do dataset NPDR em formato PDF para formato de texto, utilizando a ferramenta de extração de texto PDFMiner. A etapa NER foi realizada usando a ferramenta Minimal Name¬Entity Recognizer (MER) para extrair menções de fenótipos, doenças e genes a partir dos artigos. Por fim, utilizando uma abordagem de supervisão distante, a base de dados padrão¬ouro da HPO foi usada para obter as relações obtidas pela ocorrência de fenótipos nas frases que sugerem a relação negativa, e a ocorrência de doenças e genes relacionados presentes no ar tigo. As relações foram marcadas como Conhecida se a relação estivesse descrita na base de dados, ou Desconhecida caso contrário. Para a anotação de fenótipos dois léxicos foram utilizados, um de termos oficiais da HPO, e outro de sinónimos obtidos a partir do dataset NPDR. Para a anotação de doenças e genes, o léxico principal foi obtido a partir da base de dados da Online Mendelian Inheritance in Man (OMIM), e os restantes léxicos foram construídos a partir de sinónimos e abreviaturas de doenças presentes no dataset NPDR. A adição dos léxicos provenientes do dataset NPDR permitiram anotar, em média, mais 20.77% de entidades, comparativamente à anotação de entidades com os léxicos da HPO e OMIM. Este maior número de entidades também se refletiu num aumento de 15.11% de relações anotadas. A tarefa de ER teve um desempenho fraco, sendo que a precisão de relações negativas detetadas foi de 8.84%

    Optimization of the LCF coefficients to be applied on RTM322-02/8 Mk250 engines in case of Manual Download

    Get PDF
    The main objective of this work is to, by the analysis and interpretation of the RTM322 engines performance and the usage spectrum of the Portuguese Airforce EH101 operations, be able to optimise the values that are used for the LCFs calculations, every time a manual download is needed. The process to optimise this values, will consist on the study of the engines performance behaviour, separately on flight and ground operations, and compare it with the consequences that manual downloads have on all engine life components. This optimisation will allow, not only to gain in a matter of engine components life limit but also to not pay for cycle consumption than the engines, in reality, are not consuming, if in the future is decided to go through the sign of an engine support contract, called by Turbomeca as Global support Package (GSP), which could imply some cycle related costs. This method will allow to obtain four risk levels for each LCF values, each one with it correspondent gain, from which Portuguese Air Force will be able to decide to apply considering their own airworthiness authority criteria.O principal objetivo deste trabalho consiste, através da análise e interpretação da performance dos motores RTM322 e do espectro de missões realizadas pelas aeronaves EH101 da Força Aérea Portuguesa, em ser capaz de otimizar os coeficientes que são usados para o cálculo de cada LCF (Low Cycle Fatigue), sempre que seja necessário um download manual. O processo de otimização destes valores consistirá, no estudo do comportamento do desempenho dos motores, para operações em voo e no solo separadamente, e comparação com as consequências que os downloads manuais têm em todos os componentes dos motores controlados por limite de vida. Através desta otimização será possível, para além do ganho em matéria de limite de vida dos componentes do motor, mas também para que o valor a pagar por cada ciclo esteja de acordo com os reais valores que são consumidos pelo motor, caso no futuro se decida pela assinatura de um contrato de suporte de motores com a Turbomeca, Global Support Package (GSP), o que implicará custos relacionados com os ciclos do motor. Este método vai permitir a obtenção de quatro níveis de risco para cada valor de LCF, cada um com o seu correspondente ganho, através do qual a Força Aérea Portuguesa poderá decidir aplicar tendo em consideração os seus próprios critérios de aeronavegabilidade

    On and off air: an ethnographic exploration of minority radio in Portugal

    Get PDF
    Taking a Media Anthropology’s approach to dynamics of mediated selfrepresentation in migratory contexts, this thesis starts by mapping radio initiatives produced by, for and/or with migrants in Portugal. To further explore dynamics of support of initial settlement in the country, community-making, cultural reproduction, and transnational connectivity - found both in the mapping stage and the minority media literature (e.g. Kosnick, 2007; Rigoni & Saitta, 2012; Silverstone & Georgiou, 2005) - a case study was selected: the station awarded with the first bilingual license in Portugal. The station in question caters largely to the British population presenting themselves as “expats” and residing in the Algarve. The ethnographic strategy to research it consisted of “following the radio” (Marcus, 1995) beyond the station and into the events and establishments it announces on air, so as to relate production and consumption realms. The leading research question asks how does locally produced radio play into “expats” processes of management of cultural identity – and what are the specificities of its role? Drawing on conceptualizations of lifestyle migration (Benson & O’Reilly, 2009), production of locality (Appadurai 1996) and the public sphere (Butsch, 2007; Calhoun & et al, 1992; Dahlgren, 2006), this thesis contributes to valuing radio as a productive gateway to research migrants’ construction of belonging, to inscribe a counterpoint in the field of minority media, and to debate conceptualizations of migratory categories and flows. Specifically, this thesis argues that the station fulfills similar roles to other minority radio initiatives but in ways that are specific to the population being catered to. Namely, unlike other minority stations, radio facilitates the process of transitioning between categories along on a continuum linking tourists and migrants. It also reflects and participates in strategies of reterritorialization that rest on functional and partial modes of incorporation. While contributing to sustain a translocality (Appadurai, 1996) it indexes and fosters a stance of connection that is symbolically and materially connected to the UK and other “neighborhoods” but is, simultaneously, oriented to engaging with the Algarve as “home”. Yet, besides reifying a British cultural identity, radio’s oral, repetitive and ephemeral discourse particularly trivializes the reproduction of an ambivalent stance of connection with place that is shared by other “expats”. This dynamic is related to migratory projects driven by social imaginaries fostered by international media that stimulate the search for idealized ways of living, which the radio associates with the Algarve. While recurrently localizing and validating the narrative projecting an idealized “good life”, radio amplifies dynamics among migrants that seem to reaffirm the migratory move as a good choice

    Automated Organisation and Quality Analysis of User-Generated Audio Content

    Get PDF
    The abundance and ubiquity of user-generated content has opened horizons when it comes to the organization and analysis of vast and heterogeneous data, especially with the increase of quality of the recording devices witnessed nowadays. Most of the activity experienced in social networks today contains audio excerpts, either by belonging to a certain video file or an actual audio clip, therefore the analysis of the audio features present in such content is of extreme importance in order to better understand it. Such understanding would lead to a better handling of ubiquity data and would ultimately provide a better experience to the end-user. The work discussed in this thesis revolves around using audio features to organize and retrieve meaningful insights from user-generated content crawled from social media websites, more particularly data related to concert clips. From its redundancy and abundance (i.e., for the existence of several recordings of a given event), recordings from musical shows represent a very good use case to derive useful and practical conclusions around the scope of this thesis. Mechanisms that provide a better understanding of such content are presented and already partly implemented, such as audio clustering based on the existence of overlapping audio segments between different audio clips, audio segmentation that synchronizes and relates the different cluster’s clips in time, and techniques to infer audio quality of such clips. All the proposed methods use information retrieved from an audio fingerprinting algorithm, used for the synchronization of the different audio files, with methods for filtering possible false positives of the algorithm being also presented. For the evaluation and validation of the proposed methods, we used one dataset made of several audio recordings regarding different concert clips manually crawled from YouTube

    Heavy-baryon spectroscopy in a quark-diquark approach

    Get PDF
    Tese de Mestrado, Física (Física Nuclear e Partículas), 2021, Universidade de Lisboa, Faculdade de CiênciasThe objective of this project is to calculate the heavy baryon spectrum for states with quantum numbers J P = 1/2 + and J P = 3+/2, using functional methods within a relativistic quantum field theory, namely Quantum Chromodynamics (QCD). To this end, we reduce the three-quark Faddeev equations to two-body equations via the quark-diquark approach, where the baryons are treated as bound states of quarks and effective diquarks. This approach has been successfully employed to light and strange baryons. The resulting Bethe Salpeter equation (BSE) for the quark-diquark Bethe Salpeter amplitude (BSA) amounts to a quark ping-pong exchange for the interaction kernel. The quark and diquark ingredients are determined using the Alkofer-Watson-Weigel interaction in a rainbow-ladder truncation. The BSE is implemented numerically by converting it to an eigenvalue problem and solving for the Dirac dressing functions of the quarkdiquark BSA, which we evaluate using a Chebyshev expansion. The matrix of the eigenvalue problem is built with these considerations, along with the color and flavor structure of the BSE. This structure is represented by matrices that contain the color trace and flavor factors of the BSE for different diquark transitions. We compute the eigenvalues for the ground and excited states on a mass grid, where the physical states correspond to the condition that its corresponding eigenvalue equals one. Results show an overall agreement of the ground state masses with experiment, where we set the model scale to the average ratio of ground state masses relative to experimental masses. The excited states show a higher overestimation than the ground states. Single charmed baryons ground state masses agree with lattice QCD and theoretical calculations using potential models of QCD. The triple charmed baryon also agrees with lattice QCD results. Double charmed baryons still need to be calculated.Cromodinâmica quântica (QCD) é uma teoria quântica de campo relativista que descreve a interação forte, uma das quatro forças fundamentais da Natureza. As suas partículas fundamentais são os quarks e gluões, que por sua vez formam os hadrões. Estes dividem-se nas categorias de mesões e bariões, consoante o número de quarks e anti-quarks de valência que os constituem. Dependendo dos sabores dos quarks, os bariões e mesões terão massas diferentes. Os hadrões mais leves são formados pelos sabores up e down, seguidos dos hadrões strange (onde se adiciona o sabor strange) e dos hadrões pesados (onde se adiciona o sabor charm e/ou bottom). O sabor mais pesado, top, não consegue formar hadrões devido ao seu tempo de vida muito pequeno. O objetivo deste projeto é calcular o espetro dos bariões, usando métodos funcionais para a resolução das equações de QCD. Mais concretamente, restringimo-nos ao estudo dos bariões leves, strange e pesados com sabor charm. Usamos o modelo quark-diquark que trata os bariões como estados ligados de um quark e um diquark efetivo, o que permite reduzir o problema inicial de três corpos a um problema efetivo de dois. As equações integrais acopladas de três corpos, denominadas equações de Faddeev, são de muita difícil resolução e, por isso, uma simplificação para um sistema de dois corpos é desejável. Este modelo já foi aplicado com sucesso aos bariões leves e strange, sendo o nosso intuito estender o modelo aos bariões pesados. A importância deste trabalho centra-se na existência de poucos resultados experimentais para bariões pesados, bem como nas poucas previsões teóricas das suas massas (e outras características, como as suas paridades). Deteções experimentais de bariões pesados requerem maiores energias de produção para os aceleradores atuais. Cálculos computacionais utilizando Lattice QCD são a maior fonte de informação atual de bariões pesados. Métodos teóricos de resolução de equações de Faddeev são difíceis de desenvolver, devido à complexidade da interação forte entre os quarks. Os bariões existem no regime de baixas energias de QCD, onde métodos perturbativos não são possíveis de se utilizar, devido ao valor elevado da constante de acoplamento da interação forte. Como tal, uma dada solução para as equações de Faddeev tem de ser derivada com métodos não perturbativos. As soluções até hoje encontradas dependem de aproximações, como é o caso do modelo quark-diquark. Para além da grande mais valia decorrente da simplificação introduzida pelo modelo quark diquark, existem, de facto, argumentos que permitem admitir como muito provável a existência de diquarks dentro dos bariões. O primeiro argumento envolve o grau de liberdade cor, que é exclusivo dos quarks e gluões. Os quarks com cor interagem entre si através da troca de gluões, que agem como mediadores que transportam igualmente cor, e deste modo formam estados ligados sem cor, sendo estes os hadrões. Partículas com cor não existem livres na Natureza, fenómeno conhecido como confinamento e ainda mal compreendido. Acontece que a interação entre três quarks é dominada pela interação entre pares de quarks, uma vez que a principal contribuição para a interação irredutível de três quarks envolve um vértice de três gluões, cujo traço de cor é nulo. O segundo argumento centra-se na interação atrativa entre dois quarks dentro dos bariões. Para um sistema de três quarks formarem um singleto de cor, um par de quarks tem que se encontrar num estado anti-tripleto de cor, no qual a interação é atrativa. Assim, dentro de um barião, um par de quarks deve encontrar-se necessariamente neste estado anti-tripleto de cor para que, ao acoplar com a cor do terceiro quark, resulte um estado singleto de cor. E, precisamente, a interação entre dois quarks é atrativa num estado anti-tripleto Assim, e resumindo os dois argumentos, dentro de um barião a interação entre pares de quarks é dominante e atrativa, do que decorre a possibilidade da formação de estados ligados de dois quarks, ou seja de diquarks. Após estas considerações, construímos um ansatz para a amplitude de Bethe-Salpeter (BSA) do barião como o produto da BSA de um diquark pelo respetivo propagador e a BSA quarkdiquark. O resultado é uma equação Bethe Salpeter (BSE) para a BSA quark-diquark, que tem uma estrutura de Dirac, sabor e cor, bem como uma dependência em dois momentos lineares: o momento relativo entre o quark e diquark e o momento total do barião. O referencial utilizado para a dinâmica do nosso sistema é o centro de massa do barião e a métrica utilizada é a Euclidiana. A resolução da BSE para a BSA quark-diquark começa por transformá-la numa equação aos valores próprios de uma matriz que depende da massa do barião, precisamente a quantidade que se pretende calcular. A resolução desta equação, necessariamente numérica, pressupões assim um conjunto de valores tentativos para a massa do barião (rede de massas). Para cada valor tentativo introduzido como dado de entrada, obtém-se os valores próprios da matriz. As massas que produzem valores próprios iguais a um são as massas físicas do barião, sendo que estes valores podem requerer uma interpolação entre os pontos da rede de massas, ou mesmo uma extrapolação. Em princípio, e para cada barião, várias massas podem ser solução, cada uma produzindo um valor próprio igual a um, sendo a mais baixa a massa do estado fundamental, a segunda do primeiro estado excitado, etc. Para cada massa física, o correspondente vetor próprio é a BSA quark-diquark. A matriz em questão é parte integrante da estrutura da equação BSE e é avaliada em três espaços: Dirac, sabor e cor. A análise dos quarks, diquarks e bariões utilizando teoria de grupos permite-nos obter os estados de sabor e cor necessários para construir a matriz. A expansão da BSA quark-diquark numa base de tensores de Dirac torna as funções "dressing" de Dirac, que multiplicam os tensores, as incógnitas do problema. Por sua vez, utilizamos os polinómios de Chebyshev para expandir estas funções e um conjunto discreto de momentos lineares para calcular o momento relativo do quark e diquark. As funções para o propagador dos quarks, o propagador dos diquarks e a BSA dos diquarks são dadas como expressões de entrada, juntamente com os valores das massas dos quarks e diquarks. Estas expressões e dados de entrada são calculados utilizando a interação Alkofer-Watson-Weigel com um truncamento de "rainbow-ladder" (AWW), a qual necessita de uma constante arbitrária, normalmente ajustada à constante de decaimento do pião. Finalmente, a matriz fica numericamente definida após a introdução de um valor para a massa do barião, envolvida nas expressões dos momentos lineares. Neste trabalho, restringimo-nos ao cálculo de bariões com paridade positiva e spins 1/2 e 3/2. Os resultados obtidos para as massas sobrestimam em geral os dados experimentais e as estimativas de lattice QCD. Dada a liberdade na escolha do paramêtro da interação AWW, inicialmente ajustado à massa da constante de decaimento do pião, procedemos a um rescalamento dividindo os nossos valores por um fator de escala, definido como a média das razões das massas calculadas sobre as massas experimentais para os estados fundamentais. Após o rescalamento, as massas dos estados fundamentais apresentam um bom acordo com os dados experimentais em 70% dos casos. Relativamente aos estados excitados, a sobrestimação é mais acentuada. Também foram calculadas as massas para alguns estados do barião pesado com três quarks charm. Até à data, não existem dados experimentais para este barião, contudo, os nossos cálculos do seu estado fundamental estão de acordo com os obtidos em lattice QCD. A deteção deste barião seria vantajosa para o nosso estudo. O cálculo para bariões pesados com dois quarks charm ainda tem de ser efetuado. Estudámos a contribuição dos polinómios de Chebyshev para a BSA quark-diquark, observando que a expansão convergiu para o grau cinco do polinómio de Chebyshev. Por fim, estudámos também a contribuição das componentes de Dirac para a BSA quark-diquark, em duas vertentes: por um lado, observámos quanto é que cada componente associada a cada tensor da base de Dirac contribui para a BSA; por outro lado, organizámos as componentes segundo os seus tipos de ondas parciais e observámos quais os tipos de onda que dominam os estados de um barião. Estas duas análises foram feitas para dois exemplos de bariões, o nucleão e o barião pesado com três quarks charm, sendo análoga para os restantes bariões do nosso espetro. É interessante realçar que alguns estados dos bariões, especialmente nos excitados, a contribuição da onda P é bastante significativa, contrariamente ao que acontece em cálculos não relativistas, onde estas contribuições são suprimidas por consideração da conservação da paridade. Num contexto relativista, os graus de liberdade de anti-partículas permitem componentes proibidas em formalismos não relativistas

    How significat is the decline in fair value for the available-for-sale equity securities? A model to estimate the impairment under IAS 39

    Get PDF
    Mestrado em Contabilidade, Fiscalidade e Finanças EmpresariaisA IAS 39 - Instrumentos Financeiros: Reconhecimento e Mensuração refere como evidência objectiva de imparidade um declínio significativo ou prolongado no justo valor do ativo. O que significa um declínio significativo não está definido no IAS 39. Este artigo mostra que 202 instituições financeiras europeias cotadas utilizam julgamentos diferentes sobre a expressão de declínio significativo no justo valor nas demonstrações financeiras de 2010. Apesar das instituições financeiras aplicarem o mesmo princípio contabilístico, as demonstrações financeiras não podem ser inteiramente comparáveis, contrariando um dos objectivos do Regulamento (CE) n º 1606/2002 do Parlamento Europeu. Neste trabalho, propomos uma orientação específica com base nos fundamentos teóricos do modelo de Black-Scholes, a fim de superar parcialmente a lacuna na IAS 39 de não fornecer critérios mais específicos para a classificação de investimentos em títulos classificados como disponíveis para venda. O modelo proposto permite uma aplicação coerente da IAS 39.61 e restringe parcialmente o julgamento dos gestores na aplicação do conceito de declínio significativo para eventos específicos. Levando em consideração as simulações, a aplicação do modelo produziu resultados diferentes em comparação com as práticas adoptadas pelas instituições financeiras. Negligenciar a variável volatilidade das acções parece-nos que é uma importante limitação do modelo empírico que está a ser utilizado por muitas empresas na análise do que se entende por declínio significativo. Assim, bancos e companhias de seguros poderiam beneficiar da incorporação deste modelo na avaliação da imparidade.IAS 39 - Financial instruments: Recognition and Measurement refers as objective evidence of impairment a significant or prolonged decline in fair value of the asset. What is meant by a significant decline is not defined in IAS 39. This paper shows that 202 European financial institutions listed make different judgments on the expression of significant decline in fair value in financial statements of 2010. Despite financial institutions apply the same accounting standard, financial statements cannot be entirely comparable, contradicting one of the aims of the Regulation (EC) No 1606/2002. In this paper we propose a specific guidance based on the theoretical foundations of the Black-Scholes model, in order to partially overcome the gap in IAS 39 not to provide more specific criteria for classifying investment in AFS equity securities as being impaired or not. The proposed model allows a consistent application of IAS 39.61 and restricts in part the discretion of managers in implementing the concept of significant decline to specific events. Taking into consideration the simulations, the application of the model produced different results compared to the practices adopted by financial institutions. Neglecting the variable volatility of shares seems to us that this is an important limitation to the empirical model that is being used by many companies in the analysis of what is meant by significant decline. Therefore, banks and insurance companies could benefit by incorporating this model in their assessment of impairment

    Learning environments and pedagogical model of an engineering design degree program

    Get PDF
    This paper presents the theoretical background that supports the use of project-based learning (PBL) in engineering education and relates it to the pedagogical framework implemented in the new first cycle degree program Technology and Product Design offered by the University of Aveiro. The program structure is described focusing on the learning environments used in each course of this interdisciplinary program. The purpose of this paper is to characterize this new curriculum in order to contribute to the discussion about engineering education pedagogy with a complete program implementation experiment. Issues like courses architecture and scope, assessment, student/teacher ratios and group sizes are addressed. Furthermore, students’ perceptions of the learning environments is investigated and compared with their learning results. Ultimately the implications of a student-centred learning curriculum design, based on a PBL strategy, are discussed

    The Online Error Control and Handling of the ALICE Pixel Detector

    Get PDF
    The SPD forms the two innermost layers of the ALICE Inner Tracking System (ITS) [1]. The basic building block of the SPD is the half-stave, the whole SPD barrel being made of 120 half-staves with a total number of 9.8 x 106 readout channels. Each half-stave is connected via three optical links to the off-detector electronics made of FPGA based VME readout cards (Routers). The Routers and their mezzanine cards provide the zero-suppression, data formatting and multiplexing and the link to the DAQ [2] system. This paper presents the hardware and software tools developed to detect and process any errors, at the level of the Router, originating from either front-end electronics, trigger sequences, DAQ or the off-detector electronics. The on-line error handling system automatically transmits this information to the Detector Control System and to the dedicated ORACLE database for further analysis
    corecore