2,490 research outputs found
Investment, dynamic consistency and the sectoral regulator's obective
We explore the separation of powers between the legislative and the executive branch of government as a way of overcoming the dynamic consistency problem of regulatory policy towards investment. We model the industry as a regulated duopoly. The incumbent is a vertically integrated firm that owns a wholesaler and a retailer. The entrant owns a retailer. Either retailer needs access to the input produced by the wholesaler to operate. The incumbent can make an investment that improves the quality of the input produced by the wholesaler. The regulator sets the access price and is unable to commit. The legislator sets the regulator's objective function and is able to commit. We derive general conditions under which having the legislator distort the regulator's objective function away from social welfare allows increasing the range of parameter values for which it is possible to induce socially desirable investment. --Investment,Dynamic Consistency,Regulator's Objective
Can Vertical Separation Reduce Non-Price Discrimination and Increase Welfare?
We investigate if vertical separation reduces non-price discrimination and increases welfare. Consider an industry consisting of a vertically integrated firm and an independent retailer, which requires access to the vertically integrated firm's wholesaler services. The wholesaler can degrade the quality of input it supplies to either of the retailers. Discrimination occurs if one of the retailers is supplied an input of lower quality than its rival. We show that separation of the vertically integrated firm reduces discrimination against the independent retailer, although it does not guarantee no-discrimination. Furthermore, with separation, the wholesaler may discriminate against the vertically integrated firm's retailer. Vertical separation impacts social welfare through two e¤ects. First, through the double-marginalization effect, which is negative. Second, through the quality degradation effect, which can be positive or negative. Hence, the net welfare impact of vertical separation is negative or potentially ambiguous.Vertigal integration; Vertical separation; Non-price discrimination.
Transportation in Social Media: an automatic classifier for travel-related tweets
In the last years researchers in the field of intelligent transportation
systems have made several efforts to extract valuable information from social
media streams. However, collecting domain-specific data from any social media
is a challenging task demanding appropriate and robust classification methods.
In this work we focus on exploring geo-located tweets in order to create a
travel-related tweet classifier using a combination of bag-of-words and word
embeddings. The resulting classification makes possible the identification of
interesting spatio-temporal relations in S\~ao Paulo and Rio de Janeiro
Bundling incentives in markets with product complementarities: The case of triple-play
We analyze firms' incentives to bundle and tie in the telecommunications industry. As a first step, we develop a discrete-choice demand model where firms sell products that may combine several services in bundles, and consumers choose assortments of different types of products available from various vendors. Our approach extends standard discrete-choice demand models of differentiated product to allow for both flexible substitution patterns and to map demand for each choice alternative onto the demand for each service or bundle that a firm may sell. We exploit these properties to examine bundling behavior when firms choose: (i) prices, and (ii) which products to sell. Using consumer-level data and survey data from the Portuguese telecommunications industry, we estimate our demand model and identify firm incentives to bundle and tie in this industry. We use the model to perform several policy related conterfactuals and evaluate their impact on prices and product provision
Previsão da vulnerabilidade financeira no setor sem fins lucrativos
Dissertação de Mestrado em Ciências Económicas e EmpresariaisO setor que comporta as OSFL desempenha atualmente um papel essencial nas sociedades modernas, quer a nível social, ambiental, cultural e até mesmo a nível económico. Deste modo, compete a todos os agentes a tarefa de evitar cenários que enfraqueçam as condições de atuação destas organizações. A possível previsão de acontecimentos desta natureza ganha aqui uma importância significativa. Apesar da temática de previsão de falências ter sido amplamente abordada no setor com fins lucrativos, o mesmo não aconteceu no setor sem fins lucrativos. Este estudo pretende determinar quais as variáveis que ajudam a prever dificuldades financeiras que estas organizações possam ter. Verificou-se que, para o total da amostra final, todas as variáveis do modelo de Altman (1968) possuem significância, no modelo de Ohlson (1980) apenas uma não possui significância e no modelo de Tuckman (1991), dos quatro indicadores, dois não possuíram significância. No entanto, das variáveis com significância, algumas mostraram sinal contrário ao esperado, ou seja, alguns indicadores que se esperava afetarem a situação financeira das OSFL, nesta amostra, revelaram o contrário. Relativamente aos subsetores, verificaram-se diferenças significativas relativamente ao modelo para a amostra total final. Verificou-se que variáveis que não se mostraram significativas para a amostra final, foram-no para determinados subsetores. Por outro lado, variáveis que foram significativas na amostra final não o foram em alguns subsetores.ABSTRACT: The sector of non-profitable organizations currently plays an essential role in modern societies, both socially, environmentally, culturally and even economically. Thus, it is up to all the agents the task of avoiding scenarios that weaken the acting conditions of those organizations. The possible prediction of events of such nature acquires here a significant importance. Although the subject of bankruptcy predictions has been broadly addressed in the sector for profit, it hasn’t been the same in the non-profitable sector. This study intends to determine which the variables that help predicting financial difficulties that those organizations may have. It has been verified that, for the total final sample, all the variables from the Altman (1968) model possess significance, in the Ohlson (1980) model only one has no significance and in the Tuckman and Chang (1991) model, from the four indicators, two of them have no significance. However, from the variables with significance, some have shown contrary sign to what was expected, meaning, some of the indicators expected to affect the financial situation of the NPO, in this sample, revealed the opposite. Regarding the subsectors, significant differences have been verified in comparison to the model for the total final sample. It has been verified that variables that didn’t show as significant for the final sample, were significant for certain subsectors. On the other hand, some of the variables that were significant in the final sample didn’t show as such in some subsectors
Chromatographic purification of virus particles for advanced therapy medicinal products
The increasing number of cancer diagnoses in the last decades is associated with behavioral risks, in addition with those genetically originated. The fight against the disease usually relapses in not selective mechanisms like chemotherapy or radiotherapy, that induce the organism in deep alterations and side effects. One of the alternative strategies relies on the use of advanced therapies medicinal products suchlike viruses, to carry out the treatment in each cell taking advantage of their invading abilities. The cost of producing this oncolytic virus directly influences process engineering, and thus, numerous efforts have been made to improve each purification step. The development of the downstream process begins with the clarification of the viruses harvested from the bioreactor with two depth-filtration steps. This allows a gradual removal of larger impurities like cell debris with a complete virus recovery. Afterwards, a tangential flow filtration step enables volume reduction. After concentration, the retentate is subjected to diafiltration which allows not only the permeation of impurities but also the formulation of the concentrated product for the next processing step. The following step in the purification train is anion exchange chromatography. The chromatographic media used was selected after successive screening tests with a library of resins and membranes. The conditions used reflect the study carried out, in the sense that the load employed corresponds to the DBC10% obtained of 6.2 x 1011 (TP/ml) particles per millilitre and the elution of the viruses is preceded by a low salt concentration elution (200 mM) in order to remove impurities. The yield obtained is 85%. The purification process ends with polishing and sterile filtration to achieve the specified conditions, through a size-exclusion chromatography and membrane filters, respectively, obtaining a total yield of 53%. The study also opens perspectives on innovation and future development with the performance of multi-column chromatography assays and automated filtration tests, both in specialized equipment
A cidade e o rio: origem e evolução da frente ribeirinha de Lisboa
Em Lisboa, ao longo dos séculos, o homem foi conquistando as águas do Tejo. Hoje, após os diversos
aterros, a frente ribeirinha da cidade é uma consolidada faixa de terreno, rematada por muros que, contra a
«ondulação» do Tejo, definem uma expandida área que acolhe uma intensa actividade portuária. Foi nesta faixa
junto do rio que se desenrolou parte importante da história de Lisboa, desde as ocupações romana e
muçulmana, e também muito particularmente aquando do período dos Descobrimentos, da reconstrução
pombalina pós-terramoto e do surto industrial do século XIX. Alguns destes momentos históricos encontram-se
reflectidos nas inúmeras plantas, cartas e mapas disponíveis neste estudo, desde a Planta da Cidade de Lisboa :
1650, de João Nunes Tinoco, até ao Plano de Melhoramentos do Porto de Lisboa, de 1946. É com base nessas
plantas, mas também em cartas manuscritas, relatos de época, gravuras e fotografias antigas – documentos em
grande parte inéditos –, que este trabalho de investigação propõe cartografar este território, realizando
desenhos originais que possibilitam um novo olhar sobre o seu processo de crescimento e consolidação.
Assim, este estudo concilia todos estes elementos, constituindo uma análise completa que se debruça
sobre a evolução da frente ribeirinha de Lisboa e que permite descobrir inúmeros aspectos até aqui
desconhecidos, ajudando a responder à pergunta que hoje se coloca: perante o cenário que o porto actual
atravessa, como melhor poderá Lisboa recuperar a relação com o rio?; THE CITY AND THE RIVER: ORIGIN AND EVOLUTION OF LISBON'S RIVERFRONT
ABSTRACT:
In Lisbon, over the centuries, man was conquering the waters of the Tagus. Today, after the various
landfills, the city's riverfront is a consolidated strip of land, finished by walls that, against the "ripple" of the
Tagus, define an expanded area that hosts an intense port activity. It was in this band along the river that
unfolded important part of the history of Lisbon, from the Roman and Muslim occupations, and also very
particularly during the period of the Discoveries, the post-earthquake reconstruction, and the industrial boom of
the nineteenth century. Some of these historical moments are reflected in many plans, charts and maps
available in this study, since the plan designated Planta da Cidade de Lisboa : 1650, made by João Nunes Tinoco,
to the plan called Plano de Melhoramentos do Porto de Lisboa, drawn in the year of 1946. Based on these plans,
but also in handwritten letters, time reports, antique prints and photographs – documents that are mostly
unpublished – this research work proposes map this territory, performing original drawings that provide a new
look at their growth process and consolidation.
Thereby, this study combines all these elements, providing a complete analysis which focuses on the
evolution of the Lisbon riverfront and that allows you to discover many aspects unknown until now, helping to
answer the question that now arises: according to the present scenario that the harbour is going through, how
can Lisbon recover the relationship with the river
Applying TSR techniques over large test suites
Tese de mestrado em Engenharia Informática (Engenharia de Software) Universidade de Lisboa, Faculdade de Ciências, 2020Com o aumento da necessidade de garantir a qualidade do software criado atualmente, tem sido cada vez mais indispensável dedicar parte do tempo de desenvolvimento (por vezes mais de metade) a testar o código desenvolvido. Apesar da elevada importˆancia desta tarefa, é uma atividade que algumas vezes é ignorada ou negligenciada, devido a ser um trabalho por vezes monótono e cansativo. Esta é uma área bastante explorada por investigadores que tentam, de diversas maneiras, automatizar algum deste processo e, também, reduzir o tempo e recursos necessários para efetuar esta tarefa. Nomeadamente, considera-se a proposta de técnicas de redução de testes e ferramentas que as implementem, com o objetivo de agilizar esta tarefa, eliminando casos de testes desnecessários sem comprometer a cobertura dada pelo conjunto de testes original, bem como técnicas de prioritização de testes, que reorganizam conjuntos de testes com o objetivo de executar os mais relevantes (de acordo com um determinado critério) primeiramente, aumentando assim a sua capacidade de atingir algum objetivo. Neste contexto, destacam-se os testes de regressão, que permitem testar alterações ao software, verificando se as funcionalidades antigas continuam a funcionar com as alterações feitas. Salientam-se estes testes na medida em que são considerados o tipo de testes de software mais cansativo, comportando elevados custos e não evidenciando ganho claros a curto-prazo e, consequentemente, beneficiando particularmente das técnicas descritas anteriormente. Com o surgimento destas técnicas, é inevitável surgirem algumas comparações, tentando escolher as que melhor se adequam a diferentes necessidades. O objetivo deste trabalho consiste em dar resposta a duas questões, particularmente interessantes dado o estado de arte atual: “Qual a melhor ferramenta de redução de testes?”(de acordo com parâmetros pré-definidos) e “Se uma ferramenta de prioritização de testes for modificada, pode substituir de forma eficiente uma ferramenta de redução de testes?”. Para realizar a presente dissertação, foi estudado um grupo de ferramentas de redução de testes, de forma a ter uma melhor noção do estado de arte atual. Apesar de inicialmente terem sido encontradas onze ferramentas que poderiam vir a ser usadas com este propósito, os testes realizados, assim como as propriedades de algumas ferramentas, restringiram a utilização da maioria delas, Assim, foram consideradas três ferramentas: Evo- Suite, Testler e Randoop. De forma a tornar o objetivo deste trabalho mais enriquecido, foi também estudada uma ferramenta de prioritização de testes, Kanonizo. Para respondermos às questões apresentadas, foi desenvolvida uma ferramenta que integra o conjunto de ferramentas de redução de testes seleccionado e que, dado um conjunto de projetos open-source, aplica as técnicas destas ferramentas a cada um destes, efetuando assim a redução dos seus testes. Seguidamente, a ferramenta desenvolvida utiliza a ferramenta de prioritização Kanonizo para obter uma lista dos vários testes, ordenados consoante a sua importância; finalmente, são eliminados os testes menos importantes, segundo um valor pré-definido. De seguida, utilizando uma ferramenta de análise de código, neste caso a OpenClover, são recolhidas métricas referentes a cada conjunto de testes, para os projetos originais e igualmente para cada um dos reduzidos. Estas são depois utilizadas para avaliar a eficácia da redução para cada ferramenta. A eficácia da redução pode ser influenciada por diversos fatores. No caso da nossa ferramenta, foram considerados o tamanho do ficheiro de testes, o número de testes, o tempo de execução dos mesmos, a percentagem de cobertura total do código e a percentagem de cobertura de “ramos”no código. Por este motivo, decidiu-se adotar uma metodologia de Multi-Criteria Decision-Making, mais especificamente a Analytic Hierarchy Process que, segundo diversos critérios e valores de importância definidos entre eles, deduz a prioridade que cada critério deve ter ao tentar atingir um objetivo comum, isto é, que peso tem cada critério no cálculo da pontuação de cada ferramenta. Após a finalização e aperfeiçoamento da ferramenta, foram realizadas experiências que nos permitiram analisar a eficácia de cada ferramenta. Dada a facilidade de configuração da ferramenta, foram efetuadas diversas análises às reduções efetuadas pelas ferramentas, alterando a importância de cada critério considerado, visando verificar de que maneira estes influenciavam a escolha da melhor ferramenta. As pontuações de cada ferramenta de redução foram calculadas para seis cenários diferentes: um que replicasse as necessidades do ”mundo real”, dando portanto mais importância ao tempo de execução dos testes e cobertura atingida do que à dimensão dos testes em si; e um focando toda a importância para cada um dos sub-critérios definidos. Cada um destes cenários foi feito duas vezes - uma com os testes gerados pelo EvoSuite, e outra com os testes já existentes - com o objetivo de averiguar se as ferramentas de redução teriam um comportamento semelhante na presença de testes gerados automaticamente ou por humanos. Ignorando a ferramenta de prioritização, e tendo em conta o facto de que a EvoSuite só poderia ser usada com testes gerados por si mesma, a ferramenta de redução que teve uma melhor pontuação foi a Testler, o que responde à nossa primeira questão do estudo. Quanto à segunda questão, apesar dos resultados terem mostrado indubitavelmente que a Kanonizo obteve pontuações melhores que as outras ferramentas analisadas, esta é uma questão susceptível à influência de diversos fatores. No contexto das experiências efetuadas, podemos dizer que a Kanonizo pode substituir qualquer uma das ferramentas de redução e, confiando nas pontuações, fazer um trabalho mais eficaz. No entanto, num contexto mais abrangente, torna-se difícil responder a esta questão sem considerar um número mais elevado de ferramentas de redução de testes. Para mais, dependendo do algoritmo utilizado na ferramenta de prioritização, a redução feita por nós pode não ter qualquer critério (no caso de algoritmos random), o que faria essencialmente com que estivéssemos a apagar métodos aleatoriamente, podendo causar grandes perdas em termos de cobertura de código. Quando falamos de “substituir”uma ferramenta de redução por uma de prioritização com uma abordagem semelhante à nossa, é melhor utilizar algoritmos de prioritização que visem algum critério, como dar prioridade a testes que cubram, por exemplo, linhas de código ainda não cobertas, por exemplo, aumentando assim a probabilidade dos testes menos importantes serem redundantes e, consequentemente, apagados. Esta ferramenta foi desenvolvida de modo a que fosse facilmente modificável e expansível, oferecendo assim uma maneira fácil para integrar novas ferramentas de redução de testes, permitindo realizar novas comparações à medida que estas ferramentas forem surgindo. Para além disso, destaca-se também a simplicidade da configuração dos critérios a ter em conta quando calculamos a pontuação de cada ferramenta, e o valor que estes têm em comparação com os outros, possibilitando facilmente o cálculo de pontuações tendo em conta diversos cenários.Ao longo deste trabalho, o maior problema encontrado foi o estudo das ferramentas de redução. Para além de algumas não serem open-source, muitas das que eram não iam de encontro aos nossos requisitos para integração na ferramenta, quer por linguagem de programação, quer por abordagem seguida, e muitas vezes a documentação encontrada estava desatualizada ou errada, dificultando todo o processo.With the growing need to assure the quality of the software created nowadays, it has become increasingly necessary to devote part of the development time (sometimes as much as half) to testing the developed code. Despite the high importance of this task, it is an activity that is sometimes ignored and neglected, due to it being, occasionally, a monotonous and tiring job. This is an area thoroughly investigated by researchers who try to automate some parts of this process, while also reducing the time and resources required for this task. In particular, we highlight the proposal of test reduction techniques and tools that implement them, with the goal of detecting unnecessary test cases without compromising the coverage given by the original test suite. The main objective of this work consists in answering two questions: “What is the best Test Suite Reduction tool?” (according to some criterion) and “Can a Test Case Prioritization tool be adapted to effectively replace a Test Suite Reduction tool?”. To answer these questions, we developed a framework that integrates a set of Test Suite Reduction and Test Cases Prioritization tools, with the possibility to integrate more, and that uses them, given a set of open source Java projects, to apply each of its techniques. We then gather test execution data about these projects and compare them to compute a score for each Test Suite Reduction tool, which is used to rank them. This score is achieved by applying a Multi-Criteria Decision-Making methodology, the Analytic Hierarchy Process, to weigh several chosen code metrics on the final score. To answer the second question we integrated a Test Case Prioritization tool into our framework, with which we will get a list of the less important test cases, that we will then remove, simulating a reduction
Using Renewable-Based Microgrid Capabilities for Power System Restoration
Power system restoration (PSR) is a very important procedure to ensure the consumer supply. In this paper, a decentralized multi-agent system (MAS) for dealing with the microgrid restoration procedure is proposed. In this proposed method, each agent is associated to a consumer or microsource (MS) and these will communicate between each other in order to reach a common decision. The agents solve a 0/1 knapsack problem to determine the best load connection sequence during the microgrid restoration procedure. The proposed MAS is tested in two different case studies: a total blackout and a partial blackout, in which the emergency demand response programs are considered. It is developed in the Matlab/Simulink environment and is validated by performing the corresponding dynamic simulations.Power system restoration (PSR) is a very important procedure to ensure the consumer supply. In this paper, a decentralized multi-agent system (MAS) for dealing with the microgrid restoration procedure is proposed. In this proposed method, each agent is associated to a consumer or microsource (MS) and these will communicate between each other in order to reach a common decision. The agents solve a 0/1 knapsack problem to determine the best load connection sequence during the microgrid restoration procedure. The proposed MAS is tested in two different case studies: a total blackout and a partial blackout, in which the emergency demand response programs are considered. It is developed in the Matlab/Simulink environment and is validated by performing the corresponding dynamic simulations
- …