6,855 research outputs found
Automated data processing architecture for the Gemini Planet Imager Exoplanet Survey
The Gemini Planet Imager Exoplanet Survey (GPIES) is a multi-year direct
imaging survey of 600 stars to discover and characterize young Jovian
exoplanets and their environments. We have developed an automated data
architecture to process and index all data related to the survey uniformly. An
automated and flexible data processing framework, which we term the Data
Cruncher, combines multiple data reduction pipelines together to process all
spectroscopic, polarimetric, and calibration data taken with GPIES. With no
human intervention, fully reduced and calibrated data products are available
less than an hour after the data are taken to expedite follow-up on potential
objects of interest. The Data Cruncher can run on a supercomputer to reprocess
all GPIES data in a single day as improvements are made to our data reduction
pipelines. A backend MySQL database indexes all files, which are synced to the
cloud, and a front-end web server allows for easy browsing of all files
associated with GPIES. To help observers, quicklook displays show reduced data
as they are processed in real-time, and chatbots on Slack post observing
information as well as reduced data products. Together, the GPIES automated
data processing architecture reduces our workload, provides real-time data
reduction, optimizes our observing strategy, and maintains a homogeneously
reduced dataset to study planet occurrence and instrument performance.Comment: 21 pages, 3 figures, accepted in JATI
Video tolling integrated solution
Trabalho de projeto de mestrado, Engenharia Informática (Engenharia de Software) Universidade de Lisboa, Faculdade de Ciências, 2020A indústria de cobrança de portagens foi instituída no século VII com o intuito de financiar e auxiliar na manutenção de vias públicas através do pagamento de taxas correspondentes ao seu uso. Contudo, o advento do uso massificado de veículos automóveis, e consequente aumento do tráfego, obrigou à adaptação desta indústria aos tempos modernos, tendo sido introduzida uma filosofia de livre trânsito complementar à tradicional paragem para pagamento. A adoção deste tipo de medida foi possível graças ao desenvolvimento de tecnologias de reconhecimento ótico de caracteres, que permitem a identificação da matrícula, aliados ao uso de identificadores registados para cada veículo. Porém, a ausência de paragem implica também a existência de infrações de condutores que circulem com matrículas obscurecidas ou de difícil leitura. Deste modo, é desejável o uso de métodos complementares de auxílio à identificação dos veículos, caso do reconhecimento da marca e modelo dos mesmos (MMR). Os sistemas de reconhecimento ótico de caracteres com o objetivo de identificar matrículas são já implementados nas soluções concebidas pela Accenture para os seus diversos clientes na área, tornando estes novos métodos complementares numa adição interessante à robustez dos mesmos, de modo a reduzir custos adicionais relacionados com a identificação manual de matrículas através das imagens captadas. O presente trabalho visou então, em primeira instância, o estabelecimento de uma prova de conceito com um modelo arquitetural que permitisse a integração de um sistema de reconhecimento de marca e modelo de veículos com os sistemas informáticos previamente desenvolvidos e que se encontram atualmente em uso por parte dos clientes. Para este modelo foi também estabelecido um conjunto de requisitos, tanto funcionais como não funcionais, com o intuito de minorar, tanto quanto possível, perdas no desempenho e fiabilidade dos atuais sistemas por consequência da introdução deste novo componente de MMR. Os requisitos foram definidos fazendo uso de uma versão modificada do modelo de qualidade FURPS, segundo as boas práticas definidas pela equipa de desenvolvimento do Centro de Excelência de Tolling (TCoE) da Accenture Portugal. Adicionalmente, os requisitos definidos foram sujeitos ao estabelecimento de prioridades segundo as regras MoSCoW. A captura de imagens de veículos em movimento e consequente classificação oferece desafios inerentes à sua complexidade, pelo que foram também efetuadas considerações sobre os fatores de variabilidade que devem ser tidos em conta aquando da conceção de um sistema MMR. Estes fatores foram classificados segundo três áreas principais: propriedades inerentes ao sistema de captura de imagens (RSE), propriedades do evento de captura da imagem, e propriedades do veículo. A arquitetura proposta para um eventual sistema que possa ser passível de integração com os existentes faz uso da arquitetura dos mesmos, organizando-se em quatro camadas, a saber: acesso a dados (camada inferior), gestão e regras de negócio, avaliação de resultados e aumento da base de conhecimento disponível, e correspondência (camada superior). Para a elaboração da presente prova de conceito, foram deste modo escolhidas tecnologias que permitem a integração com os sistemas Java previamente existentes sem despender demasiado esforço adicional nessa integração. Deste modo, foram utilizadas bibliotecas Python para o uso de OpenCV, que permite o processamento de imagens, e Tensorflow para as atividades relacionadas com machine learning. O desenvolvimento da prova de conceito para estes sistemas envolveu também o teste de hipóteses quanto ao modo mais vantajoso de reconhecimento da marca e modelo dos veículos propriamente dita. Para este efeito, foram equacionadas três hipóteses, que se basearam no uso de dois datasets distintos. O primeiro conceito abordado consistiu em fingerprinting de imagens associadas a um dataset desenvolvido na Universidade de Stanford, contendo 16185 imagens de veículos automóveis ligeiros em variadas poses, que podem ser divididas segundo 49 marcas e 196 modelos distintos, se for considerada a distinção dos anos de comercialização dos mesmos. Para o efeito, foi usado o modelo de características AKAZE e testados três métodos distintos para efetuar as correspondências: força bruta com teste de rácio descrito na literatura (para dois rácios distintos, 0,4 e 0,7), força bruta com recurso a função de cross-check nativa das bibliotecas usadas, e FLANN. A pertença de uma imagem a determinada categoria foi então ditada pelo estabelecimento de correspondências entre os seus pontos-chave e os pontos-chave das imagens do dataset, testando vários algoritmos de ordenação para aumentar as probabilidades de correspondência com uma imagem pertencente à mesma classe. Os resultados obtidos demonstraram, no geral, precisões relativamente baixas, sendo que nenhuma ultrapassou os 20% para o reconhecimento da marca ou modelo dos veículos. Contudo, dos ensaios efetuados, dois destacaram-se ao conseguir atingir 16,8% de precisão para a marca e 11,2% para o modelo. Estes ensaios tiveram, de resto, características em comum, sendo que, em ambos os casos, foi utilizado o método de força bruta com rácio de 0,4. Os métodos de ordenação de resultados foram, todavia, diferentes, sendo que num dos casos foi usado o valor máximo de pontos-chave em comum (MV) e no segundo um rácio entre este número de pontos em comum e o número de pontos-chave existentes (MR). De entre ambos, o ensaio que recorreu ao método MR foi considerado estatisticamente mais significativo, dado possuir um valor do coeficiente de correlação k de Cohen mais elevado em relação a MV. Os parcos resultados obtidos através deste método levaram à tentativa de adoção de uma abordagem diferente, nomeadamente no que tocava à seleção das imagens que deviam ser comparadas, uma vez que os fatores de variabilidade identificados na análise se encontravam demasiado presentes nas imagens do dataset de Stanford. Deste modo, a grelha do veículo foi identificada como região de interesse (ROI), dados os padrões distintivos inerentes à mesma e a presença do logotipo identificador da marca à qual pertence o veículo. O objetivo desta nova abordagem residia na identificação desta ROI de modo a proceder à sua extração a partir da imagem original, aplicando-sedepois os algoritmos de fingerprinting anteriormente abordados. A deteção da ROI foi efetuada com recurso a classificadores em cascata, os quais foram testados com dois tipos de características diferentes: LBP, mais rápidas, mas menos precisas, e Haar, mais complexas, mas também mais fiáveis. As imagens obtidas através da identificação e subsequente recorte foram depois analisadas segundo a presença de grelha, deteção da mesma ou de outros objetos, bem como o grau de perfeição da deteção efetuada. A determinação da ROI a recortar foi também avaliada segundo dois algoritmos: número total de interseções entre ROIs candidatas, e estabelecimento de um limiar de candidatos para uma ROI candidata ser considerada ou rejeitada (apelidado de min-neighbours). As cascatas foram treinadas com recurso a imagens não pertencentes ao dataset de Stanford, de modo a evitar classificações tendenciosas face a imagens previamente apresentadas ao modelo, e para cada tipo de característica foram apresentados dois conjuntos de imagens não correspondentes a grelhas (amostras negativas), que diferiam na sua dimensão e foram consequentemente apelidadas de Nsmall e Nbig. Os melhores resultados foram obtidos com o dataset Nsmall, estabelecimento de limiar, e com recurso a características Haar, sendo a grelha detetada em 81,1% dos casos em que se encontrava efetivamente presente na imagem. Contudo, esta deteção não era completamente a que seria desejável, uma vez que, considerando deteção perfeita e sem elementos externos, a precisão baixava para 32,3%. Deste modo, apesar das variadas vertentes em que esta deteção e extração de ROI foi estudada, foi decidido não avançar para o uso de fingerprinting, devido a constrangimentos de tempo e à baixa precisão que o sistema como um todo conseguiria alcançar. A última técnica a ser testada neste trabalho foi o uso de redes neuronais de convolução (CNN). Para o efeito, e de modo a obter resultados mais fiáveis para o tipo de imagem comumente capturado pelos RSE em contexto de open road tolling, foi usado um novo dataset, consistindo de imagens captadas em contexto real e cedidas por um dos clientes do TCoE. Dentro deste novo conjunto de imagens, foi feita a opção de testar apenas a marca do veículo, com essa classificação a ser feita de forma binária (pertence ou não pertence a determinada marca), ao invés de classificação multi-classe. Para o efeito, foram consideradas as marcas mais prevalentes no conjunto fornecido, Opel e Peugeot. Os primeiros resultados para o uso de CNN revelaram-se promissores, com precisão de 88,9% para a marca Opel e 95,3% para a Peugeot. Todavia, ao serem efetuados testes de validação cruzada para aferir o poder de generalização dos modelos, verificou-se um decréscimo significativo, tanto para Opel (79,3%) como para Peugeot (84,9%), deixando antever a possibilidade de ter ocorrido overfitting na computação dos modelos. Por este motivo, foram efetuados novos ensaios com imagens completamente novas para cada modelo, sendo obtidos resultados de 55,7% para a marca Opel e 57,4% para a marca Peugeot. Assim, embora longe de serem resultados ideais, as CNN aparentam ser a melhor via para um sistema integrado de reconhecimento de veículos, tornando o seu refinamento e estudo numa solução viável para a continuação de um possível trabalho nesta área.For a long time, tolling has served as a way to finance and maintain publicly used roads. In recent years, however, due to generalised vehicle use and consequent traffic demand, there has been a call for open-road tolling solutions, which make use of automatic vehicle identification systems which operate through the use of transponders and automatic license plate recognition. In this context, recognising the make and model of a vehicle (MMR) may prove useful, especially when dealing with infractions. Intelligent automated license plate recognition systems have already been adopted by several Accenture clients, with this new feature being a potential point of interest for future developments. Therefore, the current project aimed to establish a potential means of integrating such a system with the already existing architecture, with requirements being designed to ensure its current reliability and performance would suffer as little an impact as possible. Furthermore, several options were considered as candidates for the future development of an integrated MMR solution, namely, image fingerprinting of a whole image, grille selection followed by localised fingerprinting, and the use of convolutional neural networks (CNN) for image classification. Among these, CNN showed the most promising results, albeit making use of images in limited angle ranges, therefore mimicking those exhibited in captured tolling vehicle images, as well as performing binary classification instead of a multi-class one. Consequently, further work in this area should take these results into account and expand upon them, refining these models and introducing more complexity in the process
Embodied cognition: A field guide
The nature of cognition is being re-considered. Instead of emphasizing formal operations on abstract symbols, the new approach foregrounds the fact that cognition is, rather, a situated activity, and suggests that thinking beings ought therefore be considered first and foremost as acting beings. The essay reviews recent work in Embodied Cognition, provides a concise guide to its principles, attitudes and goals, and identifies the physical grounding project as its central research focus
Specifications and programs for computer software validation
Three software products developed during the study are reported and include: (1) FORTRAN Automatic Code Evaluation System, (2) the Specification Language System, and (3) the Array Index Validation System
A STUDY ON DYNAMIC SYSTEMS RESPONSE OF THE PERFORMANCE CHARACTERISTICS OF SOME MAJOR BIOPHYSICAL SYSTEMS
Dynamic responses of biophysical systems - performance characteristic
Towards Mission-Critical Control at the Edge and Over 5G
With the emergence of industrial IoT and cloud computing, and the advent of
5G and edge clouds, there are ambitious expectations on elasticity, economies
of scale, and fast time to market for demanding use cases in the next
generation of ICT networks. Responsiveness and reliability of wireless
communication links and services in the cloud are set to improve significantly
as the concept of edge clouds is becoming more prevalent. To enable industrial
uptake we must provide cloud capacity in the networks but also a sufficient
level of simplicity and self-sustainability in the software platforms. In this
paper, we present a research test-bed built to study mission-critical control
over the distributed edge cloud. We evaluate system properties using a
conventional control application in the form of a Model Predictive Controller.
Our cloud platform provides the means to continuously operate our
mission-critical application while seamlessly relocating computations across
geographically dispersed compute nodes. Through our use of 5G wireless radio,
we allow for mobility and reliably provide compute resources with low latency,
at the edge. The primary contribution of this paper is a state-of-the art,
fully operational test-bed showing the potential for merged IoT, 5G, and cloud.
We also provide an evaluation of the system while operating a mission-critical
application and provide an outlook on a novel research direction.Comment: June 18th: Upload the final version as submitted to IEEE Services
[EDGE] 2018 on May 16th (updated abstract and some wording, results
unchanged
Visual Occam: High level visualization and design of process networks
With networks, multiprocessors, and multi-threaded systems becoming more common in our world it is increasingly evident that concurrent programming is not something to be ignored or marginalized even though many takes on concurrency (mainly by means of monitors or shared resources) have proven to be difficult to deal with on large scales. Thankfully, a good deal of work has already been done to combat this, through CSP, occam, and other such derivatives, to produce a scalable process oriented paradigm. Still, it is cumbersome to attempt to deal with the intricacies of such communicating networks down to every minutia; if, instead, it was possible to manage communicating elements on a higher level it would be far more practical to design large scale networks of processes!
As such, Visual Occam has been designed to automate some of the inner workings of occam to allow any user (novice or otherwise) the ability to create complex networks of communicating processes through easy to understand user interactions and interfaces. Taking a number of cues from digital circuit design software and modern integrated development environments, it is possible to select components (both predefined and arbitrarily complex user created systems) from a library of objects, hook them together in a network, and produce compilable code without having to worry about how or why the chosen components perform their function. Since any of these components may themselves be networks of processes, it becomes trivial to construct large systems that would otherwise be unwieldy to put together by hand.
The end result? A high level, easy to understand, visual abstraction of those concurrent networks previously so frustrating to develop
Recommended from our members
Curating Place: Using Interpretive Design to Metabolize Change in the Rural, Post-Industrial Landscape of Woronoco Massachusetts
In this research, I aim to investigate the interrelationships between people, architecture and the landscape, by asking the question what is the architect\u27s role in curating place\u27. The goal of this body of work is to challenge the role of the ‘architect\u27 when working within the context of place. This research, and the design intervention developed a process that challenges the profession by asking: “Should an architect be solely the creator of place, or is the architect a curator of place? The research analyzes existing theories related to the definition and concept of place approached from a wide spectrum of professional expertise overtime to attempt to grasp human being\u27s passion related to the dynamic topic of place. The intent is to create a framework for design that can be adopted, implemented and layered upon any place, to unearth, distill, and better understand its essence.
The rural post-industrial landscape of Western Massachusetts specifically focused around the former paper mill village of Woronoco is the stage for this inquiry. place is anchored equally in the qualitative and quantitative forces that shape it and thus requires an attentive observer, a trained observer, but most importantly a local, inspired observer who is fundamentally attached to that place. As both a landscape architect and architect, I offer a heightened awareness of the patterns and processes or ecology of place especially concerning the occupation and physical impact of humans on the landscape through the built environment. The proposed design interventions will attempt to treat place as a living organism, one that is continuously changing and whose dynamics are interconnected and responsive to a broad range of forces that shape it. A place curation design approach has led me to offer a series of design interventions, and not a proposal for a single building. These interventions will not fulfill a single program or fulfill one specific functional purpose; it will not focus on creating a design typology or use a consistent design language or material palette. Instead, the design will introduce multiple architectonic interventions that are derived almost organically in the landscape, in a manner that will stimulate the continued use and engagement with this place. Human interaction, engagement and interpretation is the essential component to ensuring the longterm sustainability of place, allowing it to continuously evolve and be relevant to future generations
The integration of CFD and VR methods to assist auxiliary ventilation practice
The current trend towards the adoption of retreat longwall mining methods and the associated rapid development of the access drivages has exacerbated the environmental conditions experienced within these workings. The combined use of roof bolt and continuous miner systems has improved the face advance rate within rapid development drivages. In order to maintain adequate dust and gas control it is essential that the auxiliary ventilation and monitoring systems are correctly installed and maintained.
The causes of many potential environmental hazards experienced within auxiliary ventilated rapid development drivages, are often attributed to a failure by the workforce and supervisory officials to maintain the correct installation, maintenance and operational standards of the ventilation and mining systems. The potential ventilation hazards encountered may include: the failure to deliver the required fresh air quantity and velocity to rapidly dilute and disperse methane gas liberated in the vicinity of the cutting face, or the failure to maintain sufficient exhaust air quantity in the vicinity of the cut to adequately capture dust produced on cutting and loading of the extracted mineral.
Results of recent research studies have demonstrated that validated Computational Fluid Dynamics (CFD) simulation models can adequately replicate examples of good and bad ventilation. CFD models may be constructed and solved to examine the relative ventilation benefits produced by alternative mining and auxiliary ventilation configurations. These models enable the practitioner to predict and visualise the velocity, pressure and contaminant fields within an auxiliary ventilated drivage. This research project has developed a prototype educational aid, which animates and visualises these airflow and pollutant dispersion patterns within a Virtual Reality (VR) model. By introducing a pollutant such as methane into the CFD models, the VR simulation highlights regions of potential methane concentration build-up to the trainee. The application also allows the user to select/investigate the environmental consequences of enacting a number of remedial actions
Modelling Early Transitions Toward Autonomous Protocells
This thesis broadly concerns the origins of life problem, pursuing a joint
approach that combines general philosophical/conceptual reflection on the
problem along with more detailed and formal scientific modelling work oriented
in the conceptual perspective developed. The central subject matter addressed
is the emergence and maintenance of compartmentalised chemistries as precursors
of more complex systems with a proper cellular organization. Whereas an
evolutionary conception of life dominates prebiotic chemistry research and
overflows into the protocells field, this thesis defends that the 'autonomous
systems perspective' of living phenomena is a suitable - arguably the most
suitable - conceptual framework to serve as a backdrop for protocell research.
The autonomy approach allows a careful and thorough reformulation of the
origins of cellular life problem as the problem of how integrated autopoietic
chemical organisation, present in all full-fledged cells, originated and
developed from more simple far-from-equilibrium chemical aggregate systems.Comment: 205 Pages, 27 Figures, PhD Thesis Defended Feb 201
- …