916 research outputs found

    A discussion on different techniques for GIS data collecting, precision, accuracy and quality of database

    Get PDF
    Nowadays, is a common sense the importance of geotechnologies in urban planning, transportation engineering and other different areas of knowledge. The Geographic Information System (GIS) is one of the geotechnologies that has been used increasingly. The collection of information and creation of a database are the most expensive, complex and important task in a GIS project. The collection of information results from the direct and indirect measurement of the real world. The reason for creating databases is to register and the maintain the different sources of collecting information. This paper has the objective to present the different techniques for data collection as input in GIS, as well as a brief discussion on the cost associated with the collection of data. Furthermore, comments on precision, accuracy and the quality of database are given.

    Autonomous Obstacle Collision Avoidance System for UAVs in rescue operations

    Get PDF
    The Unmanned Aerial Vehicles (UAV) and its applications are growing for both civilian and military purposes. The operability of an UAV proved that some tasks and operations can be done easily and at a good cost-efficiency ratio. Nowadays, an UAV can perform autonomous tasks, by using waypoint mission navigation using a GPS sensor. These autonomous tasks are also called missions. It is very useful to certain UAV applications, such as meteorology, vigilance systems, agriculture, environment mapping and search and rescue operations. One of the biggest problems that an UAV faces is the possibility of collision with other objects in the flight area. This can cause damage to surrounding area structures, humans or the UAV itself. To avoid this, an algorithm was developed and implemented in order to prevent UAV collision with other objects. “Sense and Avoid” algorithm was developed as a system for UAVs to avoid objects in collision course. This algorithm uses a laser distance sensor called LiDAR (Light Detection and Ranging), to detect objects facing the UAV in mid-flights. This light sensor is connected to an on-board hardware, Pixhawk’s flight controller, which interfaces its communications with another hardware: Raspberry Pi. Communications between Ground Control Station or RC controller are made via Wi-Fi telemetry or Radio telemetry. “Sense and Avoid” algorithm has two different modes: “Brake” and “Avoid and Continue”. These modes operate in different controlling methods. “Brake” mode is used to prevent UAV collisions with objects when controlled by a human operator that is using a RC controller. “Avoid and Continue” mode works on UAV’s autonomous modes, avoiding collision with objects in sight and proceeding with the ongoing mission. In this dissertation, some tests were made in order to evaluate the “Sense and Avoid” algorithm’s overall performance. These tests were done in two different environments: A 3D simulated environment and a real outdoor environment. Both modes worked successfully on a simulated 3D environment, and “Brake” mode on a real outdoor, proving its concepts.Os veículos aéreos não tripulados (UAV) e as suas aplicações estão cada vez mais a ser utilizadas para fins civis e militares. A operacionalidade de um UAV provou que algumas tarefas e operações podem ser feitas facilmente e com uma boa relação de custo-benefício. Hoje em dia, um UAV pode executar tarefas autonomamente, usando navegação por waypoints e um sensor de GPS. Essas tarefas autónomas também são designadas de missões. As missões autónomas poderão ser usadas para diversos propósitos, tais como na meteorologia, sistemas de vigilância, agricultura, mapeamento de áreas e operações de busca e salvamento. Um dos maiores problemas que um UAV enfrenta é a possibilidade de colisão com outros objetos na área, podendo causar danos às estruturas envolventes, aos seres humanos ou ao próprio UAV. Para evitar tais ocorrências, foi desenvolvido e implementado um algoritmo para evitar a colisão de um UAV com outros objetos. O algoritmo "Sense and Avoid" foi desenvolvido como um sistema para UAVs de modo a evitar objetos em rota de colisão. Este algoritmo utiliza um sensor de distância a laser chamado LiDAR (Light Detection and Ranging), para detetar objetos que estão em frente do UAV. Este sensor é ligado a um hardware de bordo, a controladora de voo Pixhawk, que realiza as suas comunicações com outro hardware complementar: o Raspberry Pi. As comunicações entre a estação de controlo ou o operador de comando RC são feitas via telemetria Wi-Fi ou telemetria por rádio. O algoritmo "Sense and Avoid" tem dois modos diferentes: o modo "Brake" e modo "Avoid and Continue". Estes modos operam em diferentes métodos de controlo do UAV. O modo "Brake" é usado para evitar colisões com objetos quando controlado via controlador RC por um operador humano. O modo "Avoid and Continue" funciona nos modos de voo autónomos do UAV, evitando colisões com objetos à vista e prosseguindo com a missão em curso. Nesta dissertação, alguns testes foram realizados para avaliar o desempenho geral do algoritmo "Sense and Avoid". Estes testes foram realizados em dois ambientes diferentes: um ambiente de simulação em 3D e um ambiente ao ar livre. Ambos os modos obtiveram funcionaram com sucesso no ambiente de simulação 3D e o mode “Brake” no ambiente real, provando os seus conceitos

    Advanced persistent threats

    Get PDF
    Tese de mestrado, Segurança Informática, Universidade de Lisboa, Faculdade de Ciências, 2015Os sistemas computacionais tornaram-se uma parte importante da nossa sociedade, para além de estarmos intrinsecamente ligados a eles, a maioria da informação que utilizamos no nosso dia-a-dia está no seu formato digital. Ao contrário de um documento físico, um documento digital está exposto a uma maior variedade de ameaças, principalmente se estiver de alguma forma disponível `a Internet. Informação é poder, por isso não é de admirar que alguém, algures esteja a tentar roubá-la, assim, é facto que os adversários já operam neste novo mundo. Ladrões, terroristas e mesmo a máfia começaram a utilizar a internet como um meio para alcançar os seus fins. A cibersegurança tenta proteger a informação e os sistemas contra estes e outros tipos de ameaças, utilizando anti-vírus, firewalls ou detetores de intrusões, entre outros. Infelizmente as notícias continuam a sair, milhões de euros roubados a bancos por via informática, empresas saqueadas da sua propriedade intelectual e governos envergonhados por os seus segredos serem expostos ao mundo. A questão coloca-se, porque é que os sistemas de segurança estão a falhar? Como está o adversário a ultrapassá-los? A verdade hoje em dia é que os atacantes não só adquiriram talentos avançados na área como também têm acesso a ferramentas extremamente sofisticadas e vão fazer uso delas para serem bem-sucedidos nos seus objetivos, sejam estes o roubo de informação, o objetivo mais comum e por isso o mais abordado neste trabalho, seja o ataque a infraestruturas críticas. Advanced Persistent Threat(APT), ou ameaça avançada persistente, é um termo utilizado para caracterizar atacantes sofisticados, organizados e com recursos para concretizar ataques informáticos. Inventado pela força aérea Americana em 2006, o termo era uma forma de discutir intrusões informáticas com pessoal não militar. Nas suas origens, a palavra Ameaça indica que o adversário não é um pedaço de código automático, ou seja, o adversário ´e humano e ´e este humano que controla parte do ataque e contribui para o seu sucesso, avançada porque este humano é treinado e especializado na utilização de todo o espectro informático de forma a melhor conseguir atingir o seu objectivo e persistente, pois esse objectivo é formalmente definido, ou seja, o ataque só está concluído quando atingir o alvo em pleno. Infelizmente, o termo passou a ser utilizado para descrever qualquer ataque informático e a ter uma conotação extremamente comercial devido aos sistemas anti-APT que invadiram o mercado pouco tempo depois do ataque sofrido pela Google em 2010. Neste trabalho abordamos estes pressupostos, e explica-se o verdadeiro significado do termo juntamente com uma forma mais científica, claramente mais útil do ponto das abordagens da engenharia. Nomeadamente, sugere-se uma visão mais abrangente da campanha de ataque, não se focando apenas no software utilizado pelo adversário, mas tentando olhar para a campanha como um todo; equipas, organização, manutenção e orçamento, entre outros. Mostramos também porque estes ataques são diferentes, relativamente às suas tácticas, técnicas e procedimentos, e porque merecem ser distinguidos com a sua própria designação e o seu próprio ciclo de vida. Para além de identificarmos vários ciclos de vida associados às APTs, o ciclo de vida mais utilizado para caracterizar estas campanhas de ataque foi analisado em detalhe, desde as primeiras etapas de reconhecimento até à conclusão dos objectivos. Discute-se também a essência de cada passo e porque são, ou não, importantes. De seguida realiza-se uma análise ao tipo de atacante por trás destas campanhas, quem são, quais as suas histórias e objectivos. Avalia-se também porque é que os mecanismos de defesa tradicionais continuam a ser ultrapassados e n˜ao conseguem acompanhar o passo rápido dos atacantes. Isto acontece principalmente devido à utilização de listas do que é malicioso e o bloqueio apenas do que se encontra nessa lista, chamado de black listing. Ainda que se tenha já realizado trabalho na área de deteccão de anomalias, mostra-se também o porquê de esses sistemas continuarem a não ser suficientes, nomeadamente devido ao facto de definirem os seus pressupostos base erroneamente. Durante a realização deste trabalho percebeu-se a falta de estatísticas que pudessem responder a algumas questões. E por isso foi realizado um estudo aos relatórios disponíveis relativos a este tipo de ataques e apresentados os resultados de uma forma simples, organizada e resumida. Este estudo veio ajudar a perceber quais os maiores objectivos neste tipo de ataque, nomeadamente a espionagem e o roubo de informação confidencial; quais os maiores vectores de ataque (sendo o e-mail o grande vencedor devido à facilidade de explorar o vector humano); quais as aplicações alvo e a utilização, ou não, de vulnerabilidades desconhecidas. Esperamos que esta recolha de informação seja útil para trabalhos futuros ou para interessados no tema. Só depois de realizado este estudo foi possível pensar em formas de contribuir para a solução do problema imposto pelas APTs. Uma distinção ficou clara, existe não só a necessidade de detectar APTs, mas também a criticalidade da sua prevenção. A melhor forma de não ser vítima de infeção é a aplicação de boas práticas de segurança e, neste caso, a formação de todo o pessoal relativamente ao seu papel na segurança geral da organização. Aborda-se também a importância da preparação; segurança não é apenas proteger-se dos atacantes, mas principalmente saber como recuperar. Relativamente à deteção, foi realizado trabalho em duas vertentes, primeiramente e visto o trabalho ter sido realizado em ambiente de empresa, foi elaborado um plano para um sistema capaz de detectar campanhas de ataque que utilizassem o vetor de infeção do e-mail, fazendo uso dos sistemas já desenvolvidos pela AnubisNetworks que, sendo uma empresa de segurança informática com fortes ligações ao e-mail, tinha o conhecimento e as ferramentas necessárias para a concretização do sistema. O sistema faz uso de uma caracterização de pessoas, chamado de people mapping, que visa a identificar os principais alvos dentro da empresa e quem exibe maiores comportamentos de risco. Esta caracterização possibilita a criação de uma lista de pessoal prioritário, que teria o seu e-mail (caso tivesse anexos ou endereços) analisado em ambiente de sandbox. Este sistema acabou por não ser construído e é apenas deixada aqui a sua esquematização, sendo que fica lançado o desafio para a sua realização. De forma a contribuir não só para a empresa, mas também para a comunidade científica de segurança, foi de seguida realizado trabalho de deteção em vários pontos de qualquer rede informática seguindo os quatro principais passos na execução de uma campanha APT. Decidimos então utilizar um ciclo de vida composto por quatro etapas, sendo elas, a fase de reconhecimento, a infeção inicial, o controlo e o roubo de informação. Neste modelo, procuraram-se possíveis sistemas para a deteção de eventos relacionados com APTs nos três principais pontos de qualquer rede: a Internet, a Intranet e a máquina cliente. Ao analisar cada fase em cada ponto da rede, foi possível perceber realmente quais as principais áreas de estudo e desenvolvimento para melhor detectar APTs. Mais concretamente, concluiu-se que a internet seria o ponto ideal de deteção das fases de reconhecimento, a intranet para detetar controlo e roubo de informação e a máquina cliente para detetar infeção inicial. Conclui-se o trabalho apresentando o nosso ponto de vista relativamente ao futuro, isto é, quem vai fazer uso das táticas utilizadas nas campanhas APT visto serem extremamente bem sucedidas, como vão os atacantes adaptar-se aos novos mecanismos de defesa e quais os novos possíveis vetores de infeção.Computer systems have become a very important part of our society, most of the information we use in our everyday lives is in its digital form, and since information is power it only makes sense that someone, somewhere will try to steal it. Attackers are adapting and now have access to highly sophisticated tools and expertise to conduct highly targeted and very complex attack campaigns. Advanced Persistent Threat, or APT, is a term coined by the United States Air Force around 2006 as a way to talk about classified intrusions with uncleared personnel. It wrongly and quickly became the standard acronym to describe every sort of attack. This work tries to demystify the problem of APTs, why they are called as such, and what are the most common tactics, techniques and procedures. It also discusses previously proposed life-cycles, profile the most common adversaries and takes a look at why traditional defences will not stop them. A big problem encountered while developing this work was the lack of statistics regarding APT attacks. One of the big contributions here consists on the search for publicly available reports, its analysis, and presentation of relevant information gathered in a summarised fashion. From the most targeted applications to the most typical infection vector, insight is given on how and why the adversaries conduct these attacks. Only after a clear understanding of the problem is reached, prevention and detection schemes were discussed. Specifically, blueprints for a system to be used by AnubisNetworks are presented, capable of detecting these attacks at the e-mail level. It is based on sandboxing and people mapping, which is a way to better understand people, one of the weakest links in security. The work is concluded by trying to understand how the threat landscape will shape itself in upcoming years

    The urban heat island effect and the role of vegetation to address the negative impacts of local climate changes in a small brazilian city

    Get PDF
    This study analyzes the influence of urban-geographical variables on determining heat islands and proposes a model to estimate and spatialize the maximum intensity of urban heat islands (UHI). Simulations of the UHI based on the increase of normalized difference vegetation index (NDVI), using multiple linear regression, in Iporá (Brazil) are also presented. The results showed that the UHI intensity of this small city tended to be lower than that of bigger cities. Urban geometry and vegetation (UI and NDVI) were the variables that contributed the most to explain the variability of the maximum UHI intensity. It was observed that areas located in valleys had lower thermal values, suggesting a cool island effect. With the increase in NDVI in the central area of a maximum UHI, there was a significant decrease in its intensity and size (a 45% area reduction). It is noteworthy that it was possible to spatialize the UHI to the whole urban area by using multiple linear regression, providing an analysis of the urban set from urban-geographical variables and thus performing prognostic simulations that can be adapted to other small tropical cities.info:eu-repo/semantics/publishedVersio

    Rotating cantilever beams : finite element modeling and vibration analysis

    Get PDF
    Tese de mestrado integrado. Engenharia Mecânica. Faculdade de Engenharia. Universidade do Porto. 201

    Towards model-based bioprocess characterization: A mathematical model of cell cycle, metabolism and apoptosis of mAb-producing mammalian cells

    Get PDF
    The biologics industry is changing and all players seek competitiveness through process optimization aiming at satisfying the market demand providing a compliant protein in as short time as possible. As blockbuster drugs experience patent expiry, several biosimilars are coming market and competition becomes fiercer. Unlike classical experiments-based optimization, bioprocess modeling is a rational, economically efficient and reliable alternative to deliver an optimized bioprocess. The biological aspects of a bioreactor are diverse and include cells growing and cycling, other cells dying, nutrients being consumed and by-products accumulating, energy production and usage and therapeutic proteins being produced. The understanding of the biology involved is crucial to ensure quality. Quality by Design (QbD) aspects that can be optimized from the design stages include clone selection, medium formulation, feeding strategies and culture conditions. In this work, a mathematical model of mammalian cell cultures has been developed. It includes a detailed description of the viable cell population by segregating it according to the stage of the cell cycle (G0/G1, S and G2/M), transition from viable to early and late apoptotic stages. Apoptosis is monitored through gene expression profiles (caspases 3 and 8, bax and bcl-2) linked to the presence or absence of key nutrients. Indeed, the profiles of glucose and 19 amino acids are also captured by the model which allow for detailed information on energy production (ATP) which is essential to ensure viability and hence the delivery of a high-quality product. Please click Additional Files below to see the full abstract

    Administração escolar: estudos

    Get PDF
    Recensão críticaCentro de Investigação em Educação da Universidade do Minh

    O ministério público na hora da globalização : o presente e o futuro

    Get PDF
    Traz reflexão acerca das funções, responsabilidades, legitimidade social e institucional e os limites da intervenção processual que cabem em cada sistema de Justiça ao Ministério Público, apresentando também estudo comparado das funções previstas constitucionalmente no Brasil, Portugal, Itália e França

    An industrial brewer’s yeast strain in very high gravity wort fermentations

    Get PDF
    In the beer production, the fermentation of worts whose gravity is higher than 18 ºP has been presented as an efficient way to improve the capacity of brewery facility without changes in the brewhouse. In this work, a brewer yeast strain was submitted to high gravity fermentations to evaluate the influence and the limits of the environmental parameters on the fermentation performance and final product profile. The variables included in this study were the primary fermentation temperature, wort concentration (extract) and yeast pitching rate. Static fermentations were carried out anaerobically in 2 L tall tubes (EBC recommendation for small scale brewing fermentations) with 15, 18 and 22 ºP wort, at constant temperature of 12, 15 and 18 ºC. The yeast was grown aerobically at 27 ºC in 15 ºP wort (saturated with air) and collect by filtration to inoculate by mass at different pitching rates of 12, 18 and 22 million cells/ml. Fermentations were monitored daily measuring the ethanol, extract, pH, temperature, biomass in suspension and viability. At the end of the primary fermentation, the green beer was analysed concerning diacetil, esters and high alcohols by gas chromatography. Fermentation data were statistically treated in order to obtain an optimum approach for the studied parameters. For statistical proposes, the fermentation performance was measured by ethanol produced, apparent extract and the fermentation time. Although the temperature has a positive effect on the indicators of the fermentation performance, the wort concentration has not a positive effect for all indicators. When the wort has higher concentration at the beginning of the fermentation, as expected, the fermentation takes longer to be finished with more ethanol produced. Considering that the produced ethanol, the fermentation time and the residual extract have the same level of interest for the brewing process, the statistical analysis showed that the optimal point for the wort concentration, fermentation temperature and pitching rate is 20 ºP, 18 ºC and 20x106 cell/ml, respectively. The optimal conditions were repeated and the beer profile regarding the aroma profile was determined
    corecore