5,401 research outputs found

    Radar studies of arctic ice and development of a real-time Arctic ice type identification system

    Get PDF
    Studies were conducted to develop a real-time Arctic ice type identification system. Data obtained by NASA Mission 126, conducted at Pt. Barrow, Alaska (Site 93) in April 1970 was analyzed in detail to more clearly define the major mechanisms at work affecting the radar energy illuminating a terrain cell of sea ice. General techniques for reduction of the scatterometer data to a form suitable for application of ice type decision criteria were investigated, and the electronic circuit requirements for implementation of these techniques were determined. Also, consideration of circuit requirements are extended to include the electronics necessary for analog programming of ice type decision algorithms. After completing the basic circuit designs a laboratory model was constructed and a preliminary evaluation performed. Several system modifications for improved performance are suggested. (Modified author abstract

    Exploring the possibilities of three dimensional image manipulations on mobile devices

    Get PDF
    With the introduction of more powerful mobile microprocessors and colour screen technology, complex image manipulations on various mobile devices such as mobile phones and handheld devices have become a reality. As a consequence of these improvements, there has been an increasing demand by users for interactive computer games which produce complex graphics by utilizing these advanced hardware technologies. Three dimensional (3D) graphics have been used to produce realistic interactive imaging for computer games during recent years. Java, through its mobile device programming platform, provides the framework for such complex image manipulations in computer games deployed on Java compatible mobile devices. However, the lack of a standard 3D application-programming interface (API), supported by mobile phone manufactures, has resulted in the need for program developers to use custom APis to create 3D programs such as the WGE (Wireless Graphics Engine) API produced by TTPcom. There is some evidence that the use of custom APis to develop 3D graphic images may result in poor compatibility and performance across different mobile platforms and devices This study initially examines the proposed Sun Microsystems specification for the Java 2 Micro Edition (J2ME) Mobile 3D API for the development of 3D graphics programming of mobile devices. These specifications have been designed to create an Industry standard Mobile 3D API. In addition, this study investigates the current specification for the Java 2 Micro Edition (CDDC1.0.3), to ascertain to what extent the development of 3D gaming on mobile devices is effected by the deficiencies in the current specification. These deficiencies include a Jack of support of for a floating point data type and the specification\u27s reliance on fixed-point number calculations for developing 3D graphics. An assessment will be made to determine how these deficiencies influence the performance, stability of 3D algorithms deployed on different mobile device platforms. Investigations carried out on 3D graphics algorithm implementations on Java 2 Standard Edition (J2SE) platform suggests that the implementations rely on float data type and that the CLDC 1.0.3 configuration layer does not support the float data type. Experiments were conducted to determine whether fixed-point number methods can be used effectively to conduct precision calculations. These calculations are required to implement the 3D algorithms for the J2ME platform. In order to assess this, a simulation study was conducted on a number of emulators released by Nokia, Motorola and Siemens mobile phone manufactures. In addition, the algorithms were tested on a Java compatible Nokia 6610 mobile phone to ascertain if findings from emulator studies could be replicated on phones. The emulator study findings suggest that 3D algorithm implementations using fixed-point methods are compatible on Java compatible mobile handsets released by Nokia, Motorola and Siemens. Further more, it was shown that the fixed-point methods are suitable for implementing simple 3D algorithms (Rotation, Scaling and Translation). However, it was found that these methods were not suitable for extreme precision calculations such as Cartesian curve generations

    Design of CT pictures from 2D to 3D

    Get PDF
    Volume visualization is one important part of scientific visualization. It has developed basing on absorbing the relative knowledge of computer delineation, computer visualization and computer image disposal. The knowledge of this branch is of much importance in computer application. Since it deals with contents with deeper meaning and it is more theoretic, having more arithmetic means, it generally stands for the level of computer application. The study and application of volume visualization is like a raging fire. My country started comparatively later in this field. This thesis gives systematic representation and discuss in the field of tomography image 3D reconstruction. It mainly discusses after rotation, translation, filtering, interpolation and sharpening a series of 2D CT scanning images, get the boundary data of different object to form 3D volume data and actualize the 3D reconstruction of the object, and at the same time implement the function of display, translation, rotation, scaling and projection the volume data. Basing on the implementation of these functions according to software programming, this thesis gives a sum up to each algorithm of 3D volume visualization processing. The method to actualize the 3D reconstruction of the tomography image is mainly about the image processing, image transformation, the way to actualize 3D reconstruction and image compression, etc. In image processing, it talks about getting the anchor points in the tomography image, the geometrie transformation of the image, getting the boundary of the target, cross section display and the smoothing and sharpening of the image. In the transformation of the image, this thesis deals with the algorithm and implementation principle of the geometric transformation (transition, rotation, and scaling) of the 2D image, the three-dimensionalization of the planar data, construction of the stereo mode, geometric transformation of the 3D graph, curve-fitting, the processing of hidden line and hidden surface, color processing. It also introduces the thoughts of using OpenGL to develop and actualize tomography image 3D reconstruction system, including using OpenGL to transform the coordinate, solid model building, to actualize 3D rotation and projection. Recently, the methods of applying chemotherapy to deal with cancer in hospitals of our country are different. Hospital with great fund takes import software to design while most of the hospitals take domestic software. These kinds of software are designed by DAHENG Company in BeiJing, WEIDA Company in ShenZhen. The programs in the software these two hospitals' doctors use to treat are images fielding in the plane not making radiation design under the mode of omnibearing cubic display. Under this circumstance the judgment of the key part can not remain precise, and this part is the most important part that the doctors need. The above problem is the aim of this project. This thesis mainly deals with the subject that after calibrating and sharpening the series of 2D CT images, extract the boundary data of different bodies to form a 3D volume data and actualize 3D reconstruction and at the same time actualize the function of display, translation, rotation, scaling and projection. Mostly basing on the application of medical area, this thesis aims at making further research on computer graphies, computer vision and computer image processing through the study and application of volume visualization in this field. By the study and development of the volume visualization technology in this project, it can provide simulation and display functions to the observer before the operation and the radiotherapy as well as providing the chance to simulate the real teaching and practicing link to the medical school in the teaching process, and increase the clinic level and teaching level of medical area.\ud ______________________________________________________________________________ \ud MOTS-CLÉS DE L’AUTEUR : volume visualization, volume data, tomography image, 3D reconstruction, anchor point, boundary data, periphery boundary, OpenGL

    Remote Sensing for Non‐Technical Survey

    Get PDF
    This chapter describes the research activities of the Royal Military Academy on remote sensing applied to mine action. Remote sensing can be used to detect specific features that could lead to the suspicion of the presence, or absence, of mines. Work on the automatic detection of trenches and craters is presented here. Land cover can be extracted and is quite useful to help mine action. We present here a classification method based on Gabor filters. The relief of a region helps analysts to understand where mines could have been laid. Methods to be a digital terrain model from a digital surface model are explained. The special case of multi‐spectral classification is also addressed in this chapter. Discussion about data fusion is also given. Hyper‐spectral data are also addressed with a change detection method. Synthetic aperture radar data and its fusion with optical data have been studied. Radar interferometry and polarimetry are also addressed

    Sensing and awareness of 360º immersive videos on the move

    Get PDF
    Tese de mestrado em Engenharia Informática, apresentada à Universidade de Lisboa, através da Faculdade de Ciências, 2013Ao apelar a vários sentidos e transmitir um conjunto muito rico de informação, o vídeo tem o potencial para causar um forte impacto emocional nos espectadores, assim como para a criação de uma forte sensação de presença e ligação com o vídeo. Estas potencialidades podem ser estendidas através de percepção multimídia, e da flexibilidade da mobilidade. Com a popularidade dos dispositivos móveis e a crescente variedade de sensores e actuadores que estes incluem, existe cada vez mais potencial para a captura e visualização de vídeo em 360º enriquecido com informação extra (metadados), criando assim as condições para proporcionar experiências de visualização de vídeo mais imersivas ao utilizador. Este trabalho explora o potencial imersivo do vídeo em 360º. O problema é abordado num contexto de ambientes móveis, assim como num contexto da interação com ecrãs de maiores dimensões, tirando partido de second screens para interagir com o vídeo. De realçar que, em ambos os casos, o vídeo a ser reproduzido é aumentado com vários tipos de informação. Foram assim concebidas várias funcionalidades para a captura, pesquisa, visualização e navegação de vídeo em 360º. Os resultados confirmaram a existência de vantagens no uso de abordagens multisensoriais como forma de melhorar as características imersivas de um ambiente de vídeo. Foram também identificadas determinadas propriedades e parâmetros que obtêm melhores resultados em determinadas situações. O vídeo permite capturar e apresentar eventos e cenários com grande autenticidade, realismo e impacto emocional. Para além disso, tem-se vindo a tornar cada vez mais pervasivo no quotidiano, sendo os dispositivos pessoais de captura e reprodução, a Internet, as redes sociais, ou a iTV exemplos de meios através dos quais o vídeo chega até aos utilizadores (Neng & Chambel, 2010; Noronha et al, 2012). Desta forma, a imersão em vídeo tem o potencial para causar um forte impacto emocional nos espectadores, assim como para a criação de uma forte sensação de presença e ligação com o vídeo (Douglas & Hargadon, 2000; Visch et al, 2010). Contudo, no vídeo tradicional a experiência dos espectadores é limitada ao ângulo para o qual a câmara apontava durante a captura do vídeo. A introdução de vídeo em 360º veio ultrapassar essa restrição. Na busca de melhorar ainda mais as capacidades imersivas do vídeo podem ser considerados tópicos como a percepção multimídia e a mobilidade. Os dispositivos móveis têm vindo a tornar-se cada vez mais omnipresentes na sociedade moderna, e, dada a grande variedade de sensores e actuadores que incluem, oferecem um largo espectro de oportunidades de captura e reprodução de vídeo em 360º enriquecido com informação extra (metadados), tendo portanto o potencial para melhorar o paradigma de interação e providenciar suporte a experiências de visualização de vídeo mais ponderosas e imersivas. Contudo, existem desafios relacionados com o design de ambientes eficazes que tirem partido deste potencial de imersão. Ecrãs panorâmicos e CAVEs são exemplos de ambientes que caminham na direção da imersão total e providenciam condições privilegiadas no que toca à reprodução de vídeo imersivo. Porém, não são muito convenientes e, especialmente no caso das CAVEs, não são facilmente acessíveis. Por outro lado, a flexibilidade associada aos dispositivos móveis poderia permitir que os utilizadores tirassem partido dos mesmos usando-os, por exemplo, como uma janela (móvel) para o vídeo no qual estariam imersos. Mais do que isso, seguindo esta abordagem os utilizadores poderiam levar estas experiências de visualização consigo para qualquer lugar. Como second screens, os dispositivos móveis podem ser usados como auxiliares de navegação relativamente aos conteúdos apresentados no ecrã principal (seja este um ecrã panorâmico ou uma CAVE), representando também uma oportunidade para fazer chegar informação adicional ao utilizador, eliminando do ecrã principal informação alheia ao conteúdo base, o que proporciona uma melhor sensação de imersão e flexibilidade. Este trabalho explora o potencial imersivo do vídeo em 360º em ambientes móveis aumentado com vários tipos de informação. Nesse sentido, e estendendo um trabalho anterior (Neng, 2010; Noronha, 2012; Álvares, 2012) que incidiu maioritariamente na dimensão participativa de imersão, a presente abordagem centrou-se na dimensão perceptual de imersão. Neste âmbito, foram concebidas, desenvolvidas e testadas várias funcionalidades, agrupadas numa aplicação de visualização de vídeo em 360º – Windy Sight Surfers. Considerando a crescente popularidade dos dispositivos móveis na sociedade e as características que os tornam numa oportunidade para melhorar a interação homem-máquina e, mais especificamente, suportar experiências de visualização de vídeo mais imersivas, a aplicação Windy Sight Surfers está fortemente relacionada com ambientes móveis. Considerando as possibilidades de interação que o uso de second screens introduz, foi concebida uma componente do Windy Sight Surfers relacionada com a interação com ecrãs de maiores dimensões. Os vídeos utilizados no Windy Sight Surfers são vídeos em 360º, aumentados com uma série de informações registadas a partir do Windy Sight Surfers durante a sua captura. Isto é, enquanto a câmara captura os vídeos, a aplicação regista informação adicional – metadados – obtida a partir de vários sensores do dispositivo, que complementa e enriquece os vídeos. Nomeadamente, são capturadas as coordenadas geográficas e a velocidade de deslocamento a partir do GPS, a orientação do utilizador a partir da bússola digital, os valores relativos às forças-G associadas ao dispositivo através do acelerómetro, e são recolhidas as condições atmosféricas relativas ao estado do tempo através de um serviço web. Quando capturados, os vídeos, assim como os seus metadados, podem ser submetidos para o sistema. Uma vez capturados e submetidos, os vídeos podem ser pesquisados através do mais tradicional conjunto de palavras chave, de filtros relacionados com a natureza da aplicação (ex. velocidade, período do dia, condições atmosféricas), ou através de um mapa, o que introduz uma componente geográfica ao processo de pesquisa. Os resultados podem ser apresentados numa convencional lista, no formato de uma cover-flow, ou através do mapa. No que respeita à visualização dos vídeos, estes são mapeados em torno de um cilindro, que permite representar a vista dos 360º e transmitir a sensação de estar parcialmente rodeado pelo vídeo. Uma vez que a visualização de vídeos decorre em dispositivos móveis, os utilizadores podem deslocar continuamente o ângulo de visão do vídeo 360º para a esquerda ou direita ao mover o dispositivo em seu redor, como se o dispositivo se tratasse de uma janela para o vídeo em 360º. Adicionalmente, os utilizadores podem alterar o ângulo de visualização arrastando o dedo pelo vídeo, uma vez que todo o ecrã consiste numa interface deslizante durante a visualização de vídeos em 360º. Foram ainda incorporadas na aplicação várias funcionalidades que pretendem dar um maior realismo à visualização de vídeos. Nomeadamente, foi desenvolvido um acessório de vento na plataforma Arduino que leva em conta os metadados de cada vídeo para produzir vento e assim dar uma sensação mais realista do vento e da velocidade do deslocamento durante a visualização dos vídeos. De referir que o algoritmo implementado leva em conta não só a velocidade de deslocamento, como também o estado do tempo em termos de vento (força e orientação) aquando da captura do vídeo, e a orientação do utilizador de acordo com o ângulo do vídeo a ser visualizado durante a reprodução do vídeo. Considerando a componente áudio dos vídeos, neste sistema, o áudio de cada vídeo é mapeado num espaço sonoro tridimensional, que pode ser reproduzido num par de auscultadores estéreo. Neste espaço sonoro, a posição das fontes sonoras está associada ao ângulo frontal do vídeo e, como tal, muda de acordo com o ângulo do vídeo a ser visualizado. Isto é, se o utilizador estiver a visualizar o ângulo frontal do vídeo, as fontes sonoras estarão localizadas diante da cabeça do utilizador; se o utilizador estiver a visualizar o ângulo traseiro do vídeo, as fontes sonoras estarão localizadas por de trás da cabeça do utilizador. Uma vez que os vídeos têm 360º, a posição das fontes sonoras varia em torno de uma circunferência à volta da cabeça do utilizador, sendo o intuito o de dar uma orientação adicional no vídeo que está a ser visualizado. Para aumentar a sensação de movimento através do áudio, foi explorado o Efeito de Doppler. Este efeito pode ser descrito como a alteração na frequência observada de uma onda, ocorrendo quando a fonte ou o observador se encontram em movimento entre si. Devido ao facto deste efeito ser associado à noção de movimento, foi conduzida uma experiência com o intuito de analisar se o uso controlado do Efeito de Doppler tem o potencial de aumentar a sensação de movimento durante a visualização dos vídeos. Para isso, foi adicionada uma segunda camada sonora cuja função é reproduzir o Efeito de Doppler ciclicamente e de forma controlada. Esta reprodução foi relacionada com a velocidade de deslocamento do vídeo de acordo seguinte proporção: quanto maior a velocidade, maior será a frequência com que este efeito é reproduzido. Estas funcionalidades são relativas à procura de melhorar as capacidades imersivas do sistema através da estimulação sensorial dos utilizadores. Adicionalmente, o Windy Sight Surfers inclui um conjunto de funcionalidades cujo objectivo se centra em melhorar as capacidades imersivas do sistema ao providenciar ao utilizador informações que consciencializem o utilizador do contexto do vídeo, permitindo assim que este se aperceba melhor do que se está a passar no vídeo. Mais especificamente, estas funcionalidades estão dispostas numa camada por cima do vídeo e disponibilizam informações como a velocidade atual, a orientação do ângulo do vídeo a ser observado, ou a força-G instantânea. A acrescentar que as diferentes funcionalidades se dividem numa categoria relativa a informação que é disponibilizada permanentemente durante a reprodução de vídeos, e numa segunda categoria (complementar da primeira) relativa a informação que é disponibilizada momentaneamente, sendo portanto relativa a determinadas porções do vídeo. Procurando conceber uma experiência mais envolvente para o utilizador, foi incorporado um reconhecedor emocional baseado em reconhecimento de expressões faciais no Windy Sight Surfers. Desta forma, as expressões faciais dos utilizadores são analisadas durante a reprodução de vídeos, sendo os resultados desta análise usados em diferentes funcionalidades da aplicação. Presentemente, a informação emocional tem três aplicações no ambiente desenvolvido, sendo usada em: funcionalidades de catalogação e pesquisa de vídeos; funcionalidades que influenciam o controlo de fluxo da aplicação; e na avaliação do próprio sistema. Considerando o contexto do projeto de investigação ImTV (url-ImTV), e com o intuito de tornar a aplicação o mais flexível possível, o Windy Sight Surfers tem uma componente second screen, permitindo a interação com ecrãs mais amplos, como por exemplo televisões. Desta forma, é possível utilizar os dois dipositivos em conjunto por forma a retirar o melhor proveito de cada um com o objectivo de aumentar as capacidades imersivas do sistema. Neste contexto, os vídeos passam a ser reproduzidos no ecrã conectado, ao passo que a aplicação móvel assume as funcionalidades de controlar o conteúdo apresentado no ecrã conectado e disponibilizar um conjunto de informações adicionais, tais como um minimapa, onde apresenta uma projeção planar dos 360º do vídeo, e um mapa da zona geográfica associada ao vídeo onde se representa o percurso em visualização em tempo real e percursos adicionais que sejam respeitantes a vídeos associados à mesma zona geográfica do vídeo a ser visualizado no momento. Foi efectuada uma avaliação de usabilidade com utilizadores, tendo como base o questionário USE e o Self-Assessment Manikin (SAM) acoplado de dois parâmetros adicionais relativos a presença e realismo. Com base na observação durante a realização de tarefas por parte dos utilizadores, foram realizadas entrevistas onde se procurou obter comentários, sugestões ou preocupações sobre as funcionalidades testadas. Adicionalmente, a ferramenta de avaliação emocional desenvolvida foi utilizada de forma a registar quais as emoções mais prevalentes durante a utilização da aplicação. Por fim, as potencialidades imersivas globais do Windy Sight Surfers foram avaliadas através da aplicação do Immersive Tendencies Questionnaire (ITQ) e de uma versão adaptada do Presence Questionnaire (PQ). Os resultados confirmaram a existência de vantagens no uso de abordagens multisensoriais como forma de melhorar as características imersivas de um ambiente de vídeo. Para além disso, foram identificadas determinadas propriedades e parâmetros que obtêm melhores resultados e são mais satisfatórios em determinadas condições, podendo assim estes resultados servir como diretrizes para futuros ambientes relacionados com vídeo imersivo.By appealing to several senses and conveying very rich information, video has the potential for a strong emotional impact on viewers, greatly influencing their sense of presence and engagement. This potential may be extended even further with multimedia sensing and the flexibility of mobility. Mobile devices are commonly used and increasingly incorporating a wide range of sensors and actuators with the potential to capture and display 360º video and metadata, thus supporting more powerful and immersive video user experiences. This work was carried out in the context of the ImTV research project (url-ImTV), and explores the immersion potential of 360º video. The matter is approached in a mobile environment context, and in a context of interaction with wider screens, using second screens in order to interact with video. It must be emphasized that, in both situations, the videos are augmented with several types of information. Therefore, several functionalities were designed regarding the capture, search, visualization and navigation of 360º video. Results confirmed advantages in using a multisensory approach as a means to increase immersion in a video environment. Furthermore, specific properties and parameters that worked better in different conditions have been identified, thus enabling these results to serve as guidelines for future environments related to immersive video

    Removing barriers to embedded generation : a fine-grained load model to support low voltage network performance analysis

    Get PDF
    The objective of this thesis is to create a model, which provides a detailed description of the electrical load on a low voltage distribution network in the context of a typical UK urban feeder from a primary transformer. The aim of the work, when used in association with a power flow analysis package, is to help to provide a risk assessmenfto r over-voltagee vents and over-heatingi n the network when different levels of embedded generation are applied. A fine-grained domestic load model has been constructed with a three layered approach-to provide per-consumer, 1-minute averaged loads on an end-use basis. Datasets from the Load Research Group have been used as the starting point and form the basis for layer 1 which represents group-averaged demands on a halfhourly basis. Layer 2 of the model introduces diversity in terms of number of occupants, living space, ownership and soci?- economic factors. Layer -3 uses appliance duty cycles to create wider variations by random triggering to derive 1- minute loads from assigned half-hourly values. The domestic model has been adaptedf or use with smaller( sub MOW) non-domesticc onsumers. The research question for this study is whether or not the models provide an adequate representation of the electricity demand for a typical urban LV network, judged in terms of a variety of parameters. The output from the domestic model comparesw ell with measuredd ata giving realisticd emandc haracteristicsin terms of mean, peak, load factor and distribution. Compared against diversified peak demands currently in use within the industry, the model estimates values within 10% for groups fewer than 25 and 5% for groups of 100 or more. When used together with a power flow analysis package, the predicted voltage variation agrees with measured results in terms of mean value and distribution. The investigation of time and group averaging of demand, power factor surveys and, with a matching model for PV and solar thermal output, studies into electrical demand reduction within mixed communities are all possible additional applications for the model

    Evolutionary robotics and neuroscience

    Get PDF
    No description supplie

    Entropy in Image Analysis II

    Get PDF
    Image analysis is a fundamental task for any application where extracting information from images is required. The analysis requires highly sophisticated numerical and analytical methods, particularly for those applications in medicine, security, and other fields where the results of the processing consist of data of vital importance. This fact is evident from all the articles composing the Special Issue "Entropy in Image Analysis II", in which the authors used widely tested methods to verify their results. In the process of reading the present volume, the reader will appreciate the richness of their methods and applications, in particular for medical imaging and image security, and a remarkable cross-fertilization among the proposed research areas
    corecore