10,631 research outputs found

    Um modelo para provisão de garantia dinâmica de tempo real em middleware baseado em componentes

    Get PDF
    Tese (doutorado) - Universidade Federal de Santa Catarina, Centro Tecnológico, Programa de Pós-Graduação em Engenharia Elétrica, Florianópolis, 2007.A abordagem baseada em componentes foi desenvolvida em resposta à necessidade de lidar com a complexidade das aplicações e diminuir o ciclo de desenvolvimento do software. A separação em lógica de aplicação e parte não funcional em um componente permite que requisitos temporais sejam configurados, ao invés de inseridos ao longo do código. Como resultado, os componentes se tornam menos dependentes da plataforma subjacente e podem ser reusados em aplicações diferentes. Este trabalho apresenta um modelo para provisão de garantia dinâmica em sistemas de tempo real distribuídos baseados em componentes. O modelo desenvolvido condiciona a aceitação de um cliente à disponibilidade de recursos para satisfazer os requisitos temporais deste cliente e de clientes previamente aceitos. Este modelo permite a adoção de diferentes algoritmos para o teste de aceitação, se adequando ao modelo das tarefas escalonadas ou à capacidade da plataforma. Outra contribuição é um serviço de monitoramento de tempos de resposta de componentes, inicialmente desenvolvidos para prover dados iniciais para o modelo de garantia dinâmica. O serviço de monitoramento permite que o mecanismo de garantia dinâmica se mantenha preciso apesar da flutuação da carga computacional do servidor e permite a aplicação de algoritmos probabilistas para o modelo de garantia dinâmica.Abstract : The component-based approach was developed in response to the need to cope with application complexity and reduce the software development time. The component separation of concerns allows real-time constraints to be configured instead of hard coded. As a result, components become less dependent from the underlying platform and can be reused in different applications. This work presentes a model for real-time dynamic guarantee for component-based distributed systems. According to the model, the acceptance of a client to the system is subject to the availability of resources to satisfy all clients real-time constraints. This model allows the use of different algorithms for the acceptance test, according to the application task model or the platform capacity. Another contribution is the response time monitoring service, developed to provide input data for the dynamic guarantee model. This service provides updates for the dynamic guarantee model and also allows the use of probabilistic approaches for the acceptance test

    Proposta metodológica para estimar tempos de desenvolvimento de projetos de desenvolvimento de produtos : estudo exploratório em empresa de base tecnológica

    Get PDF
    Dissertação (mestrado)—Universidade de Brasília, Faculdade de Tecnologia, Departamento de Engenharia Mecânica, 2017.Os projetos de desenvolvimento de novos produtos (NPD) são de grande importância para o sucesso das empresas e para o incremento nos seus lucros. O tempo nos projetos NPD torna-se crítico, já que este tempo define os custos desses projetos, assim como a vantagem de vendas a partir do lançamento do produto condizendo aos objetivos paralelos dos concorrentes. Nos mercados concorrentes as empresas estão enfrentando a pressão notável de introduzir rapidamente novos produtos porque os ciclos de vida desses estão se tornando mais curtos. Por este motivo, na atualidade um dos principais objetivos das equipes de NPD é reduzir o tempo do ciclo de desenvolvimento. Mas para controlar de alguma maneira os tempos nos projetos NPD deve-se ter uma estimativa prévia do tempo de conclusão do projeto com o objetivo de implementar alguma ação corretiva que reposicione o projeto no caminho certo para o cumprimento do planejamento definido. Nesta dissertação serão propostos modelos matemáticos para calcular a estimativa do tempo de desenvolvimento de uma empresa Brasileira de tecnologia no ramo da óptica, com atuação nas áreas médica, industrial, aeroespacial e de defesa. Os modelos são obtidos através da análise de mínimos quadrados e regressão múltipla. A abordagem feita nesta dissertação é orientada à partir da estimativa de tempos em projetos NPD através de conhecimentos prévios das estruturas e funcionamento, assim como dos Leads times de fabricação de componentes (LFCs) dos produtos de referência enquanto protótipos. A empresa estudada forneceu informações da estrutura e funcionamento dos produtos estudados (o Retinografo ADS, o Laser Amarelo, o Magis e o MIV), assim como também informações dos tempos de desenvolvimentos e dos LFCs dos protótipos desses. Nesta dissertação também se propõe uma metodologia para medir a complexidade estática focada em produtos mecatrônicos.Fundação de Apoio à Pesquisa do Distrito Federal (FAP-DF).The New Product Development Projects (NPD) are of great importance to the success of companies and to increase their profits. The time in NPD projects becomes critical, since this time defines the costs of these projects, as well as the advantage of sales from the launch of the product with regard to the parallel objectives of the competitors. In competing markets, the companies are facing the remarkable pressure to rapidly introduce new products due their life cycles are becoming shorter. For this reason, currently one of the main goals of NPD teams is to reduce development cycle time. On the other hand, to control the times in the NPD projects in some way is necessary to have a preliminary estimate of the project completion time in order to implement some corrective action that repositions the project in the right way to fulfill the defined planning. The main objective of this dissertation is to propose mathematical models to calculate the estimated time of development of a Brazilian technology company in the field of optics, working in the medical, industrial, aerospace and defense areas. The models are obtained through least squares analysis and multiple regression. The approach taken in this dissertation is oriented to the estimation of times in NPD projects through previous knowledge of the structures and functioning, as well as of the Leads Times of component manufacturing (LFCs) of reference products as prototypes. The studied company provided information on the structure and operation of the products studied (the ADS Retinograph, the Yellow Laser, the Magis and the MIV), furthermore, they provided information on the development times and the LFCs of these prototypes. This dissertation also proposes a methodology to measure static complexity focused on mechatronic products

    Recomendação de conteúdos : aplicação de agrupamento distribuído a conteúdos de TV

    Get PDF
    Tese de mestrado integrado. Engenharia Informática e Computação. Faculdade de Engenharia. Universidade do Porto. 201

    Unidade de processamento e sistema de visão para um robô humanóide

    Get PDF
    Mestrado em Engenharia Electrónica e TelecomunicaçõesEste trabalho descreve a integração da Unidade Central de Processamento, um computador embebido, numa plataforma humanóide e o desenvolvimento do sistema de visão do robô. É abordado o processo de alteração da estrutura da plataforma para a integração física, e também a configuração e implementação do ambiente de desenvolvimento por forma a permitir a integra ção numa arquitectura de controlo distribuída já existente. O sistema de visão é baseado numa unidade pan-tilt que movimenta uma câmara para aquisição de imagem. A informação retirada da imagem adquirida é processada e usada para fazer o seguimento de um objecto. Para o seguimento são usados dois algoritmos de controlo baseados na imagem. ABSTRACT: This report describes the integration of the Central Control Unit, an embedded computer, on an humanoid platform and the development of the robot's vision system. The necessary changes on the physical support are shown as well as the configuration and implementation of the development environment, in order to allow the integration with the existing distributed architecture. The vision system is based on a pan and tilt unit supporting a color CCD camera for image aquisition. The visual tracking is based on the features of the acquired and processed image. Two diferent image-based algorithms are used for control

    Um Modelo para obtenção de previsibilidade temporal em aplicações java para TV digital

    Get PDF
    Dissertação (mestrado) - Universidade Federal de Santa Catarina, Centro Tecnológico. Programa de Pós-Graduação em Engenharia de Automação e SistemasCom o crescimento da TV Digital Interativa (TVDI) um novo modelo de aplicações torna-se imprescindível no cenário TV Digital, isto implica na necessidade de ter-se mecanismos que propiciem a execução de forma determinística ou, ao menos, satisfatória das aplicações para TV Digital. Este trabalho propõe a criação de um modelo para execução de aplicações para TV Digital baseadas na linguagem Java que implementam especificação Globally Executable MHP (GEM). Para isso, é proposta uma integração entre a extensão da linguagem Java para Real Time, a Real Time Specification for Java (RTSJ), com o modelo de Java TV, possibilitando a definição de um novo modelo capaz de proporcionar melhor gerenciamento de recursos ligados às aplicações. Esse modelo permite que as aplicações para TV Digital possam expressar suas restrições temporais soft, tornando possível a criação de mecanismos para tratamento e controle de sobrecargasWith the increase of the Interactive Digital TV (IDTV), a new model of applications becomes essential in the Digital TV scenario. This implies the need of having mechanism that provides the execution in a deterministic way or, at least, satisfactory of the Digital TV applications. This work proposes the creation of a model for execution of Digital TV applications based on Java language, implementing specification Globally Executable MHP (GEM). For that, it is proposed an integration between the Java language extension for Real Time, the Real Time Specification for Java (RTSJ) and the Java TV model, allowing the definition of a model capable of providing better management to the applications resources. This model allows digital TV application to express their soft timing constraints, making possible the creation of mechanism for the overload control and treatmen

    Envelhecimento de software utilizando ensaios de vida acelerados quantitativos

    Get PDF
    Tese (doutorado) - Universidade Federal de Santa Catarina, Centro Tecnológico. Programa de Pós-Graduação em Engenharia de ProduçãoEste trabalho apresenta uma abordagem sistematizada para acelerar o tempo de vida de sistemas que são acometidos pelos efeitos do envelhecimento de software. Estudos de confiabilidade voltados para estes sistemas necessitam realizar a observação dos tempos de falhas causadas pelo envelhecimento de software, o que exige experimentos de longa duração. Esta exigência cria diversas restrições, principalmente quando o tempo de experimentação implica em prazos e custos proibitivos para o estudo. Neste sentido, este trabalho apresenta uma proposta para acelerar a vida de sistemas que falham por envelhecimento de software, reduzindo o tempo de experimentação necessário para observar as suas falhas, o que reduz os prazos e custos das pesquisas nesta área. A fundamentação teórica deste estudo contou com um arcabouço conceitual envolvendo as áreas de dependabilidade computacional, engenharia de confiabilidade, projeto de experimentos, ensaios de vida acelerados e o estudo da fenomenologia do envelhecimento de software. A técnica de aceleração adotada foi a de ensaios de degradação acelerados, a qual tem sido largamente utilizada em diversas áreas da indústria, mas até o momento não tinha sido usada em estudos envolvendo produtos de software. A elaboração dos meios que permitiram aplicar esta técnica no âmbito da engenharia de software experimental, abordando especialmente o problema do envelhecimento de software, é a principal contribuição desta pesquisa. Em conjunto com a fundamentação teórica foi possível avaliar a aplicabilidade do método proposto a partir de um estudo de caso real, envolvendo a aceleração do envelhecimento de um software servidor web. Dentre os principais resultados obtidos no estudo experimental, destaca-se a identificação dos tratamentos que mais contribuíram para o envelhecimento do software servidor web. A partir destes tratamentos foi possível definir o padrão de carga de trabalho que mais influenciou no envelhecimento do servidor web analisado, sendo que o tipo e tamanho de páginas requisitadas foram os dois fatores mais significativos. Outro resultado importante diz respeito à verificação de que a variação na taxa de requisições do servidor web não influenciou o seu envelhecimento. Com relação à redução no período de experimentação, o método proposto apresentou o menor tempo em comparação aos valores previamente reportados na literatura para experimentos similares, tendo sido 3,18 vezes inferior ao menor tempo encontrado. Em termos de MTBF estimado, com e sem a aceleração do envelhecimento, obteve-se uma redução de aproximadamente 687 vezes no tempo de experimentação aplicando-se o método proposto. This research work presents a systematic approach to accelerate the lifetime of systems that fail due to the software aging effects. Reliability engineering studies applied to systems that require the observation of time to failures caused by software aging normally require a long observation period. This requirement introduces several practical constraints, mainly when the experiment duration demands prohibitive time and cost. The present work shows a proposal to accelerate the lifetime of systems that fail due to software aging, reducing the experimentation time to observe their failures, which means smaller time and costs for research works in this area. The theoretical fundamentals used by the proposed method were based on concepts of the following areas: computing dependability, reliability engineering, design of experiments, accelerated life tests and the software aging phenomenology. The lifetime acceleration technique adopted was the quantitative accelerated degradation test. This technique is largely used in several industry areas, however until the moment it hadn't been used in the software engineering field. The specification of means that allowed applying this technique to the experimental software engineering area, especially to approach the software aging problem, it is considered the main contribution of this research work. Also, it was possible to evaluate the applicability of the proposed method in a case study related to the software aging acceleration of a real web server. An important result was the identification of treatments that contributed to the web server aging. Based on these treatments was possible to define a workload standard that most influenced the aging effects on the web server analyzed, where the page size and page type were two significant factors. Another important result of this case study is regarding the request rate variability, that hadn't influence on the aging of the investigated web server software. Regarding the reduction of the experimentation period, the proposed method showed a shorter duration than values from similar experiments previously published, being 3.18 times less than the shorter experimentation time found in the literature. In terms of MTBF estimates, obtained with and without the aging acceleration, it was possible to achieve a reduction of approximately 687 times of the experimentation time using the proposed method

    Avaliação do uso da informação tempo padrão nos processos decisórios em uma empresa “engineer to order” do setor elétrico

    Get PDF
    Este relatório apresenta os produtos entregues para a empresa em que o mestrado profissional foi realizado. Nele estão contidos uma introdução a respeito do assunto abordado seguido de um pequeno referencial bibliográfico sobre o que foi identificado na literatura. Após essa introdução são expostos a aplicação e os resultados obtidos. Nesse relatório estão inseridos os três produtos entregues como exigência do mestrado profissional: o fluxo do tempo padrão dentre os diversos departamentos da empresa; a análise de sensibilidade de quando o tempo padrão considerado pela empresa diverge do real e uma equação que funciona como um procedimento de escolha de tempos padrão por projeto

    Algoritmos baseados em inteligência de enxames aplicados à multilimiarização de imagens

    Get PDF
    Orientador: Prof. Dr. Leandro dos Santos CoelhoDissertação (mestrado) - Universidade Federal do Paraná, Setor de Tecnologia, Programa de Pós-Graduação em Engenharia Elétrica. Defesa : Curitiba, 20/08/2018Inclui referências: p.117-122Área de concentração: Sistemas EletrônicosResumo: O processamento de imagens é uma área que cresce à medida que as tecnologias de geração e armazenamento de informações digitais evoluem. Uma das etapas iniciais do processamento de imagem é a segmentação, onde a multilimiarização é uma das técnicas de segmentação mais simples. Um focorelevante de pesquisa nesta área é o projeto de abordagens visando a separação de diferentes objetos na imagem em grupos, por meio de limiares, para facilitar assim a interpretação da informação contida na imagem. Uma imagem perde informação, ou entropia, quando é limiarizada. A equação de limiarização multiníveis de Kapur calcula, a partir dos limiares escolhidos, qual a quantidade de informação que uma imagem apresentará após a limiarização. Assim, pela maximização da equação de multimiliarização de Kapur, é possível determinar os limiares que retornam uma imagem com valor maior de entropia. Quanto maior a quantidade de limiares, maior a dificuldade para encontrar a melhor solução, devido ao aumento significativo da quantidade de possíveis soluções. O objetivo desta dissertação é de apresentar um estudo comparativodecinco algoritmos de otimização (meta-heurísticas de otimização)da inteligência de enxame, incluindo Otimização por Enxame de Partículas (PSO), Otimização por Enxame de Partículas Darwiniano (DPSO), Otimização por Enxame de Partículas Darwiniano de Ordem Fracionária (FO-DPSO), Otimizador baseado no comportamento dos Lobos-cinza (GWO) e Otimizador inspirado no comportamento da Formiga-leão (ALO), de forma a avaliarqual deles obtém a melhor solução e convergência em termos da função objetivo relacionada a entropia da imagem. Uma contribuição desta dissertação é a aplicação de diferentes meta-heurísticas de otimização ao problema de multilimiarização de imagens, assim como o estudo do impacto das suas variáveis de controle (hiperparâmetros) para o problema em questão.Nesta dissertação são apresentados resultados paraquatro imagens diferentes, sendo duas imagens registradas por satélite (Rio Hunza e Yellowstone) e outras duas imagens teste (benchmark) obtidas do Centro de Engenharia Elétrica e Ciência da Computação do MIT (Massachussetts Institute of Technology). Os resultados são comparados considerando a média e o desvio padrão da entropia de cada imagem resultante. Com base nos resultados obtidos conclui-se que o algoritmo mais indicado para o problema de multilimiarização de imagens dos avaliados é o GWO, pelo seu desempenho superior em relação aos outros algoritmos e pelas entropias das imagens resultantes serem satisfatórias. Palavras-chave: Segmentação de imagens. Multilimiarização. Inteligência de enxames. Otimização por enxame de partículas. Otimizador dos lobos-cinza. Otimizador formiga-leão.Abstract: Image processing is a field that grows as digital information storage and generation technologies evolution. One of the initial stages of image processing is segmentation procedure, where the multi level thresholding is one of the simplest segmentation approaches. A relevant research objective in this field is the design of approaches aimed at separating different objects in the image into groups, through thresholds, to facilitate the interpretation of the information contained in the image. An image loses information, or entropy, when it is thresholded. The Kapur multilevel thresholding equation calculates, from the chosen thresholds, how much information an image will present after the thresholding. Thus, by the maximization of the Kapur multilevel limiarization equation, it is possible to determine the thresholds that return an image with a larger value of entropy. The higher the amount of thresholds, the greater the difficulty in finding the best solution, due to the significant increase in the quantity of possible solutions. The objective of this dissertation is to present a comparative study between fiveoptimization metaheuristics of the swarm intelligence field, including Particle Swarm Optimization (PSO), Darwinian Particle Swarm Optimization (DPSO), Fractional Order Darwinian Particle Swarm Optimization (FO-DPSO), Grey Wolf Optimizer (GWO) and the Ant lion behavioral optimizer (ALO), in order to identify which one gets the best solution and convergence in terms of the objective function and the entropy of the image. A contribution of this dissertation is the application of different optimization metaheuristics to the problem of multilimizing of images, as well as the study of the impact of its control variables (hyperparameters) on the problem in question. Experiments are conducted with four images, two images being recorded by satellite (Hunza River and Yellowstone) and two other test(benchmark) images obtained from MIT's (Massachussetts Institute of Technology) Electrical Engineering and Computer Science Center. The results are compared considering the mean and standard deviation values of each resulting image entropy.Based on the results obtained it is concluded that the most suitable algorithm for the problem of multilevel thresholding of images is the GWO, for its superior performance in relation to the other tested algorithms and satisfactory entropies of the resulting images. Key-words: Image segmentation. Multilevel thresholding. Kapur's entropy. Swarm intelligence. Particle swarm optimization. Grey wolf optimizer. Ant lion optimizer

    Planeamento de Capacidades na Indústria de Moldes

    Get PDF
    corecore