1,203 research outputs found

    Sistema de Deteção de Surtos através do Twitter

    Get PDF
    O presente trabalho, teve como objetivo a construção de um sistema de deteção de surtos, nomeadamente de sarampo, com dados recolhidos a partir da rede social Twitter utilizando uma plataforma Web para executar algoritmos de Machine Learning. Com os modelos resultantes, pretendeu-se detetar em tempo real a ocorrência de surtos de sarampo (ou outras doenças) providenciando uma ferramenta útil para fins de monitorização da saúde pública. Foram utilizados vários datasets de diferentes dimensões e quatro algoritmos: LinearSVC, Multiplayer Perceptron, Random Forest e Logistic Regression. À exceção do Random Forest todos os algoritmos conseguiram um bom desempenho na deteção de surtos de sarampo, mas constatou-se que para tal é necessário ter um dataset com muitos tweets e, sobretudo, com igual número de tweets em ambas as classes (surto e não surto)

    Integrative methodology to produce cyber threat intelligence using open source platforms

    Get PDF
    Dissertação (mestrado) — Universidade de Brasília, Faculdade de Tecnologia, Departamento de Engenharia Elétrica, Mestrado Profissional em Engenharia Elétrica, 2020.Neste trabalho foi proposta uma metodologia integrativa de plataformas de CTI de código aberto vi- sando a produção de inteligência de ameaça de qualidade. Primeiramente, foi desenvolvida uma metodo- logia de avaliação para analisar padrões e plataformas de CTI e definir soluções com potencial de conso- lidação no mercado. Essa metodologia de avaliação baseou-se em uma estratégia de seleção de soluções de CTI populares de código aberto e no estabelecimento de critérios de avaliação para analisar e comparar essas soluções. Os resultados dessa avaliação comparativa mostraram a existência de boas soluções de CTI de código aberto e possibilitaram a definição de uma metodologia integrativa para a produção de inteli- gência de ameaça, baseada na complementaridade das plataformas MISP e OpenCTI. Alguns cenários de teste foram simulados e analisados com base em uma proposta definida que utiliza o método 5W3H para avaliar a completude da inteligência produzida e, consequentemente, entender sua qualidade e eficácia no processo de tomada de decisão contra incidentes. A partir dos resultados produzidos foi possível verificar que a metodologia proposta é satisfatória quando aplicada à conjuntos de dados de ameaça de tamanho controlado e contextualizados. Além disso, foi possível identificar algumas desvantagens em sua aplicação que podem proporcionar o desenvolvimento de trabalhos futuros.In this work, an integrative methodology of open source CTI platforms was proposed, aiming to pro- duce quality threat intelligence. First, an evaluation methodology was developed to analyze CTI standards and platforms and define solutions with potential for consolidation in the market. This evaluation metho- dology was based on a strategy for selecting popular open source CTI solutions and establishing evaluation criteria to analyze and compare these solutions. The results of this comparative evaluation showed the exis- tence of great open source CTI solutions and have led to the definition of an integrative methodology for the production of threat intelligence, based on the complementarity of the platforms MISP and OpenCTI. Some test scenarios were simulated and analyzed based on a defined proposal that uses the 5W3H method to assess the completeness of the intelligence produced and, consequently, understand its quality and ef- fectiveness in the decision making process. From the results produced, it was possible to verify that the proposed methodology is satisfactory when applied to contextualized and controlled size threat data sets. In addition, it was possible to identify some disadvantages in its application that may provide the development of future works

    Escalonamento de tarefas no fechamento de lacunas em plataformas de sequenciamento genético de nova geração

    Get PDF
    Resumo: Este trabalho propõe um escalonador de tarefas para controlar a demanda de envio de lacunas de genoma para o processamento obtidas pelo processo, considerando os recursos computacionais disponíveis. O objetivo do escalonador é evitar que sejam solicitados mais recursos computacionais do que os que podem ser fornecidos, pois nesse caso, o sistema sofre degradação de desempenho e causa atraso no tempo de processamento da tarefa. A motivação para este trabalho é a melhoria na eficiência da execução do fechamento de lacunas no sequenciamento de genomas. Para a avaliação da proposta, foi implementado um escalonador de lacunas com políticas de escalonamento baseadas no monitoramento dos recursos computacionais. Desta forma, utilizando o escalonador, a melhoria de desempenho na execução das lacunas foi de 56% no tempo de processamento com a implementação do escalonador e depois de 70% diferenciando o uso ou nao do paralelismo, comparando com o uso da solução original, resultado do uso mais eficiente dos recursos disponíveis

    Make distribuido

    Get PDF
    Orientador: Rogerio Drummond Burnier Pessoa de Mello FilhoDissertação (mestrado) - Universidade Estadual de Campinas, Instituto de Matematica, Estatistica e Computação CientificaResumo: Este trabalho apresenta o projeto e a implementação de um Make Distribuído (MakeD) baseado na conhecida ferramenta make. A aplicação cliente/selVidor MakeD permite usar uma rede de computadores como um re~urso computacional único para minimizar o tempo gasto no processo de make durante o desenvolvimento de projetos de médio e grande porte. Num ambiente de desenvolvimento típico uma estação cliente apresenta um padrão de uso de CPU com curtos períodos de intensa utilização e longos períodos de inatividade ou baixa utilização. Dessa forma, utilizar os clientes como servidores de CPU e usar a ferramenta MakeD para distribuir as tarefas de compilações entre eles melhora o uso da capacidade de processamento disponível na rede, contribuindo para balancear a utilização dos recursos. A implementação do MakeD combina o mecanismo de RPC com recursos de multithreading para explorar a distribuição de tarefas na rede e a multi-tarefa em cada sistema. Os resultados de testes comparativos entre MakeD, GNU Make e outro make distribuído (Dmake) demonstram a eficiência dos métodos empregados. O trabalho também discute alguns aspectos de transformação de aplicações centralizadas em distribuídas e propõe um selVidor de make distribuído multi-usuário como extensão para o MakeDAbstract: This work presents the design and implementation of a Distributed Make (MakeD) utility. The MakeD c1ient/server application allows using a network as a single computing resource to reduce compilation time in the development of medium and large projects. In a typical development environment, client workstations presents relatively short periods of high CPU load followed by long periods of low or zero utilization. MakeD uses ordinary c1ients as CPU servers in order to distribute tasks, thus making a network's id1e processor capacity available and balancing resource use. MakeD uses RPC and multithreading to achieve distributed processing in the network and multitasking within each node. The results of comparative tests show performance gains relative to GNU Make and a similar distributed make (Dmake). This work also discusses some aspects of transforming centralized applications into distributed ones and proposes a multi-user distributed Make Server as a future evolutionMestradoMestre em Ciência da Computaçã

    Impacto de estratégias combinatórias no precondicionador paralelo baseado no algoritmo híbrido SPIKE

    Get PDF
    Neste trabalho, utilizamos o algoritmo paralelo híbrido SPIKE um precondicionador para um método iterativo não estacionário combinando as arquiteturas de memoria distribuída e compartilhada,MPI e OpenMP. A fim de obter um bom precondicionador, resolvemos um conjunto de problemas combinatórios como reordenamentos e particionamento de grafos. Apresentamos os resultados avaliando a influencia de cada estrategia na  convergência e tempo de CPU do método iterativo.CAPE

    DC4MT : uma abordagem orientada a dados para transformação de modelos

    Get PDF
    Orientador: Marcos Didonet Del FabroTese (doutorado) - Universidade Federal do Paraná, Setor de Ciências Exatas, Programa de Pós-Graduação em Informática. Defesa : Curitiba, 25/08/2020Inclui referências: p. 95-106Área de concentração: Ciência da ComputaçãoResumo: Transformações de Modelos são operações que recebem um conjunto de modelos como entrada e produzem um conjunto de modelos como saída, seguindo uma especificação. Há uma coleção diversificada de abordagens e ferramentas utilizadas para a especificação de diferentes tipos de transformações de modelos. A maioria dessas abordagens adota como estratégia a execução local e sequencial. No entanto, essas abordagens não estão totalmente aptas para processar modelos com grandes quantidades de elementos. VLMs (Very Large Models) são modelos que possuem milhões de elementos. Esses modelos estão presentes em domínios de aplicações como na indústria automotiva, modernização de sistemas legados, internet das coisas, redes sociais, entre outros domínios. Essas abordagens possuem lacunas para suportar o processamento desses VLMs. Por exemplo, para possibilitar a execução das transformações de modelos, considerando a escala do problema ou para melhoria de desempenho. Nesta tese é proposta a Dc4MT, uma abordagem para suportar transformações de VLMs com a aplicação e adaptação de técnicas relacionadas à distribuição de dados. A Dc4MT é uma abordagem Orientada a Dados (Dc - Data-centric) para ser aplicada no domínio da Engenharia Dirigida por Modelos (MDE - Model Driven Engineering). A abordagem é especificada, utilizando um framework de processamento distribuído, e define um conjunto de operações para a fragmentação, extração e transformação de modelos. A fragmentação é uma operação que divide os modelos de entrada (em formatos XMI ou JSON) em fragmentos, de modo que esses fragmentos possam ser distribuídos e processados de maneira paralela/distribuída. A extração é uma operação que processa os fragmentos do modelo de entrada e os traduz em um grafo acíclico, atribuindo um novo domínio de modelagem a esses fragmentos. A transformação de modelos na abordagem Dc4MT é uma operação que transforma modelos de entrada em modelos de saída (M2M) a partir do resultado da extração. As execuções de transformação podem ser em modo paralelo ou distribuído, com ou sem a intervenção no método de particionamento do framework disponível para melhorar o desempenho. Um conjunto de modelos de entrada (datasets) e os ambientes local (transformações paralelas) e distribuído (transformações distribuídas) são utilizados nos experimentos para validar a abordagem Dc4MT, sob os aspectos de factibilidade, desempenho e de escalabilidade. Os resultados desses experimentos, mostram que as operações de fragmentação e extração de modelos favorecem a transformação escalável de VLMs, reconstruindo a estrutura dos fragmentos em um grafo. A operação de extração é executada em modo paralelo/distribuído. Além disso, os aspectos como a imutabilidade, lazy-evaluate e o paralelismo implícito presentes na Dc4MT, permitem o processamento paralelo/distribuído de regras de transformação em uma plataforma escalável. Palavras-chave: Abordagem Orientada a Dados. Engenharia Dirigida por Modelos. Transformação Paralela de Modelos. Transformação Distribuída de Modelos.Abstract: Model Transformations are operations that receive a set of source models as input and produce a set of target models as output, following a specification. There is a variety of approaches and tools used for the specification of different types of model transformation. Most of these approaches adopt for model transformation the local and sequential execution strategy. However, these approaches not fully adapted for processing models with large amounts of elements. VLMs (Very Large Models) are models with millions of elements. These models are present in application domains such as the automotive industry, modernization of legacy systems, internet of things, social networks, among others. These approaches have gaps to support the processing of these increasingly larger models. For example, to enable model transformations, considering the scale of the problem or to improve performance. In this thesis, the Dc4MT is proposed such as an approach to support transformation of VLMs, applying and adapting distribution techniques of data. The Dc4MT is a Data-centric (Dc) approach for applying in Model Driven Engineering (MDE). The approach will be specified using a distributed processing framework, and defines a set of operations for fragmentation, extraction, and transformation of models. The fragmentation is an operation that splits the input models (in the XMI or JSON formats) in a way that the fragments can be processed in parallel/distributed. The extraction is an operation that processes the fragments of the input model in parallel and translates them to an acyclic graph, assigning a new modeling domain to these fragments. The model transformation in Dc4MT is an operation that transforms input models in output models (M2M) from the results of the extraction. The transformation executions can be parallel or distributed with ou without the intervention in the framework partitioning method to improve the performance. A set of input models (datasets) and the local (parallel transformations) and distributed (distributed transformations) environments are used in the experiments to validate the Dc4MT approach, in terms of feasibility, performance, and scalability. The results of the experiments show that the model fragmentation and extraction operations favor the scalable transformation of models, reconstructing the structure of the fragments in a graph. The extraction operation is executed on parallel/distributed way. Moreover, aspects such as immutability, lazy-evaluation, and implicit parallelism present in Dc4MT, allowing the parallel/distributed processing of transformation rules on a scalable platform. Keywords: Data-centric Approach. Model Driven Engineering. Parallel Model Transformation. Distributed Model Transformation

    Uso de computação imprecisa e reflexão computacional como mecanismo de adaptação para aplicações tempo real

    Get PDF
    Dissertação (mestrado) - Universidade Federal de Santa Catarina, Centro Tecnológico. Programa de Pós -Graduação em Computação.Este trabalho mostra como a técnica de Computação Imprecisa, implementada através de Reflexão Computacional, pode ser utilizada para permitir a adaptação de aplicações de Tempo Real a diferentes plataformas no contexto da Internet, bem como em sistemas de uso geral. Utilizamos o modelo de programação RTR para ilustrar a forma como esta adaptação poderá ser implementada.É usada a técnica da Computação Imprecisa para flexibilizar o escalonamento tempo real, já que nela as tarefas da aplicação são capazes de gerar resultados com diferentes níveis de qualidade ou precisão, porque cada tarefa é dividida em parte obrigatória (mandatory) e parte opcional (optional). A parte obrigatória da tarefa é capaz de gerar um resultado com qualidade mínima necessária para manter o sistema operando de maneira segura. A parte opcional refina este resultado, até que ele alcance a qualidade desejada.A Reflexão Computacional facilita a implementação da Computação Imprecisa, separando as questões funcionais das questões de controle responsáveis pela adaptação da aplicação. O Modelo Reflexivo Tempo Real (RTR), é o modelo de programação reflexivo e de tempo real caracterizado por permitir, de forma flexível e sistemática, a representação e o controle de aspectos temporais de aplicações tempo real que seguem uma abordagem de melhor esforço.Demonstramos através de um protótipo, a validade do uso da reflexão computacional juntamente com a técnica de computação Imprecisa como um mecanismo de adaptação para aplicações tempo real, e que o modelo RTR através de suas especificações é capaz de suportar esta implementação

    Simulação baseada em agentes para transporte colaborativo utilizando MATSim

    Get PDF
    Trabalho de conclusão de curso (graduação)—Universidade de Brasília, Instituto de Ciências Exatas, Departamento de Ciência da Computação, 2015.Existe uma grande aceitação por parte da comunidade acadêmica, sobretudo entre os graduandos, ao projeto Carona Solidária UnB. Desta forma, a hipótese deste trabalho é que um estudo sobre ferramentas de modelagem e simulação baseado em agentes, com foco na ferramenta MATSim, para desenvolver um modelo de simulação deve auxiliar no desenvolvimento de um módulo inteligente para o sistema automatizado do projeto Carona Solidária UnB. Neste trabalho foi desenvolvido um modelo de simulação utilizando o MATSim e dados reais de agentes coletados por entrevistas em 2013 no Campus Darcy Ribeiro. As simulações foram analisadas com o objetivo de adquirir conhecimento para auxiliar no desenvolvimento de um módulo inteligente a ser integrado ao sistema Carona Solidária UnB. Este trabalho tem como objetivo principal auxiliar o Plano Diretor de Mobilidade Urbana Sustentável da UnB a ser implantado em todos os Campi da UnB. _____________________________________________________________________________ ABSTRACTThe Carona Solidária UnB project is widely accepted in the academic community, especially among the undergraduate students. Thus, this work states as hypothesis that a study of agent-based simulation tools, specially focusing the MATSim tool, can be useful to develop a simulation model to help to develop an intelligent module to the Carona Solidária UnB system. In this work, a simulation model using MATSim and real data from agents, collected from interviews during 2013 in the Campus Darcy Ribeiro of UnB, was conducted. The simulations were analyzed to help gather knowledge to develop the intelligent module to be integrated to the Carona Solidária UnB system. This work has the main objective to assist in the Plano Diretor de Mobilidade Urbana Sustentável da UnB which is intended to be deployed in all UnB campi

    Plataforma de rastreabilidade para a cadeia de valor do setor têxtil e do vestuário

    Get PDF
    Mestrado em Engenharia Informática na Escola Superior de Tecnologia e Gestão do Instituto Politécnico de Viana do CasteloO impacto ambiental do Setor Têxtil e do Vestuário tem vindo a crescer a um ritmo acelerado nas últimas décadas. A ausência de políticas ambientais e sociais no que diz respeito à confeção dos produtos têxteis associados à produção de produtos mais baratos e, por vezes, com menor qualidade, leva a um grande aumento do consumo gerando, no final, um enorme aumento do desperdício. Este aumento do consumo provoca um forte impacto ambiente global, não só porque é necessário aumentar o tratamento do lixo, mas também porque aumenta o consumo de matérias primas aumentando a degradação dos solos e o desperdício de água. Para além disso, a procura de mão de obra mais barata por parte das empresas para conseguirem vantagem competitiva, leva a que os produtos (intermédios e finais) percorram largas distancias aumentando assim o impacto ambiental final dos produtos. Face a este problema, é necessário investigar e desenvolver soluções no sentido de minimizar esses impactos através da consciencialização dos consumidores, mas também, e de forma mais rígida, descobrir formas de controlar e monitorizar o desenvolvimento desses produtos e disponibilizar essa informação para todos os interessados. Assim, a criação de uma plataforma que permita acompanhar o movimento da produção têxtil e dos seus subprodutos insere-se na progressão da descoberta de soluções para resolver os problemas que hoje encontramos neste setor. No trabalho aqui apresentado, propõe-se uma plataforma onde são registadas todos os lotes produzidos e as atividades que vão sendo executadas em todo o ciclo produtivo da industria têxtil e vestuário, desde o cultivo das matérias-primas, a criação de fibras e tecidos, o corte, produção e acabamento até chegar ao consumidor final, não esquecendo todas as movimentações geográficas que os subprodutos sofrem ao longo da cadeia. Para além da grande vantagem de serem armazenados todos os dados de rastreabilidade, estes são armazenados em blockchain o que torna a informação confiável, segura e imutável. A recolha de toda esta informação possibilita o desenvolvimento algoritmos que, de forma mais ou menos exata, conseguem calcular os impactos sociais e ambientais. Estes algoritmos podem ser desenvolvidos de forma isolada (para um produto) e global e podem ser demonstrados. e os seus resultados apresentados a todos os intervenientes da cadeia de valor incluindo ao consumidor final. Esta informação é especialmente importante para que o consumidor final a possa ter em consideração aquando da renovação do seu guarda roupa e para que possa ser usada para aumentar a consciência ambiental e social. A aplicação, desenvolvida neste projeto de investigação e aqui apresentada, permite visualizar através de um sistema interativo de grafos orientados e de grafos sobre um mapa geográfico toda a informação das atividades e lotes produzidos proveniente de fontes seguras sem qualquer possibilidade de manipulação de dados, contendo os indicadores mais importantes a nível de impactos ambiental e sociais.The environmental impact of the Textile and Clothing Sector has been growing at an acce- lerated pace in recent decades. The absence of environmental and social policies regarding the manufacturing of textile products associated with the production of cheaper products and, some times, with lower quality, leads to a large increase in consumption, generating, in the end, a huge increase in waste. This increase in consumption has a strong impact on the global environment, not only because it is necessary to increase waste treatment, but also because it increases the con- sumption of raw materials, increasing soil degradation and water waste. In addition, the search for cheaper labor by companies to achieve a competitive advantage means that products (interme diate and final) travel long distances, thus increasing the environmental impact of the products. With this being said, it is necessary to investigate and develop solutions to minimize these im- pacts through consumer awareness, but also, and more rigidly, to find ways to control and monitor the development of these products and make this information available to all interested parties. Thus, the creation of a platform that allows us to follow the movement of textile production and its by-products is part of the progression of finding solutions to solve the problems that we face in this sector today. In this project, a platform is proposed where all the batches produced and the activities that are carried out throughout the production cycle of the textile and clothing industry are registered, from the cultivation of raw materials, the creation of fibers and fabrics, the cut- ting, production and finishing until reaching the final consumer, not forgetting all the geographical movements that the by-products undergo along the chain. In addition to the great advantage of storing all traceability data, these are stored in blockchain which makes the information reliable, secure, and immutable. By collecting all this information, it is possible to develop algorithms that can, somewhat, calculate social and environmental impacts. These algorithms can be developed in isolation (for a product) and globally, and can be demonstrated, and their results presented to all members of the value chain, including the final consumer. This information is especially im- portant, allowing the final consumer to take it into account when renewing their wardrobe, and so that it can be used to increase environmental and social awareness. The application, developed in this research project and presented here, allows viewing, through an interactive system of oriented graphs and graphs on a geographic map, all the information on the activities and batches produced from secure sources without any possibility of data manipulation, containing the most important indicators in terms of environmental and social impacts
    corecore