5 research outputs found
DC4MT : uma abordagem orientada a dados para transformação de modelos
Orientador: Marcos Didonet Del FabroTese (doutorado) - Universidade Federal do Paraná, Setor de Ciências Exatas, Programa de Pós-Graduação em Informática. Defesa : Curitiba, 25/08/2020Inclui referências: p. 95-106Área de concentração: Ciência da ComputaçãoResumo: Transformações de Modelos são operações que recebem um conjunto de modelos como entrada e produzem um conjunto de modelos como saída, seguindo uma especificação. Há uma coleção diversificada de abordagens e ferramentas utilizadas para a especificação de diferentes tipos de transformações de modelos. A maioria dessas abordagens adota como estratégia a execução local e sequencial. No entanto, essas abordagens não estão totalmente aptas para processar modelos com grandes quantidades de elementos. VLMs (Very Large Models) são modelos que possuem milhões de elementos. Esses modelos estão presentes em domínios de aplicações como na indústria automotiva, modernização de sistemas legados, internet das coisas, redes sociais, entre outros domínios. Essas abordagens possuem lacunas para suportar o processamento desses VLMs. Por exemplo, para possibilitar a execução das transformações de modelos, considerando a escala do problema ou para melhoria de desempenho. Nesta tese é proposta a Dc4MT, uma abordagem para suportar transformações de VLMs com a aplicação e adaptação de técnicas relacionadas à distribuição de dados. A Dc4MT é uma abordagem Orientada a Dados (Dc - Data-centric) para ser aplicada no domínio da Engenharia Dirigida por Modelos (MDE - Model Driven Engineering). A abordagem é especificada, utilizando um framework de processamento distribuído, e define um conjunto de operações para a fragmentação, extração e transformação de modelos. A fragmentação é uma operação que divide os modelos de entrada (em formatos XMI ou JSON) em fragmentos, de modo que esses fragmentos possam ser distribuídos e processados de maneira paralela/distribuída. A extração é uma operação que processa os fragmentos do modelo de entrada e os traduz em um grafo acíclico, atribuindo um novo domínio de modelagem a esses fragmentos. A transformação de modelos na abordagem Dc4MT é uma operação que transforma modelos de entrada em modelos de saída (M2M) a partir do resultado da extração. As execuções de transformação podem ser em modo paralelo ou distribuído, com ou sem a intervenção no método de particionamento do framework disponível para melhorar o desempenho. Um conjunto de modelos de entrada (datasets) e os ambientes local (transformações paralelas) e distribuído (transformações distribuídas) são utilizados nos experimentos para validar a abordagem Dc4MT, sob os aspectos de factibilidade, desempenho e de escalabilidade. Os resultados desses experimentos, mostram que as operações de fragmentação e extração de modelos favorecem a transformação escalável de VLMs, reconstruindo a estrutura dos fragmentos em um grafo. A operação de extração é executada em modo paralelo/distribuído. Além disso, os aspectos como a imutabilidade, lazy-evaluate e o paralelismo implícito presentes na Dc4MT, permitem o processamento paralelo/distribuído de regras de transformação em uma plataforma escalável. Palavras-chave: Abordagem Orientada a Dados. Engenharia Dirigida por Modelos. Transformação Paralela de Modelos. Transformação Distribuída de Modelos.Abstract: Model Transformations are operations that receive a set of source models as input and produce a set of target models as output, following a specification. There is a variety of approaches and tools used for the specification of different types of model transformation. Most of these approaches adopt for model transformation the local and sequential execution strategy. However, these approaches not fully adapted for processing models with large amounts of elements. VLMs (Very Large Models) are models with millions of elements. These models are present in application domains such as the automotive industry, modernization of legacy systems, internet of things, social networks, among others. These approaches have gaps to support the processing of these increasingly larger models. For example, to enable model transformations, considering the scale of the problem or to improve performance. In this thesis, the Dc4MT is proposed such as an approach to support transformation of VLMs, applying and adapting distribution techniques of data. The Dc4MT is a Data-centric (Dc) approach for applying in Model Driven Engineering (MDE). The approach will be specified using a distributed processing framework, and defines a set of operations for fragmentation, extraction, and transformation of models. The fragmentation is an operation that splits the input models (in the XMI or JSON formats) in a way that the fragments can be processed in parallel/distributed. The extraction is an operation that processes the fragments of the input model in parallel and translates them to an acyclic graph, assigning a new modeling domain to these fragments. The model transformation in Dc4MT is an operation that transforms input models in output models (M2M) from the results of the extraction. The transformation executions can be parallel or distributed with ou without the intervention in the framework partitioning method to improve the performance. A set of input models (datasets) and the local (parallel transformations) and distributed (distributed transformations) environments are used in the experiments to validate the Dc4MT approach, in terms of feasibility, performance, and scalability. The results of the experiments show that the model fragmentation and extraction operations favor the scalable transformation of models, reconstructing the structure of the fragments in a graph. The extraction operation is executed on parallel/distributed way. Moreover, aspects such as immutability, lazy-evaluation, and implicit parallelism present in Dc4MT, allowing the parallel/distributed processing of transformation rules on a scalable platform. Keywords: Data-centric Approach. Model Driven Engineering. Parallel Model Transformation. Distributed Model Transformation
Monitorização animal baseada em tecnologias IoT (SHEEPIT)
The weed control is characterized by being time consuming and needs to be carried out with frequency. In general, human, mechanical and chemical ways are the main mechanisms used to remove invasive species. As an alternative, animals are often used in this process, reducing the ecological / environmental footprint, since it excludes the use of any type of herbicide or artificial fertilizer.
However, the addition of animals in the viticulture field creates threats to the fruit and challenges to companies responsible for the plantations maintenance. This work has the objective of developing a solution based on IoT technologies that allows monitoring and collecting physical and behavioral attributes.
Among others, by providing activity and animal behavior, the system should create alarm patterns, information about relative geographical positioning, detection of sexual receptivity (e.g. estrous) or early identification of diseases.O processo de limpeza de terrenos vitícolas é caracterizado por ser moroso e dispendioso, necessitando de ser realizado com uma grande periodicidade. A utilização de animais neste processo é uma alternativa antiga, muito recorrente e utilizada em meios agrícolas rudimentares. Esta solução permite reduzir a pegada ecológica/ambiental, considerando que exclui qualquer tipo de herbicida, fertilizante artificial ou custo associado.
Apesar das vantagens, a adição de animais no espaço vitícola cria ameaças aos frutos e acarreta desafios às empresas responsáveis pela manutenção das plantações, relacionados com o maneio animal. Face a isto, o presente projeto tem como objetivo o desenvolvimento de uma solução baseada em tecnologias IoT, permitindo monitorizar e aferir diversos aspetos físicos e comportamentais inerentes à gestão técnica de efetivos, com vista à rentabilização e otimização das explorações.
Entre outros, a plataforma deverá disponibilizar informação de auxílio ao maneio e gestão de ruminantes, com base em padrões alarmísticos de infração, posicionamento geográfico relativo, deteção da recetividade sexual (CIO) ou identificação precoce de doenças.Este trabalho é financiado pelo Fundo Europeu de Desenvolvimento Regional (FEDER), através do Programa Operacional Competitividade e Internacionalização (COMPETE 2020) [Projeto nº 017640 (POCI-01-0247-FEDER-017640)].Mestrado em Engenharia Informátic
Big Data na gestão eficiente das Smart Grids. HDS: Uma Plataforma Híbrida, Dinâmica e Inteligente
[POR]Nos últimos anos tem-se verificado um acréscimo exponencial de informação gerada e disponibilizada
a cada dia. Devido ao rápido avanço tecnológico (dispositivos móveis; sensores; comunicação wireless;
etc.) biliões e biliões de bytes são criados todos os dias. Este fenómeno, denominado por Big Data, é
caracterizado por 5 Vs (i.e. Volume, Velocidade, Variedade, Veracidade, Valor) e cada um deles
representa verdadeiros desafios (e.g. como recolher e transportar um grande volume de informação;
como armazenar essa informação; como minerá-la, como analisá-la e extrair conhecimento, como
garantir a sua segurança e privacidade, como processá-la em tempo real, etc.). É unanime na comunidade
científica que o valor a extrair de toda esta informação constituirá um fator de extrema importância para
a tomada de decisão, determinante no sucesso das mais variadíssimas áreas económicas, bem como na
resolução de inúmeros problemas. Nestas áreas inclui-se o ecossistema energético que por razões
ecológicas, económicas e políticas conduziu ao repensar da forma como consumimos e produzimos
energia. Devido ao aumento das necessidades energéticas provocado pelo avanço tecnológico, ao
previsto esgotamento dos recursos energéticos não renováveis e devido às diretivas para a eficiência
energética impostas pela União Europeia, muitos têm sido os estudos feitos na área da gestão de recursos
energéticos. O termo Smart Grids surgiu nas últimas décadas com o objetivo de definir um ecossistema
energético inteligente, que visa não só a integração de inteligência, mas também de automação na
operabilidade extremamente complexa de todos os seus processos. As Smart Grids têm sido alvo de
grandes estudos e investimentos dos quais têm resultado avanços significativos. No entanto, alguns
desafios estão ainda por concretizar nomeadamente na gestão do seu complexo fluxo de dados. É neste
contexto que se enquadra a presente dissertação cujo principal objetivo se centra na obtenção de soluções
para alguns dos problemas identificados no domínio de Smart Grids com recurso às novas técnicas e
metodologias propostas na área de Big Data.
Este trabalho apresenta um estudo sobre os recentes e crescentes avanços tecnológicos realizados na
área de Big Data, onde são identificados os seus grandes desafios. Destes destacam-se a complexidade
na gestão de fluxos contínuos e desordenados, a necessidade de reduzir o tempo despendido na prépreparação
dos dados e o desafio de explorar soluções que proporcionem a automatização analítica. Por
outro lado, o estudo analisa o impacto da aplicação nas novas tecnologias no desenvolvimento das Smart
Grids, no qual se conclui que apesar de embrionária, a sua aplicação é imprescindível para a evolução
do ecossistema energético. Deste estudo resultou ainda a identificação dos principais desafios na área
das Smart Grids, dos quais se destacam a complexidade na gestão do seu fluxo de dados em tempo real
e a necessidade de melhorar a precisão das previsões de consumo e produção de energia.
Face aos desafios identificados foi proposto um modelo conceptual, baseado na arquitetura Docker
Container, para o desenvolvimento de uma plataforma. Este modelo objetiva a flexibilidade e agilidade
de forma a permitir a integração e validação das novas e crescentes abordagens tecnológicas propostas
na área de Big Data, necessárias ao desenvolvimento das Smart Grids. A fim de validar o modelo
proposto, foi desenvolvida uma stack onde foram implementados vários serviços que visaram contribuir
para os desafios identificados na área de Big Data e Smart Grids, nomeadamente: visualização e
monitorização dos dados recolhidos em tempo real; preparação dos dados recolhidos em tempo real;
previsão em tempo real de várias séries temporais simultaniamente; deteção de anomalias; avaliação da
precisão das previsões e geração de novos modelos para a previsão de consumo e produção de energia
segundo determinados critérios.
Finalmente foram desenvolvidos vários casos de estudo cujos resultados obtidos permitiram concluir
sobre a importância da pré-preparação dos dados na fase analítica, sobre a eficiência na automatização
analítica e sobre as vantagens da análise de ponta (Edge Analytics). Ao contrário de abordagens mais
tradicionais que visam a execução centralizada do processo analítico, o edge analytics explora a
possibilidade de executar a analise de dados de forma descentralizada a partir de um ponto não central
do sistema. Os resultados permitiram concluir que o edge analytics traz vantagens acrescidas para a
precisão das previsões. Permitiram ainda, inferir sobre como recolher os resultados a fim de se obter
uma melhor precisão nas previsões, i.e., quanto mais específica e ajustada ao contexto forem executadas
as previsões maior será a sua precisão.[ES]En los últimos años se ha verificado un aumento exponencial de información generada y disponible cada
día. Debido al rápido avance tecnológico (dispositivos móviles, sensores, comunicación inalámbrica,
etc.) billones y billones de bytes se crean todos los días. Este fenómeno, denominado Big Data, se
caracteriza por 5 Vs (es decir, Volumen, Velocidad, Variedad, Veracidad, Valor) y cada uno de ellos
representa verdaderos desafíos (por ejemplo, cómo recoger y transportar un gran volumen de
información, cómo almacenar esa información, minarla, cómo analizarla y extraer conocimiento, cómo
garantizar su seguridad y privacidad, cómo procesarla en tiempo real, etc.). Es unánime en la comunidad
científica que el valor a extraer de toda esta información constituirá un factor de extrema importancia
para la toma de decisión, determinante el éxito de las variadísimas áreas económicas, así como en la
resolución de innumerables problemas. En estas áreas se incluye el ecosistema energético que por
razones ecológicas, económicas y políticas condujo a repensar la forma en que consumimos y
producimos energía. Debido al aumento de las necesidades energéticas provocado por el avance
tecnológico, al previsto agotamiento de los recursos energéticos no renovables y debido a las directivas
para la eficiencia energética impuestas por la Unión Europea, muchos han sido los estudios realizados
en el ámbito de la gestión de recursos energéticos. El término Smart Grid surgió en las últimas décadas
con el objetivo de definir un ecosistema energético inteligente, que apunta no sólo a la integración de
inteligencia, sino también de automatización en la operatividad extremadamente compleja de todos sus
procesos. Las Smart Grids han sido objeto de grandes estudios e inversiones de los cuales han resultado
avances significativos. Sin embargo, algunos desafíos aún no se concretan en la gestión de su complejo
flujo de datos. Es en este contexto que se encuadra la presente disertación cuyo principal objetivo se
centra en la obtención de soluciones para algunos de los problemas identificados en el dominio de Smart
Grids utilizando las nuevas técnicas y metodologías propuestas en el área de Big Data.
Este trabajo presenta un estudio sobre los recientes y crecientes avances tecnológicos realizados en el
área de Big Data, donde se identifican sus grandes desafíos. De ellos se destacan la complejidad en la
gestión de flujos continuos y desordenados, la necesidad de reducir el tiempo empleado en la prepreparación
de los datos y el desafío de explorar soluciones que proporcionen la automatización
analítica. Por otro lado, el estudio analiza el impacto de la aplicación de nuevas tecnologías en el
desarrollo de las Smart Grids, en el que se concluye que, a pesar de embrionaria, su aplicación es
imprescindible para la evolución del ecosistema energético. De este estudio resultó también la
identificación de los principales desafíos en el área de las Smart Grids, de los cuales se destacan la
complejidad en la gestión de su flujo de datos en tiempo real y la necesidad de mejorar la precisión de
las previsiones de consumo y producción de energía.
En cuanto a los desafíos identificados, se propuso un modelo conceptual, basado en la arquitectura
Docker Container, para el desarrollo de una plataforma. Este modelo tiene como objetivo la flexibilidad y agilidad para permitir la integración y validación de los nuevos y crecientes enfoques tecnológicos
propuestos en el área de Big Data, necesarios para el desarrollo de las Smart Grids. Con el fin de validar
el modelo propuesto, se desarrolló una stack donde se implementaron varios servicios que pretendían
contribuir a los desafíos identificados en el área de Big Data y Smart Grids, en particular: visualización
y seguimiento de los datos recogidos en tiempo real; preparación de los datos recogidos en tiempo real;
previsión en tiempo real de multillas series temporales simultáneamente; detección de anomalías;
evaluación de la precisión del predicción y generación de nuevos modelos para la previsión de consumo
y producción de energía según ciertos criterios.
Finalmente, se desarrollaron una serie de casos de estudo cuyos resultados nos permitieron concluir
sobre la importancia de la preparación previa de los datos en la fase analítica, la eficiencia en la
automatización analítica y las ventajas del análisis de borde (Edge Analytics). A diferencia de los
enfoques más tradicionales para la ejecución centralizada del proceso analítico, el análisis de borde
explora la posibilidad de realizar análisis de datos de forma descentralizada desde un punto no central
del sistema. Los resultados permitieron concluir que el análisis de borde aporta ventajas añadidas a la
precisión de los pronósticos. También nos permitieron inferir cómo recopilar los resultados para obtener
una mejor precisión en las predicciones, por ejemplo, cuanto más precisos y ajustados al contexto se
ejecuten los pronósticos, mayor será su precisión.[EN]In recent years, there has been an exponential increase of information generated and made available
every day. Due to rapid technological advancement (e.g., mobile devices, sensors, wireless
communication, etc.) billions and billions of bytes are created every day. This phenomenon, called Big
Data, is characterized by 5 Vs (i.e., Volume, Velocity, Variety, Veracity, Value) and each represents
real challenges (e.g., how to collect and carry a large amount of information; how to store this
information; how mining it, analyzing it and extracting knowledge; how to ensure its security and
privacy; how to process it in real time, etc.). It is unanimous in the scientific community that the value
to be extracted from all this information will be a factor of extreme importance for the decision making,
determining the success of the most varied economic areas, as well as the resolution of numerous
problems. These areas include the energy ecosystem that, for ecological, economic and political reasons,
led us to rethink the way we consume and produce energy. Due to the increase in energy needs caused
by technological advances, the expected depletion of non-renewable energy resources and due to the
energy efficiency directives imposed by the European Union, many studies have been carried out in the
area of energy resources management. The term Smart Grid has emerged in the last decades with the
objective of defining an intelligent energy ecosystem, which aims not only to integrate intelligence but
also to automate the extremely complex operability of all its processes. Smart grids have been the subject
of major studies and investments which have resulted in significant advances. However, some
challenges have to be addressed in the management of its complex data flow. It is in this context that
the present dissertation falls, with the main objective on obtaining solutions to some of the problems
identified in the field of Smart Grids using new techniques and methodologies proposed in the area of
Big Data.
This paper presents a study on the recent and growing technological advances in the area of Big Data,
where its major challenges are identified. These include complexity in the management of continuous
and disordered flows, the need to reduce the time spent in pre-preparation of data and the challenge of
exploring solutions that provide analytical automation. On the other hand, the study analyzes the impact
of the application in the new technologies in the development of the Smart Grids, in which it is concluded
that, although embryonic, its application is essential for the evolution of the energy ecosystem. This
study also resulted in the identification of the main challenges in the area of Smart Grids, which highlight
the complexity in managing its data flow in real time and the need to improve the accuracy of energy
consumption and production forecasts.
Given the identified challenges, a conceptual model, based on the Docker Container architecture, was
proposed for the development of a platform. This model aims at flexibility and agility in order to allow
the integration and validation of the new and growing technological approaches proposed in the area of
Big Data, necessary for the development of Smart Grids. In order to validate the proposed model, a stack was developed where several services were implemented that aimed to contribute to the challenges
identified in the area of Big Data and Smart Grids, namely: visualization and monitoring of data
collected in real time; preparation of data collected in real time; real-time forecasting of multiple time
series simultaneously; detection of anomalies; evaluation of the accuracy of forecasting and generation
of new models for the forecast of consumption and production of energy according to certain criteria.
Finally, a number of case studies were developed whose results allowed us to conclude on the
importance of the pre-preparation of the data in the analytical phase, on the efficiency in the analytical
automation and on the advantages of the Edge Analytics. Unlike more traditional approaches to the
centralized execution of the analytic process, edge analytics explores the possibility of performing data
analysis in a decentralized way from a non-central point of the system. The results allowed to conclude
that edge analytics brings added advantages to the precision of the forecasts. Results allowed us to infer
how to collect the data in order to obtain a better precision in the predictions, i.e., the more precise and
context-adjusted the forecasts are executed the greater their accuracy
Anales del XIII Congreso Argentino de Ciencias de la Computación (CACIC)
Contenido:
Arquitecturas de computadoras
Sistemas embebidos
Arquitecturas orientadas a servicios (SOA)
Redes de comunicaciones
Redes heterogéneas
Redes de Avanzada
Redes inalámbricas
Redes móviles
Redes activas
Administración y monitoreo de redes y servicios
Calidad de Servicio (QoS, SLAs)
Seguridad informática y autenticación, privacidad
Infraestructura para firma digital y certificados digitales
Análisis y detección de vulnerabilidades
Sistemas operativos
Sistemas P2P
Middleware
Infraestructura para grid
Servicios de integración (Web Services o .Net)Red de Universidades con Carreras en Informática (RedUNCI
Anales del XIII Congreso Argentino de Ciencias de la Computación (CACIC)
Contenido:
Arquitecturas de computadoras
Sistemas embebidos
Arquitecturas orientadas a servicios (SOA)
Redes de comunicaciones
Redes heterogéneas
Redes de Avanzada
Redes inalámbricas
Redes móviles
Redes activas
Administración y monitoreo de redes y servicios
Calidad de Servicio (QoS, SLAs)
Seguridad informática y autenticación, privacidad
Infraestructura para firma digital y certificados digitales
Análisis y detección de vulnerabilidades
Sistemas operativos
Sistemas P2P
Middleware
Infraestructura para grid
Servicios de integración (Web Services o .Net)Red de Universidades con Carreras en Informática (RedUNCI