16 research outputs found

    The importance of socio-technical resources for software ecosystems management

    Get PDF
    AbstractSoftware Ecosystem (SECO) is often understood as a set of actors interacting among themselves and manipulating artifacts with the support of a common technology platform. Usually, SECO approaches can be designed as an environment whose component repository is gathering stakeholders as well as software products and components. By manipulating software artifacts, a technical network emerges from interactions made over the component repository in order to reuse artifacts, improving code quality, downloading, selling, buying etc. Although technical repositories are essential to store SECO’s artifacts, the interaction among actors in an emerging social network is a key factor to strengthen the SECO’s through increasing actor’s participation, e.g., developing new software, reporting bugs, and communicating with suppliers. In the SECO context, both the internal and external actors keep the platform’s components updated and documented, and even support requirements and suggestions for new releases and bug fixes. However, those repositories often lack resources to support actors’ relationships and consequently to improve the reuse processes by stimulating actors’ interactions, information exchange and better understanding on how artifacts are manipulated by actors. In this paper, we focused on investigating SECO as component repositories that include socio-technical resources. As such, we present a survey that allowed us to identify the relevance of each resource for a SECO based on component repositories, initially focused on the Brazilian scenario. This paper also describes the analysis of the data collected in that survey. Information of other SECO elements extracted from the data is also presented, e.g., the participants’ profile and how they behave within a SECO. As an evolution of our research, a study for evaluating the availability and the use of such resources on top of two platforms was also conducted with experts in collaborative development in order to analyze the usage of the most relevant resources in real SECO’s platforms. We concluded that socio-technical resources have aided collaboration in software development for SECO, coordination of teams based on more knowledge of actor’s tasks and interactions, and monitoring of quality of SECOs’ platforms through the orchestration of the contributions developed by external actors

    A Revised Forensic Process for Aligning the Investigation Process with the Design of Forensic-Enabled Cloud Services

    Get PDF
    © Springer Nature Switzerland AG 2020. The design and implementation of cloud services, without taking under consideration the forensic requirements and the investigation process, makes the acquisition and examination of data, complex and demanding. The evidence gathered from the cloud may not become acceptable and admissible in the court. A literature gap in supporting software engineers so as to elicit and model forensic-related requirements exists. In order to fill the gap, software engineers should develop cloud services in a forensically sound manner. In this paper, a brief description of the cloud forensic-enabled framework is presented (adding some new elements) so as to understand the role of the design of forensic-enabled cloud services in a cloud forensic investigation. A validation of the forensic requirements is also produced by aligning the stages of cloud forensic investigation process with the framework’s forensic requirements. In this way, on one hand, a strong relationship is built between these two elements and emphasis is given to the role of the forensic requirements and their necessity in supporting the investigation process. On the other hand, the alignment assists towards the identification of the degree of the forensic readiness of a cloud service against a forensic investigation

    Avaliações hidrológicas, hidráulicas e multicriteriais de susceptibilidade às inundações em áreas urbanas costeiras : estudo de caso da bacia do Rio Juqueriquerê no Brasil

    Get PDF
    Orientadores: Antonio Carlos Zuffo, Monzur Alam ImteazTese (doutorado) - Universidade Estadual de Campinas, Faculdade de Engenharia Civil, Arquitetura e Urbanismo e Swinburne University of Technology (Australia)Resumo: O desenvolvimento significativo de Caraguatatuba é traduzido pela sua potencialidade ao turismo, exploração de gás, proximidade do Porto de São Sebastião e ampliação do complexo viário da Tamoios, particularmente na Bacia do Rio Juqueriquerê, que é a maior planície não urbanizada do litoral norte de São Paulo, Brasil. A área é constituída por baixas declividades e lençóis freáticos rasos, cercada pelas altas escarpas da Serra do Mar. Além disso, é afetada por chuvas orográficas e variação de marés, contribuindo para a ocorrência natural de inundações. Apesar da área à jusante ser densamente urbanizada, a bacia não é propriamente monitorada, tornando a previsão de futuros cenários com a tradicional modelagem hidrológica muito desafiadora, devido à falta de dados representativos. No presente estudo, a análise multicriterial para tomada de decisão (MCDA) foi utilizada para determinar os critérios mais impactantes na susceptibilidade às inundações do local. O cenário futuro foi baseado no uso e cobertura da terra proposto pelo Plano Diretor de Caraguatatuba. A pesquisa com especialistas usando o método Delphi e o Processo de Análise Hierárquica (AHP) foram associados para a atribuição e comparação por pares dos seguintes critérios: elevação, densidade de drenagem, chuva, declividade e Curva Número (CN), do Serviço de Conservação do Solo (SCS) dos Estados Unidos. A bacia foi discretizada em 11 sub-bacias, e vários métodos estatísticos e empíricos foram empregados para a parametrização do modelo multicriterial. Após a definição dos critérios e tratamento estatístico dos julgamentos de todos os especialistas, uma faixa limitada de pesos foi gerada, variando de 8,36 a 8,88, a qual foi efetivamente convertida para uma ampla faixa de valores de prioridade pelo uso de uma abordagem extendida do método AHP. A escala de julgamento da raiz quadrada aplicada no estudo gerou resultados de boa qualidade, onde a taxa de consistência foi de 0,0218 e o índice de consistência foi de 0,0244. Além disso, a análise de sensibilidade revelou a coerência do vetor peso, por meio da variação do critério de elevação (+10 % e -5%), afetando os pesos mas não a hierarquia. Posteriormente, todos os critérios foram implementados no sistema de informações geográficas (SIG). Foi realizada uma discussão minuciosa sobre a aquisição da variável CN, levando em consideração os tipos de solo brasileiros e as condições de saturação locais. As limitações do método SCS-CN foram destacadas, especialmente no que se refere à sua aplicação em bacias não monitoradas, quando não é possível calibrar ou validar o modelo. A estimativa e a calibração dos coeficientes de rugosidade de Manning nos principais cursos d'água também foram desenvolvidas no estudo, com base nos dados observados e medidos em trabalhos de campo. Os desvios médios absolutos entre os valores de Manning variaram de 0,004 a 0,008, mostrando que a metodologia proposta pode ser aplicada em quaisquer áreas de estudo, tanto para calibrar quanto para atualizar os coeficientes de rugosidade de Manning em diferentes períodos. A distribuição da função gamma foi utilizada para o cálculo das chuvas de projeto, que posteriormente foram utilizadas para a análise de correlação entre chuvas anuais e diárias. O Sistema de Análise Fluvial do Centro de Engenharia Hidrológica em 2 dimensões (HEC-RAS 2D) e o Sistema de Modelagem Hidrológica (HEC-HMS) foram utilizados para a calibração do parâmetro CN e para a validação do modelo. Os limites de inundação gerados no processo de vadidação (pelo modelo HEC-RAS 2D) foram muito similares aos gerados pela abordagem MCDA, correspondendo a 93,92 % e 96,31 %, respectivamente. Os métodos de interpolação foram essenciais para a distribuição temporal e espacial dos dados meteorológicos no modelo de precipitação-vazão usados para validação, e também no modelo MCDA implementado no SIG. A determinação final da probabilidade de susceptibilidade às inundações nas planícies estudadas foi baseada na soma ponderada espacial dos critérios atribuídos previamente. Por fim, os mapas de susceptibilidade às inundações foram gerados para os diferentes cenários. As simulações de diferentes padrões de chuva mostraram que este critério influenciou fortemente na probabilidade de suscetibilidade às inundações. Para a simulação de maiores elevações e chuvas máximas, o índice de susceptibilidade às inundações foi 4 (do total de 5). A maior contribuição do estudo foi na aquisição de parâmetros confiáveis por meio das técnicas propostas, que também podem ser utilizadas em outras áreas, principalmente onde os dados são escassos e há complexas limitações físicas envolvidas, visando o desenvolvimento urbano sustentável da regiãoAbstract: The significant development of Caraguatatuba Municipality is translated by its tourism potentiality, gas exploration, proximity to the Port of Sao Sebastiao and extension of the Tamoios Highway complex, particularly in the Juqueriquere River Basin, which is the major non-urbanised plains of the northern coastline of Sao Paulo, Brazil. The area is comprised of low slopes and shallow water tables, surrounded by the high elevations of the Serra do Mar mountains. Additionally, It is affected by orographic rainfalls and tide variation, contributing to the natural occurrence of floods. Even though the downstream area is densely urbanised, the watershed is not properly gauged, making it a challenging task for the prediction of future scenarios with the traditional hydrological modelling approach, due to the lack of representative data. In the current study, multicriteria decision analysis (MCDA) were used to determine the mostly impacting criteria to the local flood susceptibility. The future scenario was based on the land use and land cover proposed by the City Master Plan of Caraguatatuba. The expert-based survey using the Delphi method and the analytical hierarchical process (AHP) were associated with the attribution and pairwise comparison of the following criteria: elevation, density drainage, rainfall, slope and curve number (CN), from the US Soil Conservation Service (SCS). The watershed was discretised in 11 sub-basins, and several statistical and empirical methods were employed for the parameterisation of the multicriteria model. After the definition of the criteria and the statistical treatment of the judgements of all experts, a limited range of weights was derived, varying from 8.36 to 8.88, which was effectively converted to a larger ratio of priority values by the use of an extended approach of the AHP methodology. The root square judgement scale applied in the study generated good-quality results, where the consistency ratio was 0.0218 and the consistency index was 0.0244. Besides, the sensitivity analysis revealed the coherence of the weight vector, by the variation of the elevation criterion (+10 % and -5%), affecting the weights but not the hierarchy. Further, all the criteria were implemented in the geographical information system (GIS). There was a thorough discussion regarding the acquisition of the CN variable, taking into consideration the Brazilian soil types and the local saturated conditions. The constraints of the SCS-CN method were highlighted, especially regarding its application in ungauged basins, where it is not possible to calibrate or validate the model. The estimation and calibration of the Manning's roughness coefficients of the main watercourses were also developed in the study, based on the observed and measured data in field campaigns. The mean absolute deviations between the estimated and the calibrated Manning's values varied from 0.004 and 0.008, showing that the proposed methodology might be applied in any study areas, both to calibrate and to update the Manning's roughness coefficients in different periods. The gamma-function distribution was carried out to calculate the design rainfalls, which were later used for the correlation analysis of the annual and the daily rainfalls. The Hydrologic Engineering Center's River Analysis System 2D (HEC-RAS 2D) and the Hydrologic Modelling System (HEC-HMS) were used for the calibration of the CN variable and for the model validation. The inundation boundaries derived in the validation process (by the HEC-RAS 2D model) were very similar to the ones achieved by the MCDA approach, corresponding to 93.92 % and 96.31 %, respectively. The interpolation methods were essential for the spatial and temporal distribution of the meteorological data in the rainfall-runoff model used for validation, and also in the GIS-based MCDA model. The final determination of the likelihood of flood susceptibility in the studied plains was based on the spatially weighted summation of the previously attributed criteria. Finally, flood susceptibility maps were generated for the different scenarios. The simulations of different rainfall patterns showed that this criterion profoundly influenced the likelihood to flood susceptibility. For the simulation of higher elevations and maximum rainfalls, the achieved index of flood susceptibility was 4 (out of 5). The main contribution of the study was the achievement of reliable parameters by the proposed techniques, that may also be used in other areas, mainly where data is scarce and complex physical constraints are involved, targeting the sustainable urban development of the regionDoutoradoRecursos Hidricos, Energeticos e AmbientaisDoutora em Engenharia Civi

    Estratégia para nortear o processo de engenharia de requisitos aplicada à metodologia ágil Scrum

    Get PDF
    Resumo – As metodologias ágeis têm ganhado espaço nas organizações públicas e privadas. Trata-se de um modo de desenvolvimento que valoriza um amplo conjunto de princípios e práticas que visam, por exemplo, gerar rapidez, integração entre os membros da equipe, envolvimento dos clientes e outras partes interessadas, buscando atender à um contexto produtivo caracterizado pelas mudanças constantes nos requisitos de produtos. Este trabalho de investigação teve como objetivo geral apresentar a estratégia ÁGIL-PERSCRUM para nortear o processo de engenharia de requisitos aplicada à metodologia ágil Scrum. Foram estabelecidos os seguintes objetivos específicos: a) Descrever o processo de engenharia de requisitos utilizado em modelos tradicionais de desenvolvimento de software; b) Descrever a metodologia ágil Scrum, com ênfase nos seus princípios e práticas, na estruturação dos membros da equipe Scrum, nos eventos existentes e nos artefatos gerados; c) Criar modelos no Draw.io para descrever os fluxos de atividades propostas para o processo de Engenharia de Requisitos aplicado ao Scrum; d) Propor critérios para priorização dos requisitos; e) Apresentar exemplo de pontuação das atividades e/ou artefatos constantes nos fluxos propostos. Quanto aos procedimentos metodológicos, utilizou-se de pesquisas do tipo básica, exploratória e descritiva, com abordagem qualitativa. Ao final do trabalho, pôde-se concluir que os objetivos geral e específicos foram atingidos. Construiu-se uma proposta que já está sendo objeto de pesquisa no projeto Adoção da ÁGIL-PERSCRUM para direcionar o processo de engenharia de requisitos aplicada à metodologia ágil Scrum no âmbito de sistemas de informação da Universidade Estadual do Sudoeste da Bahia

    Big Data and Its Applications in Smart Real Estate and the Disaster Management Life Cycle: A Systematic Analysis

    Get PDF
    Big data is the concept of enormous amounts of data being generated daily in different fields due to the increased use of technology and internet sources. Despite the various advancements and the hopes of better understanding, big data management and analysis remain a challenge, calling for more rigorous and detailed research, as well as the identifications of methods and ways in which big data could be tackled and put to good use. The existing research lacks in discussing and evaluating the pertinent tools and technologies to analyze big data in an efficient manner which calls for a comprehensive and holistic analysis of the published articles to summarize the concept of big data and see field-specific applications. To address this gap and keep a recent focus, research articles published in last decade, belonging to top-tier and high-impact journals, were retrieved using the search engines of Google Scholar, Scopus, and Web of Science that were narrowed down to a set of 139 relevant research articles. Different analyses were conducted on the retrieved papers including bibliometric analysis, keywords analysis, big data search trends, and authors’ names, countries, and affiliated institutes contributing the most to the field of big data. The comparative analyses show that, conceptually, big data lies at the intersection of the storage, statistics, technology, and research fields and emerged as an amalgam of these four fields with interlinked aspects such as data hosting and computing, data management, data refining, data patterns, and machine learning. The results further show that major characteristics of big data can be summarized using the seven Vs, which include variety, volume, variability, value, visualization, veracity, and velocity. Furthermore, the existing methods for big data analysis, their shortcomings, and the possible directions were also explored that could be taken for harnessing technology to ensure data analysis tools could be upgraded to be fast and efficient. The major challenges in handling big data include efficient storage, retrieval, analysis, and visualization of the large heterogeneous data, which can be tackled through authentication such as Kerberos and encrypted files, logging of attacks, secure communication through Secure Sockets Layer (SSL) and Transport Layer Security (TLS), data imputation, building learning models, dividing computations into sub-tasks, checkpoint applications for recursive tasks, and using Solid State Drives (SDD) and Phase Change Material (PCM) for storage. In terms of frameworks for big data management, two frameworks exist including Hadoop and Apache Spark, which must be used simultaneously to capture the holistic essence of the data and make the analyses meaningful, swift, and speedy. Further field-specific applications of big data in two promising and integrated fields, i.e., smart real estate and disaster management, were investigated, and a framework for field-specific applications, as well as a merger of the two areas through big data, was highlighted. The proposed frameworks show that big data can tackle the ever-present issues of customer regrets related to poor quality of information or lack of information in smart real estate to increase the customer satisfaction using an intermediate organization that can process and keep a check on the data being provided to the customers by the sellers and real estate managers. Similarly, for disaster and its risk management, data from social media, drones, multimedia, and search engines can be used to tackle natural disasters such as floods, bushfires, and earthquakes, as well as plan emergency responses. In addition, a merger framework for smart real estate and disaster risk management show that big data generated from the smart real estate in the form of occupant data, facilities management, and building integration and maintenance can be shared with the disaster risk management and emergency response teams to help prevent, prepare, respond to, or recover from the disasters

    A Big Data perspective on Cyber-Physical Systems for Industry 4.0: modernizing and scaling complex event processing

    Get PDF
    Doctoral program in Advanced Engineering Systems for IndustryNowadays, the whole industry makes efforts to find the most productive ways of working and it already understood that using the data that is being produced inside and outside the factories is a way to improve the business performance. A set of modern technologies combined with sensor-based communication create the possibility to act according to our needs, precisely at the moment when the data is being produced and processed. Considering the diversity of processes existing in a factory, all of them producing data, Complex Event Processing (CEP) with the capabilities to process that amount of data is needed in the daily work of a factory, to process different types of events and find patterns between them. Although the integration of the Big Data and Complex Event Processing topics is already present in the literature, open challenges in this area were identified, hence the reason for the contribution presented in this thesis. Thereby, this doctoral thesis proposes a system architecture that integrates the CEP concept with a rulebased approach in the Big Data context: the Intelligent Event Broker (IEB). This architecture proposes the use of adequate Big Data technologies in its several components. At the same time, some of the gaps identified in this area were fulfilled, complementing Event Processing with the possibility to use Machine Learning Models that can be integrated in the rules' verification, and also proposing an innovative monitoring system with an immersive visualization component to monitor the IEB and prevent its uncontrolled growth, since there are always several processes inside a factory that can be integrated in the system. The proposed architecture was validated with a demonstration case using, as an example, the Active Lot Release Bosch's system. This demonstration case revealed that it is feasible to implement the proposed architecture and proved the adequate functioning of the IEB system to process Bosch's business processes data and also to monitor its components and the events flowing through those components.Hoje em dia as indústrias esforçam-se para encontrar formas de serem mais produtivas. A utilização dos dados que são produzidos dentro e fora das fábricas já foi identificada como uma forma de melhorar o desempenho do negócio. Um conjunto de tecnologias atuais combinado com a comunicação baseada em sensores cria a possibilidade de se atuar precisamente no momento em que os dados estão a ser produzidos e processados, assegurando resposta às necessidades do negócio. Considerando a diversidade de processos que existem e produzem dados numa fábrica, as capacidades do Processamento de Eventos Complexos (CEP) revelam-se necessárias no quotidiano de uma fábrica, processando diferentes tipos de eventos e encontrando padrões entre os mesmos. Apesar da integração do conceito CEP na era de Big Data ser um tópico já presente na literatura, existem ainda desafios nesta área que foram identificados e que dão origem às contribuições presentes nesta tese. Assim, esta tese de doutoramento propõe uma arquitetura para um sistema que integre o conceito de CEP na era do Big Data, seguindo uma abordagem baseada em regras: o Intelligent Event Broker (IEB). Esta arquitetura propõe a utilização de tecnologias de Big Data que sejam adequadas aos seus diversos componentes. As lacunas identificadas na literatura foram consideradas, complementando o processamento de eventos com a possibilidade de utilizar modelos de Machine Learning com vista a serem integrados na verificação das regras, propondo também um sistema de monitorização inovador composto por um componente de visualização imersiva que permite monitorizar o IEB e prevenir o seu crescimento descontrolado, o que pode acontecer devido à integração do conjunto significativo de processos existentes numa fábrica. A arquitetura proposta foi validada através de um caso de demonstração que usou os dados do Active Lot Release, um sistema da Bosch. Os resultados revelaram a viabilidade da implementação da arquitetura e comprovaram o adequado funcionamento do sistema no que diz respeito ao processamento dos dados dos processos de negócio da Bosch e à monitorização dos componentes do IEB e eventos que fluem através desses.This work has been supported by FCT – Fundação para a Ciência e Tecnologia within the R&D Units Project Scope: UIDB/00319/2020, the Doctoral scholarship PD/BDE/135101/2017 and by European Structural and Investment Funds in the FEDER component, through the Operational Competitiveness and Internationalization Programme (COMPETE 2020) [Project nº 039479; Funding Reference: POCI-01- 0247-FEDER-039479]

    Gerenciamento de nuvem computacional usando critérios de segurança

    Get PDF
    Orientador: Paulo Lício de GeusTese (doutorado) - Universidade Estadual de Campinas, Instituto de ComputaçãoResumo: A nuvem computacional introduziu novas tecnologias e arquiteturas, mudando a computação empresarial. Atualmente, um grande número de organizações optam por utilizar arquiteturas computacionais tradicionais por considerarem esta tecnologia não confiável, devido a problemas não resolvidos relacionados a segurança e privacidade. Em particular, quanto á contratação de um serviço na nuvem, um aspecto importante é a forma como as políticas de segurança serão aplicadas neste ambiente caracterizado pela virtualização e serviços em grande escala de multi-locação. Métricas de segurança podem ser vistas como ferramentas para fornecer informações sobre o estado do ambiente. Com o objetivo de melhorar a segurança na nuvem computacional, este trabalho apresenta uma metodologia para a gestão da nuvem computacional usando a segurança como um critério, através de uma arquitetura para monitoramento da segurança com base em acordos de níveis de serviço de segurança Security-SLA para serviços de IaaS, PaaS e SaaS, que usa métricas de segurançaAbstract: Cloud Computing has introduced new technology and architectures that changed enterprise computing. Currently, there is a large number of organizations that choose to stick to traditional architectures, since this technology is considered unreliable due to yet unsolved problems related to security and privacy. In particular, when hiring a service in the cloud, an important aspect is how security policies will be applied in this environment characterized by both virtualization and large-scale multi-tenancy service. Security metrics can be seen as tools to provide information about the status of the environment. Aimed at improving security in the Cloud Computing, this work presents a methodology for Cloud Computing management using security as a criterion, across an architecture for security monitoring based on Security-SLA for IaaS, PaaS and SaaS services using security metricsDoutoradoCiência da ComputaçãoDoutor em Ciência da Computação23/200.308/2009FUNDEC
    corecore