3,122 research outputs found

    The IVP for the Benjamin-Ono equation in weighted Sobolev spaces

    Full text link
    We study the initial value problem associated to the Benjamin-Ono equation. The aim is to establish persistence properties of the solution flow in the weighted Sobolev spaces Zs,r=Hs(R)L2(x2rdx)Z_{s,r}=H^s(\R)\cap L^2(|x|^{2r}dx), sR,s1s\in\R, \,s\geq 1 and srs\geq r. We also prove some unique continuation properties of the solution flow in these spaces. In particular, these continuation principles demostrate that our persistence properties are sharp.Comment: 21 page

    Optimization of supply chain processes with an ETL pipeline & data science applications

    Get PDF
    Trabalho de Projeto de Mestrado, Ciência de Dados, 2021, Universidade de Lisboa, Faculdade de CiênciasIBM defines supply Chain Management (SCM) as the management of raw components until their delivery as a final product to the consumer[11]. When a construction company takes over the SCM, it needs to handle various materials and sizes, including procurement for the best supplier, logistics, and storage in the local warehouse for later distribution into construction sites. Enterprise Resource Planning (ERP) software facilitates data management in the SCM. They provide a GUI where collaborators can interact with a database adapted to OLTP tasks such as information retrieval, requisitions for new materials, and inventory management. With the growth of any industry, the need for analytical applications grows. However, it is challenging to provide enough compute resources for the operational and analytical tasks while not compromising access to the data. To overcome this problem, several services in the cloud can provide new data working environments. For example, cloud providers have data lakes, databases, serverless code execution platforms, virtual machines and machine learning platforms that enable developers to build their own adapted infrastructure and analytical applications. Mota¬Engil has been the subject of this project, a multi¬national construction company with supply chain management happening in and out of 20 countries. Their ERP software is SAP S/4HANA and is hosted on ¬premises. However, at the moment, there is no central analytics¬ dedicated database. To increase its development opportunities, I created an ETL pipeline that collects data from a local file system and uploads it into the cloud. Initially, all the data is extracted to Azure Data Lake Storage, it is transformed using Azure Functions and loaded into a new Azure SQL Database. Finally, I use Azure CLI to move data and execute the Azure cloud services to perform all of these commands. With the database constructed and populated, I developed two applications that leveraged its existence. The first idea was the creation of a monitoring BI report for warehouses with Power BI and providing a complete overview of the processes by choosing metrics with the Balanced Scorecard method[14]. The last application improves information retrieval by applying a Nearest Neighbots model with a novel distance algorithm. This model has been deployed into Azure Machine Learning for on ¬the ¬go material search and to an Azure VM for scheduled data processing, loading the results back into the database. In the end, it is possible to perform a search for construction materials through a flask developed web app by interacting with both model deployments to obtain the results.A gestão da cadeia de abastecimento é a gestão de matéria prima desde a sua fonte até ao destino como produto final[11]. Empresas de construção também estão envolvidas numa cadeia, ao ter de obter os materiais de que necessitam e realizar o abastecimento dos seus locais de construção. Nesta gestão estão incluídos materiais de variadas formas e tamanhos. Dependendo do envolvimento da empresa, elas podem fazer a procura do melhor fornecedor para o produto em necessidade; podem também tratar da logística, que se pode tornar complexa se incluir importações; e finalmente do armazenamento do produto para posterior distribuição. Para melhorar a gestão destes processos, é necessário fazer a recolha de dados. Existem vários tipos de software denominados de Enterprise Resource Planning (ERP) que ajudam na administração de dados de diferentes áreas empresariais, incluindo a de cadeia de abastecimento. Através destes tipos de software, é possível ao colaborador interagir com uma base de dados adaptada a processos de OLTP. Isto permite processos de extração de informação, criação de requisições e gestão de inventário. Com o crescimento da atividade de uma empresa, a quantidade de dados também cresce. Aplicações de analítica tornam-¬se muito úteis, pois permitem não só uma melhor monitorização desses dados, como também uma melhor optimização dos processos existentes. Mas a implementação de novas aplicações é dificultada pelo efeito de botteneck criado na fonte de dados devido à sua grande requisição. Existem serviços de cloud especializados na implementação de novos ambientes de dados. Esses serviços incluem data lakes para armazenamento de todo o tipo de informação, plataformas de execução de código em modo serverless para realizar transformações, máquinas virtuais para virtualizar ambientes computacionais locais, e plataformas de aprendizagem automática para realizar tarefas de machine learning. Estes serviços são atualizados com uma periodicidade muito frequente, incluindo novas utilidades para o cliente. É também possível interligar todos estes serviços de maneira a automatizar processos ¬ e combinando de diferentes formas, programadores conseguem desenvolver uma nova infraestrutura para suportar inovações dentro da empresa. A Mota¬Engil é o sujeito de estudo para este projeto. É um conglomerado português, líder no sétor da construção, com atividade em mais de 20 países, incluindo no continente Africano e Americano. A cadeia de abastecimento inclui logística intercontinental entre continentes e gestão de múltiplos armazéns em mais de 20 países. O software de gestão empresarial é o SAP S/4HANA e é hospedado localmente nos escritórios da empresa. De momento não existe nenhuma base de dados dedicada a aplicações de analítica. De maneira a aumentar as oportunidades de inovação dentro da empresa, criei um canal de ETL que retira dados de um sistema de ficheiros local e exporta tudo para a Azure cloud. Inicialmente, os ficheiros são exportados para o Azure Data Lake Storage (ADLS), encontrando-¬se em múltiplos formatos, com erros na formatação das colunas e inconsistências. Para standardizar os dados, utilizo Azure Functions que transforma os dados e converte para formato CSV. No final, é feito o carregamento dos ficheiros CSV para o Azure SQL Database usando comandos T¬SQL. Para comunicar com todos os serviços de cloud, utilizo comandos do Azure CLI que permitiram automatização em scripts de linguagem Bash. Com a conclusão do ETL e da construção do esquema de dados, obteve¬se uma base de dados completamente disponível e adaptada a processamento analítico. Apoiando a estrutura neste resultado, foi possível construir duas aplicações de data science que melhoram partes do processo da cadeia de abastecimento dentro da empresa. A primeira ideia a ser implementada foi a criação de um report de BI para os armazéns em África. Até 2020, os relatórios eram criados em ficheiros Excel, e os dados eram agregados para formar métricas de valor de estoque por mês, valor de estoque consumido e rotação. Para melhorar a monitorização dos armazéns, criei um novo relatório em Microsoft Power BI que fornece novos indicadores dos processos de armazém com base no método do Balanced Scorecard[14]. O relatório em Power BI importa os dados diretamente do Azure SQL Database com recurso a views especializadas ao seu uso no relatório. O relatório contém três páginas, incluíndo duas para monitorizar o estoque em armazém, e outra página dedicada ao consumo de materiais. Também existem utilidades que ajudam colaboradores a explorar dados e outras que facilitam a compreensão do relatório. A segunda e última aplicação tenta melhorar a extração de informação sobre materiais. A tarefa a ser optimizada encontra¬se no início da cadeia de abastecimento. Utilizadores ao criarem uma nova requisição, precisam especificar os materiais em necessidade. O SAP permite procurar com recurso a wildcard (*), mas nao permite uma procura aproximada, ou seja, não retorna materiais quando é feita uma procura contendo pequenas divergências do material existente na base de dados (como erros de ortografia). Para melhorar este processo de extração, decidi utilizar um modelo de NearestNeighbors (NN) em conjunto com um novo algoritmo de distância customizado ao problema em análise. O algoritmo de distância inclui o calculo da distância de Levenshtein[18], e generalizada a descrições de materiais. Num estudo de optimização de processamento com várias implementações do modelo de NN, concluiu¬-se que é mais eficiente realizar o cálculo de distâncias em paralelo e adaptado, antes de fornecer como argumento ao modelo de NN. O modelo foi introduzido no Azure Machine Learning e criado um endpoint com o qual é possível realizar pedidos para obter os materiais mais próximos. O modelo também foi incluído no aprovisionamento de uma máquina virtual para processamento periódico de código. Para fazer este aprovisionamento, foi utilizado Ansible, uma ferramenta de automatização para inicializar aplicações e configurado o processamento periódico através de um novo cronjob na máquina virtual. No final do processamento, é criada uma nova tabela na base de dados com clusters de materiais. Para concluir este projeto, criei uma aplicação em flask que obtém os resultados dos dois serviços. Com o endpoint do Azure Machine Learning, a aplicação obtém os resultados mais próximos de uma consulta feita na barra de procura. Ao realizar esta procura, é calculado a distância entre a consulta e as descrições existentes na base de dados, retornando os dez resultados mais próximos. Com os resultados do processamento periódico na base de dados, utilizo ferramentas crio uma consulta especializada que retorna os resultados mais próximos do material pretendido. A última consulta acaba por ser mais rápida para obter resultados porque os dados já estão processados na base de dados, ao contrário do modelo em Azure Machine Learning que tem de processar os resultados sempre que uma consulta é feita. Ao desenvolver os algoritmos e infraestrutura para estas aplicações, também disponibilizei ferramentas que facilitam futuras implementações. Por exemplo, a máquina virtual de processamento periódico pode realizar mais tarefas, incluindo o próprio processo de ETL. E o modelo de procura também poderá ser utilizado para outras tarefas de information retrieval, como a procura de peças por número de peça

    Shallow sublittoral benthic communities of the Laguna Estuarine System, South Brazil

    Get PDF
    Propriedades do sedimento, biomassa microfitobêntica (clorofila a e feopigmentos), e a estrutura das comunidades bênticas das três principais lagoas (Mirim, Imaruí e Santo Antonio) do Sistema Estuarino de Laguna, sul do Brasil, foram analisadas durante o verão e inverno. A biomassa microfitobêntica não diferiu significativamente entre as lagoas, mas seus valores foram maiores no verão. A macrofauna foi caracterizada pela baixa riqueza específica e a dominância do gastrópode Heleobia australis, do tanaidáceo Kalliapseudes schubartti e do bivalve Erodona mactroides. A meiofauna foi composta por 20 grupos taxonômicos e os nemátodas dominaram todas as lagoas e períodos. Desmodora (Desmodora) sp.1, Terschllingia sp. e Microlaimus sp. foram numericamente as mais importantes entre as 74 espécies de nemátodas registradas. Este estudo mostrou que, no Sistema Estuarino de Laguna, as diferenças no bentos entre as lagoas e períodos foram dependentes do componente faunístico analisado. Enquanto macrofauna e nemátodas foram significativamente mais diversos nas áreas interiores, na Lagoa Mirim, o número de taxa da meiofauna não diferiu significativamente entre as lagoas e a diversidade e equitatividade foram maiores em Santo Antonio. Estes resultados foram uma resposta da fauna às variações de salinidade e da heterogeneidade do sedimento das lagoas. A variabilidade temporal da fauna, sendo a macrofauna mais abundante no verão e a meiofauna no inverno, pode estar relacionada as diferentes estratégias de vida destes grupos.Sediment properties, microphytobenthos biomass (chlorophyll a and phaeopigments), and the structure of the benthic communities of the three main lagoons (Mirim, Imaruí and Santo Antonio) of the Laguna Estuarine System, South Brazil, were analyzed during summer and winter. Microphytobenthos biomass did not differ significantly among the lagoons, but showed higher values in the summer. The macrofauna was characterized by low species richness and the dominance of the gastropod Heleobia australis, the tanaidean Kalliapseudes schubartti and the bivalve Erodona mactroides. The meiofauna was composed of 20 higher taxa and the nematodes dominated in all the lagoons and periods. Desmodora (Desmodora) sp.1, Terschllingia sp. and Microlaimus sp. were numerically the most important among the 74 nematode species registered. This study showed that, in the Laguna Estuarine System, differences in the benthos among lagoons and periods were dependent on the fauna component analyzed. Whilst macrofauna and nematodes were significantly more diverse in the inner stations, in the Mirim Lagoon, the number of meiofauna taxa did not differ significantly among the lagoons and the diversity and evenness were highest in Santo Antonio. These results were a response of the fauna to the salinity oscillations coupled with the heterogeneity of the sediment in the lagoons. The temporal variability of the fauna, macrofauna being more abundant in the summer and meiofauna in the winter, could be related to the different life strategies of these groups

    Biodiversity Conservation Demands Open Access

    Get PDF
    Open access is vital to the progress of scientific thought and advancement of many disciplines, but particularly so for conservation scienc

    Inter-departmental communication: application of lean manufacturing and as is; to be process: A case study

    Get PDF
    Three words characterize the current world in every organization: instability, uncertainty and survival. The competition is increasing every day, and the companies have to develop strategies that make them more attractive when a customer is making the decision about whom should he buy products from. Since sometimes the products are equivalent independently of the brand, a better customer service is usually a trigger point for the customer, and usually a good customer service is followed by good and efficient communication ways. The specific goal of this thesis was to enhance and create a solid and trustworthy platform to communicate between colleagues and departments, improving the customer service in terms of costs and time, and make sure that quality is guaranteed independently on the technician that does the job. This project was done at Syntegon Weert, in the Netherlands, and had as main goal the improvement of the department’s organization. Therefore, in order to achieve the goal of the thesis and optimal communication ways to improve the quality provided to the customer, this work focus on the creation of a Frequently Asked Question webpage that can support the technician every time he faces a bottleneck during a project. The creation of standard procedures that guarantee that every technician act based on the same fundamentals principles which should originate similar results, as well as provide equal instructions to the customer. Also, the creation of a platform where data can be inserted in order to make the procedures more transparent, guaranteeing inter-departmental organization, facilitating the creation of standard procedures as well

    Partners in biodiversity science and policy

    Get PDF
    The development of standards, data sharing, and initiatives like the Global Biodiversity Information Facility and others have advanced research in many fields, including in conservation of biodiversity. Global assessments of extinction risk to species have been completed by IUCN for multiple taxa. The IUCN global assessments have had a major impact on conservation science and practice as well as biodiversity funding mechanisms though the Global Environment Facility, the World Bank, and the Critical Ecosystem Partnership Fund (CEPF). A signature of the assessments is a process of sustained interaction between conservation organizations and the research and academic community, effectively integrating science and policy on global scale. The model relies on several critical components: openness of the conservation community to scientific input and debate, engagement of the scientific community, conservation organization mediated data collation, and data sharing with ease of access. This model can be applied to other challenges to conserve biodiversity and assess how biodiversity loss affects the well-being of societies across the world. The recognition of the importance of biodiversity in meeting the Millennium Development Goals and the recognition of the failure to meet the 2010 Biodiversity Target illustrate the gap between what needs to be achieved and our current trajectory

    The IVP for the dispersion generalized Benjamin-Ono equation in weighted Sobolev spaces

    Full text link
    We study the initial value problem associated to the dispersion generalized Benjamin-Ono equation. Our aim is to establish well posedness results in weighted Sobolev spaces and to deduce from them some sharp unique continuation properties of solutions to this equation. In particular, we shall establish optimal decay rate for the solutions of this model.Comment: 36 page
    corecore