54 research outputs found

    Strategies of development and maintenance in supervision, control, synchronization, data acquisition and processing in light sources

    Get PDF
    Programa Oficial de Doutoramento en Tecnoloxías da Información e as Comunicacións. 5032V01[Resumo] Os aceleradores de partículas e fontes de luz sincrotrón, evolucionan constantemente para estar na vangarda da tecnoloxía, levando os límites cada vez mais lonxe para explorar novos dominios e universos. Os sistemas de control son unha parte crucial desas instalacións científicas e buscan logra-la flexibilidade de manobra para poder facer experimentos moi variados, con configuracións diferentes que engloban moitos tipos de detectores, procedementos, mostras a estudar e contornas. As propostas de experimento son cada vez máis ambiciosas e van sempre un paso por diante do establecido. Precísanse detectores cada volta máis rápidos e eficientes, con máis ancho de banda e con máis resolución. Tamén é importante a operación simultánea de varios detectores tanto escalares como mono ou bidimensionáis, con mecanismos de sincronización de precisión que integren as singularidades de cada un. Este traballo estuda as solucións existentes no campo dos sistemas de control e adquisición de datos nos aceleradores de partículas e fontes de luz e raios X, ó tempo que explora novos requisitos e retos no que respecta á sincronización e velocidade de adquisición de datos para novos experimentos, a optimización do deseño, soporte, xestión de servizos e custos de operación. Tamén se estudan diferentes solucións adaptadas a cada contorna.[Resumen] Los aceleradores de partículas y fuentes de luz sincrotrón, evolucionan constantemente para estar en la vanguardia de la tecnología, y poder explorar nuevos dominios. Los sistemas de control son una parte fundamental de esas instalaciones científicas y buscan lograr la máxima flexibilidad para poder llevar a cabo experimentos más variados, con configuraciones diferentes que engloban varios tipos de detectores, procedimientos, muestras a estudiar y entornos. Los experimentos se proponen cada vez más ambiciosos y en ocasiones más allá de los límites establecidos. Se necesitan detectores cada vez más rápidos y eficientes, con más resolución y ancho de banda, que puedan sincronizarse simultáneamente con otros detectores tanto escalares como mono y bidimensionales, integrando las singularidades de cada uno y homogeneizando la adquisición de datos. Este trabajo estudia los sistemas de control y adquisición de datos de aceleradores de partículas y fuentes de luz y rayos X, y explora nuevos requisitos y retos en lo que respecta a la sincronización y velocidad de adquisición de datos, optimización y costo-eficiencia en el diseño, operación soporte, mantenimiento y gestión de servicios. También se estudian diferentes soluciones adaptadas a cada entorno.[Abstract] Particle accelerators and photon sources are constantly evolving, attaining the cutting-edge technologies to push the limits forward and explore new domains. The control systems are a crucial part of these installations and are required to provide flexible solutions to the new challenging experiments, with different kinds of detectors, setups, sample environments and procedures. Experiment proposals are more and more ambitious at each call and go often a step beyond the capabilities of the instrumentation. Detectors shall be faster, with higher efficiency, more resolution, more bandwidth and able to synchronize with other detectors of all kinds; scalars, one or two-dimensional, taking into account their singularities and homogenizing the data acquisition. This work examines the control and data acquisition systems for particle accelerators and X- ray / light sources and explores new requirements and challenges regarding synchronization and data acquisition bandwidth, optimization and cost-efficiency in the design / operation / support. It also studies different solutions depending on the environment

    A contribution to the improvement of the Bodum Data Center

    Get PDF
    This work was developed to support an internal project at Bodum Portuguesa, Produção de Artigos Metálicos, SA. Bodum is a multinational company offering customers coffee, tea, and home accessories solutions according to Bodum’s values. Bodum is a company that creates products with excellent design at affordable prices, based on the principle that ”form follows functionality,” keeping sustainability, environmental responsibility, and the well-being of its employees and the planet in mind. Bodum’s current CEO, Peter Bodum, has said, “Good design does not have to be expensive”. This project aims to solve the problem of obsolete servers, the lack of resources, and the waste of processing power on Bodum’s servers. Today they have servers with OS Windows 2008 R2, which is quite old. Insufficient resources slow the servers regarding performance, processing, and communication. With this project, the company will gain more efficient servers. It will also be possible to have current services and applications with greater capacity and performance, which is an immediate need. The project involves migrating six physical servers in Switzerland, Denmark, Australia, the United States of America, Japan, and China. This project aims to improve the perfor mance of those servers while migrating to new servers with the latest operating systems version and more advanced hardware. There is a need to do this migration to ensure better performance of the servers and better control. The new servers are already purchased and placed in their respective locations, and some are already in use, making this migration more complicated than usual. Simply, it is necessary to migrate the old servers to the new ones. After analyzing the scenario, an improvement proposal was made since the servers are not virtualized. A request was made to the company administration proposing to virtualize the new servers before migration. This request is still awaiting a response. If this request is accepted, the new servers will become virtual machines, and the old servers will migrate to the new ones. If the request to virtualize the servers is refused, the migration will still be made to the new servers without virtualizing them. Furthermore, after performing the mentioned migration, a proposal will be made to mi grate the information system infrastructure to a cloud. This proposal includes an analysis of the company’s current system and a comparison with an identical scenario hosted on a cloud providing the company with all the necessary information about the processes and procedures of migration to the cloud. If the company plans to move services to the cloud, it will already have all the information it needs. The implementation of the Cloud infrastructure and the respective migration of the whole system is left for future work if the company’s board of directors agrees. This thesis will undoubtedly serve as a basis for its implementation.RESUMO:Atualmente existe um projeto interno na empresa Bodum Portuguesa, Produção de Ar tigos Metálicos, SA. A Bodum é uma empresa multinacional que oferece soluções de café, chá e acessórios para casa para todos os tipos de clientes de acordo com os valores da Bodum. A Bodum é uma empresa que cria produtos com excelente design a preços acessíveis, com base no princípio de que “a forma segue a funcionalidade”, mantendo a sustentabilidade, a responsabilidade ambiental e o bem-estar de seus colaboradores e o planeta em mente. Como o atual CEO da Bodum, Peter Bodum, disse “Bom design não tem de ser caro”. Este projeto visa solucionar o problema de os servidores serem obsoletos, a falta de recursos e também o desperdicio da capacidade de processamento. Atualmente os servi dores da Bodum ainda possuem Windows server 2008 R2, que é bastante antigo e a falta de recursos resulta em fraco desempenho dos servidores e até falhas. Com o desenvolvimento deste projeto, a empresa vai ficar com servidores mais atuais e por consequência mais eficientes, também vai ser possível usufruir de serviços com mais funcionalidades isto com uma maior capacidade de processamento e armazenamento, o que no imediato é uma necessidade da empresa. O projeto consiste na migração de seis servidores físicos, localizados na Suíça, Dina marca, Austrália, Estados Unidos da América, Japão e China. Este projeto visa melhorar a desempenho de servidores da empresa, pois a migração irá ser feita para novos servi dores com versões mais atuais do sistema operativo e também com hardware mais recente e avançado. Esta migração é necessária no sentido de garantir melhor desempenho dos servidores e controlo. Neste momento, os novos servidores já foram adquiridos e colo cados nos respetivos locais e alguns dos servidores até já estão a ser utilizados, o que tornará essa migração um pouco mais complexa do que o normal. Na perspetiva da empresa o objetivo principal deste projeto é migrar tudo o que está nos servidores antigos para os novos. Depois de uma breve análise ao sistema da Bodum, foi feita uma proposta de melhoria, uma vez que os servidores não são virtualizados. Com o propósito de melhorar o sistema existente, foi feita uma proposta de virtualização dos novos servidores antes de se realizar a migração, caso a proposta de virtualização dos servidores seja aceite, primeiro os servidores serão virtualizados e só depois é que será feita a migração dos servidores antigos para os novos já virtualizados. Caso o pedido para a virtualização dos servidores acima mencionados seja recusado, a migração será realizada de forma direta de servidor físico para servidor físico. Após realizar a migração mencionada, vai ser feita uma proposta para migrar as in fraestruturas do sistema de informação da Bodum para uma nuvem. Será feito uma análise do sistema atual e uma comparação com um cenário idêntico na nuvem. Com isto, a empresa vai ter em sua posse todas as informações necessárias sobre os processos e procedimentos de migração para a nuvem. No futuro, se a empresa pretender migrar os serviços para a nuvem, já terá o conhecimento para o fazer. No que diz respeito a uma migração para a nuvem de toda a infraestrutura da empresa, essa etapa será para realizar como trabalho futuro caso a empresa assim o entenda. Este projeto vai servir, sem dúvida, de base para a sua implementação

    Control Systems for Accelerators, Operational Tools

    Get PDF

    Virtualización mediante tecnología SR-IOV de tarjetas de red de altas prestaciones basadas en lógica programable

    Full text link
    The IT industry has been taking the most demanding and rigorous standards as the reference in order to achieve stability, a high fidelity to protocols and a proper quality of the final product. Whilst this model may have been useful for the past, it is inevitable that time to market becomes a crucial bottleneck when developing custom hardware for network appliances. At this point, Network Function Virtualization (NFV) allows creating specialized solutions with general-purpose equipment. Broadly speaking, computing is transferred from the hardware layer to a CPU-based software. The main objective to treat is the exploration of the use of FPGAs, and its connectivity with the host system, as a feasible replacement for traditional hardware (switches, routers, etc.) in multigigabit networking environment. Own developments are disclosure under a free license as well as the underlying technologies are conscientiously tracked. From a DMA engine capable of ensuring the data transmission with rates above 40 gigabit per second (with measured peaks of over 50 Gbps), to the device controllers needed to interact with the system, are explained to the reader. The final reference platform consists of a network interface card (NIC) which involves as many virtual functions (VFs) as instantiated interfaces. The transmitted/received information by every abstract device is processed individually, in a transparent way to the developer, with destination/source the computer network. The key concept is known as SR-IOV, which accompanies by a FPGA, eases the virtualization of multiple functionalities. Independently, several instances of virtual machines may access to a VF exclusively thanks to PCI passthrough capabilities. The independency of the host station hardware, and the flexibility of the suggested framework, assure the user a notorious trade-off between performance and time production. The popular believing that high performance computing is confronted with virtualization heads to a wrong conclusion. In particular, an environment where the data is processed at 40 Gbps has been released. However, the subjacent virtualization support by the hardware platform (IOMMU) is limited and, in the system to card direction, the transferences suffer a pronounced bottleneck (10% of the performance of the native experiments) whilst this effect is palliated in the card to system direction (over 90% of the native results).La industria de las telecomunicaciones ha seguido estándares muy rigurosos que aseguren la estabilidad, fidelidad al protocolo y calidad de los productos desarrollados. Mientras que este modelo ha funcionado bien en el pasado, son inevitables unos ciclos de producción largos con un lento avance en el hardware especializado. Es en este punto, donde la virtualización permite generar equipos especializados con elementos de propósito general. Se traspasa parte de la computación desde un elemento puramente dedicado a la CPU del sistema (virtualización de funciones de red, NFV) concediendo una gran dinamicidad al entorno. El objetivo primordial es la exploración de la viabilidad del uso de FPGAs y la conectividad con el sistema anfitrión (basado en software) como sustituto para el hardware tradicional (switches, routers, etc.) en entornos multigigabit. Los desarrollos propios son liberados como contribuciones de licencia libre y las tecnologías subyacentes estudiadas en amplio detalle. Se implementa desde un motor de DMA que permita asegurar una tasa de transferencia sostenida para enlaces de 40 gigabits por segundo (mediciones tomadas por encima de 50 Gbps), hasta los controladores necesarios para la interacción con el dispositivo. La plataforma final de referencia consiste en una tarjeta de red con tantas funciones virtuales como interfaces existan. La información transmitida/recibida por cada dispositivo abstracto es tratada de manera independiente, transparente al desarrollador, con destino/origen final/inicial la red de ordenadores. La tecnología clave presentada para este proceso se conoce como SR-IOV, que acompañada por una única placa FPGA, facilita la simulación de múltiples periféricos dedicados. De manera independiente, distintas instancias de máquinas virtuales son capaces de hacer un uso exclusivo del dispositivo gracias a las capacidades de PCI passthrough, ofreciendo la falsa sensación de disponer de un recurso para su explotación individual. La independencia de la estación anfitriona, en cuanto a configuración hardware se refiere, y la marcada flexibilidad de los diseños, favorecen que esta arquitectura ofrezca un buen compromiso entre rendimiento y tiempo de puesta en mercado. Se desmiente la falsa creencia de que virtualización está reñida con procesamiento de alto rendimiento en todos los escenarios, aunque se han localizado carencias en el soporte por parte del hardware actual. En particular, la cantidad máxima de datos transferibles se ve limitada y aplicaciones que hagan uso intensivo en las comunicaciones hacia la tarjeta pueden verse gravemente afectadas (10% del rendimiento total en las pruebas generadas) si hacen uso de la virtualización. En la dirección inversa, un rendimiento superior al 90% ha sido probado

    Estudio de captura y almacenamiento de tráfico en redes físicas y virtuales multi-gigabit

    Full text link
    Study and analyze a high speed network ( 10Gbps) is a challenge in terms of the amount of data to be processed and the data rate itself. As a result, the networking capture tools are usually very complex. Those tools also have to be continuously adapted to new technology and higher data rates. To meet those requirements, each capture tool implements its own formats and way to capture that difficulties its interoperability. In order to solve this problem, it is necessary to develop a capture tool that stores and works with network data in a well-known format. Standard formats, like PCAP, allow different applications to work together easly, even in a paralel way. In the same way, common formats frees network analyzing tools from the underlying network. Typically, expensive dedicated servers are used to capture, store and process network data at high speed rates. However, this is changing due to the proliferation of cloud computing and the greatly improved performance virtualization technology. This trend makes difficult to find baremetal servers or even network equipment in some environments. Therefore, it is becoming more and more important to evaluate the performance and feasibility of capture and process network data on virtual environments. To achieve that, a capture and store tool has been developed. The tool can work at 10 Gbps thanks to Intel DPDK capture technology. A technology, that also can work in both bare-metal and virtual environments. In this work, different methods and capture tools are compared. In the same way, different virtualization methods provided by KVM are evaluated. While running applications in virtual machines have a small overhead compared with the bare-metal version, results show that performance in virtual environment is really close to bare-metal environment. However, those results can only be reached using the correct configuration and the latest advantages of the state-of-the-art hardware devices.Estudiar y analizar el comportamiento de una red a alta velocidad ( 10 Gbps) supone un reto constante a medida que aumenta la velocidad de las redes de comunicaciones debido a la gran cantidad de datos que se generan a diario y al propio hecho de procesar información a tales velocidades. Por estos motivos, las herramientas encargadas de la captura de datos son complejas y se encuentran, por lo general, en constante adaptación a las nuevas tecnologías y velocidades, lo que dificulta considerablemente su integración directa con otras aplicaciones de motorización o análisis de datos. Por ello es necesario que estas herramientas sean capaces de capturar y almacenar los datos en un formato estándar en el que otras herramientas puedan trabajar a posteriori o incluso en paralelo, con los datos de red independientemente de la tecnología de captura utilizada. Típicamente, este proceso de captura, almacenamiento y procesamiento de datos a alta velocidad se ha realizado en máquinas dedicadas. No obstante, debido a la proliferación del cloud computing y a la gran mejora en rendimiento de la tecnología de virtualización, esto está cambiando, pudiéndose llegar al caso en el que sea raro disponer de una máquina física en la que realizar estos procesos. Por ello, evaluar la viabilidad de realizar estos procesos de tan alto rendimiento dentro de entornos virtuales comienza a cobrar importancia. Dentro de este contexto, se ha desarrollado una herramienta de captura y almacenamiento en disco a 10 Gbps mediante la tecnología de captura Intel DPDK, con la capacidad de funcionar tanto en entornos físicos como virtuales. Del mismo modo, en este trabajo se presentan y se comparan diferentes métodos y herramientas de captura, así como los diferentes métodos de virtualización de componentes que ofrece KVM. A pesar de que el uso de máquinas virtuales impone un sobrecoste computacional a cualquier aplicación, los resultados obtenidos muestran que el rendimiento en entornos virtuales se asemeja mucho al rendimiento en entornos sin virtualización, siempre y cuando se utilice la configuración adecuada que exprima las capacidades de los dispositivos actuales

    Annual Report, 2017-2018

    Get PDF

    O2CMF: UM FRAMEWORK PARA EXPERIMENTAÇÃO FEDERADA EM NFV

    Get PDF
    Testbeds federados ocupam um papel importante no desenvolvimento de inovações em redes, fornecendo aos pesquisadores um laboratório distribuído para a realização de provas de conceito. Isso é possível através de frameworks que transformam recursos físicos em um serviço de experimentação. Contudo, para que um testbed continue adequado aos objetivos da comunidade de pesquisa, é necessário evoluir seu serviço de experimentação, incorporando tecnologias emergentes. Uma dessas tecnologias é a virtualização de funções de rede (Network Functions Virtualization NFV), que possibilita que funções de rede tradicionalmente ligadas a dispositivos de hardware sejam executadas na infraestrutura de computação em nuvem. Embora frameworks (como o GCF, OCF e OMF) tenham contribuído fortemente para o estabelecimento de federações de testbeds de redes, eles não apresentam as características necessárias para suportar NFV. Isso se deve ao emprego de virtualização simples, monitoramento insuficiente e ausência de recursos no catálogo de serviços que possibilitem a construção funções de rede virtuais, além da carência de funcionalidades para sua orquestração. Portanto, esse trabalho propõe um novo framework destinado a habilitar a experimentação em NFV. O resultado foi o O2CMF, um framework baseado na plataforma de computação em nuvem OpenStack, interoperável com a infraestrutura do Fed4FIRE. Para validar o O2CMF, são apresentadas demonstrações das funcionalidades de gestão do testbed, compatibilidade com o Fed4FIRE, isolamento de tráfego, orquestração de NFV e integração com outros domínios (robótica, redes sem fio e OpenFlow). Através dessas provas de conceito, demonstramos que o O2CMF foi capaz de habilitar a experimentação federada em NFV, combinando a interoperabilidade provida por SFA com a flexibilidade e robustez da nuvem, e provendo mecanismos de orquestração de funções de rede virtuais. O O2CMF foi utilizado na implantação de um testbed na UFES, através do qual tem apoiado o desenvolvimento de atividades de pesquisa e educação em redes. Além disso, sua documentação de operação e tutoriais de uso motivaram sua adoção na implantação de um testbed na Universidade de Bristol

    Deployment and evaluation of a SDR-based LTE network

    Get PDF
    RESUMEN: Los entornos de simulación de redes juegan un papel fundamental en el desarrollo de las mismas. Su importancia se justifica en su capacidad de anticiparse a potenciales problemas u obstáculos que puedan surgir a la hora de realizar el despliegue de la infraestructura diseñada, permitiendo un ahorro en términos económicos y temporales. En determinados supuestos, estas herramientas no aportan el grado de veracidad demandado. Asimismo, la utilización de implementaciones reales para realizar experimentos conlleva la necesidad de manejar una electrónica muy especializada, lo que implica un incremento de los costes. Con el propósito de reducir estos inconvenientes, en los últimos años se están desarrollando implementaciones software de diferentes tecnologías de radiocomunicaciones (Software Defined Radio), que empleando electrónica más sencilla, permiten desplegar entornos realistas y verosímiles. A lo largo del proyecto, se ha aplicado la tecnología srsLTE, desarrollada por Software Radio Systems (SRS), que permite desplegar una red Long Term Evolution (LTE). Una vez desplegada, se han analizado los requisitos computacionales necesarios para su despliegue y todos los imprevistos que se han encontrado. Posteriormente, se ha estudiado su rendimiento y fiabilidad. La evaluación de la red se ha realizado en dos entornos: en primer lugar, mediante la herramienta IPERF, se ha caracterizado su comportamiento empleando tráfico sintético y, posteriormente, se ha verificado su viabilidad en un escenario con tráfico real, mediante el despliegue de un servidor de streaming de video utilizando Video LAN Client (VLC).ABSTRACT: Network simulator environments have a fundamental part in the development of network. Its importance is justified in its ability to anticipate to potencial problems which can ap- pear during the deployment of the designed infrastructure, allowing a saving in economics and temporal terms. In some cases, these tools do not provide the expected degree of accuracy. Moreover, the usage of real deployments to make experiments implies to operate with a specialized electronic which increases the project’s costs. In order to reduce these problems, it has been developed software deployments of ra- diocommunication technologies (SDR) which uses a simpler electronic and it allows to develop plausible environments. In this project, it has been applied srsLTE, which was developed by SRS, that allows to deploy a LTE network. After the network deployment, it has been studied the needed computational requirements and the founded contingencies. Afterwards, it has been examined its performance and reability. The network assessment has been undertaken in two environments: firstly, it has been characterized the network performance using sintetic traffic generated by IPERF. Subse- quentely, it has been deployed a video streaming server using VLC in order to study the feasibily of the network in real conditions.Grado en Ingeniería de Tecnologías de Telecomunicació
    corecore