5 research outputs found

    Digital technologies review for manufacturing processes

    Get PDF
    It is apparent the industrial processes transformations caused by industry 4.0 are in advance in some countries like China, Japan, Germany and United States. But, in return, the developing countries, as the emergent Brazil, seem like to have a long way to achieve digital era. Considering manufacturing processes as the starting point the rise of industry 4.0, this research aims to show a review about the most important technologies used in smart manufacturing, including the main challenges to implement it at Brazil. The papers were collected from Web of Science (WoS), comprising 114 articles and 2 books to underpin this study. This exploratory research resulted in the presentation of some challenges faced by Brazilian industry to join the new industrial era, such as poor technological infrastructure, besides lack of investment in technologies and training of qualified people. Even though the primary motivation of this research was to present a panorama of smart manufacturing for Brazil, this study results contributes to the most of emergent countries, bringing together general concepts and addressing practical applications developed by several researchers from the international academic community

    Serverless Computing Strategies on Cloud Platforms

    Full text link
    [ES] Con el desarrollo de la Computación en la Nube, la entrega de recursos virtualizados a través de Internet ha crecido enormemente en los últimos años. Las Funciones como servicio (FaaS), uno de los modelos de servicio más nuevos dentro de la Computación en la Nube, permite el desarrollo e implementación de aplicaciones basadas en eventos que cubren servicios administrados en Nubes públicas y locales. Los proveedores públicos de Computación en la Nube adoptan el modelo FaaS dentro de su catálogo para proporcionar computación basada en eventos altamente escalable para las aplicaciones. Por un lado, los desarrolladores especializados en esta tecnología se centran en crear marcos de código abierto serverless para evitar el bloqueo con los proveedores de la Nube pública. A pesar del desarrollo logrado por la informática serverless, actualmente hay campos relacionados con el procesamiento de datos y la optimización del rendimiento en la ejecución en los que no se ha explorado todo el potencial. En esta tesis doctoral se definen tres estrategias de computación serverless que permiten evidenciar los beneficios de esta tecnología para el procesamiento de datos. Las estrategias implementadas permiten el análisis de datos con la integración de dispositivos de aceleración para la ejecución eficiente de aplicaciones científicas en plataformas cloud públicas y locales. En primer lugar, se desarrolló la plataforma CloudTrail-Tracker. CloudTrail-Tracker es una plataforma serverless de código abierto basada en eventos para el procesamiento de datos que puede escalar automáticamente hacia arriba y hacia abajo, con la capacidad de escalar a cero para minimizar los costos operativos. Seguidamente, se plantea la integración de GPUs en una plataforma serverless local impulsada por eventos para el procesamiento de datos escalables. La plataforma admite la ejecución de aplicaciones como funciones severless en respuesta a la carga de un archivo en un sistema de almacenamiento de ficheros, lo que permite la ejecución en paralelo de las aplicaciones según los recursos disponibles. Este procesamiento es administrado por un cluster Kubernetes elástico que crece y decrece automáticamente según las necesidades de procesamiento. Ciertos enfoques basados en tecnologías de virtualización de GPU como rCUDA y NVIDIA-Docker se evalúan para acelerar el tiempo de ejecución de las funciones. Finalmente, se implementa otra solución basada en el modelo serverless para ejecutar la fase de inferencia de modelos de aprendizaje automático previamente entrenados, en la plataforma de Amazon Web Services y en una plataforma privada con el framework OSCAR. El sistema crece elásticamente de acuerdo con la demanda y presenta una escalado a cero para minimizar los costes. Por otra parte, el front-end proporciona al usuario una experiencia simplificada en la obtención de la predicción de modelos de aprendizaje automático. Para demostrar las funcionalidades y ventajas de las soluciones propuestas durante esta tesis se recogen varios casos de estudio que abarcan diferentes campos del conocimiento como la analítica de aprendizaje y la Inteligencia Artificial. Esto demuestra que la gama de aplicaciones donde la computación serverless puede aportar grandes beneficios es muy amplia. Los resultados obtenidos avalan el uso del modelo serverless en la simplificación del diseño de arquitecturas para el uso intensivo de datos en aplicaciones complejas.[CA] Amb el desenvolupament de la Computació en el Núvol, el lliurament de recursos virtualitzats a través d'Internet ha crescut granment en els últims anys. Les Funcions com a Servei (FaaS), un dels models de servei més nous dins de la Computació en el Núvol, permet el desenvolupament i implementació d'aplicacions basades en esdeveniments que cobreixen serveis administrats en Núvols públics i locals. Els proveïdors de computació en el Núvol públic adopten el model FaaS dins del seu catàleg per a proporcionar a les aplicacions computació altament escalable basada en esdeveniments. D'una banda, els desenvolupadors especialitzats en aquesta tecnologia se centren en crear marcs de codi obert serverless per a evitar el bloqueig amb els proveïdors del Núvol públic. Malgrat el desenvolupament alcançat per la informàtica serverless, actualment hi ha camps relacionats amb el processament de dades i l'optimització del rendiment d'execució en els quals no s'ha explorat tot el potencial. En aquesta tesi doctoral es defineixen tres estratègies informàtiques serverless que permeten demostrar els beneficis d'aquesta tecnologia per al processament de dades. Les estratègies implementades permeten l'anàlisi de dades amb a integració de dispositius accelerats per a l'execució eficient d'aplicacion scientífiques en plataformes de Núvol públiques i locals. En primer lloc, es va desenvolupar la plataforma CloudTrail-Tracker. CloudTrail-Tracker és una plataforma de codi obert basada en esdeveniments per al processament de dades serverless que pot escalar automáticament cap amunt i cap avall, amb la capacitat d'escalar a zero per a minimitzar els costos operatius. A continuació es planteja la integració de GPUs en una plataforma serverless local impulsada per esdeveniments per al processament de dades escalables. La plataforma admet l'execució d'aplicacions com funcions severless en resposta a la càrrega d'un arxiu en un sistema d'emmagatzemaments de fitxers, la qual cosa permet l'execució en paral·lel de les aplicacions segon sels recursos disponibles. Este processament és administrat per un cluster Kubernetes elàstic que creix i decreix automàticament segons les necessitats de processament. Certs enfocaments basats en tecnologies de virtualització de GPU com rCUDA i NVIDIA-Docker s'avaluen per a accelerar el temps d'execució de les funcions. Finalment s'implementa una altra solució basada en el model serverless per a executar la fase d'inferència de models d'aprenentatge automàtic prèviament entrenats en la plataforma de Amazon Web Services i en una plataforma privada amb el framework OSCAR. El sistema creix elàsticament d'acord amb la demanda i presenta una escalada a zero per a minimitzar els costos. D'altra banda el front-end proporciona a l'usuari una experiència simplificada en l'obtenció de la predicció de models d'aprenentatge automàtic. Per a demostrar les funcionalitats i avantatges de les solucions proposades durant esta tesi s'arrepleguen diversos casos d'estudi que comprenen diferents camps del coneixement com l'analítica d'aprenentatge i la Intel·ligència Artificial. Això demostra que la gamma d'aplicacions on la computació serverless pot aportar grans beneficis és molt àmplia. Els resultats obtinguts avalen l'ús del model serverless en la simplificació del disseny d'arquitectures per a l'ús intensiu de dades en aplicacions complexes.[EN] With the development of Cloud Computing, the delivery of virtualized resources over the Internet has greatly grown in recent years. Functions as a Service (FaaS), one of the newest service models within Cloud Computing, allows the development and implementation of event-based applications that cover managed services in public and on-premises Clouds. Public Cloud Computing providers adopt the FaaS model within their catalog to provide event-driven highly-scalable computing for applications. On the one hand, developers specialized in this technology focus on creating open-source serverless frameworks to avoid the lock-in with public Cloud providers. Despite the development achieved by serverless computing, there are currently fields related to data processing and execution performance optimization where the full potential has not been explored. In this doctoral thesis three serverless computing strategies are defined that allow to demonstrate the benefits of this technology for data processing. The implemented strategies allow the analysis of data with the integration of accelerated devices for the efficient execution of scientific applications on public and on-premises Cloud platforms. Firstly, the CloudTrail-Tracker platform was developed to extract and process learning analytics in the Cloud. CloudTrail-Tracker is an event-driven open-source platform for serverless data processing that can automatically scale up and down, featuring the ability to scale to zero for minimizing the operational costs. Next, the integration of GPUs in an event-driven on-premises serverless platform for scalable data processing is discussed. The platform supports the execution of applications as serverless functions in response to the loading of a file in a file storage system, which allows the parallel execution of applications according to available resources. This processing is managed by an elastic Kubernetes cluster that automatically grows and shrinks according to the processing needs. Certain approaches based on GPU virtualization technologies such as rCUDA and NVIDIA-Docker are evaluated to speed up the execution time of the functions. Finally, another solution based on the serverless model is implemented to run the inference phase of previously trained machine learning models on theAmazon Web Services platform and in a private platform with the OSCAR framework. The system grows elastically according to demand and is scaled to zero to minimize costs. On the other hand, the front-end provides the user with a simplified experience in obtaining the prediction of machine learning models. To demonstrate the functionalities and advantages of the solutions proposed during this thesis, several case studies are collected covering different fields of knowledge such as learning analytics and Artificial Intelligence. This shows the wide range of applications where serverless computing can bring great benefits. The results obtained endorse the use of the serverless model in simplifying the design of architectures for the intensive data processing in complex applications.Naranjo Delgado, DM. (2021). Serverless Computing Strategies on Cloud Platforms [Tesis doctoral]. Universitat Politècnica de València. https://doi.org/10.4995/Thesis/10251/160916TESI

    Accelerated serverless computing based on GPU virtualization

    Full text link
    [EN] This paper introduces a platform to support serverless computing for scalable event-driven data processing that features a multi-level elasticity approach combined with virtualization of GPUs. The platform supports the execution of applications based on Docker containers in response to file uploads to a data storage in order to perform the data processing in parallel. This is managed by an elastic Kubernetes cluster whose size automatically grows and shrinks depending on the number of files to be processed. To accelerate the processing time of each file, several approaches involving virtualized access to GPUs, either locally or remote, have been evaluated. A use case that involves the inference based on deep learning techniques on transtoracic echocardiography imaging has been carried out to assess the benefits and limitations of the platform. The results indicate that the combination of serverless computing and GPU virtualization introduce an efficient and cost-effective event-driven accelerated computing approach that can be applied for a wide variety of scientific applications.The work presented in this article has been partially funded by a research grant from the regional government of the Comunitat Valenciana (Spain), co-funded by the European Union ERDF funds (European Regional Development Fund) of the Comunitat Valenciana 2014-2020, with reference IDIFEDER/2018/032 (High-Performance Algorithms for the Modeling, Simulation and early Detection of diseases in Personalized Medicine). The authors would also like to thank the Spanish "Ministerio de Economia, Industria y Competitividad" for the project "BigCLOE" with reference number TIN2016-79951-R and the project ATMOSPHERE, funded jointly by the European Commission under the Cooperation Programme, Horizon 2020 grant agreement No 777154 and the Brazilian Ministerio de Ciencia, Tecnologia e Inovacao (MCI-I), number 51119. D.M.N would like to thank the "Generalitat Valenciana, Spain" for the grant GrisoliaP/2017/071.Naranjo-Delgado, DM.; Risco, S.; Alfonso Laguna, CD.; Pérez-González, AM.; Blanquer Espert, I.; Moltó, G. (2020). Accelerated serverless computing based on GPU virtualization. Journal of Parallel and Distributed Computing. 139:32-42. https://doi.org/10.1016/j.jpdc.2020.01.004S3242139De Alfonso, C., Caballer, M., Alvarruiz, F., & Hernández, V. (2013). An energy management system for cluster infrastructures. Computers & Electrical Engineering, 39(8), 2579-2590. doi:10.1016/j.compeleceng.2013.05.004. Alibaba, Alibaba Cloud Function Compute, URL https://www.alibabacloud.com/products/function-compute.. Amazon, Amazon Web Services (AWS), URL http://aws.amazon.com.. Amazon, Amazon Simple Storage Service (Amazon S3), URL http://aws.amazon.com/s3/.. Amazon Web Services, AWS Lambda, URL https://aws.amazon.com/lambda.. Apache, OpenWhisk, URL https://openwhisk.apache.org/.Apache Mesos, URL http://mesos.apache.org/.Caballer, M., Blanquer, I., Moltó, G., & de Alfonso, C. (2014). Dynamic Management of Virtual Infrastructures. Journal of Grid Computing, 13(1), 53-70. doi:10.1007/s10723-014-9296-5E. Camacho-Ramos, A. Jimenez-Pastor, I. Blanquer, F. García-Castro, A. Alberich-Bayarri, Computer Aided Diagnosis for Rheumatic Heart Disease by AI Applied to Features Extraction from Echocardiography.A. Ellis, OpenFaaS, URL https://www.openfaas.com/.Fission, URL https://fission.io/.Giménez-Alventosa, V., Moltó, G., & Caballer, M. (2019). A framework and a performance assessment for serverless MapReduce on AWS Lambda. Future Generation Computer Systems, 97, 259-274. doi:10.1016/j.future.2019.02.057. Google, Knative, URL https://github.com/knative/.. Google, Google Cloud Functions, URL https://cloud.google.com/functions/.. Google, Tensorflow, URL https://www.tensorflow.org/.. IBM, IBM Cloud Functions, URL https://www.ibm.com/cloud/functions.A. Jimenez-Pastor, A. Alberich-Bayarri, F. Garcia-Castro, L. Marti-Bonmati, Automatic visceral fat characterisation on CT scans through deep learning and CNN for the assessment of metabolic syndrome, in: ECR 2019: Book of Abstracts. Insights Into Imaging, Vol. 10 (S1), , 2019.. Keras, Keras, URL https://keras.io/.. Kubernetes, Kubernetes, URL https://kubernetes.io/.. Microsoft, Microsoft Azure Functions, URL https://azure.microsoft.com/en-us/services/functions/.. Microsoft, Microsoft Cognitive Toolkit, URL https://www.microsoft.com/en-us/cognitive-toolkit/.MinIO, URL https://min.io.Nascimento, B. R., Beaton, A. Z., Nunes, M. C. P., Diamantino, A. C., Carmo, G. A. L., Oliveira, K. K. B., … Sable, C. (2016). Echocardiographic prevalence of rheumatic heart disease in Brazilian schoolchildren: Data from the PROVAR study. International Journal of Cardiology, 219, 439-445. doi:10.1016/j.ijcard.2016.06.088Nuclio, URL https://nuclio.io/.Open Container Initiative, URL https://www.opencontainers.org/.. Oracle, Fn Project, URL https://fnproject.io/.Pérez, A., Moltó, G., Caballer, M., & Calatrava, A. (2018). Serverless computing for container-based architectures. Future Generation Computer Systems, 83, 50-59. doi:10.1016/j.future.2018.01.022A. Pérez, S. Risco, D.M. Naranjo, M. Caballer, G. Moltó, Serverless computing for event-driven data processing applications, in: 2019 IEEE International Conference on Cloud Computing, CLOUD 2019, , 2019.. Pivotal, Project riff, URL https://projectriff.io/.A.W. Services, API Gateway, URL https://aws.amazon.com/api-gateway.Shi, L., Chen, H., Sun, J., & Li, K. (2012). vCUDA: GPU-Accelerated High-Performance Computing in Virtual Machines. IEEE Transactions on Computers, 61(6), 804-816. doi:10.1109/tc.2011.112Spillner, J., Mateos, C., & Monge, D. A. (2017). FaaSter, Better, Cheaper: The Prospect of Serverless Scientific Computing and HPC. High Performance Computing, 154-168. doi:10.1007/978-3-319-73353-1_11Suzuki, Y., Kato, S., Yamada, H., & Kono, K. (2016). GPUvm: GPU Virtualization at the Hypervisor. IEEE Transactions on Computers, 65(9), 2752-2766. doi:10.1109/tc.2015.2506582Tan, H., Tan, Y., He, X., Li, K., & Li, K. (2019). A Virtual Multi-Channel GPU Fair Scheduling Method for Virtual Machines. IEEE Transactions on Parallel and Distributed Systems, 30(2), 257-270. doi:10.1109/tpds.2018.286534

    Proyecto Docente e Investigador, Trabajo Original de Investigación y Presentación de la Defensa, preparado por Germán Moltó para concursar a la plaza de Catedrático de Universidad, concurso 082/22, plaza 6708, área de Ciencia de la Computación e Inteligencia Artificial

    Full text link
    Este documento contiene el proyecto docente e investigador del candidato Germán Moltó Martínez presentado como requisito para el concurso de acceso a plazas de Cuerpos Docentes Universitarios. Concretamente, el documento se centra en el concurso para la plaza 6708 de Catedrático de Universidad en el área de Ciencia de la Computación en el Departamento de Sistemas Informáticos y Computación de la Universitat Politécnica de València. La plaza está adscrita a la Escola Técnica Superior d'Enginyeria Informàtica y tiene como perfil las asignaturas "Infraestructuras de Cloud Público" y "Estructuras de Datos y Algoritmos".También se incluye el Historial Académico, Docente e Investigador, así como la presentación usada durante la defensa.Germán Moltó Martínez (2022). Proyecto Docente e Investigador, Trabajo Original de Investigación y Presentación de la Defensa, preparado por Germán Moltó para concursar a la plaza de Catedrático de Universidad, concurso 082/22, plaza 6708, área de Ciencia de la Computación e Inteligencia Artificial. http://hdl.handle.net/10251/18903
    corecore