582 research outputs found

    A Survey on Forensics and Compliance Auditing for Critical Infrastructure Protection

    Get PDF
    The broadening dependency and reliance that modern societies have on essential services provided by Critical Infrastructures is increasing the relevance of their trustworthiness. However, Critical Infrastructures are attractive targets for cyberattacks, due to the potential for considerable impact, not just at the economic level but also in terms of physical damage and even loss of human life. Complementing traditional security mechanisms, forensics and compliance audit processes play an important role in ensuring Critical Infrastructure trustworthiness. Compliance auditing contributes to checking if security measures are in place and compliant with standards and internal policies. Forensics assist the investigation of past security incidents. Since these two areas significantly overlap, in terms of data sources, tools and techniques, they can be merged into unified Forensics and Compliance Auditing (FCA) frameworks. In this paper, we survey the latest developments, methodologies, challenges, and solutions addressing forensics and compliance auditing in the scope of Critical Infrastructure Protection. This survey focuses on relevant contributions, capable of tackling the requirements imposed by massively distributed and complex Industrial Automation and Control Systems, in terms of handling large volumes of heterogeneous data (that can be noisy, ambiguous, and redundant) for analytic purposes, with adequate performance and reliability. The achieved results produced a taxonomy in the field of FCA whose key categories denote the relevant topics in the literature. Also, the collected knowledge resulted in the establishment of a reference FCA architecture, proposed as a generic template for a converged platform. These results are intended to guide future research on forensics and compliance auditing for Critical Infrastructure Protection.info:eu-repo/semantics/publishedVersio

    Flood dynamics derived from video remote sensing

    Get PDF
    Flooding is by far the most pervasive natural hazard, with the human impacts of floods expected to worsen in the coming decades due to climate change. Hydraulic models are a key tool for understanding flood dynamics and play a pivotal role in unravelling the processes that occur during a flood event, including inundation flow patterns and velocities. In the realm of river basin dynamics, video remote sensing is emerging as a transformative tool that can offer insights into flow dynamics and thus, together with other remotely sensed data, has the potential to be deployed to estimate discharge. Moreover, the integration of video remote sensing data with hydraulic models offers a pivotal opportunity to enhance the predictive capacity of these models. Hydraulic models are traditionally built with accurate terrain, flow and bathymetric data and are often calibrated and validated using observed data to obtain meaningful and actionable model predictions. Data for accurately calibrating and validating hydraulic models are not always available, leaving the assessment of the predictive capabilities of some models deployed in flood risk management in question. Recent advances in remote sensing have heralded the availability of vast video datasets of high resolution. The parallel evolution of computing capabilities, coupled with advancements in artificial intelligence are enabling the processing of data at unprecedented scales and complexities, allowing us to glean meaningful insights into datasets that can be integrated with hydraulic models. The aims of the research presented in this thesis were twofold. The first aim was to evaluate and explore the potential applications of video from air- and space-borne platforms to comprehensively calibrate and validate two-dimensional hydraulic models. The second aim was to estimate river discharge using satellite video combined with high resolution topographic data. In the first of three empirical chapters, non-intrusive image velocimetry techniques were employed to estimate river surface velocities in a rural catchment. For the first time, a 2D hydraulicvmodel was fully calibrated and validated using velocities derived from Unpiloted Aerial Vehicle (UAV) image velocimetry approaches. This highlighted the value of these data in mitigating the limitations associated with traditional data sources used in parameterizing two-dimensional hydraulic models. This finding inspired the subsequent chapter where river surface velocities, derived using Large Scale Particle Image Velocimetry (LSPIV), and flood extents, derived using deep neural network-based segmentation, were extracted from satellite video and used to rigorously assess the skill of a two-dimensional hydraulic model. Harnessing the ability of deep neural networks to learn complex features and deliver accurate and contextually informed flood segmentation, the potential value of satellite video for validating two dimensional hydraulic model simulations is exhibited. In the final empirical chapter, the convergence of satellite video imagery and high-resolution topographical data bridges the gap between visual observations and quantitative measurements by enabling the direct extraction of velocities from video imagery, which is used to estimate river discharge. Overall, this thesis demonstrates the significant potential of emerging video-based remote sensing datasets and offers approaches for integrating these data into hydraulic modelling and discharge estimation practice. The incorporation of LSPIV techniques into flood modelling workflows signifies a methodological progression, especially in areas lacking robust data collection infrastructure. Satellite video remote sensing heralds a major step forward in our ability to observe river dynamics in real time, with potentially significant implications in the domain of flood modelling science

    Restoring and valuing global kelp forest ecosystems

    Full text link
    Kelp forests cover ~30% of the world’s coastline and are the largest biogenic marine habitat on earth. Across their distribution, kelp forests are essential for the healthy functioning of marine ecosystems and consequently underpin many of the benefits coastal societies receive from the ocean. Concurrently, rising sea temperatures, overgrazing by marine herbivores, sedimentation, and water pollution have caused kelp forests populations to decline in most regions across the world. Effectively managing the response to these declines will be pivotal to maintaining healthy marine ecosystems and ensuring the benefits they provide are equitably distributed to coastal societies. In Chapter 1, I review how the marine management paradigm has shifted from protection to restoration as well as the consequences of this shift. Chapter 2 introduces the field of kelp forest restoration and provides a quantitative and qualitative review of 300 years of kelp forest restoration, exploring the genesis of restoration efforts, the lessons we have learned about restoration, and how we can develop the field for the future. Chapter 3 is a direct answer to the question faced while completing Chapter 2. This chapter details the need for a standardized marine restoration reporting framework, the benefits that it would provide, the challenges presented by creating one, and the solutions to these problems. Similarly, Chapter 4 is a response to the gaps discovered in Chapter 2. Chapter 4 explores how we can use naturally occurring positive species interactions and synergies with human activities to not only increase the benefits from ecosystem restoration but increase the probability that restoration is successful. The decision to restore an ecosystem or not is informed by the values and priorities of the society living in or managing that ecosystem. Chapter 5 quantifies the fisheries production, nutrient cycling, and carbon sequestration potential of five key genera of globally distributed kelp forests. I conclude the thesis by reviewing the lessons learned and the steps required to advance the field kelp forest restoration and conservation

    Modern data analytics in the cloud era

    Get PDF
    Cloud Computing ist die dominante Technologie des letzten Jahrzehnts. Die Benutzerfreundlichkeit der verwalteten Umgebung in Kombination mit einer nahezu unbegrenzten Menge an Ressourcen und einem nutzungsabhängigen Preismodell ermöglicht eine schnelle und kosteneffiziente Projektrealisierung für ein breites Nutzerspektrum. Cloud Computing verändert auch die Art und Weise wie Software entwickelt, bereitgestellt und genutzt wird. Diese Arbeit konzentriert sich auf Datenbanksysteme, die in der Cloud-Umgebung eingesetzt werden. Wir identifizieren drei Hauptinteraktionspunkte der Datenbank-Engine mit der Umgebung, die veränderte Anforderungen im Vergleich zu traditionellen On-Premise-Data-Warehouse-Lösungen aufweisen. Der erste Interaktionspunkt ist die Interaktion mit elastischen Ressourcen. Systeme in der Cloud sollten Elastizität unterstützen, um den Lastanforderungen zu entsprechen und dabei kosteneffizient zu sein. Wir stellen einen elastischen Skalierungsmechanismus für verteilte Datenbank-Engines vor, kombiniert mit einem Partitionsmanager, der einen Lastausgleich bietet und gleichzeitig die Neuzuweisung von Partitionen im Falle einer elastischen Skalierung minimiert. Darüber hinaus führen wir eine Strategie zum initialen Befüllen von Puffern ein, die es ermöglicht, skalierte Ressourcen unmittelbar nach der Skalierung auszunutzen. Cloudbasierte Systeme sind von fast überall aus zugänglich und verfügbar. Daten werden häufig von zahlreichen Endpunkten aus eingespeist, was sich von ETL-Pipelines in einer herkömmlichen Data-Warehouse-Lösung unterscheidet. Viele Benutzer verzichten auf die Definition von strikten Schemaanforderungen, um Transaktionsabbrüche aufgrund von Konflikten zu vermeiden oder um den Ladeprozess von Daten zu beschleunigen. Wir führen das Konzept der PatchIndexe ein, die die Definition von unscharfen Constraints ermöglichen. PatchIndexe verwalten Ausnahmen zu diesen Constraints, machen sie für die Optimierung und Ausführung von Anfragen nutzbar und bieten effiziente Unterstützung bei Datenaktualisierungen. Das Konzept kann auf beliebige Constraints angewendet werden und wir geben Beispiele für unscharfe Eindeutigkeits- und Sortierconstraints. Darüber hinaus zeigen wir, wie PatchIndexe genutzt werden können, um fortgeschrittene Constraints wie eine unscharfe Multi-Key-Partitionierung zu definieren, die eine robuste Anfrageperformance bei Workloads mit unterschiedlichen Partitionsanforderungen bietet. Der dritte Interaktionspunkt ist die Nutzerinteraktion. Datengetriebene Anwendungen haben sich in den letzten Jahren verändert. Neben den traditionellen SQL-Anfragen für Business Intelligence sind heute auch datenwissenschaftliche Anwendungen von großer Bedeutung. In diesen Fällen fungiert das Datenbanksystem oft nur als Datenlieferant, während der Rechenaufwand in dedizierten Data-Science- oder Machine-Learning-Umgebungen stattfindet. Wir verfolgen das Ziel, fortgeschrittene Analysen in Richtung der Datenbank-Engine zu verlagern und stellen das Grizzly-Framework als DataFrame-zu-SQL-Transpiler vor. Auf dieser Grundlage identifizieren wir benutzerdefinierte Funktionen (UDFs) und maschinelles Lernen (ML) als wichtige Aufgaben, die von einer tieferen Integration in die Datenbank-Engine profitieren würden. Daher untersuchen und bewerten wir Ansätze für die datenbankinterne Ausführung von Python-UDFs und datenbankinterne ML-Inferenz.Cloud computing has been the groundbreaking technology of the last decade. The ease-of-use of the managed environment in combination with nearly infinite amount of resources and a pay-per-use price model enables fast and cost-efficient project realization for a broad range of users. Cloud computing also changes the way software is designed, deployed and used. This thesis focuses on database systems deployed in the cloud environment. We identify three major interaction points of the database engine with the environment that show changed requirements compared to traditional on-premise data warehouse solutions. First, software is deployed on elastic resources. Consequently, systems should support elasticity in order to match workload requirements and be cost-effective. We present an elastic scaling mechanism for distributed database engines, combined with a partition manager that provides load balancing while minimizing partition reassignments in the case of elastic scaling. Furthermore we introduce a buffer pre-heating strategy that allows to mitigate a cold start after scaling and leads to an immediate performance benefit using scaling. Second, cloud based systems are accessible and available from nearly everywhere. Consequently, data is frequently ingested from numerous endpoints, which differs from bulk loads or ETL pipelines in a traditional data warehouse solution. Many users do not define database constraints in order to avoid transaction aborts due to conflicts or to speed up data ingestion. To mitigate this issue we introduce the concept of PatchIndexes, which allow the definition of approximate constraints. PatchIndexes maintain exceptions to constraints, make them usable in query optimization and execution and offer efficient update support. The concept can be applied to arbitrary constraints and we provide examples of approximate uniqueness and approximate sorting constraints. Moreover, we show how PatchIndexes can be exploited to define advanced constraints like an approximate multi-key partitioning, which offers robust query performance over workloads with different partition key requirements. Third, data-centric workloads changed over the last decade. Besides traditional SQL workloads for business intelligence, data science workloads are of significant importance nowadays. For these cases the database system might only act as data delivery, while the computational effort takes place in data science or machine learning (ML) environments. As this workflow has several drawbacks, we follow the goal of pushing advanced analytics towards the database engine and introduce the Grizzly framework as a DataFrame-to-SQL transpiler. Based on this we identify user-defined functions (UDFs) and machine learning inference as important tasks that would benefit from a deeper engine integration and investigate approaches to push these operations towards the database engine

    Measurement of Triple-Differential Z+Jet Cross Sections with the CMS Detector at 13 TeV and Modelling of Large-Scale Distributed Computing Systems

    Get PDF
    The achievable precision in the calculations of predictions for observables measured at the LHC experiments depends on the amount of invested computing power and the precision of input parameters that go into the calculation. Currently, no theory exists that can derive the input parameter values for perturbative calculations from first principles. Instead, they have to be derived from measurements in dedicated analyses that measure observables sensitive to the input parameters with high precision. Such an analysis that measures the production cross section of oppositely charged muon pairs with an invariant mass close to the mass of the Z\mathrm{Z} boson in association with jets in a phase space divided into bins of the transverse momentum of the dimuon system pTZp_T^\text{Z}, and two observables yy^* and yby_b created from the rapidities of the dimuon system and the jet with the highest momentum is presented. To achieve the highest statistical precision in this triple-differential measurement the full data recorded by the CMS experiment at a center-of-mass energy of s=13TeV\sqrt{s}=13\,\mathrm{TeV} in the years 2016 to 2018 is combined. The measured cross sections are compared to theoretical predictions approximating full NNLO accuracy in perturbative QCD. Deviations from these predictions are observed rendering further studies at full NNLO accuracy necessary. To obtain the measured results large amounts of data are processed and analysed on distributed computing infrastructures. Theoretical calculations pose similar computing demands. Consequently, substantial amounts of storage and processing resources are required by the LHC collaborations. These requirements are met in large parts by the resources of the WLCG, a complex federation of globally distributed computer centres. With the upgrade of the LHC and the experiments, in the HL-LHC era, the computing demands are expected to increase substantially. Therefore, the prevailing computing models need to be updated to cope with the unprecedented demands. For the design of future adaptions of the HEP workflow executions on infrastructures a simulation model is developed, and an implementation tested on infrastructure design candidates inspired by a proposal of the German HEP computing community. The presented study of these infrastructure candidates showcases the applicability of the simulation tool in the strategical development of a future computing infrastructure for HEP in the HL-LHC context

    Distributed Resource Management in Converged Telecommunication Infrastructures

    Get PDF
    Η πέμπτη γενιά (5G) των ασύρματων και κινητών επικοινωνιών αναμένεται να έχει εκτεταμένο αντίκτυπο σε τομείς πέρα από αυτόν της τεχνολογίας πληροφοριών και επικοινωνιών (Information and Communications Technology - ICT). Το 5G ευθυγραμμίζεται με την 4η βιομηχανική εξέλιξη (4th industrial evolution), θολώνοντας τα όρια μεταξύ της φυσικής, της ψηφιακής και της βιολογικής σφαίρας. Σχεδιάστηκε για να προσφέρει δυνατότητες πολλαπλών υπηρεσιών και χρηστών, εκπληρώνοντας ταυτόχρονα πολλαπλές απαιτήσεις και επιχειρηματικά οικοσυστήματα. Ωστόσο, ορισμένες υπηρεσίες, όπως η επαυξημένη πραγματικότητα (Augmented Reality -AR), το εργοστάσιο του μέλλοντος (Factory of the Future) κ.λπ. θέτουν προκλήσεις για την ανάπτυξη μιας ενιαίας 5G υποδομής με βάση την ενεργειακή και οικονομική αποδοτικότητα. Σε αυτή τη κατεύθυνση, η παρούσα διδακτορική διατριβή υιοθετεί την ιδέα μιας καθολικής πλατφόρμας 5G που ενσωματώνει μια πληθώρα τεχνολογιών δικτύωσης (ασύρματες και ενσύρματες), και στοχεύει στην ανάπτυξη μαθηματικών εργαλείων, αλγορίθμων και πρωτοκόλλων για την ενεργειακή και λειτουργική βελτιστοποίηση αυτής της υποδομής και των υπηρεσιών που παρέχει. Αυτή η υποδομή διασυνδέει υπολογιστικούς, αποθηκευτικούς και δικτυακούς πόρους μέσω του προγραμματιζόμενου υλισμικού (hardware-HW) και της λογισμικοποίησης του δικτύου (network softwarisation). Με αυτό τον τρόπο, επιτρέπει την παροχή οποιασδήποτε υπηρεσίας με την ευέλικτη και αποτελεσματική μίξη και αντιστοίχιση πόρων δικτύου, υπολογισμού και αποθήκευσης. Αρχικά, η μελέτη επικεντρώνεται στις προκλήσεις των δικτύων ραδιοπρόσβασης επόμενης γενιάς (NG-RAN), τα οποία αποτελούνται από πολλαπλές τεχνολογίες δικτύου για τη διασύνδεση ενός ευρέος φάσματος συσκευών με υπολογιστικούς και αποθηκευτικούς πόρους. Η ανάπτυξη μικρών κυψελών (small cells) είναι ζωτικής σημασίας για τη βελτίωση της φασματικής απόδοσης και της ρυθμαπόδοσης και μπορεί να επιτευχθεί είτε μέσω παραδοσιακών κατανεμημένων δικτύων ραδιοπρόσβασης (D-RAN) είτε μέσω δικτύων ραδιοπρόσβασης νέφους (C-RAN). Ενώ το C-RAN προσφέρει μεγάλα οφέλη όσο αφορά την επεξεργασία σήματος και τον συντονισμό σε σχέση με τα D-RAN, απαιτεί υψηλό εύρος ζώνης μετάδοσης και επιβάλλει σοβαρούς περιορισμούς καθυστέρησης στο δίκτυο μεταφοράς. Για την αντιμετώπιση αυτών των ζητημάτων, προτείνεται μια νέα αρχιτεκτονική «αποσύνθεσης των πόρων». Σύμφωνα με αυτήν, οι λειτουργιές βασικής επεξεργασίας σήματος (BBU functions) μπορούν να διαχωριστούν και να εκτελεστούν είτε στην ίδια θέση με τη κεραία (RU), είτε απομακρυσμένα σε κάποια μονάδα επεξεργασίας που βρίσκεται κοντά (DU) ή μακριά (CU) από την κεραία. Αυτή η έννοια της «αποσύνθεσης των πόρων» επιτρέπει την πρόσβαση σε κοινόχρηστους πόρους που παρέχονται από κέντρα δεδομένων μικρής ή μεγάλης κλίμακας, χωρίς να απαιτείται ιδιοκτησία των πόρων. Ωστόσο, η προσέγγιση αυτή απαιτεί την ανάπτυξη νέων πλαισίων βελτιστοποίησης για τη βελτίωση της αποδοτικότητας και της ευελιξίας των υποδομών 5G, ώστε να διαχειρίζονται αποτελεσματικά τους διαχωρισμένους πόρους. Καθοριστικό ρόλο σε αυτό αποτελεί η αρχιτεκτονική της Δικτύωσης Καθορισμένης από Λογισμικό (SDN), η οποία στοχεύει να επιτρέψει την προγραμματιζόμενη και δυναμική διαχείριση των πόρων του δικτύου μέσω κεντρικού ελέγχου. Έχοντας υπόψιν τα παραπάνω, στο πρώτο μέρος της διατριβής αναπτύσσεται ένα πλαίσιο βελτιστοποίησης που προσδιορίζει το βέλτιστο λειτουργικό διαχωρισμό μεταξύ των λειτουργιών βασικής επεξεργασίας σήματος, σε συνδυασμό με τη βέλτιστη τοποθέτηση του SDN ελεγκτή, λαμβάνοντας επίσης υπόψη τη σταθερότητα του συνολικού συστήματος και τη μείωση των συνολικών λειτουργικών δαπανών. Η ανάλυση επεκτείνεται περαιτέρω με προηγμένα σχήματα βελτιστοποίησης, με σκοπό την προσέγγιση ενός πιο ρεαλιστικού περιβάλλοντος 5G, όπου η ραγδαία αύξηση της κίνησης συνεπάγεται την ανάγκη για μεγαλύτερες δυνατότητες κλιμάκωσης για τη διαχείριση των χωρικών και χρονικών μεταβολών της, καθώς και τερματικών με διαφορετικές απαιτήσεις ποιότητας. Στη συνέχεια μελετούνται τα δίκτυα πυρήνα του 5G. Στα δίκτυα πυρήνα 5G κάθε λειτουργία είναι λογισμικοποιημένη (softwarized) και απομονωμένη, επιτρέποντας την ανάπτυξη της σε υλικό γενικής χρήσης. Επίσης εισάγεται ένας νέος διαχωρισμό μεταξύ των λειτουργιών του επιπέδου ελέγχου και του επιπέδου δεδομένων (Control and User Plane Seperation – CUPS) με βάση την SDN αρχιτεκτονική. Με τον τρόπο αυτό διαχωρίζεται η δικτυακή κίνηση μεταξύ των διαφορετικών 5G οντοτήτων (επίπεδο ελέγχου) και η δικτυακή κίνηση των χρηστών (επίπεδο χρήστη). Κρίσιμο ρόλο στο χειρισμό σημαντικού μέρους του επιπέδου χρήστη στα συστήματα 5G διαδραματίζει η οντότητα «λειτουργία επιπέδου χρήστη» (User Plane Function – UPF). Το UPF είναι υπεύθυνο για την προώθηση της πραγματικής κίνησης χρηστών με πολύ αυστηρές απαιτήσεις απόδοσης. Ανάλογα με τον τύπο της απαιτούμενης υπηρεσίας και την αρχιτεκτονική του δικτύου ραδιοπρόσβασης, οι κόμβοι UPF μπορούν να βρίσκονται είτε πιο κοντά είτε πιο μακριά από αυτό, ανακατευθύνοντας την κυκλοφορία σε διακομιστές κοντά στην άκρη του δικτύου για μείωση του χρόνου καθυστέρησης ή σε κεντρικές εγκαταστάσεις. Ως εκ τούτου, προκύπτει το ερώτημα της επιλογής των βέλτιστων στοιχείων UPF, καθώς η επιλογή ενός μη διαθέσιμου υπολογιστικού πόρου UPF μπορεί να οδηγήσει σε μπλοκάρισμα και καθυστερήσεις της υπηρεσίας. Για την αντιμετώπιση αυτού του ζητήματος, προτείνουμε ένα μοντέλο ειδικά σχεδιασμένο για δυναμική επιλογή βέλτιστων στοιχείων UPF με στόχο την ελαχιστοποίηση της συνολικής καθυστέρησης της υπηρεσίας. Αναπτύσσουμε συναρτήσεις κόστους για το μοντέλο χρησιμοποιώντας εργαστηριακές μετρήσεις που ελήφθησαν από μια πλατφόρμα 5G ανοιχτού κώδικα που φιλοξενείται σε περιβάλλον νέφους οπτικού κέντρου δεδομένων. Με το προτεινόμενο μοντέλο, μπορούμε να επιλέξουμε δυναμικά το καταλληλότερο στοιχείο UPF για τη χρήση υπολογιστικών πόρων, μειώνοντας τη καθυστέρηση εξυπηρέτησης. Επεκτείνοντας την έννοια αποσύνθεσης των δικτυακών πόρων, η ανάλυση εστιάζει στα συστήματα 6G, τα οποία αναμένεται να υποστηρίξουν ένα ευρύ φάσμα υπηρεσιών μέσω μιας κοινής υποδομής που διευκολύνεται από τον τεμαχισμό δικτύου (network slicing). Τα συστήματα 6G προβλέπεται να λειτουργούν με αποκεντρωμένο τρόπο, που επιτρέπει στις εφαρμογές να παρεμβαίνουν άμεσα στις διαδικασίες ελέγχου για την πιο αποτελεσματική διασφάλιση της ποιότητας εμπειρίας (Quality of Experience – QoE) των τελικών χρηστών. Αυτό πραγματοποιείται μέσω της χρήσης της οντότητας «λειτουργία εφαρμογής» (Application Function – AF), η οποία διαχειρίζεται την εφαρμογή που εκτελείται στο τερματικό χρήστη (User Equipment – UE) και στο διακομιστή (Application Server - AS) που υποστηρίζει την υπηρεσία. Το AF διαδραματίζει κρίσιμο ρόλο στην παροχή υπηρεσιών υψηλού QoE, καθώς ενημερώνεται από την εφαρμογή και μπορεί να επηρεάσει τις αποφάσεις δρομολόγησης της κυκλοφορίας. Ωστόσο, η ανεξέλεγκτη λειτουργία του AF μπορεί να οδηγήσει σε αστάθεια στο σύστημα. Για την αντιμετώπιση αυτού του ζητήματος σχεδιάζουμε, εφαρμόζουμε και αξιολογούμε θεωρητικά και πειραματικά ένα πλήρως κατανεμημένο πλαίσιο λήψης αποφάσεων για την εκχώρηση ροών (flow assignment) στα συστήματα 6G. Το πλαίσιο αυτό αποδεικνύεται ότι, υπό συγκεκριμένες συνθήκες, συγκλίνει σε ένα σταθερό σημείο που παρέχει τη βέλτιστη ισορροπία μεταξύ QoE και αποδοτικότητας κόστους. Οι συναρτήσεις κόστους που χρησιμοποιούνται ενσωματώνουν τόσο το κόστος δικτύου όσο και το υπολογιστικό κόστος, τα οποία προκύπτουν ρεαλιστικά μέσω μιας λεπτομερούς διαδικασίας που διεξάγεται σε μια λειτουργική 5G πλατφόρμα. Αυτή η διαδικασία επιτρέπει τη μοντελοποίηση της απόδοσης του συστήματος και των απαιτήσεων σε διαφορετικά σενάρια λειτουργίας, τα οποία μπορούν να βοηθήσουν στη βελτιστοποιημένη διαχείριση του κύκλου ζωής των παρεχόμενων υπηρεσιών. Τέλος, η μελέτη επικεντρώνεται στην πραγματική ανάπτυξη μιας υποδομής 5G που υποστηρίζει τον τεμαχισμό του δικτύου κατά παραγγελία από πολλαπλούς χρήστες. Ο τεμαχισμός του δικτύου επιτρέπει τον διαχωρισμό της φυσικής υποδομής δικτύου σε πολλαπλές λογικές υποδομές που μπορούν να υποστηρίξουν διαφορετικές κατηγορίες υπηρεσιών. Ένα τμήμα δικτύου (slice) έχει τους δικούς του αποκλειστικούς πόρους από το δίκτυο πρόσβασης, μεταφοράς, και πυρήνα, καθώς και στοιχεία από διάφορους τομείς κάτω από τους ίδιους ή διαφορετικούς διαχειριστές. Η κοινή χρήση της υποκείμενης φυσικής υποδομής από τα τμήματα δικτύου περιλαμβάνει την ανάπτυξη κατάλληλων διεπαφών που μπορούν να χρησιμοποιηθούν για την σύνδεση των διαφορετικών δικτυακών στοιχείων, καθώς και τη δημιουργία κατάλληλων περιγραφών (descriptors) για την εικονοποίηση των 5G λειτουργιών (Εικονικές Δικτυακές Λειτουργίες 5G - 5G Virtual Network Functions – VNFs). Η συλλογή και ο κατάλληλος συνδυασμός πολλαπλών VNF δίνει μια 5G υπηρεσία δικτύου (Network Service - NS) από άκρη σε άκρη (End to End - E2E). Μέσω μιας πλατφόρμας διαχείρισης και ενορχήστρωσης (Management and Orchestration Platform - MANO), μπορούμε να συνδυάσουμε αυτές τις υπηρεσίες δικτύου για να δημιουργήσουμε και να διαχειριστούμε ένα 5G τμήμα δικτύου. Για να επιτευχθεί αυτό, στη μελέτη αυτή χρησιμοποιείται ένας ενορχηστρωτής που ονομάζεται Open Source MANO (OSM), ο οποίος είναι συμβατός με το πρότυπο της Εικονικοποίησης Λειτουργιών Δικτύου (NFV). Αναπτύσσονται descriptors τόσο για τις λειτουργίες του επιπέδου ελέγχου του 5G, όσο και για το επίπεδο χρήστη. Συνδυάζοντας αυτούς τους descriptors, επιτυγχάνεται η δυναμική υλοποίηση πολλαπλών τμημάτων δικτύου πάνω σε μια 5G πλατφόρμα που υποστηρίζει πολλαπλούς χρήστες και φιλοξενείται σε μια υποδομή κέντρου δεδομένων. Χρησιμοποιώντας τα δημιουργημένα VNF, μπορούμε να εκτελέσουμε το δίκτυο πυρήνα με το πάτημα ενός κουμπιού και να παρέχουμε πολλαπλά τμήματα δικτύου με διαφορετικά χαρακτηριστικά.The fifth generation (5G) of wireless and mobile communications is expected to have a far-reaching impact on society and businesses beyond the information and communications technology (ICT) sector. 5G is aligned with the 4th industrial evolution, blurring the lines between the physical, digital, and biological spheres. A common design is necessary to accommodate all service types based on energy and cost efficiency. To address this, this PhD thesis adopts the idea of a universal 5G platform that integrates a variety of networking technologies (wireless and wired), and aims to develop mathematical tools, algorithms and protocols for the energy and operational optimization of this infrastructure and the services it provides. This infrastructure interconnects computing, storage and network components that are placed at different locations, using the concepts of programmable hardware (hardware-HW) and network software (network softwarisation). In this way, it enables the provision of any service by flexibly and efficiently mixing and matching network, computing and storage resources. The thesis targeted four distinct contributions. All proposed contributions are implemented and investigated experimentally in a 5G open-source lab testbed. The first contribution focused on optimal function and resource allocation adopting the innovative 5G RAN architecture, that splits flexibly the baseband processing function chain between Remote, Distributed and Central Units. This enables access to shared resources provided by micro or large-scale remote data centers, without requiring resource ownership. To support this architecture, networks adopt the Software Defined Networking (SDN) approach, where the control plane is decoupled from the data plane and the associated network devices and is centralized in a software-based controller. In this context, the goal of the proposed approach was to develop effective optimization techniques that identify the optimal functional split, along with the optimal location and size of the SDN controllers. The second contribution concentrated on solving the User Plane Function (UPF) selection problem in 5G core networks. According to the SDN paradigm 5G core control plane functions manage the network, while UPFs are responsible for handling users’ data. Depending on the 5G RAN deployment option and the nature of the service, UPF nodes can be placed closer to the network edge, directing traffic to the Multi-access Edge Computing (MEC) servers hence reducing latency, or be placed deeper into the network directing traffic to central cloud facilities. In this context, a framework that selects the optimal UPF nodes to handle user’s traffic minimizing total service delay has been proposed. The third contribution pertained to service provisioning in upcoming telecommunication systems. 6G systems require novel architectural Quality of Experience (QoE) models and resource allocation strategies that can differentiate between data streams originating from the same or multiple User Equipment (UEs), respond to changes in the underlying physical infrastructure, and scale with the number of connected devices. Currently, centralized management and network orchestration (MANO) platforms provide this functionality, but they suffer scalability issues. Therefore, future systems are anticipated to operate in a distributed manner, allowing applications to directly intervene in relevant control processes to ensure the required QoE. The proposed approach focused on developing a flow assignment model that supports applications running on UEs. The final contribution of this thesis focused on the deployment of a 5G infrastructure that supports multi-tenant network slicing on demand. Sharing of the underlying physical infrastructure was achieved through the development of suitable interfaces for integrating different network components and the creation of appropriate descriptors for virtual 5G network functions (VNFs). By collecting and combining multiple VNFs, an end-to-end 5G Network Service (NS) can be obtained. Using a MANO platform, these NSs can be combined to instantiate and manage a 5G network slice
    corecore