555 research outputs found

    Multidisciplinary perspectives on Artificial Intelligence and the law

    Get PDF
    This open access book presents an interdisciplinary, multi-authored, edited collection of chapters on Artificial Intelligence (‘AI’) and the Law. AI technology has come to play a central role in the modern data economy. Through a combination of increased computing power, the growing availability of data and the advancement of algorithms, AI has now become an umbrella term for some of the most transformational technological breakthroughs of this age. The importance of AI stems from both the opportunities that it offers and the challenges that it entails. While AI applications hold the promise of economic growth and efficiency gains, they also create significant risks and uncertainty. The potential and perils of AI have thus come to dominate modern discussions of technology and ethics – and although AI was initially allowed to largely develop without guidelines or rules, few would deny that the law is set to play a fundamental role in shaping the future of AI. As the debate over AI is far from over, the need for rigorous analysis has never been greater. This book thus brings together contributors from different fields and backgrounds to explore how the law might provide answers to some of the most pressing questions raised by AI. An outcome of the Católica Research Centre for the Future of Law and its interdisciplinary working group on Law and Artificial Intelligence, it includes contributions by leading scholars in the fields of technology, ethics and the law.info:eu-repo/semantics/publishedVersio

    Intelligent interface agents for biometric applications

    Get PDF
    This thesis investigates the benefits of applying the intelligent agent paradigm to biometric identity verification systems. Multimodal biometric systems, despite their additional complexity, hold the promise of providing a higher degree of accuracy and robustness. Multimodal biometric systems are examined in this work leading to the design and implementation of a novel distributed multi-modal identity verification system based on an intelligent agent framework. User interface design issues are also important in the domain of biometric systems and present an exceptional opportunity for employing adaptive interface agents. Through the use of such interface agents, system performance may be improved, leading to an increase in recognition rates over a non-adaptive system while producing a more robust and agreeable user experience. The investigation of such adaptive systems has been a focus of the work reported in this thesis. The research presented in this thesis is divided into two main parts. Firstly, the design, development and testing of a novel distributed multi-modal authentication system employing intelligent agents is presented. The second part details design and implementation of an adaptive interface layer based on interface agent technology and demonstrates its integration with a commercial fingerprint recognition system. The performance of these systems is then evaluated using databases of biometric samples gathered during the research. The results obtained from the experimental evaluation of the multi-modal system demonstrated a clear improvement in the accuracy of the system compared to a unimodal biometric approach. The adoption of the intelligent agent architecture at the interface level resulted in a system where false reject rates were reduced when compared to a system that did not employ an intelligent interface. The results obtained from both systems clearly express the benefits of combining an intelligent agent framework with a biometric system to provide a more robust and flexible application

    Towards learning mechanistic models at the right level of abstraction

    Get PDF
    Das menschliche Gehirn ist in der Lage, Vorhersagen zu treffen, zu planen und sich durch mentale Simulationen kontrafaktische Situationen vorzustellen. Künstliche neuronale Netze sind zwar in bestimmten Bereichen brereits sehr leistungsfähig, scheinen aber immer noch ein mechanistisches Verständnis der Welt zu vermissen. In dieser Arbeit befassen wir uns mit verschiedenen Ansätzen, wie neuronale Netze die zugrundeliegenden Mechanismen des modellierten Systems besser erfassen können. Wir werden uns mit Adaptive skip intervals (ASI) befassen; eine Methode, die es dynamischen Modellen ermöglicht, ihre eigene zeitliche Vergröberung an jedem Punkt zu wählen. Dadurch werden langfristige Vorhersagen sowohl einfacher als auch rechnerisch effizienter. Als Nächstes werden wir uns mit alternativen Möglichkeiten zur Aggregation von Gradienten in verschiedenen Umgebungen befassen, was zum Begriff der Invariant Learning Consistency (ILC) und der Methode AND-mask für einen modifizierten stochastischen Gradientenabstieg führt. Durch das Herausfiltern inkonsistenter Trainingssignale aus verschiedenen Umgebungen bleiben die gemeinsamen Mechanismen erhalten. Schließlich werden wir sehen, dass Lernen auf der Grundlage von Meta-Gradienten Trajektorien von dynamischen Systemen transformieren kann, um nützliche Lernsignale in Richtung eines zugrunde liegenden Ziels zu konstruieren, wie z. B. Reward beim Reinforcement Learning. Dadurch kann das interne Modell sowohl eine zeitliche als auch eine Zustandsabstraktion beinhalten

    Learning Motion Skills for a Humanoid Robot

    Get PDF
    This thesis investigates the learning of motion skills for humanoid robots. As groundwork, a humanoid robot with integrated fall management was developed as an experimental platform. Then, two different approaches for creating motion skills were investigated. First, one that is based on Cartesian quintic splines with optimized parameters. Second, a reinforcement learning-based approach that utilizes the first approach as a reference motion to guide the learning. Both approaches were tested on the developed robot and on further simulated robots to show their generalization. A special focus was set on the locomotion skill, but a standing-up and kick skill are also discussed. Diese Dissertation beschäftigt sich mit dem Lernen von Bewegungsfähigkeiten für humanoide Roboter. Als Grundlage wurde zunächst ein humanoider Roboter mit integriertem Fall Management entwickelt, welcher als Experimentalplatform dient. Dann wurden zwei verschiedene Ansätze für die Erstellung von Bewegungsfähigkeiten untersucht. Zu erst einer der kartesische quintische Splines mit optimierten Parametern nutzt. Danach wurde ein Ansatz basierend auf bestärkendem Lernen untersucht, welcher den ersten Ansatz als Referenzbewegung benutzt. Beide Ansätze wurden sowohl auf der entwickelten Roboterplatform, als auch auf weiteren simulierten Robotern getestet um die Generalisierbarkeit zu zeigen. Ein besonderer Fokus wurde auf die Fähigkeit des Gehens gelegt, aber auch Aufsteh- und Schussfähigkeiten werden diskutiert

    Ghost In the Grid: Challenges for Reinforcement Learning in Grid World Environments

    Get PDF
    The current state-of-the-art deep reinforcement learning techniques require agents to gather large amounts of diverse experiences to train effective and general models. In addition, there are also many other factors that have to be taken into consideration: for example, how the agent interacts with its environment; parameter optimization techniques; environment exploration methods; and finally the diversity of environments that is provided to an agent. In this thesis, we investigate several of these factors. Firstly we introduce Griddly, a high-performance grid-world game engine that provides a state-of-the-art combination of high performance and flexibility. We demonstrate that grid worlds provide a principled and expressive substrate for fundamental research questions in reinforcement learning, whilst filtering out noise inherent in physical systems. We show that although grid-worlds are constructed with simple rules-based mechanics, they can be used to construct complex open-ended, and procedurally generated environments. We improve upon Griddly with GriddlyJS, a web-based tool for designing and testing grid-world environments for reinforcement learning research. GriddlyJS provides a rich suite of features that assist researchers in a multitude of different learning approaches. To highlight the features of GriddlyJS we present a dataset of 100 complex escape-room puzzle levels. In addition to these complex puzzle levels, we provide human-generated trajectories and a baseline policy that can be run in a web browser. We show that this tooling enables significantly faster research iteration in many sub-fields. We then explore several areas of RL research that are made accessible by the features introduced by Griddly: Firstly, we explore learning grid-world game mechanics using deep neural networks. The {\em neural game engine} is introduced which has competitive performance in terms of sample efficiency and predicting states accurately over long time horizons. Secondly, {\em conditional action trees} are introduced which describe a method for compactly expressing complex hierarchical action spaces. Expressing hierarchical action spaces as trees leads to action spaces that are additive rather than multiplicative over the factors of the action space. It is shown that these compressed action spaces reduce the required output size of neural networks without compromising performance. This makes the interfaces to complex environments significantly simpler to implement. Finally, we explore the inherent symmetry in common observation spaces, using the concept of {\em geometric deep learning}. We show that certain geometric data augmentation methods do not conform to the underlying assumptions in several training algorithms. We provide solutions to these problems in the form of novel regularization functions and demonstrate that these methods fix the underlying assumptions

    Distributed Resource Management in Converged Telecommunication Infrastructures

    Get PDF
    Η πέμπτη γενιά (5G) των ασύρματων και κινητών επικοινωνιών αναμένεται να έχει εκτεταμένο αντίκτυπο σε τομείς πέρα από αυτόν της τεχνολογίας πληροφοριών και επικοινωνιών (Information and Communications Technology - ICT). Το 5G ευθυγραμμίζεται με την 4η βιομηχανική εξέλιξη (4th industrial evolution), θολώνοντας τα όρια μεταξύ της φυσικής, της ψηφιακής και της βιολογικής σφαίρας. Σχεδιάστηκε για να προσφέρει δυνατότητες πολλαπλών υπηρεσιών και χρηστών, εκπληρώνοντας ταυτόχρονα πολλαπλές απαιτήσεις και επιχειρηματικά οικοσυστήματα. Ωστόσο, ορισμένες υπηρεσίες, όπως η επαυξημένη πραγματικότητα (Augmented Reality -AR), το εργοστάσιο του μέλλοντος (Factory of the Future) κ.λπ. θέτουν προκλήσεις για την ανάπτυξη μιας ενιαίας 5G υποδομής με βάση την ενεργειακή και οικονομική αποδοτικότητα. Σε αυτή τη κατεύθυνση, η παρούσα διδακτορική διατριβή υιοθετεί την ιδέα μιας καθολικής πλατφόρμας 5G που ενσωματώνει μια πληθώρα τεχνολογιών δικτύωσης (ασύρματες και ενσύρματες), και στοχεύει στην ανάπτυξη μαθηματικών εργαλείων, αλγορίθμων και πρωτοκόλλων για την ενεργειακή και λειτουργική βελτιστοποίηση αυτής της υποδομής και των υπηρεσιών που παρέχει. Αυτή η υποδομή διασυνδέει υπολογιστικούς, αποθηκευτικούς και δικτυακούς πόρους μέσω του προγραμματιζόμενου υλισμικού (hardware-HW) και της λογισμικοποίησης του δικτύου (network softwarisation). Με αυτό τον τρόπο, επιτρέπει την παροχή οποιασδήποτε υπηρεσίας με την ευέλικτη και αποτελεσματική μίξη και αντιστοίχιση πόρων δικτύου, υπολογισμού και αποθήκευσης. Αρχικά, η μελέτη επικεντρώνεται στις προκλήσεις των δικτύων ραδιοπρόσβασης επόμενης γενιάς (NG-RAN), τα οποία αποτελούνται από πολλαπλές τεχνολογίες δικτύου για τη διασύνδεση ενός ευρέος φάσματος συσκευών με υπολογιστικούς και αποθηκευτικούς πόρους. Η ανάπτυξη μικρών κυψελών (small cells) είναι ζωτικής σημασίας για τη βελτίωση της φασματικής απόδοσης και της ρυθμαπόδοσης και μπορεί να επιτευχθεί είτε μέσω παραδοσιακών κατανεμημένων δικτύων ραδιοπρόσβασης (D-RAN) είτε μέσω δικτύων ραδιοπρόσβασης νέφους (C-RAN). Ενώ το C-RAN προσφέρει μεγάλα οφέλη όσο αφορά την επεξεργασία σήματος και τον συντονισμό σε σχέση με τα D-RAN, απαιτεί υψηλό εύρος ζώνης μετάδοσης και επιβάλλει σοβαρούς περιορισμούς καθυστέρησης στο δίκτυο μεταφοράς. Για την αντιμετώπιση αυτών των ζητημάτων, προτείνεται μια νέα αρχιτεκτονική «αποσύνθεσης των πόρων». Σύμφωνα με αυτήν, οι λειτουργιές βασικής επεξεργασίας σήματος (BBU functions) μπορούν να διαχωριστούν και να εκτελεστούν είτε στην ίδια θέση με τη κεραία (RU), είτε απομακρυσμένα σε κάποια μονάδα επεξεργασίας που βρίσκεται κοντά (DU) ή μακριά (CU) από την κεραία. Αυτή η έννοια της «αποσύνθεσης των πόρων» επιτρέπει την πρόσβαση σε κοινόχρηστους πόρους που παρέχονται από κέντρα δεδομένων μικρής ή μεγάλης κλίμακας, χωρίς να απαιτείται ιδιοκτησία των πόρων. Ωστόσο, η προσέγγιση αυτή απαιτεί την ανάπτυξη νέων πλαισίων βελτιστοποίησης για τη βελτίωση της αποδοτικότητας και της ευελιξίας των υποδομών 5G, ώστε να διαχειρίζονται αποτελεσματικά τους διαχωρισμένους πόρους. Καθοριστικό ρόλο σε αυτό αποτελεί η αρχιτεκτονική της Δικτύωσης Καθορισμένης από Λογισμικό (SDN), η οποία στοχεύει να επιτρέψει την προγραμματιζόμενη και δυναμική διαχείριση των πόρων του δικτύου μέσω κεντρικού ελέγχου. Έχοντας υπόψιν τα παραπάνω, στο πρώτο μέρος της διατριβής αναπτύσσεται ένα πλαίσιο βελτιστοποίησης που προσδιορίζει το βέλτιστο λειτουργικό διαχωρισμό μεταξύ των λειτουργιών βασικής επεξεργασίας σήματος, σε συνδυασμό με τη βέλτιστη τοποθέτηση του SDN ελεγκτή, λαμβάνοντας επίσης υπόψη τη σταθερότητα του συνολικού συστήματος και τη μείωση των συνολικών λειτουργικών δαπανών. Η ανάλυση επεκτείνεται περαιτέρω με προηγμένα σχήματα βελτιστοποίησης, με σκοπό την προσέγγιση ενός πιο ρεαλιστικού περιβάλλοντος 5G, όπου η ραγδαία αύξηση της κίνησης συνεπάγεται την ανάγκη για μεγαλύτερες δυνατότητες κλιμάκωσης για τη διαχείριση των χωρικών και χρονικών μεταβολών της, καθώς και τερματικών με διαφορετικές απαιτήσεις ποιότητας. Στη συνέχεια μελετούνται τα δίκτυα πυρήνα του 5G. Στα δίκτυα πυρήνα 5G κάθε λειτουργία είναι λογισμικοποιημένη (softwarized) και απομονωμένη, επιτρέποντας την ανάπτυξη της σε υλικό γενικής χρήσης. Επίσης εισάγεται ένας νέος διαχωρισμό μεταξύ των λειτουργιών του επιπέδου ελέγχου και του επιπέδου δεδομένων (Control and User Plane Seperation – CUPS) με βάση την SDN αρχιτεκτονική. Με τον τρόπο αυτό διαχωρίζεται η δικτυακή κίνηση μεταξύ των διαφορετικών 5G οντοτήτων (επίπεδο ελέγχου) και η δικτυακή κίνηση των χρηστών (επίπεδο χρήστη). Κρίσιμο ρόλο στο χειρισμό σημαντικού μέρους του επιπέδου χρήστη στα συστήματα 5G διαδραματίζει η οντότητα «λειτουργία επιπέδου χρήστη» (User Plane Function – UPF). Το UPF είναι υπεύθυνο για την προώθηση της πραγματικής κίνησης χρηστών με πολύ αυστηρές απαιτήσεις απόδοσης. Ανάλογα με τον τύπο της απαιτούμενης υπηρεσίας και την αρχιτεκτονική του δικτύου ραδιοπρόσβασης, οι κόμβοι UPF μπορούν να βρίσκονται είτε πιο κοντά είτε πιο μακριά από αυτό, ανακατευθύνοντας την κυκλοφορία σε διακομιστές κοντά στην άκρη του δικτύου για μείωση του χρόνου καθυστέρησης ή σε κεντρικές εγκαταστάσεις. Ως εκ τούτου, προκύπτει το ερώτημα της επιλογής των βέλτιστων στοιχείων UPF, καθώς η επιλογή ενός μη διαθέσιμου υπολογιστικού πόρου UPF μπορεί να οδηγήσει σε μπλοκάρισμα και καθυστερήσεις της υπηρεσίας. Για την αντιμετώπιση αυτού του ζητήματος, προτείνουμε ένα μοντέλο ειδικά σχεδιασμένο για δυναμική επιλογή βέλτιστων στοιχείων UPF με στόχο την ελαχιστοποίηση της συνολικής καθυστέρησης της υπηρεσίας. Αναπτύσσουμε συναρτήσεις κόστους για το μοντέλο χρησιμοποιώντας εργαστηριακές μετρήσεις που ελήφθησαν από μια πλατφόρμα 5G ανοιχτού κώδικα που φιλοξενείται σε περιβάλλον νέφους οπτικού κέντρου δεδομένων. Με το προτεινόμενο μοντέλο, μπορούμε να επιλέξουμε δυναμικά το καταλληλότερο στοιχείο UPF για τη χρήση υπολογιστικών πόρων, μειώνοντας τη καθυστέρηση εξυπηρέτησης. Επεκτείνοντας την έννοια αποσύνθεσης των δικτυακών πόρων, η ανάλυση εστιάζει στα συστήματα 6G, τα οποία αναμένεται να υποστηρίξουν ένα ευρύ φάσμα υπηρεσιών μέσω μιας κοινής υποδομής που διευκολύνεται από τον τεμαχισμό δικτύου (network slicing). Τα συστήματα 6G προβλέπεται να λειτουργούν με αποκεντρωμένο τρόπο, που επιτρέπει στις εφαρμογές να παρεμβαίνουν άμεσα στις διαδικασίες ελέγχου για την πιο αποτελεσματική διασφάλιση της ποιότητας εμπειρίας (Quality of Experience – QoE) των τελικών χρηστών. Αυτό πραγματοποιείται μέσω της χρήσης της οντότητας «λειτουργία εφαρμογής» (Application Function – AF), η οποία διαχειρίζεται την εφαρμογή που εκτελείται στο τερματικό χρήστη (User Equipment – UE) και στο διακομιστή (Application Server - AS) που υποστηρίζει την υπηρεσία. Το AF διαδραματίζει κρίσιμο ρόλο στην παροχή υπηρεσιών υψηλού QoE, καθώς ενημερώνεται από την εφαρμογή και μπορεί να επηρεάσει τις αποφάσεις δρομολόγησης της κυκλοφορίας. Ωστόσο, η ανεξέλεγκτη λειτουργία του AF μπορεί να οδηγήσει σε αστάθεια στο σύστημα. Για την αντιμετώπιση αυτού του ζητήματος σχεδιάζουμε, εφαρμόζουμε και αξιολογούμε θεωρητικά και πειραματικά ένα πλήρως κατανεμημένο πλαίσιο λήψης αποφάσεων για την εκχώρηση ροών (flow assignment) στα συστήματα 6G. Το πλαίσιο αυτό αποδεικνύεται ότι, υπό συγκεκριμένες συνθήκες, συγκλίνει σε ένα σταθερό σημείο που παρέχει τη βέλτιστη ισορροπία μεταξύ QoE και αποδοτικότητας κόστους. Οι συναρτήσεις κόστους που χρησιμοποιούνται ενσωματώνουν τόσο το κόστος δικτύου όσο και το υπολογιστικό κόστος, τα οποία προκύπτουν ρεαλιστικά μέσω μιας λεπτομερούς διαδικασίας που διεξάγεται σε μια λειτουργική 5G πλατφόρμα. Αυτή η διαδικασία επιτρέπει τη μοντελοποίηση της απόδοσης του συστήματος και των απαιτήσεων σε διαφορετικά σενάρια λειτουργίας, τα οποία μπορούν να βοηθήσουν στη βελτιστοποιημένη διαχείριση του κύκλου ζωής των παρεχόμενων υπηρεσιών. Τέλος, η μελέτη επικεντρώνεται στην πραγματική ανάπτυξη μιας υποδομής 5G που υποστηρίζει τον τεμαχισμό του δικτύου κατά παραγγελία από πολλαπλούς χρήστες. Ο τεμαχισμός του δικτύου επιτρέπει τον διαχωρισμό της φυσικής υποδομής δικτύου σε πολλαπλές λογικές υποδομές που μπορούν να υποστηρίξουν διαφορετικές κατηγορίες υπηρεσιών. Ένα τμήμα δικτύου (slice) έχει τους δικούς του αποκλειστικούς πόρους από το δίκτυο πρόσβασης, μεταφοράς, και πυρήνα, καθώς και στοιχεία από διάφορους τομείς κάτω από τους ίδιους ή διαφορετικούς διαχειριστές. Η κοινή χρήση της υποκείμενης φυσικής υποδομής από τα τμήματα δικτύου περιλαμβάνει την ανάπτυξη κατάλληλων διεπαφών που μπορούν να χρησιμοποιηθούν για την σύνδεση των διαφορετικών δικτυακών στοιχείων, καθώς και τη δημιουργία κατάλληλων περιγραφών (descriptors) για την εικονοποίηση των 5G λειτουργιών (Εικονικές Δικτυακές Λειτουργίες 5G - 5G Virtual Network Functions – VNFs). Η συλλογή και ο κατάλληλος συνδυασμός πολλαπλών VNF δίνει μια 5G υπηρεσία δικτύου (Network Service - NS) από άκρη σε άκρη (End to End - E2E). Μέσω μιας πλατφόρμας διαχείρισης και ενορχήστρωσης (Management and Orchestration Platform - MANO), μπορούμε να συνδυάσουμε αυτές τις υπηρεσίες δικτύου για να δημιουργήσουμε και να διαχειριστούμε ένα 5G τμήμα δικτύου. Για να επιτευχθεί αυτό, στη μελέτη αυτή χρησιμοποιείται ένας ενορχηστρωτής που ονομάζεται Open Source MANO (OSM), ο οποίος είναι συμβατός με το πρότυπο της Εικονικοποίησης Λειτουργιών Δικτύου (NFV). Αναπτύσσονται descriptors τόσο για τις λειτουργίες του επιπέδου ελέγχου του 5G, όσο και για το επίπεδο χρήστη. Συνδυάζοντας αυτούς τους descriptors, επιτυγχάνεται η δυναμική υλοποίηση πολλαπλών τμημάτων δικτύου πάνω σε μια 5G πλατφόρμα που υποστηρίζει πολλαπλούς χρήστες και φιλοξενείται σε μια υποδομή κέντρου δεδομένων. Χρησιμοποιώντας τα δημιουργημένα VNF, μπορούμε να εκτελέσουμε το δίκτυο πυρήνα με το πάτημα ενός κουμπιού και να παρέχουμε πολλαπλά τμήματα δικτύου με διαφορετικά χαρακτηριστικά.The fifth generation (5G) of wireless and mobile communications is expected to have a far-reaching impact on society and businesses beyond the information and communications technology (ICT) sector. 5G is aligned with the 4th industrial evolution, blurring the lines between the physical, digital, and biological spheres. A common design is necessary to accommodate all service types based on energy and cost efficiency. To address this, this PhD thesis adopts the idea of a universal 5G platform that integrates a variety of networking technologies (wireless and wired), and aims to develop mathematical tools, algorithms and protocols for the energy and operational optimization of this infrastructure and the services it provides. This infrastructure interconnects computing, storage and network components that are placed at different locations, using the concepts of programmable hardware (hardware-HW) and network software (network softwarisation). In this way, it enables the provision of any service by flexibly and efficiently mixing and matching network, computing and storage resources. The thesis targeted four distinct contributions. All proposed contributions are implemented and investigated experimentally in a 5G open-source lab testbed. The first contribution focused on optimal function and resource allocation adopting the innovative 5G RAN architecture, that splits flexibly the baseband processing function chain between Remote, Distributed and Central Units. This enables access to shared resources provided by micro or large-scale remote data centers, without requiring resource ownership. To support this architecture, networks adopt the Software Defined Networking (SDN) approach, where the control plane is decoupled from the data plane and the associated network devices and is centralized in a software-based controller. In this context, the goal of the proposed approach was to develop effective optimization techniques that identify the optimal functional split, along with the optimal location and size of the SDN controllers. The second contribution concentrated on solving the User Plane Function (UPF) selection problem in 5G core networks. According to the SDN paradigm 5G core control plane functions manage the network, while UPFs are responsible for handling users’ data. Depending on the 5G RAN deployment option and the nature of the service, UPF nodes can be placed closer to the network edge, directing traffic to the Multi-access Edge Computing (MEC) servers hence reducing latency, or be placed deeper into the network directing traffic to central cloud facilities. In this context, a framework that selects the optimal UPF nodes to handle user’s traffic minimizing total service delay has been proposed. The third contribution pertained to service provisioning in upcoming telecommunication systems. 6G systems require novel architectural Quality of Experience (QoE) models and resource allocation strategies that can differentiate between data streams originating from the same or multiple User Equipment (UEs), respond to changes in the underlying physical infrastructure, and scale with the number of connected devices. Currently, centralized management and network orchestration (MANO) platforms provide this functionality, but they suffer scalability issues. Therefore, future systems are anticipated to operate in a distributed manner, allowing applications to directly intervene in relevant control processes to ensure the required QoE. The proposed approach focused on developing a flow assignment model that supports applications running on UEs. The final contribution of this thesis focused on the deployment of a 5G infrastructure that supports multi-tenant network slicing on demand. Sharing of the underlying physical infrastructure was achieved through the development of suitable interfaces for integrating different network components and the creation of appropriate descriptors for virtual 5G network functions (VNFs). By collecting and combining multiple VNFs, an end-to-end 5G Network Service (NS) can be obtained. Using a MANO platform, these NSs can be combined to instantiate and manage a 5G network slice

    WiFi-Based Human Activity Recognition Using Attention-Based BiLSTM

    Get PDF
    Recently, significant efforts have been made to explore human activity recognition (HAR) techniques that use information gathered by existing indoor wireless infrastructures through WiFi signals without demanding the monitored subject to carry a dedicated device. The key intuition is that different activities introduce different multi-paths in WiFi signals and generate different patterns in the time series of channel state information (CSI). In this paper, we propose and evaluate a full pipeline for a CSI-based human activity recognition framework for 12 activities in three different spatial environments using two deep learning models: ABiLSTM and CNN-ABiLSTM. Evaluation experiments have demonstrated that the proposed models outperform state-of-the-art models. Also, the experiments show that the proposed models can be applied to other environments with different configurations, albeit with some caveats. The proposed ABiLSTM model achieves an overall accuracy of 94.03%, 91.96%, and 92.59% across the 3 target environments. While the proposed CNN-ABiLSTM model reaches an accuracy of 98.54%, 94.25% and 95.09% across those same environments

    Towards an architectural framework for intelligent virtual agents using probabilistic programming

    Full text link
    We present a new framework called KorraAI for conceiving and building embodied conversational agents (ECAs). Our framework models ECAs' behavior considering contextual information, for example, about environment and interaction time, and uncertain information provided by the human interaction partner. Moreover, agents built with KorraAI can show proactive behavior, as they can initiate interactions with human partners. For these purposes, KorraAI exploits probabilistic programming. Probabilistic models in KorraAI are used to model its behavior and interactions with the user. They enable adaptation to the user's preferences and a certain degree of indeterminism in the ECAs to achieve more natural behavior. Human-like internal states, such as moods, preferences, and emotions (e.g., surprise), can be modeled in KorraAI with distributions and Bayesian networks. These models can evolve over time, even without interaction with the user. ECA models are implemented as plugins and share a common interface. This enables ECA designers to focus more on the character they are modeling and less on the technical details, as well as to store and exchange ECA models. Several applications of KorraAI ECAs are possible, such as virtual sales agents, customer service agents, virtual companions, entertainers, or tutors

    Agent-Based Modelling of Radiation-Induced Lung Injuries

    Get PDF
    Radiotherapy (RT), which nowadays is integrated in more than 50% of the therapies of new cancer patients, involves the use of ionizing radiation (such as photon beams and ions) as a tool to sterilize cancers. However, the lethal doses to be delivered to the tumours are limited by normal tissue complications. Consequently, constraints must be set on the radiation dose and irradiated volume in order to maintain acceptable toxicity levels. An important role in this context is played by computational models that ultimately provide valuable insights useful for tuning the RT parameters. Their use in the biomedical framework has a well-defined pattern: a theoretical model is initially built on the basis of the available in-vitro and/or in-vivo data and implemented in-silico; the model is then altered until a good match between its output and laboratory data is observed and finally used for predictions in the clinical setting. As yet, however, the tolerance doses for the organs at risk are derived from clinical experience and used as inputs for phenomenological Normal-Tissue Complication Probability (NTCP) models that lack a mechanistic description of the underlying phenomena. This thesis describes the implementation of an Agent-Based Model (ABM) that simulates the onset of Radiation-Induced Lung Injuries (RILI) (namely pneumonitis and fibrosis), complications that can occur in the lungs of patients irradiated in the thoracic region. Although relatively common, the risk factors and progression of the RILI, which eventually lead to respiratory failure and death, haven’t been fully elucidated. Here, the capability of the innovative AB modelling approach to improve patient-specific NTCP estimates while attempting to provide insights on the development of RILI is investigated. With respect to the existing dose-volume histogram-based and tissue-architecture approaches, ABMs can take into account not only the patient-specific geometry and tissue-level parameters, but also spatial information on the dose distribution. As a first step, a 3D model of idiopathic pulmonary fibrosis, which resembles the Radiation-Induced Lung Fibrosis (RILF), was implemented using BioDynaMo, an AB simulation framework. The model, whose agents simulate a partial pulmonary acinus, can replicate previous experimental results and assess the appropriateness of the approach for the purpose. The model was subsequently rescaled to represent an alveolar segment at the cell scale that can be damaged locally by external sources. As a surrogate measure of the RILF severity, the RILF Severity Index (RSI) was introduced, derived by combining the loss in the alveolar volume with the increase in the average concentration of the ExtraCellular Matrix (ECM). The RSI showed qualitative agreement with a similar index obtained using data from computational tomographies and the ECM patterns matched clinical findings. Finally, a pipeline was established that links TOPAS-nBio, a particle transport simulator for biological applications, with BioDynaMo. The alveolar segment structure was rebuilt using TOPAS-nBio and the delivery of realistic dose distributions at the cell scale was simulated. The output was then used as an input for the AB model and the effect of different fractionation schemes and radiation qualities on the outcome explored. In accordance with previous studies, a 5-fractions treatment resulted in a lower RSI with respect to the delivery of the same dose in a single fraction and an increased sensitivity to peaked protons dose distributions with respect to flatter ones from photons irradiation was observed. Overall, the results presented in this thesis prove the capability of the AB models to recapitulate some main radiobiological processes and advise for their potential complementary role in NTCP estimates
    corecore