12 research outputs found
Recommended from our members
Concentration and Sequential Decision Making in Markovian Environments
In this dissertation we study concentration properties of Markov chains,and sequential decision making problems which involve stochastic modeling with Markov chains.We start by developing a simple yet powerful Hoeffding inequality for Markovian sums under only the irreducibility assumption.To illustrate its usefulness we provide two applications in multi-armed bandit problems.
The first is about identifying an approximately best Markovian arm,
while the second is concerned with regret minimization in the context of Markovian bandits,
generalizing two well known algorithms from the i.i.d. case.We proceed with the study of the concentration properties of a Lipschitz function applied to a Markov chain,which form a generalization of Hoeffding's inequality.
In particular we investigate a transportation problem that arises naturally when the martingale method is applied.
The so called bicausal optimal transport problem for Markov chains,
is an optimal transport formulation suitable for stochastic processes which takes into consideration the accumulation of information as time evolves.
Our analysis is based on a relation between the transport problem and the theory of Markov decision processes.
This way we are able to derive necessary and sufficient conditions for optimality in the transport problem, as well as an iterative algorithm, namely the value iteration, for the calculation of the transportation cost.
Additionally, we draw the connection with the classic theory on couplings for Markov chains,
and in particular with the notion of faithful couplings.Next we focus on a finite-sample analysis of large deviation results for Markov chains.First we study the exponential family of stochastic matrices, which serve as a change of measure,
and we develop conditions under which the asymptotic Perron-Frobenius eigenvector stays strictly positive.
This leads to a Chernoff bound which attains a constant prefactor and
an exponential decay with the optimal large deviations rate.
Moreover, a finite-sample version of the law of the iterated logarithm is derived,
and a uniform multiplicative ergodic theorem for the exponential family of tilted transition probability matrices
is established.On the applications side, we give a complete characterization of the sampling complexityof best Markovian arm identification in one-parameter Markovian bandit models.
We derive instance specific nonasymptotic and asymptotic lower bounds which generalizing those of the i.i.d. setting,
and we analyze the Track-and-Stop strategy, proving that asymptotically it is at most a factor of four apart from the lower bound. We conclude with with an extension of the classic stochastic multi-armed bandit problem which involves multiple plays and Markovian rewards in the rested bandits setting.In order to tackle this problem we consider an adaptive allocation rule which at each stage combines the information from the sample means of all the arms,
with the Kullback-Leibler upper confidence bound of a single arm which is selected in round-robin way.
For rewards generated from a one-parameter exponential family of Markov chains, we provide a finite-time upper bound for the regret incurred from this adaptive allocation rule, which reveals the logarithmic dependence of the regret on the time horizon, and which is asymptotically optimal.
As a byproduct of our analysis we also establish asymptotically optimal, finite-time guarantees for the case of multiple plays, and i.i.d. rewards drawn from a one-parameter exponential family of probability densities.
Finally, we provide simulation results that illustrate that calculating Kullback-Leibler upper confidence bounds in a round-robin way, is significantly more efficient than calculating them for every arm at each round, and that the expected regrets of those two approaches behave similarly
Secure microservices architectures for big data models
This doctoral thesis deals with the development of technologies for the collection, processing and analysis of data from streams or from large data repositories following the small-service model as a building block. The main purpose of this thesis is to present and analyze the framework that can give the digital systems architect the ability to transform or structure the system that has been implemented so that it can meet the challenges of multiple data sets.The introduction of application development with mini-services has offered advantages both in terms of better rational management of services and maintenance of these systems. The increasing use of cloud computing has provided the necessary credentials to build on it a new architecture that combines service-oriented with service management flexibility. The new way of building is increasingly based on a combination of ready-to-use 'closet' services that build the new service called for.But this approach raises new questions that we are called upon to answer. They need to have systems in place to orchestrate all of these mini-services as well as introduce standards that strictly structure these services so they can communicate properly with each other. Finally, these issues of compatibility in the single channel of communication and in the way they interact must be covered by the mantle of security. An important factor as each service platform usually offers its own way of approaching the infrastructure.In this thesis, we introduce a methodology based on accredited security organization methodologies, enriched and modified so that it can be applied in the IT environment. The methodology must follow the flow of information in order to be able to provide better control over the data but also to meet the increased demands of the subsystems. At the same time, we analyze the model to be followed for finding micro services through marketplaces where service products will be published. Combining these services should have a strategy to meet the challenges of bringing in a lot of data. Such an analysis is presented and analyzed in detail to understand the new techniques to be followed. Finally, a blueprint is presented that is the building block for each product offered so that it can better present its services in a structured way. The development of this layout, in addition to the interoperability of the services it can provide, is necessary for the new security challenges that arise both in reference to the data and in the services themselves.Η παρούσα διδακτορική διατριβή ασχολείται με την ανάπτυξη τεχνολογιών συγκέντρωσης, επεξεργασίας και ανάλυσης δεδομένων από ροές είτε από μεγάλα αποθετήρια δεδομένων ακολουθώντας το μοντέλο των μικρουπηρεσιών σα δομικό στοιχείο. Βασικό αντικείμενο της διατριβής είναι η παρουσίαση και η ανάλυση του πλαισίου εκείνου που μπορεί να δώσει στον αρχιτέκτονα των ψηφιακών συστημάτων τη δυνατότητα να μετατρέψει είτε να δομήσει το υπό υλοποίηση σύστημα με τέτοιο τρόπο ώστε να μπορεί να ανταπεξέλθει στις προκλήσεις των πολλών δεδομένων. Η είσοδος στην ανάπτυξη εφαρμογών με τις αρχές των μικρουπηρεσιών έχει προσφέρει πλεονεκτήματα τόσο όσο αναφορά στην καλύτερη λογική διαχείριση των υπηρεσιών όσο και στη συντήρηση των εν λόγω συστημάτων. Η όλο και μεγαλύτερη χρήση του cloud computing προσέφερε τα απαραίτητα εχέγγυα για να χτιστεί πάνω σε αυτό μια νέα αρχιτεκτονική που συνδυάζει την υπηρεσιοστρέφια με την ευελιξία διαχείρισης των υπηρεσιών. Ο νέος τρόπος δομής βασίζεται όλο και περισσότερο στο συνδυασμό έτοιμων ‘από το ντουλάπι’ υπηρεσιών που χτίζουν τη νέα υπηρεσία που καλείται να υλοποιηθεί. Μοιραία όμως αυτή η προσέγγιση δημιουργεί νέα ερωτήματα που καλούμαστε να απαντήσουμε. Είναι αναγκαίο να παρουσιαστούν συστήματα που θα αναλαμβάνουν την ενορχήστρωση όλων αυτών των μικρουπηρεσιών καθώς και την εισαγωγή προτύπων που δομούν αυστηρά αυτές τις υπηρεσίες ώστε να μπορούν να επικοινωνήσουν ορθά μεταξύ τους. Τέλος αυτά τα θέματα συμβατότητας στο κομμάτι του ενιαίου καναλιού επικοινωνίας όσο και στο τρόπο που αλληλοεπιδρούν πρέπει να καλύπτονται από το μανδύα της ασφάλειας. Παράγοντας ιδιαίτερα σημαντικός μιας και κάθε πλατφόρμα προσφοράς υπηρεσιών προσφέρει συνήθως δικό της τρόπο προσέγγισης στο κομμάτι της υποδομής. Στην παρούσα διατριβή, εισάγεται μια μεθοδολογία που βασίζεται σε πιστοποιημένες μεθοδολογίες οργανισμών ασφάλειας, εμπλουτισμένη και τροποποιημένη ώστε να μπορεί να εφαρμοστεί στο περιβάλλον της πληροφορικής. Η μεθοδολογία πρέπει να ακολουθεί τη ροή της πληροφορίας ώστε να μπορεί να προσφέρει το καλύτερο έλεγχο των δεδομένων αλλά και για να καταφέρει να ανταποκριθεί στις αυξημένες απαιτήσεις των υποσυστημάτων. Ταυτόχρονα αναλύεται το μοντέλο που πρέπει να ακολουθηθεί για την εύρεσης μικρουπηρεσιών μέσα από ενιαίες αγορές (marketplaces) όπου θα γίνεται η δημοσίευση των προϊόντων-υπηρεσιών. Ο συνδυασμός αυτών των υπηρεσιών θα πρέπει να έχει μια στρατηγική ώστε να μπορεί να ανταπεξέλθει στις προκλήσεις του φέρνουν τα πολλά δεδομένα. Μια τέτοια ανάλυση παρουσιάζεται και αναλύεται διεξοδικά ώστε να γίνουν αντιληπτές οι νέες τεχνικές που πρέπει να ακολουθηθούν. Τέλος παρουσιάζεται ένα σχεδιάγραμμα (Blueprint) που αποτελεί το δομικό κομμάτι για το κάθε προσφερόμενο προϊόν ώστε να μπορεί παρουσιάσει καλυτέρα τις υπηρεσίες που προσφέρει με ένα συντακτικά και δομικά ενιαίο τρόπο. Η ανάπτυξη αυτού του σχεδιαγράμματος εκτός από θέμα διαλειτουργικότητας των υπηρεσιών που μπορεί να προσφέρει, είναι απαραίτητο για τις νέες προκλήσεις ασφάλειας που δημιουργούνται τόσο όσο αναφορά τα δεδομένα όσο και στις υπηρεσίες αυτές καθ’ αυτές
Ασφαλείς Δομές Αρχιτεκτονικού σχεδιασμού μικροϋπηρεσιών για μοντέλα πολλών δεδομένων
Η παρούσα διδακτορική διατριβή ασχολείται με την ανάπτυξη τεχνολογιών συγκέντρωσης, επεξεργασίας και ανάλυσης δεδομένων από ροές είτε από μεγάλα αποθετήρια δεδομένων ακολουθώντας το μοντέλο των μικρουπηρεσιών σα δομικό στοιχείο. Βασικό αντικείμενο της διατριβής είναι η παρουσίαση και η ανάλυση του πλαισίου εκείνου που μπορεί να δώσει στον αρχιτέκτονα των ψηφιακών συστημάτων τη
δυνατότητα να μετατρέψει είτε να δομήσει το υπό υλοποίηση σύστημα με τέτοιο τρόπο ώστε να μπορεί να ανταπεξέλθει στις προκλήσεις των πολλών δεδομένων.
Η είσοδος στην ανάπτυξη εφαρμογών με τις αρχές των μικρουπηρεσιών έχει προσφέρει πλεονεκτήματα τόσο όσο αναφορά στην καλύτερη λογική διαχείριση των
υπηρεσιών όσο και στη συντήρηση των εν λόγω συστημάτων. Η όλο και μεγαλύτερη χρήση του cloud computing προσέφερε τα απαραίτητα εχέγγυα για να χτιστεί πάνω σε αυτό μια νέα αρχιτεκτονική που συνδυάζει την υπηρεσιοστρέφια με την ευελιξία
διαχείρισης των υπηρεσιών. Ο νέος τρόπος δομής βασίζεται όλο και περισσότερο στο συνδυασμό έτοιμων ‘από το ντουλάπι’ υπηρεσιών που χτίζουν τη νέα υπηρεσία που καλείται να υλοποιηθεί.
Μοιραία όμως αυτή η προσέγγιση δημιουργεί νέα ερωτήματα που καλούμαστε να απαντήσουμε. Είναι αναγκαίο να παρουσιαστούν συστήματα που θα αναλαμβάνουν την ενορχήστρωση όλων αυτών των μικρουπηρεσιών καθώς και την εισαγωγή προτύπων που
δομούν αυστηρά αυτές τις υπηρεσίες ώστε να μπορούν να επικοινωνήσουν ορθά μεταξύ τους. Τέλος αυτά τα θέματα συμβατότητας στο κομμάτι του ενιαίου καναλιού επικοινωνίας όσο και στο τρόπο που αλληλοεπιδρούν πρέπει να καλύπτονται από το μανδύα της ασφάλειας. Παράγοντας ιδιαίτερα σημαντικός μιας και κάθε πλατφόρμα προσφοράς υπηρεσιών προσφέρει συνήθως δικό της τρόπο προσέγγισης στο κομμάτι της υποδομής.
Στην παρούσα διατριβή, εισάγεται μια μεθοδολογία που βασίζεται σε πιστοποιημένες μεθοδολογίες οργανισμών ασφάλειας, εμπλουτισμένη και τροποποιημένη ώστε να μπορεί να εφαρμοστεί στο περιβάλλον της πληροφορικής. Η μεθοδολογία πρέπει
να ακολουθεί τη ροή της πληροφορίας ώστε να μπορεί να προσφέρει το καλύτερο έλεγχο των δεδομένων αλλά και για να καταφέρει να ανταποκριθεί στις αυξημένες απαιτήσεις των
υποσυστημάτων. Ταυτόχρονα αναλύεται το μοντέλο που πρέπει να ακολουθηθεί για την εύρεσης μικρουπηρεσιών μέσα από ενιαίες αγορές (marketplaces) όπου θα γίνεται η δημοσίευση των προϊόντων-υπηρεσιών. Ο συνδυασμός αυτών των υπηρεσιών θα πρέπει να έχει μια στρατηγική ώστε να μπορεί να ανταπεξέλθει στις προκλήσεις του φέρνουν τα πολλά δεδομένα. Μια τέτοια ανάλυση παρουσιάζεται και αναλύεται διεξοδικά ώστε να
γίνουν αντιληπτές οι νέες τεχνικές που πρέπει να ακολουθηθούν. Τέλος παρουσιάζεται ένα σχεδιάγραμμα (Blueprint) που αποτελεί το δομικό κομμάτι για το κάθε προσφερόμενο προϊόν ώστε να μπορεί παρουσιάσει καλυτέρα τις υπηρεσίες που προσφέρει με ένα συντακτικά και δομικά ενιαίο τρόπο. Η ανάπτυξη αυτού του σχεδιαγράμματος εκτός από θέμα διαλειτουργικότητας των υπηρεσιών που μπορεί να προσφέρει, είναι απαραίτητο για
τις νέες προκλήσεις ασφάλειας που δημιουργούνται τόσο όσο αναφορά τα δεδομένα όσο και στις υπηρεσίες αυτές καθ’ αυτές
Quantum Computations and Quantum Programming
62 σ.Ο σκοπός αυτής της διπλωματικής εργασίας είναι η μελέτη των κβαντικών
υπολογισμών υπό το πρίσμα των κβαντικών γλωσσών προγραμματισμού.
Στα πλαίσια αυτά εξετάσαμε την γλώσσα κβαντικού προγραμματισμού
nQML και προχωρήσαμε στην προσθήκη ενός νέου τελεστή ο οποίος
αντλεί στοιχεία από τον παράλληλο προγραμματισμό και τις κλασικές συναρτήσεις
και προσπαθεί να τα προσαρμόσει στο κβαντικό μοντέλο υπολογισμού και
την κβαντική εκδοχή του παραλληλισμού. Ο τελεστής αυτός εντάχθηκε ομαλά
στην ήδη υπάρχουσα γλώσσα επεκτείνοντας το συντακτικό, το σύστημα τύπων και
την σημασιολογία της. Επιπλέον, ορίσαμε μία νέα σημασιολογία για την
γλώσσα η οποία βρίσκεται πολύ κοντά στο μαθηματικό μοντέλο των κβαντικών υπολογισμών,
βοηθώντας έτσι στην κατανόηση της λειτουργίας της nQML αλλά και των
κβαντικών υπολογισμών αυτών καθ αυτών. Η συνάρτηση που αποδίδει
σημασία στις εκφράσεις της nQML υλοποιήθηκε σε Haskell και αυτή
η υλοποίηση μας χρησίμευσε στο να υπολογίζουμε εύκολα και γρήγορα
τις σημασίες εκφράσεων της nQML και να ελέγχουμε αν όντως ταιριάζουν
με τα θεωρητικά αποτελέσματα. Τέλος, διατυπώσαμε τον αλγόριθμο του
Shor σε nQML και παίρνοντας την σημασία του οδηγηθήκαμε στην σωστή παραγοντοποίηση του αριθμού 15.The purpose of this diploma dissertation, is to study the quantum computations under
the framework of quantum programming languages. Thus, we studied
the quantum programming language nQML and we proceeded by adding a new operator,
which incorporates elements from parallel programming and classical functions
by adjusting them to the quantum computations model and the quantum version of parallelism.
This operator was integrated normally in the pre-existing language by expanding its syntax,
type system and semantics. Moreover, we defined a new semantics for this language which is very
close to the mathematical model of quantum computations, thus helping comprehension of
nQML functionality along with quantum computations by themselves.
The function which interprets nQML’s expressions was implemented in Haskell and this was useful
in order to easily and rapidly calculate the meanings of different nQML expressions and to check
whether they actually correspond to the theoretical results.
Finally, we formulated Shor’s algorithm in nQML and by computing its meaning we managed to correctly
factor the number 15.Βρεττός Ε. Μουλό
Knotify+: Toward the Prediction of RNA H-Type Pseudoknots, Including Bulges and Internal Loops
The accurate “base pairing” in RNA molecules, which leads to the prediction of RNA secondary structures, is crucial in order to explain unknown biological operations. Recently, COVID-19, a widespread disease, has caused many deaths, affecting humanity in an unprecedented way. SARS-CoV-2, a single-stranded RNA virus, has shown the significance of analyzing these molecules and their structures. This paper aims to create a pioneering framework in the direction of predicting specific RNA structures, leveraging syntactic pattern recognition. The proposed framework, Knotify+, addresses the problem of predicting H-type pseudoknots, including bulges and internal loops, by featuring the power of context-free grammar (CFG). We combine the grammar’s advantages with maximum base pairing and minimum free energy to tackle this ambiguous task in a performant way. Specifically, our proposed methodology, Knotify+, outperforms state-of-the-art frameworks with regards to its accuracy in core stems prediction. Additionally, it performs more accurately in small sequences and presents a comparable accuracy rate in larger ones, while it requires a smaller execution time compared to well-known platforms. The Knotify+ source code and implementation details are available as a public repository on GitHub
Knotify+: Toward the Prediction of RNA H-Type Pseudoknots, Including Bulges and Internal Loops
The accurate “base pairing” in RNA molecules, which leads to the prediction of RNA secondary structures, is crucial in order to explain unknown biological operations. Recently, COVID-19, a widespread disease, has caused many deaths, affecting humanity in an unprecedented way. SARS-CoV-2, a single-stranded RNA virus, has shown the significance of analyzing these molecules and their structures. This paper aims to create a pioneering framework in the direction of predicting specific RNA structures, leveraging syntactic pattern recognition. The proposed framework, Knotify+, addresses the problem of predicting H-type pseudoknots, including bulges and internal loops, by featuring the power of context-free grammar (CFG). We combine the grammar’s advantages with maximum base pairing and minimum free energy to tackle this ambiguous task in a performant way. Specifically, our proposed methodology, Knotify+, outperforms state-of-the-art frameworks with regards to its accuracy in core stems prediction. Additionally, it performs more accurately in small sequences and presents a comparable accuracy rate in larger ones, while it requires a smaller execution time compared to well-known platforms. The Knotify+ source code and implementation details are available as a public repository on GitHub
A Scalable and Semantic Data as a Service Marketplace for Enhancing Cloud-Based Applications
Data handling and provisioning play a dominant role in the structure of modern cloud–fog-based architectures. Without a strict, fast, and deterministic method of exchanging data we cannot be sure about the performance and efficiency of transactions and applications. In the present work we propose an architecture for a Data as a Service (DaaS) Marketplace, hosted exclusively in a cloud environment. The architecture includes a storage management engine that ensures the Quality of Service (QoS) requirements, a monitoring component that enables real time decisions about the resources used, and a resolution engine that provides semantic data discovery and ranking based on user queries. We show that the proposed system outperforms the classic ElasticSearch queries in data discovery use cases, providing more accurate results. Furthermore, the semantic enhancement of the process adds extra results which extend the user query with a more abstract definition to each notion. Finally, we show that the real-time scaling, provided by the data storage manager component, limits QoS requirements by decreasing the latency of the read and write data requests