28 research outputs found

    Application of long-period-grating sensors to respiratory plethysmography

    Get PDF
    A series of in-line curvature sensors on a garment are used to monitor the thoracic and abdominal movements of a human during respiration. These results are used to obtain volumetric tidal changes of the human torso in agreement with a spirometer used simultaneously at the mouth. The curvature sensors are based on long-period gratings (LPGs) written in a progressive three-layered fiber to render the LPGs insensitive to the refractive index external to the fiber. A curvature sensor consists of the fiber long-period grating laid on a carbon fiber ribbon, which is then encapsulated in a low-temperature curing silicone rubber. The sensors have a spectral sensitivity to curvature, dλ/dR from ∼7-nm m to ∼9-nm m. The interrogation technique is borrowed from derivative spectroscopy and monitors the changes in the transmission spectral profile of the LPG's attenuation band due to curvature. The multiplexing of the sensors is achieved by spectrally matching a series of distributed feedback (DFB) lasers to the LPGs. The versatility of this sensing garment is confirmed by it being used on six other human subjects covering a wide range of body mass indices. Just six fully functional sensors are required to obtain a volumetric error of around 6%. © 2007 Society of Photo-Optical Instrumentation Engineers

    The ERATOSTHENES Centre of Excellence (ECoE) as a digital innovation hub for Earth observation

    Get PDF
    The "EXCELSIOR" H2020 Widespread Teaming Phase 2 Project: ERATOSTHENES: EXcellence Research Centre for Earth SurveiLlance and Space-Based MonItoring Of the EnviRonment is supported from the European Union’s Horizon 2020 research and innovation programme under grant agreement No. 857510 for a 7 year project period to establish a Centre of Excellence in Cyprus. As well, the Government of the Republic of Cyprus is providing additional resources to support the establishment of the ERATOSTHENES Centre of Excellence (ECoE) in Cyprus. The ECoE seeks to fill the gap by assisting in the spaceborne Earth Observation activities in the Eastern Mediterranean and become a regional key player in the Earth Observation (EO) sector. There are distinct needs and opportunities that motivate the establishment of an Earth Observation Centre of Excellence in Cyprus, which are primarily related to the geostrategic location of the European Union member state of Cyprus to examine complex scientific problems and address user needs in the Eastern Mediterranean, Middle East and Northern Africa (EMMENA), as well as South-East Europe. An important objective of the ECoE is to be a Digital Innovation Hub and a Research Excellence Centre for EO in the EMMENA region, which will establish an ecosystem where state-of-the-art sensing technology, cutting-edge research, targeted education services, and entrepreneurship come together. It is based on the paradigm of Open Innovation 2.0 (OI2.0), which is founded on the Quadruple Helix Model, where Government, Industry, Academia and Society work together to drive change by taking full advantage of the cross-fertilization of ideas. The ECoE as a Digital Innovation Hub (DIH) adopts a two-axis model, where the vertical axis consists of three Thematic Clusters for sustained excellence in research of the ECoE in the domains of Atmosphere and Climate, Resilient Societies and Big Earth Data Management, while the horizontal axis is built around four functional areas, namely: Infrastructure, Research, Education, and Entrepreneurship. The ECoE will focus on five application areas, which include Climate Change Monitoring, Water Resource Management, Disaster Risk Reduction, Access to Energy and Big EO Data Analytics. This structure is expected to leverage the existing regional capacities and advance the excellence by creating new programs and research, thereby establishing the ECoE as a worldclass centre capable of enabling innovation and research competence in Earth Observation, actively participating in Europe, the EMMENA region and the global Earth Observation arena. The partners of the EXCELSIOR consortium include the Cyprus University of Technology as the Coordinator, the German Aerospace Center (DLR), the Leibniz Institute for Tropospheric Research (TROPOS), the National Observatory of Athens (NOA) and the Department of Electronic Communications, Deputy Ministry of Research, Innovation and Digital Policy

    Human centric approach in achieving local government actions for euro-mediterranean smart cities

    No full text
    The thesis aims to study the human-centric approach of smart cities and how it is influenced by the characteristics of the urban built environment. In addition, this dissertation introduces and elaborates for the first time the concept of smart humancentered characteristics (EAX), a necessary component for the strategy of implementing smart city policies.As a case study the Limassol Metropolitan Area is considered. A dynamic mediumsized urban agglomeration in southern Europe which dominates the trade and economy of the extended southern Mediterranean and Middle Eastern regions, regarding its geopolitical position.Three different statistical analysis methods are used to achieve the goal of the thesis. The Principal Component Analysis (PCA) was used to determine the factors that affect the urban area. Then the method of linear regression was used to determine the mode and intensity of the effect of each EAX on the urban built environment. In particular, two regression models were used, the first with the method of ordinary least squares (OLS) which affects the global model and the second with the method of geographically weighted regression (GWR) which is the local model.This comparative analysis of the two above mentioned models is applicable to data concerning a medium-sized Euro-Mediterranean city, which is also the innovation in the present research.The results of the analysis conclude that there are significant spatial variations both in the direction and in the intensity of the effects of the factors of the urban built environment of the EAX’s.Based on the above considerations, a set of guidelines is proposed for the implementation of local policies for the improvement of the EAX characteristics in the study area, within the framework of the European cohesion policy agenda 2021 - 2027.Η παρούσα διατριβή αποσκοπεί στη μελέτη της ανθρωποκεντρικής προσέγγισης των έξυπνων πόλεων και πως αυτή επηρεάζεται από τα χαρακτηριστικά του αστικού κτισμένου περιβάλλοντος. Επιπλέον η παρούσα διατριβή εισάγει και επεξεργάζεται για πρώτη φορά την έννοια των έξυπνων ανθρωποκεντρικών χαρακτηριστικών (ΕΑΧ), απαραίτητο συστατικό για την στρατηγική υλοποίησης πολιτικών έξυπνης πόλης. Ως μελέτη περίπτωσης επιλέχθηκε η ευρύτερη αστική περιοχή της Λεμεσού, η νοτιότερη ευρωπαϊκή αστική συγκέντρωση. Αποτελεί αντιπροσωπευτικό παράδειγμα Ευρωμεσογειακής πόλης μεσαίου μεγέθους, που παρουσιάζει έντονη δυναμικότητα λόγω της γεωπολιτικής της θέσης επηρεάζοντας την ευρύτερη περιοχή της Ανατολικής Μεσογείου και της Μέσης Ανατολής.Για την επίτευξη του στόχου της μελέτης χρησιμοποιούνται τρεις διαφορετικές μέθοδοι στατιστικής ανάλυσης. Για τον προσδιορισμό των παραγόντων που επηρεάζουν τον αστικό χώρο χρησιμοποιήθηκε η μέθοδος των κυρίων συνιστωσών (PCA). Στη συνέχεια χρησιμοποιήθηκε η μέθοδος της γραμμικής παλινδρόμησης, για να προσδιοριστεί ο τρόπος και η ένταση της επίδρασης κάθε ΕΑΧ στο αστικό κτισμένο περιβάλλον. Ειδικότερα χρησιμοποιήθηκαν δύο μοντέλα παλινδρόμησης, το πρώτο με την μέθοδο των ελαχίστων τετραγώνων (OLS) που αποτελεί το ολικό μοντέλο και το δεύτερο με τη μέθοδο της γεωγραφικά σταθμισμένης παλινδρόμησης (GWR) που αποτελεί το τοπικό μοντέλο. Η συγκριτική αυτή διερεύνηση των δύο μοντέλων που προέκυψαν έχουν εφαρμογή σε δεδομένα που αφορούν μια μεσαίου μεγέθους Ευρωμεσογειακή πόλη, γεγονός που αποτελεί και την καινοτομία στην παρούσα έρευνα.Από τα αποτελέσματα της ανάλυσης ανάγεται το συμπέρασμα ότι υπάρχουν σημαντικές χωρικές διαφοροποιήσεις τόσο στην κατεύθυνση όσο και στην ένταση των επιδράσεων των παραγόντων του αστικού κτισμένου περιβάλλοντος στην πρόβλεψη των ΕΑΧ. Η πρόβλεψη αυτή παρουσιάζει υψηλές τιμές στα περισσότερα από τα εξεταζόμενα ΕΑΧ. Με βάση τα συμπεράσματα αυτά προτείνεται δέσμη κατευθυντήριων μέτρων για την άσκηση τοπικών πολιτικών για την βελτίωση των ΕΑΧ στην περιοχή μελέτης, μέσα στοπλαίσιο της ευρωπαϊκής ατζέντας πολιτικής συνοχής 2021 – 2027

    Urban 'regeneration' in historic places: the case of King's Cross Central, London

    No full text

    Συ-σχεδίαση υλικού και λογισμικού για την αποδοτική προσπέλαση μνημών

    No full text
    Virtual memory is a crucial computing abstraction that has stood the test of time. The level of indirection that it introduces, facilitates programming, i.e. creates the illusion that physical memory is vast, linear and private per application or enables the access of I/O devices in memory space, and assists agile resource management. However these fundamental properties do not come for free. Virtual memory assumes that the Operating System (OS) must maintain the abstraction of memory that each process acknowledges, the virtual address space indirection, and map it to actual physical resources. It also assumes that each CPU memory access operation must go through a translation step. None of the above mechanisms is cheap and, if anything, their costs are getting more and more profound.There are four trends that stress the performance of virtual memory today, (i) the meteoric rise in memory demands and capacities, (ii) the seismic shift of users from enterprise data centers to the cloud, (iii) the rapid evolution of high-performance storage devices and (iv) the increasing heterogeneity in both the compute and the store landscape of data-center systems. The first two considerably raise the efficiency bar for address translation and the second two urge us to revisit the legacy virtual memory interfaces semantics and consecutively their design. This thesis contributes in both directions.The exponential growth of global data and the corresponding increase in the memory demands of workloads led virtual memory’s dominant implementation – paging– hit the Address Translation Wall almost a decade ago. In this thesis we show that despite the fact that vendors tripled translation hardware budget since then, e.g. by incorporating larger TLBs and MMU caches or better huge page support, memory-intensive workloads can still spend up to 30% of their execution time in address translation – especially when they run in virtualized environments. To deal with paging’s poor performance scaling, this thesis proposes synergistic software and hardware mechanisms that create and exploit linearity in mappings. We propose Contiguity-Aware (CA) paging, a novel memory management technique that enhances the Operating System’s page fault handler with hints to allocate target pages and create vast contiguous virtual-to-physical mappings per process. CA paging is applicable to both native and nested paging and it maintains all lightweight memory management techniques of a modern OS, i.e demand paging, Copy-On-Write etc, while avoiding any memory reservation or pre-allocation. We implement our proposal in stock Linux and make it publicly available. On the hardware side, to harvest the generated contiguity, we propose Speculative Offset Address Translation (SpOT). SpOT is a micro-architecture engine that exploits the underlying linearity in mappings to predict address translation on the TLB miss path. While most state-of-the-art hardware proposals fail to support virtualization, due to the architectural complexity of tracking and caching arbitrarily sized mappings in two-dimensional execution, SpOT is directly and transparently applicable to both native and virtualized environments –because it works entirely on the micro-architecture level. Combined with CA paging, SpOT reduces the translation overheads of nested paging from ∼16.5% to ∼0.9% on average for memory-intensive workloads, in a design that trades architectural complexity with strong security guarantees.Apart from a physical memory abstraction, virtual memory is also an important interface towards IO devices; file mappings allow applications to access persistent data via memory dereference. However, high-performance storage has evolved significantly the past decade and nowadays devices offer single digit or even sub-microsecond latencies, exposing the kernel software IO stack as a prohibitively expensive data path. In this thesis, we study the case of persistent memory (PMem) and the direct access file interface (DAX). With PMem and DAX, virtual memory can map storage locations directly to user-space, enabling persistent data access via CPU load/store instructions; forming the shortest existing path to storage. Yet in our study we find that virtual memory operations often throttle direct access performance, failing to deliver what the underlying hardware can provide. In this thesis we break down all sources of overhead in using memory as a file interface. We study how the expensive mechanisms of virtual memory are affected by the new fast storage technology or if they even become obsolete. Based on our analysis, we propose a new interface for fast and scalable direct access to persistent data. DaxVM is a POSIX-relaxed file mapping interface for persistent memory, implemented by redesigning virtual memory operations and extending PMem-aware file systems –all changes driven by direct access unique characteristics. DaxVM supports (i) O(1) memory mapping operations via persistent page tables integrated in file system’s inode metadata, (ii) lazy invalidation of the TLBs, (iii) scalable address space management for ephemeral mappings, (iv) elimination of kernel-space durability management support when user-space is in charge and (v) asynchronous storage block pre-zeroing by the file system to accelerate DAX append operations. We implement DaxVM in stock Linux and the ext4-DAX and NOVA file systems and make it publicly available. We evaluate it on a real system equipped with Intel Optane. For multi-threaded workloads that process multiple small files for short intervals, e.g., Apache, DaxVM improves standard mmap performance up to 4.9x. It also reverses the trend that favors read for such setups, outperforming it by up to 1.5x. DaxVM also increases system availability, providing fast boot times for PMem databases, and sustains high throughput even when they run on fragmented file system images.Overall, this thesis revisits today’s virtual memory design and proposes hardware and software techniques that extend it to (i) scale better with the ever increasing memory capacities, through efficient address translation, and (ii) form a dedicated file mapping interface to push performance to the limits of what the underlying hardware can provide for direct access to persistent data.Η εικονική μνήμη είναι μια κρίσιμη υπολογιστική αφαίρεση που έχει αντέξει στη δοκιμασία του χρόνου. Διευκολύνει τον προγραμματισμό δημιουργώντας την ψευδαίσθηση ότι η φυσική μνήμη είναι τεράστια, γραμμική και ιδιωτική ανά διεργασία, επιτρέπει την πρόσβαση σε συσκευες E/E στο χώρο της μνήμης και βοηθά στην ευέλικτη διαχείριση πόρων. Ωστόσο, αυτές οι θεμελιώδεις ιδιότητες δεν παρέχονται δωρεάν. Η εικονική μνήμη προϋποθέτει ότι το Λειτουργικό Σύστημα (ΛΣ) δημιουργεί και διαχειρίζεται αυτήν την αφαίρεση της φυσικής μνήμης που αναγνωρίζει κάθε διεργασία, τον λεγόμενο εικονικό χώρο διευθύνσεων, και τον αντιστοιχεί σε πραγματικούς φυσικούς πόρους. Η εικονική μνήμη επίσης επιβάλλει ότι κάθε λειτουργία πρόσβασης στη μνήμη (του επεξεργαστή) περνάει από ένα βήμα μετάφρασης. Κανένας από τους παραπάνω μηχανισμούς δεν είναι φθηνός και, για την ακρίβεια, το κόστος τους συνεχώς αυξάνεται. Υπάρχουν τέσσερις τάσεις που στρεσάρουν την απόδοση της εικονικής μνήμης σήμερα, (i) η μετεωρική άνοδος των απαιτήσεων χωρητικότητας μνήμης, (ii) η σεισμική μετατόπιση των χρηστών στη χρήση του υπολογιστικού νέφους (cloud), (iii) η ταχεία εξέλιξη των συσκευών αποθήκευσης με όρους απόδοσης και (iv) η αυξανόμενη ετερογένεια των συσκευών υπολογισμού και αποθήκευσης στα συστήματα μεγάλων δεδομένων. Οι δύο πρώτες ανεβάζουν σημαντικά τον πήχη απόδοσης της διαδικασίας μετάφρασης εικονικών διευθύνσεων σε φυσικές και οι δύο επόμενες μας προτρέπουν να ξανασκεφτούμε τη σημασιολογία και την υλοποίηση των διεπαφών της εικονικής μνήμης. Η παρούσα διατριβή συμβάλλει και προς τις δύο κατευθύνσεις. Η εκθετική αύξηση του όγκου των παγκόσμιων δεδομένων και η αντίστοιχη αύξηση των απαιτήσεων μνήμης των εφαρμογών, οδήγησαν την κυρίαρχη υλοποίηση της εικονικής μνήμης –τη σελιδοποίηση– στο λεγόμενο Τείχος Μετάφρασης (Address Translation Wall) περίπου μια δεκαετία πριν. Στην παρούσα διατριβή δείχνουμε ότι παρά το γεγονός ότι το υλικό μετάφρασης ανα επεξεργαστή τριαπλασσιάστηκε από τότε, π.χ. με την ενσωμάτωση μεγαλύτερων κρυφών μνημών αναζήτησης μετάφρασης (TLBs) η με την καλύτερη υποστήριξη των μεγάλων σελίδων, οι εφαρμογές μεγάλης έντασης δεδομένων (big data) μπορεί ακόμα να ξοδεύουν έως και το 30% του χρόνου εκτέλεσής τους στη μετάφραση διευθύνσεων – ειδικά όταν εκτελούνται σε εικονικά περιβάλλοντα. Για την αντιμετώπιση της κακής αυτής κλιμάκωσης απόδοσης της σελιδοποίησης, η παρούσα διατριβή προτείνει συνεργιστικούς μηχανισμούς λογισμικού και υλικού που δημιουργούν και εκμεταλλεύονται την ύπαρξη γραμμικότητας στις αντιστοιχίσεις εικονικών σελίδων σε φυσικές. Στο λογισμικό, προτείνουμε την Σελιδοποίηση με επίγνωση γειτνίασης (CA paging), μια νέα τεχνική διαχείρισης μνήμης που βελτιώνει τον χειριστή σφαλμάτων σελίδας του ΛΣ με υποδείξεις για την δέσμευση κατάλληλων σελίδων για τη δημιουργία μεγάλων συνεχόμενων αντιστοιχίσεων εικονικών διευθύνσεων σε φυσικές ανά διεργασία. Η σελιδοποίηση CA εφαρμόζεται τόσο σε φυσικές όσο και σε εικονικές μηχανές και διατηρεί τις ευέλικτες τεχνικές διαχείρισης μνήμης ενός σύγχρονου ΛΣ, π.χ. τη σελιδοποίηση κατ’απαίτηση και την αντιγραφή κατά την εγγραφή (CoW), ενώ αποφεύγει κάθε είδους εκ των προτέρων δέσμευση μνήμης. Υλοποιήσαμε την σελιδοποίηση CA στο ΛΣ Linux και τη διαθέτουμε ως λογισμικό ανοικτού κώδικα. Στο υλικό, για την αξιοποίηση της παραγόμενης γραμμικότητας στις απεικονίσεις, προτείνουμε την κερδοσκοπική μετάφραση διευθύνσεων με βάση τη μετατόπιση (SpOT). Το SpOT είναι μια μικρο-αρχιτεκτονική επέκταση που εκμεταλλεύεται την υποκείμενη γραμμικότητα στις αντιστοιχίσεις για να προβλέψει τη μετάφραση διευθύνσεων σε περίπτωση αστοχίας στην ιεραρχία των κρυφών μνημών TLB. Το SpOT μπορεί να εφαρμοστεί άμεσα και με διαφάνεια τόσο σε φυσικά όσο και σε εικονικά περιβάλλοντα – επειδή λειτουργεί εξ ολοκλήρου σε επίπεδο μικροαρχιτεκτονικής. Σε συνδυασμό με τη σελιδοποίηση CA, το SpOT μειώνει το κόστος μετάφρασης από ∼16,5% σε ∼0,9% κατά μέσο όρο για εφαρμογές μεγάλων δεδομένων που εκτελούνται σε εικονικές μηχανές, ανταλλάσοντας τις ισχυρές εγγυήσεις ασφάλειας (security) με εναν απλό αρχιτεκτονικό σχεδιασμό.Η εικονική μνήμη, εκτός από προγραμματιστική αφαίρεση για τη φυσική μνήμη, είναι επίσης μια σημαντική διεπαφή για την πρόσβαση στις συσκευές εισόδου-εξόδου (E/E). Οι αντιστοιχίσεις αρχείων επιτρέπουν στις εφαρμογές να έχουν πρόσβαση σε μόνιμα δεδομένα μέσω αναφορών στη μνήμη. Ωστόσο, οι συσκευές αποθήκευσης υψηλής απόδοσης έχουν εξελιχθεί σημαντικά την τελευταία δεκαετία και στις μέρες μας προσφέρουν χρόνους απόκρισης μονοψήφιους ή ακόμα και μικρότερους του δευτερολέπτου, εκθέτοντας το λογισμικό συστήματος E/E του ΛΣ ως απαγορευτικά ακριβό. Στη παρούσα διατριβή, μελετάμε την περίπτωση συσκευών μη πτητικής μνήμης (PMem) και της διεπαφής αρχείων άμεσης πρόσβασης (DAX). Με το PMem και το DAX, η εικονική μνήμη μπορεί να απεικονίσει φυσικές διευθύνσεις αποθήκευσης μόνιμων δεδομένων απευθείας στο χώρο του χρήστη, επιτρέποντας τη πρόσβαση σε μόνιμα δεδομένα μέσω εντολών load/store του επεξεργαστή. Ωστόσο, στη μελέτη μας διαπιστώνουμε ότι οι λειτουργίες της εικονικής μνήμης συχνά μειώνουν την απόδοση της άμεσης πρόσβασης, αποτυγχάνοντας να προσφέρουν αυτό που μπορεί να προσφέρει το υποκείμενο υλικό. Στη παρούσα διατριβή αναλύουμε όλες τις πηγές κόστους στη χρήση της μνήμης ως διεπαφής αρχείων και μελετάμε πως επηρεάζονται οι δαπανηροί μηχανισμοί της εικονικής μνήμης από νέες τεχνολογίες αποθήκευσης ή και εαν ακόμα γίνονται απαρχαιωμένοι. Με βάση την ανάλυσή μας, προτείνουμε μια νέα διεπαφή για γρήγορη και κλιμακώσιμη άμεση πρόσβαση σε μόνιμα δεδομένα (DaxVM). Το DaxVM είναι μια διεπαφή απεικόνισης αρχείων αποθηκευμένων σε μη-πτητικες μνήμες, που χαλαρώνει τη σημασιολογία POSIX, και υλοποιείται με επανασχεδιασμό των λειτουργιών της εικονικής μνήμης και με επέκταση των συστημάτων αρχείων για PMem – με όλες τις αλλαγές να καθοδηγούνται από τα μοναδικά χαρακτηριστικά της άμεσης πρόσβασης (dax). Το DaxVM υποστηρίζει (i) γρήγορες λειτουργίες αντιστοίχισης μνήμης (Ο(1)) μέσω μόνιμων πινάκων σελίδων ενσωματωμένων στα μεταδεδομένα του συστήματος αρχείων, (ii) τη νωχελική ακύρωση των TLB, (iii) την κλιμακώσιμη (σε πολλούς πυρήνες) διαχείριση του εικονικού χώρου διευθύνσεων για εφήμερες αντιστοιχίσεις, (iv) την εξάλειψη του κόστους δυνατότητας διαχείρισης της ανθεκτικότητας των μόνιμων δεδομένων από τον χώρο του πυρήνα όταν είναι υπεύθυνος ο χώρος χρήστη και (v) τον ασύγχρονο μηδενισμό των μπλοκ αποθήκευσης από το σύστημα αρχείων. Υλοποιήσαμε το DaxVM στο ΛΣ Linux και στα συστήματα αρχείων ext4-DAX και NOVA και το διαθέτουμε ως λογισμικό ανοιχτού κώδικα. Το αξιολογούμε σε ένα πραγματικό σύστημα εξοπλισμένο με Intel Optane. Για εφαρμογές πολλαπλών νημάτων που επεξεργάζονται πολλά μικρά αρχεία για μικρά διαστήματα, π.χ. Apache, το DaxVM βελτιώνει την απόδοση της κλήσης συστήματος mmap έως και 4,9x. Αντιστρέφει επίσης την τάση που ευνοεί τη χρήση της κλήσης συστήματος read για τέτοιες εφαρμογές, ξεπερνώντας την έως και 1,5x. Το DaxVM αυξάνει επίσης τη διαθεσιμότητα του συστήματος, παρέχοντας γρήγορους χρόνους εκκίνησης για βάσεις δεδομένων και διατηρεί υψηλή απόδοση ακόμα και όταν οι συσκευές αποθήκευσης υποφέρουν απο εξωτερικό κατακερματισμό.Συνοψίζοντας, η παρούσα διατριβή επανεξετάζει τη σχεδίαση και την υλοποίηση του μηχανισμού της εικονικής μνήμης στο σήμερα και προτείνει τεχνικές στο υλικό και στο λογισμικό που την επεκτείνουν ωστε να i) κλιμακώνει καλύτερα με τις συνεχώς αυξανόμενες χωρητικότητες της κύριας μνήμης μέσω ενός αποδοτικού μηχανισμού μετάφρασης διευθύνεσων και ii) προσφέρει μια ειδική διεπαφή αντιστοίχισης αρχείων που φέρνει την απόδοση στα όρια αυτού που μπορεί να παρέχει το υποκείμενο υλικό για άμεση πρόσβαση σε μόνιμα δεδομένα

    Memory-Link compression to overcome the Memory Wall

    No full text
    90 σ.Το τέλος της εκθετικής αύξησης της απόδοσης των μονοεπεξεργαστικών συστημάτων σηματοδότησε το τέλος της κυριαρχίας των απλών μικροεπεξεργαστών στην πληροφορική. Η μελλοντική εξέλιξη των υπολογιστικών επιδόσεων μπορεί και αναμένεται να προέλθει από τον παραλληλισμό κάθε είδους. Τα θετικό νέο είναι ότι η τεχνολογική κλιμάκωση θα συνεχιστεί και η ενσωμάτωση εκατοντάδων πυρήνων σε ένα τσιπ αναμένεται στο εγγύς μέλλον. Τα αρνητικό είναι ότι η κλιμάκωση της επίδοσης στις πολυπύρηνες αρχιτεκτονικές δεν είναι εύκολη ούτε προφανής. Ένα από τα σημαντικότερα προβλήματα που προκαλούν μείωση της επίδοσης είναι το περιορισμένο εύρος ζώνης της κύριας μνήμης. Καθώς ο αριθμός των πυρήνων ανά τσιπ αυξάνεται, οι απαιτήσεις σε εύρος ζώνης μνήμης αυξάνουν σχεδόν γραμμικά. Δυστυχώς, η κλιμάκωση του εύρους ζώνης υπολείπεται σημαντικά της τεχνολογικής κλιμάκωσης και οι διαμοιραζόμενοι πόροι μνήμης και εύρους ζώνης αναδεικνύονται σε κρίσιμα σημεία συμφόρησης που περιορίζουν σημαντικά την επίδοση. Οι όροι Memory ή Bandwidth wall χρησιμοποιούνται συχνά για την αναφορά σε αυτό το ζήτημα. Ο στόχος της παρούσας διπλωματικής είναι η μελέτη και η αξιολόγηση της συμπίεσης στο δίαυλο μνήμης ως μιας τεχνικής για την αύξηση του αποτελεσματικού εύρους ζώνης και τη βελτίωση της επίδοσης σε σύγχρονους πολυπύρηνους επεξεργαστές. Η λογική πίσω από τη συμπίεση στο δίαυλο μνήμης είναι να καταφέρουμε να μειώσουμε την ποσότητα των δεδομένων που μεταφέρονται από/προς τη κύρια μνήμη με την αποστολή και τη λήψη των δεδομένων σε συμπιεσμένη μορφή. Στο σχήμα συμπίεσης που μελετήσαμε, πειραματιστήκαμε με διάφορους αλγόριθμους που έχουν προταθεί στο παρελθόν για συμπίεση στο υλικό και ανήκουν σε διαφορετικές “οικογένειες”. Παρακινούμενοι από την κακή απόδοση που έχουν συνήθως τα σχήματα σε επιστημονικά δεδομένα, εφαρμόσαμε και τον αλγόριθμο FPC, ένα σύγχρονο λογισμικό συμπίεσης για δεδομένα κινητής υποδιαστολής διπλής ακρίβειας. Για τη μοντελοποίηση του συστήματος και την πειραματική αξιολόγηση χρησιμοποιήσαμε τον Sniper, ένα σύγχρονο προσομοιωτή πολυπύρηνων αρχιτεκτονικών. Πειραματιστήκαμε με τρεις εφαρμογές που η κλιμάκωση τους περιορίζεται από τη μνήμη και με σύνολα ακέραιων δεδομένων και δεδομένων κινητής υποδιαστολής. Τα πειραματικά μας αποτελέσματα δείχνουν ότι η συμπίεση στο δίαυλο μπορεί να μειώσει σημαντικά τις απαιτήσεις σε εύρος ζώνης και υπό ορισμένες προϋποθέσεις, να βελτιώσει την επίδοση των πολυπύρηνων επεξεργαστών.The end of exponential growth in single-processor performance marks the end of the dominance of the single microprocessors in computing. Future growth in computing performance is expected and must come from parallelism. The good news is that technology scaling will continue and the integration of hundreds of cores in a single die is the near future. The bad news is that performance scaling in the multicore era is not easy nor obvious. One of the major issues that causes performance degradation in Chip Multiprocessor systems is unsustainable off-chip memory bandwidth. As the number of cores per die increases, the demands in off-chip memory bandwidth increase almost linearly too. Unfortunately, bandwidth scaling typically lags significantly behind and the shared resources of memory and bandwidth emerge as critical performance and throughput bottlenecks. MemoryMemory or BandwidthBandwidth wall are terms usually used to refer to this performance constraint. The goal of this diploma is to study and evaluate memory-link compression as a technique to increase the effective memory bandwidth in modern CMPs and overcome the ``wall". The rational behind link compression is to manage to reduce the amount of data communicated from/to off-chip memory by sending and receiving it in a compressed form. In the link compression scheme we modeled, we've experimented with various compression algorithms previously proposed for hardware compression, belonging to different families. Motivated by the poor performance that schemes usually have with scientific workloads, we've also applied FPC, a modern software compression scheme for double precision floating-point data. For the scheme's modeling and experimental evaluation we've used Sniper, a modern multicore simulator. We've experimented with three scientific memory bandwidth bound applications and both integer and hard-to-compress scientific floating point datasets. Our experimental results show that link compression can significantly reduce off-chip bandwidth demands and under certain conditions improve CMP performance.Χλόη Ν. Αλβέρτ

    A Study of the Interaction of Human Smart Characteristics with Demographic Dynamics and Built Environment: The Case of Limassol, Cyprus

    No full text
    The authors also would like to acknowledge the “CUT Open Access Author Fund” for covering the open access publication fees of the paper.The smart city notion provides an integrated and systematic answer to challenges facing cities today. Smart city policy makers and technology vendors are increasingly stating their interest in human-centered smart cities. On the other hand, in many studies smart city policies bring forward a one-size-fits-all type of recommendation for all areas in question instead of location-specific ones. Based on the above considerations, this paper illustrates that smart citizen characteristics, alongside local urban challenges, are paving the way towards more e ective e orts in smart city policy decision making. Our main presumption is that the development level of human-centered indicators of smart cities varies locally. The scientific objective of this paper is to find a simple, understandable link between human smart characteristics and local determinants in Limassol city, Cyprus. The data set consists of seven indicators defined as human smart characteristics and seven which determine local urban challenges consisting of demographic dynamics and built infrastructure attributes based on housing. Correlations of the 14 above indicators are examined in entirety and separately, as the study area was divided into three spatial sub-groups (high, moderate, and low coverage areas) depending on dispersed urbanization, as the main challenge of the study area. The data were obtained mainly from the most recent population census in 2011 and categorized in sub-groups by triggering CLC 2012. Analyzing the statistics using principal component analysis (PCA), we identify significant relationships between human smart city characteristics, demographic dynamics and built infrastructure attributes which can be used in local policy decision making. Spatial variations based on the dispersed urbanization are also observed regarding the above-mentioned relationships

    Smart city planning from a bottom-up approach: Local communities' intervention for a smarter urban environment

    No full text
    The aim of this paper is to explore the concept of "smart" cities from the perspective of inclusive community participation and Geographical Information Systems (GIS).The concept of a smart city is critically analyzed, focusing on the power/knowledge implications of a "bottom-up" approach in planning and how GIS could encourage community participation in smart urban planning. The paper commences with a literature review of what it means for cities to be "smart". It draws supporting definitions and critical insights into smart cities with respect to the built environment and the human factor. The second part of the paper, analyzes the "bottom-up" approach in urban planning, focusing on community participation reviewing forms and expressions through good practices from European cities. The third part of the paper includes a debate on how smart urban cities policies and community participation interact and influence each other. Finally, the paper closes with a discussion of the insights that were found and offers recommendations on how this debate could be addressed by Information and Communication Technologies and GIS in particular
    corecore