1,005 research outputs found

    Energy-efficient Stream Processing for a Smart Device Ecosystem

    Get PDF

    Energy Aware Runtime Systems for Elastic Stream Processing Platforms

    Get PDF
    Following an invariant growth in the required computational performance of processors, the multicore revolution started around 20 years ago. This revolution was mainly an answer to power dissipation constraints restricting the increase of clock frequency in single-core processors. The multicore revolution not only brought in the challenge of parallel programming, i.e. being able to develop software exploiting the entire capabilities of manycore architectures, but also the challenge of programming heterogeneous platforms. The question of “on which processing element to map a specific computational unit?”, is well known in the embedded community. With the introduction of general-purpose graphics processing units (GPGPUs), digital signal processors (DSPs) along with many-core processors on different system-on-chip platforms, heterogeneous parallel platforms are nowadays widespread over several domains, from consumer devices to media processing platforms for telecom operators. Finding mapping together with a suitable hardware architecture is a process called design-space exploration. This process is very challenging in heterogeneous many-core architectures, which promise to offer benefits in terms of energy efficiency. The main problem is the exponential explosion of space exploration. With the recent trend of increasing levels of heterogeneity in the chip, selecting the parameters to take into account when mapping software to hardware is still an open research topic in the embedded area. For example, the current Linux scheduler has poor performance when mapping tasks to computing elements available in hardware. The only metric considered is CPU workload, which as was shown in recent work does not match true performance demands from the applications. Doing so may produce an incorrect allocation of resources, resulting in a waste of energy. The origin of this research work comes from the observation that these approaches do not provide full support for the dynamic behavior of stream processing applications, especially if these behaviors are established only at runtime. This research will contribute to the general goal of developing energy-efficient solutions to design streaming applications on heterogeneous and parallel hardware platforms. Streaming applications are nowadays widely spread in the software domain. Their distinctive characiteristic is the retrieving of multiple streams of data and the need to process them in real time. The proposed work will develop new approaches to address the challenging problem of efficient runtime coordination of dynamic applications, focusing on energy and performance management.Efter en oförĂ€nderlig tillvĂ€xt i prestandakrav hos processorer, började den flerkĂ€rniga processor-revolutionen för ungefĂ€r 20 Ă„r sedan. Denna revolution skedde till största del som en lösning till begrĂ€nsningar i energieffekten allt eftersom klockfrekvensen kontinuerligt höjdes i en-kĂ€rniga processorer. Den flerkĂ€rniga processor-revolutionen medförde inte enbart utmaningen gĂ€llande parallellprogrammering, m.a.o. förmĂ„gan att utveckla mjukvara som anvĂ€nder sig av alla delelement i de flerkĂ€rniga processorerna, men ocksĂ„ utmaningen med programmering av heterogena plattformar. FrĂ„gestĂ€llningen ”pĂ„ vilken processorelement skall en viss berĂ€kning utföras?” Ă€r vĂ€l kĂ€nt inom ramen för inbyggda datorsystem. Efter introduktionen av grafikprocessorer för allmĂ€nna berĂ€kningar (GPGPU), signalprocesserings-processorer (DSP) samt flerkĂ€rniga processorer pĂ„ olika system-on-chip plattformar, Ă€r heterogena parallella plattformar idag omfattande inom mĂ„nga domĂ€ner, frĂ„n konsumtionsartiklar till mediaprocesseringsplattformar för telekommunikationsoperatörer. Processen att placera berĂ€kningarna pĂ„ en passande hĂ„rdvaruplattform kallas för utforskning av en designrymd (design-space exploration). Denna process Ă€r mycket utmanande för heterogena flerkĂ€rniga arkitekturer, och kan medföra fördelar nĂ€r det gĂ€ller energieffektivitet. Det största problemet Ă€r att de olika valmöjligheterna i designrymden kan vĂ€xa exponentiellt. Enligt den nuvarande trenden som förespĂ„r ökad heterogeniska aspekter i processorerna Ă€r utmaningen att hitta den mest passande placeringen av berĂ€kningarna pĂ„ hĂ„rdvaran Ă€nnu en forskningsfrĂ„ga inom ramen för inbyggda datorsystem. Till exempel, den nuvarande schemalĂ€ggaren i Linux operativsystemet Ă€r inkapabel att hitta en effektiv placering av berĂ€kningarna pĂ„ den underliggande hĂ„rdvaran. Det enda mĂ€tsĂ€ttet som anvĂ€nds Ă€r processorns belastning vilket, som visats i tidigare forskning, inte motsvarar den verkliga prestandan i applikationen. AnvĂ€ndning av detta mĂ€tsĂ€tt vid resursallokering resulterar i slöseri med energi. Denna forskning hĂ€rstammar frĂ„n observationerna att dessa tillvĂ€gagĂ„ngssĂ€tt inte stöder det dynamiska beteendet hos ström-processeringsapplikationer (stream processing applications), speciellt om beteendena bara etableras vid körtid. Denna forskning kontribuerar till det allmĂ€nna mĂ„let att utveckla energieffektiva lösningar för ström-applikationer (streaming applications) pĂ„ heterogena flerkĂ€rniga hĂ„rdvaruplattformar. Ström-applikationer Ă€r numera mycket vanliga i mjukvarudomĂ€n. Deras distinkta karaktĂ€r Ă€r inlĂ€sning av flertalet dataströmmar, och behov av att processera dem i realtid. Arbetet i denna forskning understöder utvecklingen av nya sĂ€tt för att lösa det utmanade problemet att effektivt koordinera dynamiska applikationer i realtid och fokus pĂ„ energi- och prestandahantering

    Supporting UAVs with Edge Computing: A Review of Opportunities and Challenges

    Full text link
    Over the last years, Unmanned Aerial Vehicles (UAVs) have seen significant advancements in sensor capabilities and computational abilities, allowing for efficient autonomous navigation and visual tracking applications. However, the demand for computationally complex tasks has increased faster than advances in battery technology. This opens up possibilities for improvements using edge computing. In edge computing, edge servers can achieve lower latency responses compared to traditional cloud servers through strategic geographic deployments. Furthermore, these servers can maintain superior computational performance compared to UAVs, as they are not limited by battery constraints. Combining these technologies by aiding UAVs with edge servers, research finds measurable improvements in task completion speed, energy efficiency, and reliability across multiple applications and industries. This systematic literature review aims to analyze the current state of research and collect, select, and extract the key areas where UAV activities can be supported and improved through edge computing

    Resource Management for Edge Computing in Internet of Things (IoT)

    Get PDF
    Die große Anzahl an GerĂ€ten im Internet der Dinge (IoT) und deren kontinuierliche Datensammlungen fĂŒhren zu einem rapiden Wachstum der gesammelten Datenmenge. Die Daten komplett mittels zentraler Cloud Server zu verarbeiten ist ineffizient und zum Teil sogar unmöglich oder unnötig. Darum wird die Datenverarbeitung an den Rand des Netzwerks verschoben, was zu den Konzepten des Edge Computings gefĂŒhrt hat. Informationsverarbeitung nahe an der Datenquelle (z.B. auf Gateways und Edge GerĂ€ten) reduziert nicht nur die hohe Arbeitslast zentraler Server und Netzwerke, sondern verringer auch die Latenz fĂŒr Echtzeitanwendungen, da die potentiell unzuverlĂ€ssige Kommunikation zu Cloud Servern mit ihrer unvorhersehbaren Netzwerklatenz vermieden wird. Aktuelle IoT Architekturen verwenden Gateways, um anwendungsspezifische Verbindungen zu IoT GerĂ€ten herzustellen. In typischen Konfigurationen teilen sich mehrere IoT Edge GerĂ€te ein IoT Gateway. Wegen der begrenzten verfĂŒgbaren Bandbreite und RechenkapazitĂ€t eines IoT Gateways muss die ServicequalitĂ€t (SQ) der verbundenen IoT Edge GerĂ€te ĂŒber die Zeit angepasst werden. Nicht nur um die Anforderungen der einzelnen Nutzer der IoT GerĂ€te zu erfĂŒllen, sondern auch um die SQBedĂŒrfnisse der anderen IoT Edge GerĂ€te desselben Gateways zu tolerieren. Diese Arbeit untersucht zuerst essentielle Technologien fĂŒr IoT und existierende Trends. Dabei werden charakteristische Eigenschaften von IoT fĂŒr die Embedded DomĂ€ne, sowie eine umfassende IoT Perspektive fĂŒr Eingebettete Systeme vorgestellt. Mehrere Anwendungen aus dem Gesundheitsbereich werden untersucht und implementiert, um ein Model fĂŒr deren Datenverarbeitungssoftware abzuleiten. Dieses Anwendungsmodell hilft bei der Identifikation verschiedener Betriebsmodi. IoT Systeme erwarten von den Edge GerĂ€ten, dass sie mehrere Betriebsmodi unterstĂŒtzen, um sich wĂ€hrend des Betriebs an wechselnde Szenarien anpassen zu können. Z.B. Energiesparmodi bei geringen Batteriereserven trotz gleichzeitiger Aufrechterhaltung der kritischen FunktionalitĂ€t oder einen Modus, um die ServicequalitĂ€t auf Wunsch des Nutzers zu erhöhen etc. Diese Modi verwenden entweder verschiedene Auslagerungsschemata (z.B. die ĂŒbertragung von Rohdaten, von partiell bearbeiteten Daten, oder nur des finalen Ergebnisses) oder verschiedene ServicequalitĂ€ten. Betriebsmodi unterscheiden sich in ihren Ressourcenanforderungen sowohl auf dem GerĂ€t (z.B. Energieverbrauch), wie auch auf dem Gateway (z.B. Kommunikationsbandbreite, Rechenleistung, Speicher etc.). Die Auswahl des besten Betriebsmodus fĂŒr Edge GerĂ€te ist eine Herausforderung in Anbetracht der begrenzten Ressourcen am Rand des Netzwerks (z.B. Bandbreite und Rechenleistung des gemeinsamen Gateways), diverser Randbedingungen der IoT Edge GerĂ€te (z.B. Batterielaufzeit, ServicequalitĂ€t etc.) und der LaufzeitvariabilitĂ€t am Rand der IoT Infrastruktur. In dieser Arbeit werden schnelle und effiziente Auswahltechniken fĂŒr Betriebsmodi entwickelt und prĂ€sentiert. Wenn sich IoT GerĂ€te in der Reichweite mehrerer Gateways befinden, ist die Verwaltung der gemeinsamen Ressourcen und die Auswahl der Betriebsmodi fĂŒr die IoT GerĂ€te sogar noch komplexer. In dieser Arbeit wird ein verteilter handelsorientierter GerĂ€teverwaltungsmechanismus fĂŒr IoT Systeme mit mehreren Gateways prĂ€sentiert. Dieser Mechanismus zielt auf das kombinierte Problem des Bindens (d.h. ein Gateway fĂŒr jedes IoT GerĂ€t bestimmen) und der Allokation (d.h. die zugewiesenen Ressourcen fĂŒr jedes GerĂ€t bestimmen) ab. Beginnend mit einer initialen Konfiguration verhandeln und kommunizieren die Gateways miteinander und migrieren IoT GerĂ€te zwischen den Gateways, wenn es den Nutzen fĂŒr das Gesamtsystem erhöht. In dieser Arbeit werden auch anwendungsspezifische Optimierungen fĂŒr IoT GerĂ€te vorgestellt. Drei Anwendungen fĂŒr den Gesundheitsbereich wurden realisiert und fĂŒr tragbare IoT GerĂ€te untersucht. Es wird auch eine neuartige Kompressionsmethode vorgestellt, die speziell fĂŒr IoT Anwendungen geeignet ist, die Bio-Signale fĂŒr GesundheitsĂŒberwachungen verarbeiten. Diese Technik reduziert die zu ĂŒbertragende Datenmenge des IoT GerĂ€tes, wodurch die Ressourcenauslastung auf dem GerĂ€t und dem gemeinsamen Gateway reduziert wird. Um die vorgeschlagenen Techniken und Mechanismen zu evaluieren, wurden einige Anwendungen auf IoT Plattformen untersucht, um ihre Parameter, wie die AusfĂŒhrungszeit und Ressourcennutzung, zu bestimmen. Diese Parameter wurden dann in einem Rahmenwerk verwendet, welches das IoT Netzwerk modelliert, die Interaktion zwischen GerĂ€ten und Gateway erfasst und den Kommunikationsoverhead sowie die erreichte Batterielebenszeit und ServicequalitĂ€t der GerĂ€te misst. Die Algorithmen zur Auswahl der Betriebsmodi wurden zusĂ€tzlich auf IoT Plattformen implementiert, um ihre Overheads bzgl. AusfĂŒhrungszeit und Speicherverbrauch zu messen
    • 

    corecore