5 research outputs found

    A Survey on Transactional Stream Processing

    Full text link
    Transactional stream processing (TSP) strives to create a cohesive model that merges the advantages of both transactional and stream-oriented guarantees. Over the past decade, numerous endeavors have contributed to the evolution of TSP solutions, uncovering similarities and distinctions among them. Despite these advances, a universally accepted standard approach for integrating transactional functionality with stream processing remains to be established. Existing TSP solutions predominantly concentrate on specific application characteristics and involve complex design trade-offs. This survey intends to introduce TSP and present our perspective on its future progression. Our primary goals are twofold: to provide insights into the diverse TSP requirements and methodologies, and to inspire the design and development of groundbreaking TSP systems

    Gestion des ressources et économie décentralisée dans le cadre de l'Internet of Things

    Get PDF
    Comment sera-t-il possible qu'une voiture automne rentabilise son coût en allant faire le taxi pendant que son utilisateur n'en a pas besoin ? Comment sera-t-il possible de vendre automatiquement les données de sa montre connectée dans le but que ces statistiques puissent être utilisées pour faire avancer la recherche scientifique ? Ce travail a pour objectif de répondre à ces questions, en étudiant la faisabilité d'une gestion automatisée et décentralisée des ressources nécessaires au fonctionnement de composants connectés. L'étude s'est faite en deux parties. En premier lieu, par le développement du prototype d'un système de paiement et d'envoi de ressources automatisé et décentralisé. Ce dernier est basé sur la cryptomonnaie IOTA et son registre distribué, le Tangle. En second lieu, le présent document, qui définit et décrit les grands concepts relatifs au sujet du travail comme l’Internet of Things, les smart cities et les systèmes distribués et qui retranscrit les recherches menées pour comprendre les concepts et les enjeux qui encadrent le prototype, le bilan de son développement et les conclusions importantes qu'il est possible d'en tirer

    Deklarative Verarbeitung von Datenströmen in Sensornetzwerken

    Get PDF
    Sensors can now be found in many facets of every day life, and are used to capture and transfer both physical and chemical characteristics into digitally analyzable data. Wireless sensor networks play a central role in the proliferation of the industrial employment of wide-range, primarily autonomous surveillance of regions or buildings. The development of suitable systems involves a number of challenges. Current solutions are often designed with a specific task in mind, rendering them unsuitable for use in other environments. Suitable solutions for distributed systems are therefore continuously built from scratch on both the hardware and software levels, more often than not resulting in products in the market's higher price segments. Users would therefore profit from the reuse of existing modules in both areas of development. Once prefabricated solutions are available, the remaining challenge is to find a suitable combination of these solutions which fulfills the user's specifications. However, the development of suitable solutions often requires expert knowledge, especially in the case of wireless sensor networks in which resources are limited. The primary focus of this dissertation is energy-efficient data analysis in sensor networks. The AnduIN system, which is outlined in this dissertation, plays a central role in this task by reducing the software design phase to the mere formulation of the solution's specifications in a declarative query language. The system then reaches the user's defined goals in a fully automated fashion. Thus, the user is integrated into the design process only through the original definition of desired characteristics. The continuous surveillance of objects using wireless sensor networks depends strongly on a plethora of parameters. Experience has shown that energy consumption is one of the major weaknesses of wireless data transfer. One strategy for the reduction of energy consumption is to reduce the communication overhead by implementing an early analysis of measurement data on the sensor nodes. Often, it is neither possible nor practical to perform the complete data analysis of complex algorithms within the sensor network. In this case, portions of the analysis must be performed on a central computing unit. The AnduIN system integrates both simple methods as well as complex methods which are evaluated only partially in network. The system autonomously resolves which application fragments are executed on which components based on a multi-dimensional cost model. This work also includes various novel methods for the analysis of sensor data, such as methods for evaluating spatial data, data cleaning using burst detection, and the identification of frequent patters using quantitative item sets.Sensoren finden sich heutzutage in vielen Teilen des täglichen Lebens. Sie dienen dabei der Erfassung und Überführung von physikalischen oder chemischen Eigenschaften in digital auswertbare Größen. Drahtlose Sensornetzwerke als Mittel zur großflächigen, weitestgehend autarken Überwachung von Regionen oder Gebäuden sind Teil dieser Brücke und halten immer stärker Einzug in den industriellen Einsatz. die Entwicklung von geeigneten Systemen ist mit einer Vielzahl von Herausforderungen verbunden. Aktuelle Lösungen werden oftmals gezielt für eine spezielle Aufgabe entworfen, welche sich nur bedingt für den Einsatz in anderen Umgebungen eignen. Die sich wiederholende Neuentwicklung entsprechender verteilter Systeme sowohl auf Hardwareebene als auch auf Softwareebene, zählt zu den wesentlichen Gründen, weshalb entsprechende Lösungen sich zumeist im hochpreisigen Segment einordnen. In beiden Entwicklungsbereichen ist daher die Wiederverwendung existierender Module im Interesse des Anwenders. Stehen entsprechende vorgefertigte Lösungen bereit, besteht weiterhin die Aufgabe, diese in geeigneter Form zu kombinieren, so dass den vom Anwender geforderten Zielen in allen Bereichen genügt wird. Insbesondere im Kontext drahtloser Sensornetzwerke, bei welchen mit stark beschränkten Ressourcen umgegangen werden muss, ist für das Erzeugen passender Lösungen oftmals Expertenwissen von Nöten. Im Mittelpunkt der vorliegenden Arbeit steht die energie-effiziente Datenanalyse in drahtlosen Sensornetzwerken. Hierzu wird mit \AnduIN ein System präsentiert, welches den Entwurf auf Softwareebene dahingehend vereinfachen soll, dass der Anwender lediglich die Aufgabenstellung unter Verwendung einer deklarativen Anfragesprache beschreibt. Wie das vom Anwender definierte Ziel erreicht wird, soll vollautomatisch vom System bestimmt werden. Der Nutzer wird lediglich über die Definition gewünschter Eigenschaften in den Entwicklungsprozess integriert. Die dauerhafte Überwachung von Objekten mittels drahtloser Sensornetzwerke hängt von einer Vielzahl von Parametern ab. Es hat sich gezeigt, dass insbesondere der Energieverbrauch bei der drahtlosen Datenübertragung eine der wesentlichen Schwachstellen ist. Ein möglicher Ansatz zur Reduktion des Energiekonsums ist die Verringerung des Kommunikationsaufwands aufgrund einer frühzeitigen Auswertung von Messergebnissen bereits auf den Sensorknoten. Oftmals ist eine vollständige Verarbeitung von komplexen Algorithmen im Sensornetzwerk aber nicht möglich bzw. nicht sinnvoll. Teile der Verarbeitungslogik müssen daher auf einer zentralen Instanz ausgeführt werden. Das in der Arbeit entwickelte System integriert hierzu sowohl einfache als auch komplexe, nur teilweise im Sensornetzwerk verarbeitbare Verfahren. Die Entscheidung, welche Teile einer Applikation auf welcher Komponente ausgeführt werden, wird vom System selbstständig auf Basis eines mehrdimensionalen Kostenmodells gefällt. Im Rahmen der Arbeit werden weiterhin verschiedene Verfahren entwickelt, welche insbesondere im Zusammenhang mit der Analyse von Sensordaten von Interesse sind. Die erweiterten Algorithmen umfassen Methoden zur Auswertung von Daten mit räumlichem Bezug, das Data Cleaning mittels adaptiver Burst-Erkennung und die Identifikation von häufigen Mustern über quantitativen Itemsets

    Computing Clouds as a Part of Service-Oriented Architecture

    Get PDF
    U istraživačkom fokusu ovog rada su komercijalni računalni oblaci. Provedena su mjerenja radi određivanja trajanja izvođenja aplikacije u oblaku te uspoređeni tehnički i ekonomski uvjeti njezinog izvođenja u oblaku s uvjetima izvođenja na vlastitim računalnim resursima. Povezivanjem rezultata vlastitih istraživanja s radovima drugih istraživača razvijena je metodika korištenja oblačnog računarstva. Tekst disertacije organiziran je na sljedeći način. U prvom poglavlju izrečena je motivacija, objašnjena znanstvena i društvena opravdanost istraživanja, postavljeni su ciljevi rada, definirane istraživačke hipoteze te opisane metode i tehnike koje će se koristiti u istraživanju. U drugom poglavlju definirana je taksonomija oblačnog računarstva te opisana funkcionalna i uporabna svojstva računalnih oblaka. U trećem poglavlju opisane su tehnologije na kojima se zasniva oblačno računarstvo, s posebnim naglaskom na virtualizaciju i servisnu paradigmu korištenja. Izvedena je definicija oblačnog računarstva, opisana fizička realizacija računalnih oblaka, naznačene su moguće ekonomske i tehničke prednosti njihovog korištenja te tržišni potencijali. Četvrto poglavlje opisuje ekonomske aspekte uporabe računalnih oblaka, napose elastičnost i optimalnu nabavu. Formulirani su temelji ekonomike oblačnog računarstva i kratko analizirane neke aktualne komercijalne ponude. Definirane su varijable za opis svojstava složene aplikacije (pogodne za izvođenje u oblaku ili na vlastitim računalima) te postavljen koncept za mjerenje utjecaja tih varijabli na trajanje i troškove izvođenja aplikacije u oblaku. Rezultati opsežnih mjerenja performansi ogledne aplikacije smještene u oblaku obrađeni su u petom poglavlju. Matematičkom obradom rezultata mjerenja utvrđena je zavisnost vremena izvođenja aplikacije To nezavisnim varijablama koje opisuju njezino izvođenje na računalnim resursima te je tako dokazana druga hipoteza koja se odnosi na razvoj višedimenzionalne metrike potreba za računalnim servisima iz računalnog oblaka. U šestom poglavlju postavljen je općeniti postupak (temeljen na metrici iz petog poglavlja te radovima E. Walkera) kojim je moguće objektivno procijeniti da li je isplativije neku aplikaciju pokretati u računalnom oblaku ili na vlastitim računalnim resursima. Razvijen je algoritam za odlučivanje o kupnji ili najmu, temeljen na integraciji saznanja iz prethodnih poglavlja. U sedmom poglavlju sistematizirani su postupci za projektiranje hibridnog informacijskog sustava koji ima barem neke komponente smještene u oblaku. Ovi su postupci oblikovani u metodiku korištenja oblačnog računarstva (KOR). Pokazano je da se koncepti SOA i oblačnog računarstva temelje na istim komunikacijskim tehnologijama i komplementarnim paradigmama njihovog korištenja. Metodika KOR daje smjernice o tome kako i pod kojim uvjetima se SOA može uklopiti u računalni oblak. VII U disertaciji su postavljene dvije temeljne hipoteze: H1: Metodika razvoja hibridnih SOA rješenja može se izgraditi temeljem normiranih metoda i tehnika za modeliranje, usklađivanje i opisivanje poslovnih procesa. H2: Moguće je postaviti višedimenzionalnu metriku potreba za računalnim resursima SOA servisa prije njihove izgradnje te stvarnih performansi nakon njihove izgradnje. Korištenje takve metrike će povećati sigurnost pri odlučivanju o tome treba li neki servis stalno ili povremeno pokretati u računalnom oblaku. Istraživanje obuhvaćeno ovom disertacijom provedeno je slijedeći način: 1) Izabrana je ogledna aplikacija koja dobro aproksimira svojstva većine poslovnih aplikacija. Utvrđeno je 6 parametra koji definiraju način izvođenja aplikacije u oblaku ili na privatnim računalima, a za koje se pretpostavlja da utječu na vrijeme izvođenja aplikacije. Aplikacijski parametri su složenost algoritma a i broj CRUD akcija po upitu q. Podatkovni parametri su opseg podataka koji se šalje u oblak radi obrade u te veličina baze podataka b. Potrebe za računalnim resursima određuju broj r i snaga računala p. Istraživanje je izvedeno tako da je tipska aplikacija preuređena za izvođenje u oblaku te je vrijeme njezinog izvođenja T (za razne vrijednosti parametara) uspoređeno s vremenom TORG kojeg očekuje korisnik u radu s aplikacijom. Tipska aplikacija je namijenjena prepoznavanju oblika i koristi se za identifikaciju osobe usporedbom njezine aktualne fotografije s više slika iz baze podataka. Aplikacijski i podatkovni parametri mogu se mijenjati u potrebnim granicama, a resursni parametri se odabiru kod izvedbe aplikacije u oblaku. Tako su ostvareni uvjeti za mjerenje T u zavisnosti o izazvanim promjenama 6 ispitivanih parametara, uz isključene utjecaje slučajnih varijabli. 2) Da bi se odredio matematički model za opis performansi tipske aplikacije, izvedeno je 16 mjerenja prema višefaktorskom parcijalnom planu pokusa tipa 2^(6-2). Rezultati mjerenja su obrađeni metodama multivarijantne analize te je na taj način određen matematički model za izračun vremena izvođenja aplikacije u zavisnosti o 6 istraživanih parametara koji glasi: T=0,631+14,993∙a+0,135∙u+0,702∙q-0,840∙r-2,160∙a∙r. Ustanovljeno je da su signifikantni parametari a, u, q i r te dvofaktorne interakcije a i r. Dobiveni rezultati prikazani su grafički i detaljno prodiskutirani, čime je dokazana hipoteza 2. 3) Razvijen je matematički model za izračun pune cijene vlasništva (TCO) oblačnog centra, a njegova korektnost provjerena je proračunom troškova virtualnog podatkovnog centa i usporedbom rezultata tog izračuna s dostupnim podacima o strukturi troškova više izvedenih podatkovnih centara. Polazeći od radova E. Walkera razvijeni su matematičko-ekonomski modeli za izračun troškova CPU vremena i troškova diskovnih resursa za pohranu podataka. Prvim modelom, u kojem se računa s povećanjem računalne snage po Mooreovom zakonu, pokazano je da trošak po jedinici procesorskog vremena zavisi o stupnju iskorištenosti VIII procesora. To upućuje na zaključak da je za tvrtke koje imaju vremenski promjenljive zahtjeve, povoljnije unajmiti CPU vrijeme nego graditi vlastite serverske farme čiji kapacitet mora zadovoljiti vršne zahtjeve. To vrijedi ako sigurnosni zahtjevi i političke okolnosti ne ograničavaju takvo pribavljanje računalnih resursa. Drugi model, u kojem se računa s empirijski potvrđenim smanjivanjem cijene memorija tijekom vremena, pokazuje da je najam resursa za pohranu podataka dobra opcija za pojedine korisnike, a da je uvijek povoljniji za mala i srednja poduzeća. Za organizacije s velikim podatkovnim potrebama je kupnja vlastitih resursa za pohranu podataka povoljnija opcija od unajmljivanja jednako velikih resursa. Oba modela omogućavaju investitoru uvid u rentabilnost ulaganja, a korisniku usporedbu troškova najma potrebnih resursa prema troškovima vlasništva nad resursima iste snage. Uz ta dva matematička modela, te sistematiziranu komercijalnu ponudu oblačnih poslužitelja, izveden je algoritam odlučivanja o kupnji ili najmu. Korektnost algoritma provjerena je za tri virtualne aplikacije. Za svaku od njih izračunati su troškovi, koje bi imao korisnik izvodeći ih na računalnim resursima izabranih komercijalnih pružatelja ili na vlastitim resursima. 4) Kao sinteza istraživanja definirana je metodika KOR za uklapanje servisno orijentiranih aplikacija u računalne oblake. Metodika je izvedena kao proces te je formalizirana po BPM notaciji. Provodi se u 23 koraka te omogućuje objektiviziranje odluke o tome koje aplikacije informacijskog sustava tvrtke ili ustanove je isplativo izvoditi u oblaku, za koje treba nabaviti vlastite ICT resurse te kako sve to provesti na sistematičan način. Metodika KOR primijenjena je u izgradnji tipske aplikacije te se pokazalo da može opisati postupke za razvoj hibridnih aplikacija u oblaku. Budući da je metodika KOR provjerena kod pripreme tipske aplikacije za izvođenje u oblaku, smatramo da je dokazana hipoteza 1. Zaključno, ovom su disertacijom ostvareni su sljedeći znanstveni rezultati: 1. Postavljena je metrika za uspješno mjerenje aplikacijske potrebe za računalnim resursima i diskovnim kapacitetom. Ta metrika je općenita i primjenljiva je na razne vrste aplikacija koje se mogu izvoditi na različitim tehničkim platformama. Temelji se na mjerenju vremena potrebnog da aplikacija obavi zadani posao, pri čemu je to vrijeme ovisno o signifikantnim nezavisnim varijablama koje opisuju aplikaciju. 2. Razjašnjen je odnos između računalnih oblaka i drugih oblika naprednog računarstva te pokazano da su računalni oblaci platforma na kojoj je moguće postaviti i koristiti servisno orijentirana rješenja. 3. Razvijena je metodika KOR kojom je određen proces razvoja hibridnih informacijskih sustava i omogućena kvantificirana procjena koje aplikacije informacijskog sustava tvrtke ili ustanove je isplativo smjestiti u oblak, a za koje treba nabaviti vlastite ICT resurse. Metodika uzima u obzir potrebu preoblikovanja već postojećih aplikacija u SOA servise

    Computing Clouds as a Part of Service-Oriented Architecture

    Get PDF
    U istraživačkom fokusu ovog rada su komercijalni računalni oblaci. Provedena su mjerenja radi određivanja trajanja izvođenja aplikacije u oblaku te uspoređeni tehnički i ekonomski uvjeti njezinog izvođenja u oblaku s uvjetima izvođenja na vlastitim računalnim resursima. Povezivanjem rezultata vlastitih istraživanja s radovima drugih istraživača razvijena je metodika korištenja oblačnog računarstva. Tekst disertacije organiziran je na sljedeći način. U prvom poglavlju izrečena je motivacija, objašnjena znanstvena i društvena opravdanost istraživanja, postavljeni su ciljevi rada, definirane istraživačke hipoteze te opisane metode i tehnike koje će se koristiti u istraživanju. U drugom poglavlju definirana je taksonomija oblačnog računarstva te opisana funkcionalna i uporabna svojstva računalnih oblaka. U trećem poglavlju opisane su tehnologije na kojima se zasniva oblačno računarstvo, s posebnim naglaskom na virtualizaciju i servisnu paradigmu korištenja. Izvedena je definicija oblačnog računarstva, opisana fizička realizacija računalnih oblaka, naznačene su moguće ekonomske i tehničke prednosti njihovog korištenja te tržišni potencijali. Četvrto poglavlje opisuje ekonomske aspekte uporabe računalnih oblaka, napose elastičnost i optimalnu nabavu. Formulirani su temelji ekonomike oblačnog računarstva i kratko analizirane neke aktualne komercijalne ponude. Definirane su varijable za opis svojstava složene aplikacije (pogodne za izvođenje u oblaku ili na vlastitim računalima) te postavljen koncept za mjerenje utjecaja tih varijabli na trajanje i troškove izvođenja aplikacije u oblaku. Rezultati opsežnih mjerenja performansi ogledne aplikacije smještene u oblaku obrađeni su u petom poglavlju. Matematičkom obradom rezultata mjerenja utvrđena je zavisnost vremena izvođenja aplikacije To nezavisnim varijablama koje opisuju njezino izvođenje na računalnim resursima te je tako dokazana druga hipoteza koja se odnosi na razvoj višedimenzionalne metrike potreba za računalnim servisima iz računalnog oblaka. U šestom poglavlju postavljen je općeniti postupak (temeljen na metrici iz petog poglavlja te radovima E. Walkera) kojim je moguće objektivno procijeniti da li je isplativije neku aplikaciju pokretati u računalnom oblaku ili na vlastitim računalnim resursima. Razvijen je algoritam za odlučivanje o kupnji ili najmu, temeljen na integraciji saznanja iz prethodnih poglavlja. U sedmom poglavlju sistematizirani su postupci za projektiranje hibridnog informacijskog sustava koji ima barem neke komponente smještene u oblaku. Ovi su postupci oblikovani u metodiku korištenja oblačnog računarstva (KOR). Pokazano je da se koncepti SOA i oblačnog računarstva temelje na istim komunikacijskim tehnologijama i komplementarnim paradigmama njihovog korištenja. Metodika KOR daje smjernice o tome kako i pod kojim uvjetima se SOA može uklopiti u računalni oblak. VII U disertaciji su postavljene dvije temeljne hipoteze: H1: Metodika razvoja hibridnih SOA rješenja može se izgraditi temeljem normiranih metoda i tehnika za modeliranje, usklađivanje i opisivanje poslovnih procesa. H2: Moguće je postaviti višedimenzionalnu metriku potreba za računalnim resursima SOA servisa prije njihove izgradnje te stvarnih performansi nakon njihove izgradnje. Korištenje takve metrike će povećati sigurnost pri odlučivanju o tome treba li neki servis stalno ili povremeno pokretati u računalnom oblaku. Istraživanje obuhvaćeno ovom disertacijom provedeno je slijedeći način: 1) Izabrana je ogledna aplikacija koja dobro aproksimira svojstva većine poslovnih aplikacija. Utvrđeno je 6 parametra koji definiraju način izvođenja aplikacije u oblaku ili na privatnim računalima, a za koje se pretpostavlja da utječu na vrijeme izvođenja aplikacije. Aplikacijski parametri su složenost algoritma a i broj CRUD akcija po upitu q. Podatkovni parametri su opseg podataka koji se šalje u oblak radi obrade u te veličina baze podataka b. Potrebe za računalnim resursima određuju broj r i snaga računala p. Istraživanje je izvedeno tako da je tipska aplikacija preuređena za izvođenje u oblaku te je vrijeme njezinog izvođenja T (za razne vrijednosti parametara) uspoređeno s vremenom TORG kojeg očekuje korisnik u radu s aplikacijom. Tipska aplikacija je namijenjena prepoznavanju oblika i koristi se za identifikaciju osobe usporedbom njezine aktualne fotografije s više slika iz baze podataka. Aplikacijski i podatkovni parametri mogu se mijenjati u potrebnim granicama, a resursni parametri se odabiru kod izvedbe aplikacije u oblaku. Tako su ostvareni uvjeti za mjerenje T u zavisnosti o izazvanim promjenama 6 ispitivanih parametara, uz isključene utjecaje slučajnih varijabli. 2) Da bi se odredio matematički model za opis performansi tipske aplikacije, izvedeno je 16 mjerenja prema višefaktorskom parcijalnom planu pokusa tipa 2^(6-2). Rezultati mjerenja su obrađeni metodama multivarijantne analize te je na taj način određen matematički model za izračun vremena izvođenja aplikacije u zavisnosti o 6 istraživanih parametara koji glasi: T=0,631+14,993∙a+0,135∙u+0,702∙q-0,840∙r-2,160∙a∙r. Ustanovljeno je da su signifikantni parametari a, u, q i r te dvofaktorne interakcije a i r. Dobiveni rezultati prikazani su grafički i detaljno prodiskutirani, čime je dokazana hipoteza 2. 3) Razvijen je matematički model za izračun pune cijene vlasništva (TCO) oblačnog centra, a njegova korektnost provjerena je proračunom troškova virtualnog podatkovnog centa i usporedbom rezultata tog izračuna s dostupnim podacima o strukturi troškova više izvedenih podatkovnih centara. Polazeći od radova E. Walkera razvijeni su matematičko-ekonomski modeli za izračun troškova CPU vremena i troškova diskovnih resursa za pohranu podataka. Prvim modelom, u kojem se računa s povećanjem računalne snage po Mooreovom zakonu, pokazano je da trošak po jedinici procesorskog vremena zavisi o stupnju iskorištenosti VIII procesora. To upućuje na zaključak da je za tvrtke koje imaju vremenski promjenljive zahtjeve, povoljnije unajmiti CPU vrijeme nego graditi vlastite serverske farme čiji kapacitet mora zadovoljiti vršne zahtjeve. To vrijedi ako sigurnosni zahtjevi i političke okolnosti ne ograničavaju takvo pribavljanje računalnih resursa. Drugi model, u kojem se računa s empirijski potvrđenim smanjivanjem cijene memorija tijekom vremena, pokazuje da je najam resursa za pohranu podataka dobra opcija za pojedine korisnike, a da je uvijek povoljniji za mala i srednja poduzeća. Za organizacije s velikim podatkovnim potrebama je kupnja vlastitih resursa za pohranu podataka povoljnija opcija od unajmljivanja jednako velikih resursa. Oba modela omogućavaju investitoru uvid u rentabilnost ulaganja, a korisniku usporedbu troškova najma potrebnih resursa prema troškovima vlasništva nad resursima iste snage. Uz ta dva matematička modela, te sistematiziranu komercijalnu ponudu oblačnih poslužitelja, izveden je algoritam odlučivanja o kupnji ili najmu. Korektnost algoritma provjerena je za tri virtualne aplikacije. Za svaku od njih izračunati su troškovi, koje bi imao korisnik izvodeći ih na računalnim resursima izabranih komercijalnih pružatelja ili na vlastitim resursima. 4) Kao sinteza istraživanja definirana je metodika KOR za uklapanje servisno orijentiranih aplikacija u računalne oblake. Metodika je izvedena kao proces te je formalizirana po BPM notaciji. Provodi se u 23 koraka te omogućuje objektiviziranje odluke o tome koje aplikacije informacijskog sustava tvrtke ili ustanove je isplativo izvoditi u oblaku, za koje treba nabaviti vlastite ICT resurse te kako sve to provesti na sistematičan način. Metodika KOR primijenjena je u izgradnji tipske aplikacije te se pokazalo da može opisati postupke za razvoj hibridnih aplikacija u oblaku. Budući da je metodika KOR provjerena kod pripreme tipske aplikacije za izvođenje u oblaku, smatramo da je dokazana hipoteza 1. Zaključno, ovom su disertacijom ostvareni su sljedeći znanstveni rezultati: 1. Postavljena je metrika za uspješno mjerenje aplikacijske potrebe za računalnim resursima i diskovnim kapacitetom. Ta metrika je općenita i primjenljiva je na razne vrste aplikacija koje se mogu izvoditi na različitim tehničkim platformama. Temelji se na mjerenju vremena potrebnog da aplikacija obavi zadani posao, pri čemu je to vrijeme ovisno o signifikantnim nezavisnim varijablama koje opisuju aplikaciju. 2. Razjašnjen je odnos između računalnih oblaka i drugih oblika naprednog računarstva te pokazano da su računalni oblaci platforma na kojoj je moguće postaviti i koristiti servisno orijentirana rješenja. 3. Razvijena je metodika KOR kojom je određen proces razvoja hibridnih informacijskih sustava i omogućena kvantificirana procjena koje aplikacije informacijskog sustava tvrtke ili ustanove je isplativo smjestiti u oblak, a za koje treba nabaviti vlastite ICT resurse. Metodika uzima u obzir potrebu preoblikovanja već postojećih aplikacija u SOA servise
    corecore