364 research outputs found

    Hierarchical modeling and analysis of container terminal operations

    Get PDF
    After the breakdown of trade barriers among countries, the volume of international trade has grown significantly in the last decade. This explosive growth in international trade has increased the importance of marine transportation which constitutes the major part of the global logistics network. The utilization of containers and container ships in marine transportation has also increased after the eighties due to various advantages such as packaging, flexibility, and reliability. Parallel to the container throughput, the capacities of ships and sizes of fleets as well as the number of terminals have been increased considerably. Substantial pressure of competition on ship operators and terminal managers has forced them to consider the issues regarding operational efficiency more deeply. Thus, the operational efficiency at port container terminals has become the major concern of terminal managers to satisfy the rapid transshipment of goods. In this thesis, we focus on a set of decision problems regarding container terminal operations. Since these problems are interrelated hierarchically, we attempt to model and analyze them consecutively. First, we consider the storage space allocation problem over a rolling horizon as an aggregate planning model. Since the model has the minimum cost flow network structure there exist polynomial time solution procedures via linear programming models. Although ship turnaround time is the principal performance criteria for whole container terminal operations, the total distances traveled by containers in the terminal throughout the planning horizon is determined as the surrogate objective function for the allocation model. The output of the storage space allocation problem is used as the input for the next step of our methodology, namely the location matching model. With the location matching model, the routes of vehicles for each time period have been identified while minimizing the total distance traveled by the vehicles, which reveals the ship turnaround times. The routes that are found subject to the output of storage space allocation models are better than those of random allocation in terms of total distances traveled. Next, the vehicle scheduling problem is discussed for different levels of complexity. The solution procedures proposed for similar problems in the machine scheduling literature are provided. Finally, we discuss the problem of simultaneous vehicle dispatching with precedence constraints. We have modeled the problem as a nonlinear mixed integer programming model and proposed an iterative solution procedure to obtain reasonable solutions in considerable times. Moreover, we have presented the worst-case performance analysis for this heuristic

    ICAPS 2012. Proceedings of the third Workshop on the International Planning Competition

    Get PDF
    22nd International Conference on Automated Planning and Scheduling. June 25-29, 2012, Atibaia, Sao Paulo (Brazil). Proceedings of the 3rd the International Planning CompetitionThe Academic Advising Planning Domain / Joshua T. Guerin, Josiah P. Hanna, Libby Ferland, Nicholas Mattei, and Judy Goldsmith. -- Leveraging Classical Planners through Translations / Ronen I. Brafman, Guy Shani, and Ran Taig. -- Advances in BDD Search: Filtering, Partitioning, and Bidirectionally Blind / Stefan Edelkamp, Peter Kissmann, and Álvaro Torralba. -- A Multi-Agent Extension of PDDL3.1 / Daniel L. Kovacs. -- Mining IPC-2011 Results / Isabel Cenamor, Tomás de la Rosa, and Fernando Fernández. -- How Good is the Performance of the Best Portfolio in IPC-2011? / Sergio Nuñez, Daniel Borrajo, and Carlos Linares López. -- “Type Problem in Domain Description!” or, Outsiders’ Suggestions for PDDL Improvement / Robert P. Goldman and Peter KellerEn prens

    Atölye tipi çizelgeleme problemlerinde evrimsel algoritmalar ile yapay arı kolonisi algoritmasının bütünleşik bir yaklaşımı

    Get PDF
    06.03.2018 tarihli ve 30352 sayılı Resmi Gazetede yayımlanan “Yükseköğretim Kanunu İle Bazı Kanun Ve Kanun Hükmünde Kararnamelerde Değişiklik Yapılması Hakkında Kanun” ile 18.06.2018 tarihli “Lisansüstü Tezlerin Elektronik Ortamda Toplanması, Düzenlenmesi ve Erişime Açılmasına İlişkin Yönerge” gereğince tam metin erişime açılmıştır.Hayatımızın birçok alanında çok önemli bir yeri olan çizelgeleme problemlerinin çözümü ile ilgili olarak yıllardır çok ciddi çalışmalar yapılmıştır. Bu çalışmaların yapılmasında şüphesiz en büyük sebep, mevcut çizelgeye göre daha iyilerinin geliştirilmesini sağlamaya çalışmak ve daha büyük kazanç ve verimlilikler ortaya koymaktır. Bundan dolayı, doğru ve etkin bir çizelgeleme, hem insanlar hem de işletmeler için büyük önem arz etmektedir. Bu bağlamda özellikle son yıllarda çizelgeleme problemlerinin çözümünde sezgisel algoritmaların araştırmacılar tarafından yoğun bir biçimde kullanıldığı görülmektedir. Bu tez çalışmasında, atölye tipi çizelgeleme problemlerinin çözümünün eniyilemesi için bütünleşik bir yaklaşım önerilmiştir. Bu bağlamda sürü zekâsına dayalı sezgisel algoritmalardan olan yapay arı kolonisi algoritması ile evrimsel algoritmalar bütünleşik yaklaşım için kullanılmıştır. Önerilen metot, atölye tipi çizelgeleme ile ilgili data setlerine uygulanmış ve elde edilen sonuçlar ortalama bağıl hata yüzdesi (ARPE) ile ortalama bağıl sapma yüzdesi (ARPD) kriterleri kullanılarak, karınca kolonisi optimizasyon (ACO) tekniği, kuş sürüsü algoritması (PSO) ve diferansiyel gelişim (DE) algoritması ile kıyaslanmıştır. Sonuçlar kıyaslanırken, parametrik ve parametrik olmayan testler kullanılarak metotlar arasında istatistiksel olarak anlamlı farklar olup olmadığı kurulan hipotezlerle araştırılmıştır. ARPE kriterine göre, önerilen yaklaşım ile ACO tekniği sonuçları arasında istatistiksel olarak anlamlı farklar gözlemlenirken, önerilen metot ile PSO ve DE algoritmalarının sonuçları arasında ise istatistiksel olarak anlamlı farklar olmadığı görülmüştür. Yapılan testler sonucunda, önerilen metot ile elde edilen ARPE değeri, ACO metodu ile elde edilen ARPE değerinden 4,3 puan (yüzdesel değişim olarak) daha düşük olduğundan daha etkin bir netice vermiştir. ARPD kriterine göre ise, önerilen yaklaşım ile diğer tüm algoritmaların sonuçları arasında istatistiksel olarak anlamlı farklar olduğu yapılan testlerle ortaya konmuştur. Yapılan testler sonucunda, önerilen metot ile elde edilen ARPD değeri, ACO metodu ile elde edilen ARPD değerinden 6,3 puan, PSO metodu ile elde edilen ARPD değerinden 0,6 puan, DE metodu ile elde edilen ARPD değerinden ise 0,7 puan daha düşük olduğundan daha kararlı ve etkin neticeler vermiştir. Yapılan testler sonucunda, çizelgelemesi yapılacak olan iş veya makine sayısının 20 ve 20'den az olduğu durumlarda önerilen metodun çok daha hızlı ve etkin sonuçlar verdiği gözlemlenmiştir.There have been a lot of research made about solution of scheduling problems that have a very important place in many areas of our lives for years. The cause of these researches is to develop better than the current schedule and achieve greater profits. Therefore, there is great importance of efficient scheduling for both humans and businesses. In this context, heuristic algorithms are used extensively by researchers for solving scheduling problems in recent years. In this dissertation study, an integrated approach has been developed for optimizing the solution of job shop scheduling problems. In this context, artificial bee colony algorithm and evolutionary algorithms are used for the integrated approach. The proposed hybrid method has been applied to data sets related to job shop scheduling. The obtained results have been compared with the results of different optimization techniques that these techniques are ant colony optimization (ACO), particle swarm optimization (PSO) and differential evolution algorithm (DE) using the average relative error percentage (ARPE) and average relative percentage deviation (ARPD) criteria. It has investigated whether statistically significant differences among methods using parametric and non-parametric tests with the founded hypotheses for the comparisons. According to the ARPE criterion, statistically significant differences have been obtained between the results of the recommended approach and ACO technique. According to the same criterion, statistically significant differences have not been observed between the result of the proposed method with PSO and DE algorithms. ARPE value of the recommended approach yielded 4.3 points (as percentage changes) more effective than ARPE value of the ACO technique according to the results of the tests. According to the ARPD criterion, statistically significant differences have been obtained between the results of the recommended approach and other all techniques. According to the results of the tests, ARPD value of the proposed method yielded more effective and stable of 6.3 points than ARPE value of the ACO technique, of 0.6 points than ARPE value of the PSO algorithm, of 0.7 points than ARPE value of the DE algorithm. According to the results of the tests, it observed that the proposed method has much faster and more effective results in conditions less than 20 number of machines or jobs which will be scheduling

    Parallel genetic algorithms in the cloud

    Get PDF
    2015 - 2016Genetic Algorithms (GAs) are a metaheuristic search technique belonging to the class of Evolutionary Algorithms (EAs). They have been proven to be effective in addressing several problems in many fields but also suffer from scalability issues that may not let them find a valid application for real world problems. Thus, the aim of providing highly scalable GA-based solutions, together with the reduced costs of parallel architectures, motivate the research on Parallel Genetic Algorithms (PGAs). Cloud computing may be a valid option for parallelisation, since there is no need of owning the physical hardware, which can be purchased from cloud providers, for the desired time, quantity and quality. There are different employable cloud technologies and approaches for this purpose, but they all introduce communication overhead. Thus, one might wonder if, and possibly when, specific approaches, environments and models show better performance than sequential versions in terms of execution time and resource usage. This thesis investigates if and when GAs can scale in the cloud using specific approaches. Firstly, Hadoop MapReduce is exploited designing and developinganopensourceframework,i.e.,elephant56, thatreducestheeffortin developing and speed up GAs using three parallel models. The performance of theframeworkisthenevaluatedthroughanempiricalstudy. Secondly, software containers and message queues are employed to develop, deploy and execute PGAs in the cloud and the devised system is evaluated with an empirical study on a commercial cloud provider. Finally, cloud technologies are also exploredfortheparallelisationofotherEAs,designinganddevelopingcCube,a collaborativemicroservicesarchitectureformachinelearningproblems. [edited by author]I Genetic Algorithms (GAs) sono una metaeuristica di ricerca appartenenti alla classe degli Evolutionary Algorithms (EAs). Si sono dimostrati efficaci nel risolvere tanti problemi in svariati campi. Tuttavia, le difficoltà nello scalare spesso evitano che i GAs possano trovare una collocazione efficace per la risoluzione di problemi del mondo reale. Quindi, l’obiettivo di fornire soluzioni basate altamente scalabili, assieme alla riduzione dei costi di architetture parallele, motivano la ricerca sui Parallel Genetic Algorithms (PGAs). Il cloud computing potrebbe essere una valida opzione per la parallelizzazione, dato che non c’è necessità di possedere hardware fisico che può, invece, essere acquistato dai cloud provider, per il tempo desiderato, quantità e qualità. Esistono differenti tecnologie e approcci cloud impiegabili a tal proposito ma, tutti, introducono overhead di computazione. Quindi, ci si può chiedere se, e possibilmente quando, approcci specifici, ambienti e modelli mostrino migliori performance rispetto alle versioni sequenziali, in termini di tempo di esecuzione e uso di risorse. Questa tesi indaga se, e quando, i GAs possono scalare nel cloud utilizzando approcci specifici. Prima di tutto, Hadoop MapReduce è sfruttato per modellare e sviluppare un framework open source, i.e., elephant56, che riduce l’effort nello sviluppo e velocizza i GAs usando tre diversi modelli paralleli. Le performance del framework sono poi valutate attraverso uno studio empirico. Successivamente, i software container e le message queue sono impiegati per sviluppare, distribuire e eseguire PGAs e il sistema ideato valutato, attraverso uno studio empirico, su un cloud provider commerciale. Infine, le tecnologie cloud sono esplorate per la parallelizzazione di altri EAs, ideando e sviluppando cCube, un’architettura a microservizi collaborativa per risolvere problemi di machine learning. [a cura dell'autore]XV n.s

    Hyper-heuristics İn Dynamic Environments

    Get PDF
    Tez (Doktora) -- İstanbul Teknik Üniversitesi, Fen Bilimleri Enstitüsü, 2014Thesis (PhD) -- İstanbul Technical University, Institute of Science and Technology, 2014Son zamanlarda önerilen metotlar daha çok statik eniyileme problemleri için geliştirilmişlerdir. Fakat gerçek hayatta karşılaşılan eniyileme problemlerinin pek çoğu dinamik bir yapı göstermektedir. Dinamik bir ortamda, eniyileme yönteminin üzerinde çalışmaya başladığı ortamda zaman içinde değişimler olabilir. Ancak bu problemlerin çözümünde genelde bu dinamiklik göz ardı edilerek klasik eniyileme yaklaşımları uygulanmaktadır. Halbuki bu dinamikliği de göz önüne alarak çalışan bir eniyileme yaklaşımı, ortamdaki değişimleri hızlı bir şekilde izleyebilmeli ve bunlara uyum sağlayabilmek için adaptif olmalıdır. Eniyileme algoritması açısından bakıldığında problem ortamı, problemin tanımlı değerleri, eniyilemede kullanılan amaç fonksiyonları ve kısıtlardan oluşur. Ortamdaki dinamiklik, problem ortamını oluşturan bu parçalardan herhangi birisinde veya birkaçında meydana gelen tekil ya da eş zamanlı değişimlerden kaynaklanabilir. Farklı problemlerde bu değişimler de farklı özellikler göstermektedir. Bu özellikler  genelde  değişimlerin şiddetine, sıklığına, periyodik olup olmamasına göre sınıflandırılırlar. Ortamdaki dinamizmin özelliklerine göre farklı durumlarda farklı yaklaşımlar başarılı olmaktadır. Bu ise eniyileme yaklaşımını seçerken ortamdaki değişimlerin özelliklerinin bilinmesi anlamına gelir. Halbuki gerçek hayatta bu her zaman mümkün olmayabilir. Ayrıca ortamın gösterdiği değişimin özellikleri de zaman içinde değişebilir. Bu durumda başta seçilen yaklaşım, eniyilemenin ilerleyen aşamalarında başarılı olmayabilir.  Üst-sezgiseller problem uzayında problem ile etkileşim halinde olan ve aday çözümü güncelleyen alt seviyedeki sezgiseller aracılığı ile arama yapar. Alt seviyede kullanılan, probleme özel sezgiseller ise problemin çözüm uzayında arama yaparlar. Bu nedenle alt seviyedeki sezgiseller, üst-sezgiseller ile problemin çözüm uzayı arasında bir ara katman olarak düşünülebilir. Böylece problem uzayında aramayı alt sezgiseller yapmış olur. Bu özellik sayesinde bir üst-sezgisel, uygun alt sezgisellerin kullanılmasıyla, değiştirilmeden çeşitli problemlere uygulanabilir. Sezgisel seçen üst-sezgiseller konusunda yapılan araştırmaların temel hedefi, eniyilemenin genelleştirme seviyesini yükselterek pek çok farklı problem domeninde ve farklı özellikler gösteren ortamlarda uygulanabilir bir yaklaşım geliştirmektir. Bu nedenle üst-sezgiseller, doğaları gereği adaptif yapıdadırlar. Bu özellikleri sayesinde dinamik ortamlardaki değişimlere, herhangi bir dış müdahale gerektirmeden hızla uyum gösterip, etkin çözümler üretebilirler. Bu tezde öncelikle literatürde var olan üst-sezgisellerin dinamik ortamlar için uygunluğu üzerinde çalışılmıştır. Elde edilen bilgiler ışığında dinamik ortamlarda başarılı çözümler üretecek yeni üst-sezgisel yaklaşım geliştirilmiş ve başarımı ölçülmüştür. Tezin ilk aşamasında, otuz beş tek çözüm üreten sezgisel seçen üst-sezgisellerin başarımını, farklı değişim dinamikleri sergileyen sürekli dinamik eniyileme problemleri için değerlendirdik. Deneylerde üzerinde çalışmak için yapay oluşturulmuş test problemi (Moving Peaks Benchmark) kullanılmıştır. Ayrık eniyileme problemleri için sezgisel seçen üst-sezgisellerin birçok başarılı uygulamaları olmasına rağmen, bilgimiz dahilinde, bu çalışma reel değerli (sürekli) eniyileme problemleri için sezgisel seçen üst-sezgisellerin ilk uygulamalarından biridir. Bunun yanı sıra bu çalışma, bu teknikleri kullanarak dinamik eniyileme problemlerini ele alan çok az çalışma arasında yer almaktadır. Deneysel sonuçlar göstermiştir ki; uygun bileşenli öğrenme tabanlı üst-sezgiseller ortamdaki farklı tipteki değişimlere hızlı bir şekilde tepki gösterebilmekte ve onları takip edebilmektedir. Bu çalışma üst-sezgisellerin dinamik eniyileme problemlerini çözmek için uygun olduğunu göstermektedir.  İkinci aşamada, karınca kolonisi algoritmasından esinlenerek yeni öğrenme tabanlı üst-sezgisel yaklaşım, karınca tabanlı seçim, geliştirilmiştir. Önerilen üst-sezgisel düşük seviyeli bütün sezgisel çiftleri arasındaki feromon yoğunluklarının bir matrisini tutar. Her adımda bir sezgisel, önceden çağırılan sezgisel ile düşük seviyeli sezgisel kümesinden her bir eleman arasındaki feromon değerlerine göre seçilir. Bu çalışmada iyileştiren ve eşit hareket kabul yöntemi kullanılmıştır. Önerdiğimiz üst-sezgisel yönteminin başarımı yapay oluşturulmuş test problemi (Moving Peaks Benchmark) kullanılarak değerlendirilmiştir. Test sonuçlarına göre, önerilen yaklaşım daha önceden dinamik ortamlar için en iyi olarak belirlenen sezgisel seçme yöntemleri ile benzer sonuçlar vermiştir. Önerilen yaklaşım ortam değiştiğinde herhangi bir özel eyleme gerek duymamaktadır. Fakat hareket kabul yönteminin doğası gereği, her bir değişimden sonra üretilen ilk çözüm adayı niteliğine bakılmaksızın kabul edilmektedir. Bundan dolayı hareket kabul yöntemi ortamdaki değişikliği algılamak zorundadır. Bu çalışmada ortamdaki değişimleri algılamak için basit bir yöntem kullanılmıştır. Bu yöntemde şu anki çözümün başarım değeri her adımda tekrardan hesaplanmaktadır. Eğer şu anki çözümün başarım değerinde bir değişiklik varsa ortam değişmiş demektir. Sezgisel seçme yöntemi olarak seçin fonksiyonu, destekli öğrenme ve karınca tabanlı seçim kullanılmıştır. Test sonuçlarına göre yeniden değerlendirme yöntemi bütün yaklaşımların başarımını azaltmıştır.  Bu çalışmada ayrıca önerilen yaklaşımın kapsamlı bir analizi yapılmıştır. Bu amaçla önerilen yaklaşımın adaptasyon yeteneği ve algoritmaların parametrelerinin başarıma etkisi incelenmiştir. Deneysel sonuçlara göre, önerilen yaklaşım hızlı bir şekilde değişimlere uyum sağlayabilmektedir. Önerilen yaklaşım parametre atamalarından çok fazla etkilenmemekte ve geniş aralıklı parametre değerleri için benzer sonuçlar vermektedir.     Tezin son aşamasında, önerilen yaklaşımın başarımı üç farklı uygulamada değerlendirilmiştir. Öncelikle, sezgisel seçen üst-sezgiseller çok popülasyonlu hibrid bir çerçeve içinde kullanılmışlardır. Bu çerçeve çevrimiçi ve çevrimdışı öğrenme mekanizmalarına dayanan üst-sezgiseller ile dağılım tahmini algoritmasının hibridleştirilmesine olanak sağlamaktadır. İyi çözümler üretmek için olasılık vektörlerinin listesi ilk aşamada çevrimdışı olarak öğrenilir. İkinci aşamada iki ayrı popülasyon ve her popülasyonun kendi olasılık vektörleri vardır. Bir alt popülasyon dağılım tahmini algoritması kullanarak örneklendirilirken, diğer alt popülasyon çevrimiçi olarak uygun olasılık vektörünü çevrimiçi aşamada öğrenilen olasılık vektörleri listesinden örneklemek için üst-sezgiselleri kullanır. Önerilen hidrid yöntemin başarımı farklı sezgisel seçme yöntemleri kullanılarak denenmiştir ve Rastgele Permütasyon metodunun daha başarılı olduğu gözlemlenmiştir. Ayrıca bu hibrid yapı literatürde iyi bilinen benzer yaklaşımlarla  karşılaştırılmış ve bunlara göre daha iyi sonuç verdiği gözlemlenmiştir. Önerilen yöntem dinamik ortamlar için önerilmiştir. Bununla birlikte, yöntemin statik ortamlardaki başarımını gözlemlemek için, ikinci uygulama olarak, önerilen metot HyFlex arayüzü üzerinde uygulanmıştır. HyFlex'in Java uygulaması CHeSC2011 yarışmasında kullanılmıştır. Bu uygulama altı statik problem domeni sağlamaktadır. Önerilen yaklaşımın başarımı yarışmadaki katılımcılarla karşılaştırılmıştır. Son uygulama olarak önerilen yaklaşımın başarısı gerçek dünya problemi kullanılarak değerlendirilmiştir. Yapay oluşturulmuş test problemleri problem örneklerini yaratmak için kullanılan önemli araştırma araçları olup verilen domende bu örneklerin özelliklerini kontrol etmemizi sağlar. Bu problem örnekleri farklı algoritmaların başarımını karşılaştırmak için çoğunlukla kullanılmaktadırlar. Öte yandan, gerçek dünya problemleri yapay olarak oluşturulan örneklerden farklı olabilir. Yapay örnekleri kullanarak yapılan algoritmaların test edilmesi verilen algoritmanın gerçek dünya problemi üzerindeki asıl performansını  yansıtmayabilir. Dolayısıyla, bu çalışmada, Dinamik Gezgin Satıcı Problemi olarak bilinen gerçek dünya problemi ele alınmış ve  önerilen yaklaşımın başarımı değerlendirilmiştir. Dinamik Gezgin Satıcı Problemi örneklerini oluşturmak için literatürde çokça kullanılan Gezgin Satıcı Problemi' nin örneklerine trafik faktörü eklenmiştir. Genel olarak, test edilen problemler üzerinde önerilen metodun iyi sonuç verdiği gözlemlenmiştir. En son yapılan testler üst-sezgisellerin genel bir yapı olduğunu vurgulamıştır. Üst-sezgiseller hiçbir değişikliğe ya da parametre ayarlarına gerek duymadan bu çalışmada kullanılan tüm eniyileme problemlerine uygulanmıştır.Current state-of-the-art methodologies are mostly developed for stationary optimization problems. However, many real world problems are dynamic in nature. To handle the complexity of dealing with the changes in the environment, an optimization algorithm needs to be adaptive and hence capable of following the change dynamics. From the point of view of an optimization algorithm, the problem environment consists of the instance, the objectives and the constraints. The dynamism may arise due to a change in any of the components of the problem environment. Existing search methodologies have been modified suitably with respect to the change properties, in order to tackle dynamic environment problems. Population based approaches, such as evolutionary algorithms are frequently used for solving dynamic environment problem.  Hyper-heuristics are high-level methodologies that perform search over the space of heuristics rather than solutions for solving computationally difficult problems. They operate at a higher level, communicating with the problem domain through a domain barrier. Any type of problem specific information is filtered through the domain barrier. Due to this feature, a hyper-heuristic can be directly employed in various problem domains without requiring any change, of course, through the use of appropriate domain specific low-level heuristics.  Selection hyper-heuristics are highly adaptive search methodologies that aim to raise the level of generality by providing solutions to a diverse set of problems having different characteristics. In this thesis, we investigate single point search based selection hyper-heuristics in dynamic environments. We first work on the applicability of selection hyper-heuristics proposed in literature for dynamic environments. Then, we propose a novel learning hyper-heuristic for dynamic environments and investigate the performance of the proposed hyper-heuristic and its variants.  In the first phase, the performances of thirty-five single point search based selection hyper-heuristics are investigated on continuous dynamic environments exhibiting various change dynamics, produced by the Moving Peaks Benchmark generator. Even though there are many successful applications of selection hyper-heuristics to discrete optimization problems, to the best of our knowledge, this study is one of the initial applications of selection hyper-heuristics to real-valued optimization as well as being among the very few which address dynamic optimization issues using these techniques. The empirical results indicate that learning selection hyper-heuristics which incorporate compatible components can react to different types of changes in the environment and are capable of tracking them. This study shows the suitability of selection hyper-heuristics as solvers in dynamic environments.  In the second phase, we propose a new learning hyper-heuristic, called the {\em Ant-based Selection} ({\em AbS}), for dynamic environments which is inspired from the ant colony optimization algorithm components. The proposed hyper-heuristic maintains a matrix of pheromone intensities (utility values) between all pairs of low-level heuristics. A heuristic is selected based on the utility values between the previously invoked heuristic and each heuristic from the set of low-level heuristics. For this study, we employ the generic Improving and Equal acceptance scheme. We explore the performance of the proposed hyper-heuristic and its variants using Moving Peaks Benchmark (MPB) generator. The empirical results indicate that the proposed heuristic selection scheme provides slightly better performance than the heuristic selection scheme that was previously reported to be the best in dynamic environments.   The proposed approach does not require any special actions whenever a change occurs in the environment. However, the first candidate solution generated after each change is accepted regardless of its quality. Therefore, the move acceptance needs to detect the change. In this study, we use a simple detection mechanism in which the current solution is re-evaluated at each step. If there is a change in the fitness of the current solution, a change is considered to be detected. We consider {\em Ant-based selection}, Choice Function and Reinforcement Learning as the heuristic selection methods. The results show that the re-evaluation process slightly deteriorates the performance of approaches for especially high frequency changes, however, the approach is suitable for cases where changes cannot be made known to the optimization algorithm. We then investigate the effect of the parameters of the proposed algorithm on overall performance. The results show that the settings of the parameters are not very sensitive  and similar results are obtained for a wide range of parameter values. In the third phase, we explore the performance of the proposed hyper-heuristic through three different applications. As the first application, the selection hyper-heuristics are used in a hybrid multi-population framework. We use a hybridization of the Estimation of Distribution Algorithm (EDA) with hyper-heuristics in the form of a two-phase framework. We investigate the influence of different heuristic selection methods. The empirical results show that a heuristic selection method that relies on a fixed permutation of the underlying low-level heuristics is more successful than the learning approaches across different dynamic environments produced by a well-known benchmark generator. The proposed approach also outperforms some of the top approaches in literature for dynamic environment problems. Ant-based selection is proposed for dynamic environments. However, to see its performance in a stationary environment, Ant-based Selection is applied to six stationary optimization problems provided in HyFlex as the  second application. The results are compared with the results of participants in CHeSC2011 competition. Finally, we present the performance of Ant-based Selection on a real-world optimization problem referred to as the Dynamic Traveling Salesman Problem. The overall results show that the proposed approach delivers good performance on the tested optimization problems. These last set of experiments also emphasize the general nature of hyper-heuristics. For all optimization problems in this study, all hyper-heuristics are applied without requiring any modifications or parameter tuning.DoktoraPh

    Dynamic analysis and energy management strategies of micro gas turbine systems integrated with mechanical, electrochemical and thermal energy storage devices

    Get PDF
    The growing concern related to the rise of greenhouse gases in the atmosphere has led to an increase of share of renewable energy sources. Due to their unpredictability and intermittency, new flexible and efficient power systems need to be developed to compensate for this fluctuating power production. In this context, micro gas turbines have high potential for small-scale combined heat and power (CHP) applications considering their fuel flexibility, quick load changes, low maintenance, low vibrations, and high overall efficiency. Furthermore, the combination of micro gas turbines with energy storage systems can further increase the overall system flexibility and the response to rapid load changes. This thesis aims to analyse the integration of micro gas turbines with the following energy storage systems: compressed air energy storage (CAES), chemical energy storage (using hydrogen and ammonia), battery storage, and thermal energy storage. In particular, micro gas turbines integrated with CAES systems and alternative fuels operate in different working conditions compared to their standard conditions. Applications requiring increased mass flow rate at the expander, such as CAES and the use of fuels with low LHV, such as ammonia, can potentially reduce the compressor surge margin. Conversely, sudden composition changes of high LHV fuels, such as hydrogen, can cause temperature peaks, detrimental for the turbine and recuperator life. A validated model of a T100 micro gas turbine is used to analyse transitions between different conditions, identify operational limits and test the control system. Starting from the dynamic constraints defined in the related chapters, in the final part, an optimisation tool for energy management is developed to couple the micro gas turbine with energy storage systems, maximizing the plant profitability and satisfying the local electrical and thermal demands. For the modelling of the CAES system and alternative fuels, the operating constraints obtained from the initial analyses are implemented in the optimisation tool. In addition, a battery and thermal energy storage system are also considered. In the first part, a comprehensive analysis of the T100 combined with a second-generation CAES system showed enhanced efficiency, reduced fuel consumption, reduced thermal power output and increased maximum electrical power output due to the reduction of the rotational speed. The study identified optimal air injection constraints, demonstrating a +3.23% efficiency increase at 80 kW net power with a maximum mass flow rate of 50 g/s. The dynamic analysis exposed potential instabilities issues during air step injections, mitigated by using ramps at a rate of +0.5 (g/s)/s for safe and rapid dynamic mode operation. The second part explored the effects of varying H2-NG and NH3-NG blends on the T100 mGT. Steady-state results showed increased power output with hydrogen or ammonia, notably +6.1 kW for 100% H2 and up to +11.3 kW for 100% NH3. Transient power steps simulations showed surge margin reductions, especially at lower power levels with high concentrations of ammonia, highlighting the need for controlled transitions. Controlled ramps were effective in preventing extreme temperature peaks during fuel composition changes. The final chapter focused on developing an energy scheduler for different plant setups, evaluating four configurations. For a typical day of the month of April of the Savona Campus, the integration of the CAES lead to relative savings of +8.1% and power-to-H2 of +5.3% when surplus electricity was not sold to the grid. Conversely, with the ability to sell excess electricity, CAES and battery energy storage (BES) systems exhibit modest savings of +1.2% and +2.4%, respectively, while the power-to-H2 system failed to provide economic advantages

    Approaches to shipboard power generation systems design and management. Probabilistic approach to load prediction and system optimal design, sizing and management

    Get PDF
    This doctoral thesis presents new ideas and formulations on shipboard power system sizing and management. The main motivation behind this work is to fill, at least in part, the current technological and mythological gap between land and marine applications, concerning the sizing and management of power systems. This gap is the result of several changes regarding both the electric and marine applications. Two of these are, for example, the recent increase of electric power installed on board modern vessels and recent development of technologies for land microgrids. In this context, it should be noted that, also the modern ships are comparable to land microgrids, where the generation and loads are close in space and the on board power system may work either islanded or connected to the land grid. Nowadays, microgrids are a hot topic in electric engineering, with a constant development of novel approaches for both their sizing and management. On the other hand, considering the increase in the power installed on board ships, the traditional methods developed in the last century to size and manage these systems have shown increasing limitations and inaccuracies. This results in oversized power generation systems, low performances and high level of air and sea pollution due to ships activities. To overcome these problems and criticalities, this work presents a probabilistic approach to load prediction, which may increase the flexibility of the power system design and allow a significant reduction in the total power installed. Moreover, the traditional method to size the diesel generators, based on satisfying the maximum load, it is revised with the formulation of an optimal problem, which can consider as input either the results of the traditional method to load prediction or those obtained applying the probabilistic one. Finally, due to the recent introduction in land microgrids of energy storage system, which may cover the power fluctuations due to renewable resources, allow a better management of energy and increase the quality of service, an optimum method is developed and described in order to select, size and manage these systems on board ships

    Performance control of internet-based engineering applications.

    Get PDF
    2006/2007Grazie alle tecnologie capaci di semplificare l'integrazione tra programmi remoti ospitati da differenti organizzazioni, le comunità scientifica ed ingegneristica stanno adottando architetture orientate ai servizi per: aggregare, condividere e distribuire le loro risorse di calcolo, per gestire grandi quantità di dati e per eseguire simulazioni attraverso Internet. I Web Service, per esempio, permettono ad un'organizzazione di esporre, in Internet, le funzionalità dei loro sistemi e di renderle scopribili ed accessibili in un modo controllato. Questo progresso tecnologico può permettere nuove applicazioni anche nell'area dell'ottimizzazione di progetti. Gli attuali sistemi di ottimizzazione di progetti sono di solito confinati all'interno di una singola organizzazione o dipartimento. D'altra parte, i moderni prodotti manifatturieri sono l'assemblaggio di componenti provenienti da diverse organizzazioni. Componendo i servizi delle organizzazioni coinvolte, si può creare un workflow che descrive il modello del prodotto composto. Questo servizio composto puo a sua volta essere usato da un sistema di ottimizzazione inter-organizzazione. I compromessi progettuali che sono implicitamente incorporati per architetture locali, devono essere riconsiderati quando questi sistemi sono messi in opera su scala globale in Internet. Ad esempio: i) la qualità delle connessioni tra i nodi può variare in modo impredicibile; ii) i nodi di terze parti mantengono il pieno controllo delle loro risorse, incluso, per esempio, il diritto di diminuire le risorse in modo temporaneo ed impredicibile. Dal punto di vista del sistema come un'entità unica, si vorrebbero massimizzare le prestazioni, cioè, per esempio, il throughput inteso come numero di progetti candidati valutati per unità di tempo. Dal punto di vista delle organizzazioni partecipanti al workflow si vorrebbe, invece, minimizzare il costo associato ad ogni valutazione. Questo costo può essere un ostacolo all'adozione del paradigma distribuito, perché le organizzazioni partecipanti condividono le loro risorse (cioè CPU, connessioni, larghezza di banda e licenze software) con altre organizzazioni potenzialmente sconosciute. Minimizzare questo costo, mentre si mantengono le prestazioni fornite ai clienti ad un livello accettabile, può essere un potente fattore per incoraggiare le organizzazioni a condividere effettvivamente le proprie risorse. Lo scheduling di istanze di workflows, ovvero stabilire quando e dove eseguire un certo workflow, in un tale ambiente multi-organizzazione, multi-livello e geograficamente disperso, ha un forte impatto sulle prestazioni. Questo lavoro investiga alcuni dei problemi essenziali di prestazioni e di costo legati a questo nuovo scenario. Per risolvere i problemi inviduati, si propone un sistema di controllo dell'accesso adattativo davanti al workflow engine che limita il numero di esecuzioni concorrenti. Questa proposta può essere implementata in modo molto semplice: tratta i servizi come black-box e non richiede alcuna interazione da parte delle organizzazioni partecipanti. La tecnica è stata valutata in un ampio spettro di scenari, attraverso simulazione ad eventi discreti. I risultati sperimentali suggeriscono che questa tecnica può fornire dei significativi benefici garantendo alti livelli di throughput e bassi costi.Thanks to technologies able to simplifying the integration among remote programs hosted by different organizations, engineering and scientific communities are embodying service oriented architectures to aggregate, share and distribute their computing resources to process and manage large data sets, and to execute simulations through Internet. Web Service, for example, allow an organization to expose the functionality of its internal systems on the Internet and to make it discoverable and accessible in a controlled manner. Such a technological advance may enable novel applications also in the area of design optimization. Current design optimization systems are usually confined within the boundary of a single organization or department. Modern engineering products, on the other hand, are assembled out of components developed by several organizations. Composing services from the involved organizations, a model of the composite product can be described by an appropriate workflow. Such composite service can then be used by a inter-organizational design optimization system. The design trade-offs that have been implicitly incorporated within local environments, may have to be reconsidered when deploying these systems on a global scale on the Internet. For example: i) node-to-node links may vary their service quality in an unpredictable manner; ii) third party nodes retains full control over their resources including, e.g., the right to decrease the resource amount temporarily and unpredictably. From the point of view of the system as a whole, one would like to maximize the performance, i.e. throughput the number of candidate design evaluations performed per unit of time. From the point of view of a participant organization, however, one would like to minimize the cost associated with each evaluation. This cost can be an obstacle to the adoption of this distributed paradigm, because organizations participating in the composite service share they resources (e.g. CPU, link bandwidth and software licenses) with other, potentially unknown, organizations. Minimizing such cost while keeping performance delivered to clients at an acceptable level can be a powerful factor for encouraging organizations to indeed share their services. The scheduling of workflow instances in such a multi-organization, multi-tiered and geographically dispersed environment have strong impacts on performance. This work investigates some of the fundamental performance and cost related issues involved in such a novel scenario. We propose an adaptive admission control to be deployed at the workflow engine level that limits the number of concurrent jobs. Our proposal can be implemented very simply: it handles the service as black-boxes, and it does not require any hook from the participating organizations. We evaluated our technique in a broad range of scenarios, by means of discrete event simulation. Experimental results suggest that it can provide significant benefits guaranteeing high level of throughput and low costs.XX Ciclo197
    corecore