78 research outputs found

    A New Model for The Multi-Objective Multiple Allocation Hub Network Design and Routing Problem

    Get PDF
    In this paper, we propose a new model for the multi-objective multiple allocation hub network design and routing problem which contains determining the location of hubs, the design of hub network, and the routing of commodities between source-destination pairs in the given network. The selected hubs are not assumed to be fully connected, and each node and arc in the network has capacity constraints. The multiple objectives of the problem are the minimization of total xed and transportation costs and the minimization of the maximum travel time required for routing. We propose a mathematical formulation for the multiobjective problem and present a meta-heuristic solution based on a well-known multi-objective evolutionary algorithm. Using the proposed formulation, we are able to nd the optimal solution for small networks of ve nodes and seven nodes. To evaluate the performance of our heuristic approach on real data, the computational experiments are conducted on Turkish postal system data set. The results demonstrate that our heuristic approach can nd feasible solutions to the problem in reasonable execution time, which is less than 10 min

    Experimental Evaluation of Meta-Heuristics for Multi-Objective Capacitated Multiple Allocation Hub Location Problem

    Get PDF
    Multi-objective capacitated multiple allocation hub location problem (MOCMAHLP) is a variation of classic hub location problem, which deals with network design, considering both the number and the location of the hubs and the connections between hubs and spokes, as well as routing of flow on the network. In this study, we offer two meta-heuristic approaches based on the non-dominated sorting genetic algorithm (NSGA-II) and archived multi-objective simulated annealing method (AMOSA) to solve MOCMAHLP. We attuned AMOSA based approach to obtain feasible solutions for the problem and developed five different neighborhood operators in this approach. Moreover, for NSGA-II based approach, we developed two novel problem-specific mutation operators. To statistically analyze the behavior of both algorithms, we conducted experiments on two well-known data sets, namely Turkish and Australian Post (AP). Hypervolume indicator is used as the performance metric to measure the effectiveness of both approaches on the given data sets. In the experimental study, thorough tests are conducted to fine-tune the proposed mutation types for NSGA-II and proposed neighborhood operators for AMOSA. Fine-tuning tests reveal that for NSGA-II, mutation probability does not have a real effect on Turkish data set, whereas lower mutation probabilities are slightly better for AP data set. Moreover, among the AMOSA based neighborhood operators, the one which adds/removes a specific number of links according to temperature (NS-5) performs better than the others for both data sets. After analyzing different operators for both algorithms, a comparison between our NSGA-II based and AMOSA based approaches is performed with the best settings. As a result, we conclude that both of our algorithms are able to find feasible solutions of the problem. Moreover, NSGA-II performs better for larger, whereas AMOSA performs better for smaller size networks

    Survivable virtual topology design in optical WDM networks using nature-inspired algorithms

    Get PDF
    Tez (Doktora) -- İstanbul Teknik Üniversitesi, Bilişim Enstitüsü, 2012Thesis (PhD) -- İstanbul Technical University, Institute of Informatics, 2012Günümüzde bilgisayar ağları hayatımızın önemli bir parçası ve ihtiyaç haline gelmiştir. İstediğimiz veriye, istediğimiz anda, daha hızlı, daha güvenli ve kesintisiz olarak erişme isteğimiz aslında ağ altyapısının nasıl tasarlanacağını belirlemektedir. Kullanıcıların istekleri sürekli artarken, teknolojik gelişmelerle birlikte yeni yöntem ve algoritmalarla bu istekleri karşılamanın yolları aranmaktadır. Ağdaki aktarım hızı, aktarım ortamından doğrudan etkilenmektedir; bugün uzak mesafelere en yüksek kapasiteli ve hızlı aktarımın yapılabileceği ortam ise fiberdir. Fiber optik ağlar, fiberin üstün özelliklerini (hız, düşük bit hata oranı, elektromanyetik ortamlardan etkilenmeme, düşük işaret zayıflaması, fiziksel dayanıklılık, ucuzluk, güvenlilik, vs.) en iyi kullanacak şekilde tasarlanan ağlardır. Günümüzde dünyadaki iletişim ağ altyapısı, omurga ağlardan erişim ağlarına kadar, hızla fiber optik ağlara dönüşmektedir. Optik ağların en önemli özelliklerinden biri veri aktarım hızıdır, tek bir fiberden teorik olarak 50 Tb/s veri aktarımı yapılabileceği hesaplanmaktadır. Bugün, lider iletişim firmaları 100 Gb/s ya da 1 Tb/s hızda veri aktarımı yapacak kanalllardan bahsedebiliyorsa, bu, fiziksel altyapı optik bir omurgadan oluştuğu içindir. Dalgaboyu bölmeli çoğullama (WDM) teknolojisi sayesinde bir fiber üzerinde aynı anda kurulabilecek kanal sayısı, günümüz teknolojisiyle yüzler mertebesine çıkabilmektedir. Dalgaboyu bölmeli çoğullama teknolojisi ile, optik aktarım birbiriyle çakışmayan dalgaboyu bantlarına bölünür ve her bir dalgaboyu istenen hızda çalışan, ışıkyolu olarak adlandırılan, bir iletişim kanalını destekler. Böylece, yakın gelecek için öngörülen çok yüksek hızlara çıkmadan bile, bir fiberden herbiri birkaç on Gb/s hızda çalışan yüz dolayında ışıkyolu geçebilmektedir. Bu kadar yüksek hızlarda veri aktarımı, özellikle her bir fiberinde çok sayıda kanalın taşındığı omurga ağlarda bir konuya büyük önem kazandırmaktadır: Hataya bağışıklık. En sık rastlanan hata olan, bir fiberin, herhangi bir nedenle kesilmesi (çoğunlukla inşaat makineleri tarafından, ya da doğal afetlerce), fiber tamir edilene kadar, her saniyede birkaç terabitlik veri kaybı anlamına gelecektir. Örnek olarak 10 km uzunlukta bir fiberin kopma sıklığı 11 yılda birdir. Omurga ağlarda yüzlerce, bazen binlerce, kilometrelik fiberler döşendiği gözönüne alındığında, böyle bir hata durumu için tedbir alınmaması düşünülemez. Optik ağ üzerindeki herhangi bir fibere zarar gelmesi demek bu fiber üzerinden yönlendirilmiş olan tüm ışıkyollarının kopması demektir. Her bir ışıkyolu üzerinden yüksek miktarda (40 Gb/s) veri aktarımı yapıldığından, böyle bir zarar ciddi veri kayıplarına neden olabilir. Temel olarak fiber kopmasına karşı geliştirilen iki yaklaşım vardır. Birinci yaklaşımda fiber üzerinden geçen her bir bağlantının, yani ışıkyolunun, yedek yollarla korunmasıdır. İkinci yaklaşım ise, özellikle birçok internet uygulamasına da uygun ve yeterli olacak şekilde, ışıkyollarının oluşturduğu sanal topolojinin bağlı kalmasının sağlanmasıdır. Bu ikinci yaklaşımda herbir ışıkyoluna ayrı ayrı yedek koruma yollarının atanması yerine, sanal topolojinin korunması dikkate alınarak, üst katmanların (paket katmanları) koruma mekanizmalarının devreye girebilmesi için gereken minimum koşulların sağlanması amaçlanmaktadır. Birinci yaklaşım belirli düzeylerde garantili bir koruma sağlarken yüksek miktarda ağ kaynağının atıl durmasına neden olmakta, dolayısıyla bu kadar üst düzey koruma gerektirmeyen uygulamalar için pahalı bir çözüm sunmaktadır. Son yıllarda özellikle dikkat çeken ikinci yaklaşım ise, daha ekonomik bir yöntemle iletişimin kopmaması garantisini vermekte, ancak daha yavaş bir düzeltme sağlamaktadır. Günümüzde birçok uygulama bağlantı kopmadığı sürece paket katmanının, yeni yol bulma gibi hata düzeltme mekanizmalarının devreye girmesi için gerekli olan, dakikalar mertebesindeki gecikmelere toleranslıdır (web dolaşımı, dosya aktarımı, mesajlaşma, uzaktan erişim gibi). Bu yaklaşım ilkine göre daha az ağ kaynağının atıl kalmasına neden olarak kullanıcıya daha ekonomik hizmet verilmesini sağlayacaktır. Bu çalışmada üzerinde durduğumuz hataya bağışık sanal topoloji tasarımı problemi de bu ikinci yaklaşımı benimsemektedir. Hataya bağışık sanal topoloji tasarımı problemi kendi içinde dört alt probleme ayrılmaktadır: ışıkyollarının belirlenmesi (sanal topolojiyi oluşturma), bu ışıkyollarının herhangi bir fiber kopması durumunda bile sanal topolojinin bağlı kalmasını sağlayacak sekilde fiziksel topoloji üzerinde yönlendirilmesi, dalgaboyu atanması, ve paket trafiğinin yönlendirilmesi. Bu alt problemler ayrı ayrı çözülebilir. Ancak, bunlar bağımsız problemler değildir ve bunları tek tek çözmek elde edilen çözümün kalitesinin çok düşük olmasına neden olabilir. Bununla birlikte, hataya bağışık sanal topoloji tasarımı problemi NP-karmaşıktır. Karmaşıklığı nedeniyle bu problemin, gerçek boyutlu ağlar için, klasik optimizasyon teknikleriyle kabul edilebilir zamanda çözülmesi mümkün değildir. Bu çalışmada, fiziksel topolojinin ve düğümler arası paket trafiği yoğunluğunun bilindiği durumlar için, hataya bağışık sanal topoloji tasarımı problemi bütün halinde ele alınmaktadır. Tezin ilk aşamasında, hataya bağışık sanal topoloji tasarımı probleminin alt problemi olan hataya bağışık sanal topoloji yönlendirmesi problemi ele alınmıştır. Verilen bir sanal topoloji için en az kaynak kullanarak hataya bağışık yönlendirme yapmak için iki farklı doğa-esinli algoritma önerilmektedir: evrimsel algoritmalar ve karınca kolonisi optimizasyonu. Öncelikle önerilen algoritmaların problem için uygun parametre kümesi belirlenmiş, daha sonra, algoritmaların başarımını ölçmek için, deneysel sonuçlar tamsayı doğrusal programlama (ILP) ile elde edilen sonuçlarla karşılaştırılmışır. Sonuçlar göstermektedir ki; önerdiğimiz iki algoritma da, tamsayı doğrusal programlama ile uygun bir çözüm bulunamayan büyük ölçekli ağlar için dahi, problemi çözebilmektedir. Bunun yanında, doğa-esinli algoritmalar çok daha az CPU zamanı ve hafıza kullanmaktadır. Elde edilen çözüm kalitesi ve çözüm için kullanılan CPU zamanının kabul edilebilir düzeyde olması, her iki doğa-esinli algoritmanın da gerçek boyutlu ağlar için kullanılabileceğini doğrulamaktadır. İkinci aşamada, hataya bağışık sanal topoloji tasarımı problemini bir bütün halinde çözmek için dört farklı üst-sezgisel yöntem önerilmektedir. Önerilen üst-sezgisel yöntemler alt seviyedeki sezgiselleri seçme asamasında dört farklı yöntem kullanmaktadır: evrimsel algoritmalar, benzetimli tavlama, karınca kolonisi optimizasyonu ve uyarlamalı yinelenen yapıcı arama. Deneysel sonuçlar tüm üst-sezgisel yöntemlerin hataya bağışık sanal topoloji tasarımı problemini çözmede başarılı olduğunu göstermektedir. Ancak, karınca kolonisi optimizasyonu tabanlı üst-sezgisel diğerlerine göre daha üstün sonuçlar vermektedir. Işıkyolları üzerindeki trafik akışını dengelemek için, karınca kolonisi optimizasyonu tabanlı üst-sezgisele akış deviasyonu yöntemi de eklenmiştir. Literatürde hataya bağışık sanal topoloji tasarımı problemini ele alan tüm çalışmalar çift fiber kopması durumunu gözardı etmektedir. Bu çalışmada, önerdiğimiz üst-sezgisel yöntemin başarımını hem tek hem de çift fiber kopması durumları için değerlendirdik. Önerdiğimiz yöntem çoklu fiber kopması durumları için çok kolay şekilde adapte edilebilmektedir. Tek yapılması gereken hataya bağışıklık kontrolünü yapan yordamın değiştirilmesidir. Deneysel sonuçlar göstermiştir ki, önerdiğimiz karınca kolonisi optimizasyonu tabanlı üst-sezgisel hataya bağışık sanal topoloji tasarımı problemini hem tek hem de çift fiber kopması durumları için kabul edilebilir bir sürede çözebilmektedir. Üst-sezgisel yöntemlerin hataya bağışık sanal topoloji tasarımı çözmedeki başarımını değerlendirebilmek amacıyla, karınca kolonisi optimizasyonu tabanlı üst-sezgiselle elde edilen sonuçlar, literatürde bu problem için önerilmiş başka bir yöntemle karşılaştırılmıştır. Sonuçlar üst-sezgisel yöntemlerin, çok daha az CPU zamanı kullanarak, problem için daha kaliteli çözümler verdiğini göstermektedir.Today, computer networking has become an integral part of our daily life. The steady increase in user demands of high speed and high bandwidth networks causes researchers to seek out new methods and algorithms to meet these demands. The transmission speed in the network is directly affected by the transmission medium. The most effective medium to transmit data is the fiber. Optical networks are designed for the best usage of the superior properties of the fiber, e.g. high speed, high bandwidth, low bit error rate, low attenuation, physical strength, cheapness, etc. The world's communication network infrastructure, from backbone networks to access networks, is consistently turning into optical networks. One of the most important properties of the optical networks is the data transmission rate (up to 50 Tb/s on a single fiber). Today, with the help of the wavelength division multiplexing (WDM) technology, hundreds of channels can be built on a single fiber. WDM is a technology in which the optical transmission is split into a number of non-overlapping wavelength bands, with each wavelength supporting a single communication channel operating at the desired rate. Since multiple WDM channels, also called lightpaths, can coexist on a single fiber, the huge fiber bandwidth can be utilized. Any damage to a physical link (fiber) on the network causes all the lightpaths routed through this link to be broken. Since huge data transmission (40 Gb/s) over each of these lightpaths is possible, such a damage results in a serious amount of data loss. Two different approaches can be used in order to avoid this situation: 1. Survivability on the physical layer, 2. Survivability on the virtual layer. The first approach is the problem of designing a backup link/path for each link/path of the optical layer. The second approach is the problem of designing the optical layer such that the optical layer remains connected in the event of a single or multiple link failure. While the first approach provides faster protection for time-critical applications (such as, IP phone, telemedicine) by reserving more resources, the second approach, i.e. the survivable virtual topology design, which has attracted a lot of attention in recent years, aims to protect connections using less resources. The problem that will be studied in this project is to develop methods for survivable virtual topology design, that enables effective usage of the resources. Survivable virtual topology design consists of four subproblems: determining a set of lightpaths (forming the virtual topology), routing these lightpaths on the physical topology (routing and wavelength assignment (RWA) problem), so that any single fiber cut does not disconnect the virtual topology (survivable virtual topology mapping), assigning wavelengths, and routing the packet traffic. Each of these subproblems can be solved separately. However, they are not independent problems and solving them one by one may degrade the quality of the final result considerably. Furthermore, the survivable virtual topology design is known to be NP-complete. Because of its complexity, it is not possible to solve the problem optimally in an acceptable amount of time using classical optimization techniques, for real-life sized networks. In this thesis, we solve the survivable virtual topology design problem as a whole, where the physical topology and the packet traffic intensities between nodes are given. In the first phase, we propose two different nature inspired heuristics to find a survivable mapping of a given virtual topology with minimum resource usage. Evolutionary algorithms and ant colony optimization algorithms are applied to the problem. To assess the performance of the proposed algorithms, we compare the experimental results with those obtained through integer linear programming. The results show that both of our algorithms can solve the problem even for large-scale network topologies for which a feasible solution cannot be found using integer linear programming. Moreover, the CPU time and the memory used by the nature inspired heuristics is much lower. In the second phase, we propose four different hyper-heuristic approaches to solve the survivable virtual topology design problem as a whole. Each hyper-heuristic approach is based on a different category of nature inspired heuristics: evolutionary algorithms, ant colony optimization, simulated annealing, and adaptive iterated constructive search. Experimental results show that, all proposed hyper-heuristic approaches are successful in designing survivable virtual topologies. Furthermore, the ant colony optimization based hyper-heuristic outperforms the others. To balance the traffic flow over lightpaths, we adapt a flow-deviation method to the ant colony optimization based hyper-heuristic approach. We explore the performance of our hyper-heuristic approach for both single and double-link failures. The proposed approach can be applied to the multiple-link failure problem instances by only changing the survivability control routine. The experimental results show that our approach can solve the problem for both single-link and double-link failures in a reasonable amount of time. To evaluate the quality of the HH approach solutions, we compare these results with the results obtained using tabu search approach. The results show that HH approach outperforms tabu search approach both in solution quality and CPU time.DoktoraPh

    Pulmonary microlithiasis: A case of forensic autopsy and a brief literature review

    Get PDF
    Background: Pulmonary alveolar microlithiasis (PAM) is a rare autosomal recessive disease with a high penetrance characterized by widespread intra-alveolar accumulation of countless minute calculi called microliths. Patients with PAM may be asymptomatic, and the diagnosis is often an accidental finding during medical imaging performed for other diseases. Otherwise, it can develop into pulmonary fibrosis. In both cases, the disease can lead to respiratory and pulmonary heart failure which, though occurring rarely, may have a fatal outcome. Case presentation: We report the case of a 40-year-old male found dead in the bathroom. In the absence of trauma or other signs of injuries and in absence of a history of previous diseases, forensic autopsy was required to identify the time, cause and means of death. Our final diagnosis was death by right ventricular hypertrophy with initial signs of acute ischemia in a patient with PAM. Conclusions: This case provides insights into a pathology which is not frequent and can lead to death, besides illustrating the importance of histology in solving cases that come within a forensic setting. Therefore histology is fundamental to diagnose the cause of death, supplemented by knowledge of physiology and pathology in the cardiovascular and respiratory. Keywords: PAM, Alveolar microlithiasis, Forensic autopsy, Pulmonary hypertensio

    A Case of Pulmonary Alveolar Microlithiasis

    Get PDF
    Pulmonary alveolar microlithiasis (PAM) is a rare disease with unknown etiology and pathogenesis. It is characterized by diffuse, innumerable, and minute calculi, called microlithiasis in the alveoli. More than half of reported cases are asymptomatic at the time of diagnosis. We describe the first case of PAM in Korea. A 19-yr-old man without respiratory symptoms presented with interstitial thickening on the chest radiograph. His chest high resolution CT scan showed diffusely scattered, ill defined tiny micronodules and interstitial thickening. Open lung biopsy confirmed the diagnosis of PAM. He was followed up for 6 months without treatment, and no progression was noticed

    akcorut/kGWASflow: v1.2.4

    No full text
    1.2.4 (2023-09-19) Features add user defined manhattan plot parameters (b71f0fb) Bug Fixes fixed qmplot link for the report (0dec539) fixed typo in rule bowtie2_build (#19) (9ef6faf) Performance Improvements changed snakemake to snakemake-minimal (8f85998

    Kardiak resenkronizasyon tedavisi uygulanan hastaların pil optimizasyonunda invaziv yöntem ve ekokardiyografik yöntemin karşılaştırılması

    No full text
    Kardiyak resenkronizasyon tedavisi (KRT), kalp yetersizliği (KY) tedavisi için yeni bir tedavi yöntemidir. KRT’ ye yeterli yanıt alınamayan olgularda kalp pili optimizasyonu olumlu etkiler sağlamaktadır. Bu çalışmada KRT sonrası invazif olarak ve ekokardiyografi ile yapılan optimizasyonun, hemodinami ve hacim cevabı üzerindeki akut ve orta vadedeki etkilerinin karşılaştırılması hedeflenmiştir. Atriyoventriküler (AV) ve ventriküloventriküler (VV) gecikmenin programlamasında invazif yöntem ve ekokardiyografiyi karşılşatıran bu prospektif, klinik çalışmada olgular ekokardiyografi grubu (s=20) ve invazif grup (s=20) olarak ayrılmıştır. Başlangıçta tüm olgularda, her iki metotla, AV gecikme için 60’ tan 160 msn’ ye, VV gecikme için ise -60’ dan, +60 msn’ ye kadar tüm aralıklar test edilmiş ve sonrasında olguların yarısı invazif grup, yarısı ekokardiyografi grubu olarak randomize edilmiştir. Optimal AV ve VV gecikmeler, ekokardiyografi ile en iyi sol ventriküler çıkım yolu hız zaman integralini (SlVÇY-HZİ) ve en uygun diyastolik doluş zamanını (DDZ), invazif yöntemle ise en yüksek sol ventrikül dP/dtmax’ını sağlayan değerler olarak tanımlanmıştır. Altı ay sonunda, sistol sonu hacminde ≥%15 azalma, ve ejeksiyon fraksiyonunda (EF) >%5 mutlak artış anlamlı hacim cevabı, New York Kalp Birliği (NYHA) sınıfında ≥1 artış ise klinik cevap olarak değerlendirilmiştir. Optimal AV gecikmeler, %57.5 olguda, en fazla ±10ms farkla, optimal VV gecikmeler ise %65 olguda, en fazla ±20ms farkla uyumlu olarak saptanmıştır. Ekokardiyografi ile (DDZ:360±123 msn’ den, 467±137 msn’ ye; p<0.001, SlVÇY-HZİ: 13.5±4 cm’ den, 16±4.4 cm’ ye; p<0.001) ve invazif yöntemle (SlV dP/dtmax: 1088±327dynes/s’ den, 1336±327dynes/s’ ye; p=<0.001) yapılan optimizasyonlarda, akut hemodinamik cevapta istatistiksel olarak anlamlı bir düzelme olduğu görülmüştür. Altı ay sonunda, invazif yöntemle optimizasyon uygulanan hastaların %70’ inde klinik cevap, %40’ ında hacim cevabı, %70’ inde EF cevabı, ekokardiyografi ile optimizasyon uygulanan hastaların ise %45’ inde klinik cevap, %60’ ında hacim cevabı, %60’ ınde EF cevabı izlenmiştir (p=AD). Optimizasyon metodu, 6 ay sonunda klinik cevap ve hacim cevabının öngördürücüsü olarak bulunmamıştır. v Sonuç olarak, KRT optimizasyonunda hem invazif hemodinamik, hem de ekokardiyografi Doppler metodlarının, uygulanabilir ve etkili yöntemler olduğu saptanmıştır

    The possible effects of the european debt crisis on the Turkish manufacturing industry with the help of the 2008 crisis

    No full text
    Ortodoks Konjonktür Teorileri 2008 Krizini açıklamada yetersiz kalmaktadır. Hyman Minsky'nin finansal istikrarsızlık hipotezi ise, 2008 Krizinin nedenlerini önemli ölçüde ortaya koymaktadır. Minsky, mevcut finansal yapının finansal kırılganlıkları arttırdığını iddia etmektedir. Bu nedenle finansal piyasaların kontrol altına alınması gerektiğini düşünmektedir. Küresel ekonomi, 2008 Krizi'nin olumsuz etkileri nedeniyle sert şekilde daralmıştır. Birçok küresel banka, 2008 Krizi'nin panik ortamında iflas etmiştir. Bazı sorunlu bankaların milyarlarca dolarlık aşırı riskli finansal varlıklarına, hükümetler tarafından müdahale edilmiştir. Bu müdahaleler sonucunda, bazı Avrupa ülkeleri kamu borçlarının çevrilebilirliğinde ciddi sorunlar yaşamıştır. Türk İmalat Sanayii'nin üretim performans göstergeleri, 2008 Krizi'nin olumsuz etkileri nedeniyle sert şekilde daralmıştır. Türk İmalat Sanayii'nin ihracat performansı, Avrupa pazarına şiddetli şekilde bağımlıdır. Bu nedenle Avrupa Borç Krizi'nin olumsuz etkilerine karşı, Türk İmalat Sanayii'nin yapısal açıdan güçlendirilmesi gerekmektedir.Orthodox Business Cycle Theories have failed to explain the 2008 crisis. Hyman Minsky's financial instability hypothesis has revealed the significant causes of the 2008 Crisis. Minsky argues that the current financial structure has increased financial fragility. For this reason, he is of the opinion that the financial markets should be controlled. The global economy contracted sharply due to the negative effects of the Crisis of 2008. Many global banks went bankrupt in 2008 Crisis' panic environment. Billions of dollars in extremely risky financial assets of some troubled banks were intervened by governments. As a result of these interventions, some European countries experienced serious problems with the refinancing of the public debt. Turkish Manufacturing Industry's production performance indicators declined sharply due to the negative effects of the 2008 Crisis. The export performance of Turkish manufacturing industry severely dependent on the European market. Therefore, against the negative effects of the European debt crisis, the Turkish Manufacturing Industry needs to be strengthened in structural terms

    Parallel heuristics for location management in mobile networks

    No full text
    ÖZETYerleşim Planlama mobil iletişim kullanımının artışıyla önemli bir problem haline geldi. Mobil iletişimlerde bir kullanıcıya arama geldiğinde sistem kullanıcıyı bir yerleşim alanı içerisindeki baz istasyonlarında arar. Kullanıcılar da bir yerleşim alanını terkettiklerinde yerleşim yönetimi veritabanlarını güncellemek için kayıt sinyali gönderirler. Yerleşim Yönetimindeki amaç toplam kayıt ve arama maliyetlerini azaltmaktır.Bu problem baz istasyonlarının yerleşim alanlarına ve anahtar noktalara atanmasını içeren NP-hard bir problemdir. Problem NP-hard olduğu için ve birçok sınırlamayı yerine getirebilmek için dört farklı keşfe dayalı algoritma önerdik: Genetik Algoritma, Paralel Genetik Algoritma, Memetik Algoritma ve Paralel Memetik Algoritma. Bu çalışmada biz maliyeti düşürmek (programın çalışma zamanı) ve performansı artırmak (toplam ağ maliyeti) için bu metodların paralelleştirilmesi üzerinde durduk. Buna ek olarak, bu çalışma genetic çaprazlama ve mutasyon işlemlerinden sonra oluşan sonuçlar için modeldeki bütün kısıtlamaları gözönünde bulunduran detaylı bir geçerli hale getirme operasyonu içerir. Deney aşamasında, önerilen bütün yöntemler hem büyük boyutlu hem küçük boyutlu farklı ağ özellikleri için test edildi. Test sonuçlarına göre, Paralel Memetik Algoritma ağ maliyeti çözümü açısından en iyi sonucu verirken Paralel Genetik Algoritma da zaman açısından en iyi algoritma olarak tespit edildi.Ekim 2005Fatma CORUT ERGİNABSTRACTLocation management has become an important problem with the increasing usage of mobile communication. In mobile communication when a call arrives to a mobile terminal, the system pages the mobile terminal among a set of Base Stations (BS) in a Location Area (LA). Also, when a mobile terminal leaves a LA, it sends a registration signaling to update its location management databases. The target in location management is to minimize the total of paging and registration costs.The problem is an NP-hard problem, which requires cell-to-LA (i.e. BS-to-LA) and cell-to-switch assignments. Due to its NP-hardness and to satisfy a large set of constraints, we propose four heuristics for the problem which are: Genetic Algorithms (GA), Memetic Algorithms (MA), Parallel Genetic Algorithms (PGA) and Parallel Memetic Algorithms (PMA). Our main emphasis is the parallel evolutionary algorithms due to their significant decreases in cost (i.e. the running time) for generating solutions and promising improvements in solution quality (i.e. the total network cost). Additionally, this study includes complete validation phases after crossover and mutation operators by considering all constraints given in the system model. In our experimental study, the proposed heuristics were tested with respect to various network characteristics for both small-size and large- size networks. Based on the experiments, the PMA provides the highest quality solutions with respect to the total network cost, while the PGA requires the lowest running time to generate the solutions. October 2005Fatma CORUT ERGİ

    Pneumothorax secondary to pulmonary alveolar microlithiasis

    Get PDF
    Pulmonary alveolar microlithiasis (PAM) is a rare impairment of pulmonary phosphate clearance that leads to gradual precipitation of intra‐alveolar calcium phosphate microliths. There is often a striking difference between alarming clinical imaging and a relatively well patient. Pneumothorax in PAM often only respond to surgical intervention
    corecore