7 research outputs found

    Computation of propagation characteristics in complex plane for multilayer optical waveguide

    Get PDF
    This paper provides a numerical simulation for determining the complex propagation constants of integrated optics waveguide. The waveguide under consideration may consist of any number of layers with complex indices due to gain and loss. A general- purpose mode solver MAPLE program has been developed to implement the transfer matrix method, and then it applied to solving the multilayer waveguide dispersion equation in complex plane. Additionally, our program can be used to determine the electromagnetic mode structure including modal power, spatial distribution, mode size parameters, and the position of the modal peak power. Therefore, all necessary parameters for a wide range of laser devices can be calculated

    Computation of propagation characteristics in complex plane for multilayer optical waveguide

    Get PDF
    This paper provides a numerical simulation for determining the complex propagation constants of integrated optics waveguide. The waveguide under consideration may consist of any number of layers with complex indices due to gain and loss. A general- purpose mode solver MAPLE program has been developed to implement the transfer matrix method, and then it applied to solving the multilayer waveguide dispersion equation in complex plane. Additionally, our program can be used to determine the electromagnetic mode structure including modal power, spatial distribution, mode size parameters, and the position of the modal peak power. Therefore, all necessary parameters for a wide range of laser devices can be calculated

    Empirical Analysis of Electron Beam Lithography Optimization Models from a Pragmatic Perspective

    Get PDF
    Electron Beam (EB) lithography is a process of focussing electron beams on silicon wafers to design different integrated circuits (ICs). It uses an electron gun, a blanking electrode, multiple electron lenses, a deflection electrode, and control circuits for each of these components. But the lithography process causes critical dimension overshoots, which reduces quality of the underlying ICs. This is caused due to increase in beam currents, frequent electron flashes, and reducing re-exposure of chip areas. Thus, to overcome these issues, researchers have proposed a wide variety of optimization models, each of which vary in terms of their qualitative & quantitative performance. These models also vary in terms of their internal operating characteristics, which causes ambiguity in identification of optimum models for application-specific use cases. To reduce this ambiguity, a discussion about application-specific nuances, functional advantages, deployment-specific limitations, and contextual future research scopes is discussed in this text. Based on this discussion, it was observed that bioinspired models outperform linear modelling techniques, which makes them highly useful for real-time deployments. These models aim at stochastically evaluation of optimum electron beam configurations, which improves wafer’s quality & speed of imprinting when compared with other models. To further facilitate selection of these models, this text compares them in terms of their accuracy, throughput, critical dimensions, deployment cost & computational complexity metrics. Based on this discussion, researchers will be able to identify optimum models for their performance-specific use cases. This text also proposes evaluation of a novel EB Lithography Optimization Metric (EBLOM), which combines multiple performance parameters for estimation of true model performance under real-time scenarios. Based on this metric, researchers will be able to identify models that can perform optimally with higher performance under performance-specific constraints

    Shadow Price Guided Genetic Algorithms

    Get PDF
    The Genetic Algorithm (GA) is a popular global search algorithm. Although it has been used successfully in many fields, there are still performance challenges that prevent GA’s further success. The performance challenges include: difficult to reach optimal solutions for complex problems and take a very long time to solve difficult problems. This dissertation is to research new ways to improve GA’s performance on solution quality and convergence speed. The main focus is to present the concept of shadow price and propose a two-measurement GA. The new algorithm uses the fitness value to measure solutions and shadow price to evaluate components. New shadow price Guided operators are used to achieve good measurable evolutions. Simulation results have shown that the new shadow price Guided genetic algorithm (SGA) is effective in terms of performance and efficient in terms of speed

    Simulation and evolutionary optimization of electron-beam lithography with genetic and simplex-downhill algorithms

    No full text

    Librería para algoritmos genéticos basados en nichos

    Get PDF
    Sobre los años setenta, y gracias a los estudios realizados por Holland surgió una de las líneas más prometedoras de la inteligencia artificial, la de los algoritmos genéticos (AG´s) Es una técnica de programación que imita a la evolución biológica para resolución de problemas. El AG de Holland consiste en evolucionar una población de individuos representadas por cromosomas a un conjunto de soluciones potenciales. Para obtener estos resultados se evalúa cada candidato con la función, cuyo nombre es función de fitness que decide qué individuos se han adaptado mejor (son los que sobreviven), y cuáles son menos aptos, los cuales son descartados y eliminados de la población. Los individuos prometedores se conservan y se les realizan modificaciones, obteniendo individuos que mejoraron y otros que han empeorado con los cambios en su código, siendo eliminados de nuevo los peores. Este proceso se repetirá un número determinados de veces, teniendo una gran posibilidad de localizar una solución al problema o una buena aproximación. Aunque los AG´s simple han demostrado ser una estrategia poderosa y exitosa para resolver problemas, no están diseñados para encontrar todos los óptimos globales, convergiendo a una única solución, eliminado también los óptimos locales al ser descartados en la función optima al ganar en la comparación. Existen sin embargo los algoritmos de nichos, que extienden los AG, que localizan y mantienen las múltiples soluciones con los óptimos locales y globales. Los AG´s de nicho permiten encontrar múltiples soluciones de un problema multimodal, ya que tiene capacidad de crear y mantener varias sub-poblaciones dentro de un determinado espacio de búsqueda. Cada una de esta sub-poblaciones corresponde a cada óptimo que se pretende encontrar de una determinada función multimodal. El estudio que se va realizar cosiste en explicar las diferentes técnicas evolutivas, poniendo un hincapié en los AG´s y los AG´s de nichos. Además se ha implementado una librería de AG´s basados en nichos para localizar óptimos locales y globales. La eficacia del algoritmo será demostrado en varias funciones multimodales. La memoria se va organizar en diferentes capítulos, los cuales se describen a continuación: En el capítulo 2 se detallan las características generales de las Técnicas Evolutivas, indicando las diferentes técnicas que existen. En el capítulo 3 se explicará con detalle los AG´s, su funcionamiento, sus componentes, comparándolos con otros métodos, para finalizar el capítulo con un pequeño resumen en aplicaciones y utilidades donde se están utilizando. En el capítulo 4 se estudiarán los Algoritmos Genéticos de nichos para solucionar problemas multimodales. Se indicarán las diferentes técnicas que existen con sus ventajas e inconvenientes. En el capítulo 5 se explica la librería escrita para utilización de algoritmos genéticos con nichos en la resolución de problemas multimodales, detallando y explicando las principales funciones que se han realizado. En el capítulo 6 se mostrará con ejemplos como funciona la librería que se ha creado y también se presentarán los resultados experimentales realizados para comprobar cómo el algoritmo obtiene los máximos de ciertas ecuaciones. En el capítulo 7 se darán las conclusiones finales sobre el trabajo y también se indicarán algunas ideas para trabajos futuros. Para terminar, en el capítulo 8 se presentará un presupuesto del proyecto con los costes de la realización del proyecto.Ingeniería Técnica en Informática de Gestió

    Prediction of available computing capacities for a more efficient use of Grid resources

    Get PDF
    Vor allem in der Forschung und in den Entwicklungsabteilungen von Unternehmen gibt es eine Vielzahl von Problemen, welche nur mit Programmen zu lösen sind, für deren Ausführung die zur Verfügung stehende Rechenleistung kaum groß genug sein kann. Gleichzeitig ist zu beobachten, dass ein großer Teil der mit der installierten Rechentechnik vorhandenen Rechenkapazität nicht ausgenutzt wird. Dies gilt insbesondere für Einzelrechner, die in Büros, Computer-Pools oder Privathaushalten stehen und sogar während ihrer eigentlichen Nutzung selten ausgelastet sind. Eines der Ziele des Grid-Computings besteht darin, solche nicht ausgelasteten Ressourcen für rechenintensive Anwendungen zur Verfügung zu stellen. Die eigentliche Motivation für die beabsichtigte bessere Auslastung der Ressourcen liegt dabei nicht primär in der höhreren Auslastung, sondern in einer möglichen Einsparung von Kosten gegenüber der Alternative der Neuanschaffung weiterer Hardware. Ein erster Beitrag der vorliegenden Arbeit liegt in der Analyse und Quantifizierung dieses möglichen Kostenvorteils. Zu diesem Zweck werden die relevanten Kosten betrachtet und schließlich verschiedene Szenarien miteinander verglichen. Die Analyse wird schließlich konkrete Zahlen zu den Kosten in den verschiedenen Szenarien liefern und somit das mögliche Potential zur Kosteneinsparung bei der Nutzung brach liegender Rechenkapazitäten aufzeigen. Ein wesentliches Problem beim Grid-Computing besteht jedoch (vor allem bei der Nutzung von Einzelrechnern zur Ausführung länger laufender Programme) darin, dass die zur Verfügung stehenden freien Rechenkapazitäten im zeitlichen Verlauf stark schwanken und Berechnungsfortschritte durch plötzliche anderweitige Verwendung bzw. durch Abschalten der Rechner verloren gehen. Um dennoch auch Einzelrechner sinnvoll für die Ausführung länger laufender Jobs nutzen zu können, wären Vorhersagen der in der nächsten Zeit zu erwartenden freien Rechenkapazitäten wünschenswert. Solche Vorhersagen könnten u. a. hilfreich sein für das Scheduling und für die Bestimmung geeigneter Checkpoint-Zeitpunkte. Für die genannten Anwendungszwecke sind dabei Punktvorhersagen (wie z. B. Vorhersagen des Erwartungswertes) nur bedingt hilfreich, weshalb sich die vorliegende Arbeit ausschließlich mit Vorhersagen der Wahrscheinlichkeitsverteilungen beschäftigt. Wie solche Vorhersagen erstellt werden sollen, ist Gegenstand der restlichen Arbeit. Dabei werden zunächst Möglichkeiten der Bewertung von Prognoseverfahren diskutiert, die Wahrscheinlichkeitsverteilungen vorhersagen. Es werden wesentliche Probleme bisheriger Bewertungsverfahren aufgezeigt und entsprechende Lösungsvorschläge gemacht. Unter Nutzung dieser werden in der Literatur zu findende und auch neue Vorgehensweisen zur Prognoseerstellung empirisch miteinander verglichen. Es wird sich zeigen, dass eine der neu entwickelten Vorgehensweisen im Vergleich zu bisher in der Literatur dargestellten Vorhersageverfahren klare Vorteile bzgl. der Genauigkeit der Prognosen erzielt.Although computer hardware is getting faster and faster, the available computing capacity is not satisfying for all problem types. Especially in research and development departments the demand for computing power is nearly unlimited. On the same time, there are really large amounts of computing capacities being idle. Such idle capacities can be found in computer pools, on office workstations, or even on home PCs, which are rarely fully utilized. Consequently, one of the goals of the so called “grid computing” is the use of underutilized resources for the execution of compute-intensive tasks. The original motivation behind this idea is not primarily the high utilization of all resources. Instead, the goal is a reduction of costs in comparison to classical usage scenarios. Hence, a first contribution of the thesis at hand is the analysis of the potential cost advantage. The analysis quantifies the relevant cost factors and compares different usage scenarios. It finally delivers tangible figures about the arising costs and, consequently, also about the potential cost savings when using underutilized resources. However, the realization of the potential cost savings is hampered by the variability of the available computing capacities. The progress of a computational process can be slowed down or even lost by sudden increments of the resource utilization or (even worse) by shutdowns or crashes. Obviously, accurate predictions of the future available computing capacities could alleviate the mentioned problem. Such predictions were useful for several purposes (e.g. scheduling or optimization of checkpoint intervals), whereas in most cases the prediction of a single value (for example the expectancy) is only of limited value. Therefore, the work at hand examines predictions of probability distributions. First, the problem of the assessment of different prediction methods is extensively discussed. The main problems of existing assessment criteria are clearly identified, and more useful criteria are proposed. Second, the problem of the prediction itself is analyzed. For this purpose, conventional methods as described in the literature are examined and finally enhanced. The modified methods are then compared to the conventional methods by using the proposed assessment criteria and data from real world computers. The results clearly show the advantage of the methods proposed in the thesis at hand
    corecore