1,680 research outputs found

    Orgy in the computer: multi-parent reproduction in genetic algorithms

    Get PDF
    In this paper we investigate the phenomenon of multi-parent reproduction, i.e. we study recombination mechanisms where an arbitrary n>1n>1 number of parents participate in creating children. In particular, we discuss scanning crossover that generalizes the standard uniform crossover and diagonal crossover that generalizes 1-point crossover, and study the effects of different number of parents on the GA behavior. We conduct experiments on tough function optimization problems and observe that by multi-parent operators the performance of GAs can be enhanced significantly. We also give a theoretical foundation by showing how these operators work on distributions

    Transmission function models of infinite population genetic algorithms

    Get PDF
    The so-called transmission function framework is described, and implementations of transmission function models are given for a broad range of genetic algorithms. These models describe GA's with a population of infinite size. An actual implementation of these models for a non-trivial problem involving deception is given, these models are traced, and the results are visualized by means of population flow diagrams. These diagrams show that cross-competition between different parts of the optimal solution takes place

    Orgy in the computer: Multi-parent reproduction in genetic algorithms

    Full text link

    New species of hybrid pull systems

    Get PDF
    production models;control systems;simulation

    A Framework for File Format Fuzzing with Genetic Algorithms

    Get PDF
    Secure software, meaning software free from vulnerabilities, is desirable in today\u27s marketplace. Consumers are beginning to value a product\u27s security posture as well as its functionality. Software development companies are recognizing this trend, and they are factoring security into their entire software development lifecycle. Secure development practices like threat modeling, static analysis, safe programming libraries, run-time protections, and software verification are being mandated during product development. Mandating these practices improves a product\u27s security posture before customer delivery, and these practices increase the difficulty of discovering and exploiting vulnerabilities. Since the 1980\u27s, security researchers have uncovered software defects by fuzz testing an application. In fuzz testing\u27s infancy, randomly generated data could discover multiple defects quickly. However, as software matures and software development companies integrate secure development practices into their development life cycles, fuzzers must apply more sophisticated techniques in order to retain their ability to uncover defects. Fuzz testing must evolve, and fuzz testing practitioners must devise new algorithms to exercise an application in unexpected ways. This dissertation\u27s objective is to create a proof-of-concept genetic algorithm fuzz testing framework to exercise an application\u27s file format parsing routines. The framework includes multiple genetic algorithm variations, provides a configuration scheme, and correlates data gathered from static and dynamic analysis to guide negative test case evolution. Experiments conducted for this dissertation illustrate the effectiveness of a genetic algorithm fuzzer in comparison to standard fuzz testing tools. The experiments showcase a genetic algorithm fuzzer\u27s ability to discover multiple unique defects within a limited number of negative test cases. These experiments also highlight an application\u27s increased execution time when fuzzing with a genetic algorithm. To combat increased execution time, a distributed architecture is implemented and additional experiments demonstrate a decrease in execution time comparable to standard fuzz testing tools. A final set of experiments provide guidance on fitness function selection with a CHC genetic algorithm fuzzer with different population size configurations

    Symmetry-Adapted Machine Learning for Information Security

    Get PDF
    Symmetry-adapted machine learning has shown encouraging ability to mitigate the security risks in information and communication technology (ICT) systems. It is a subset of artificial intelligence (AI) that relies on the principles of processing future events by learning past events or historical data. The autonomous nature of symmetry-adapted machine learning supports effective data processing and analysis for security detection in ICT systems without the interference of human authorities. Many industries are developing machine-learning-adapted solutions to support security for smart hardware, distributed computing, and the cloud. In our Special Issue book, we focus on the deployment of symmetry-adapted machine learning for information security in various application areas. This security approach can support effective methods to handle the dynamic nature of security attacks by extraction and analysis of data to identify hidden patterns of data. The main topics of this Issue include malware classification, an intrusion detection system, image watermarking, color image watermarking, battlefield target aggregation behavior recognition model, IP camera, Internet of Things (IoT) security, service function chain, indoor positioning system, and crypto-analysis

    Modeling EMI Resulting from a Signal Via Transition Through Power/Ground Layers

    Get PDF
    Signal transitioning through layers on vias are very common in multi-layer printed circuit board (PCB) design. For a signal via transitioning through the internal power and ground planes, the return current must switch from one reference plane to another reference plane. The discontinuity of the return current at the via excites the power and ground planes, and results in noise on the power bus that can lead to signal integrity, as well as EMI problems. Numerical methods, such as the finite-difference time-domain (FDTD), Moment of Methods (MoM), and partial element equivalent circuit (PEEC) method, were employed herein to study this problem. The modeled results are supported by measurements. In addition, a common EMI mitigation approach of adding a decoupling capacitor was investigated with the FDTD method

    Process Development Tools for Cross-Flow Filtration in Biopharmaceutical Downstream Processing

    Get PDF
    In der modernen Medizin sind biopharmazeutische Proteine wichtige Substanzen für die Behandlung und Vorbeugung von Krankheiten wie Lymphomen bzw. Hepatitis B. Diese Proteine haben eine komplexe Struktur, die eine biologische Synthese in Zellen erfordert, und ihre parenterale Verabreichung bedarf einer anschließenden Reinigung. Abschließend muss das Protein in einer Flüssigkeit formuliert werden, die eine gewisse Haltbarkeit und physiologische Verträglichkeit gewährleistet. Die Gewinnung des Proteins aus der Zellbrühe, die Reinigung und die Formulierung werden als downstream processing (DSP) bezeichnet. Jeder Prozessschritt im DSP wird mit einer Grundoperation durchgeführt, eine davon ist die Querstromfiltration (cross-flow filtration, CFF), auch bekannt als Tangentialflussfiltration (TFF). Bei der CFF werden die Proteine durch Größenausschluss von Verunreinigungen oder der umgebenden flüssigen Phase getrennt, wobei der Trennmechanismus im Idealfall von anderen Proteineigenschaften wie Ladung oder Hydrophobizität entkoppelt ist. Der Größenausschluss wird durch poröse Membranen realisiert. Im DSP biopharmazeutischer Proteine kann die CFF für die Zellseparation, die Reinigung und die finale Formulierung eingesetzt werden. Letztere besteht in der Regel aus einer Kombination von Pufferaustausch und Konzentrationserhöhung, die als Ultrafiltration/Diafiltration (UF/DF) bezeichnet wird. Im Vergleich zur herkömmlichen Normalstromfiltration wird der Zulaufstrom bei der CFF parallel zur Membranoberfläche gerichtet und das Filtrat dringt durch die Poren der Membran. Daher führt die CFF zu einer geringeren Anreicherung der zurückgehaltenen Spezies an der Membranoberfläche und somit zu schnelleren Prozessen und weniger konzentrationsabhängiger Aggregation. Trotz dieser Vorteile ist die Prozessentwicklung für die CFF mit einigen Herausforderungen verbunden: Diese sind zeit- und materialaufwändige Experimente, begrenzte Reinigungsleistung und Abweichungen der Ionenkonzentrationen vom Zielwert bei hohen Proteinkonzentrationen. Im DSP stehen mehrere Werkzeuge für die Prozessentwicklung und -optimierung zur Verfügung, zum Beispiel Prozessintegration, Hochdurchsatz-Screenings (high-throughput screenings, HTS), prozessanalytische Technologie (process analytical technology, PAT) und mechanistische Modellierung. Im Vergleich zu anderen Grundoperationen, wie zum Beispiel der Chromatographie, werden diese Werkzeuge jedoch nur selten für die CFF eingesetzt. Das Ziel dieser Arbeit war es, Lösungen für die genannten Herausforderungen zu finden, indem diese Werkzeuge in speziellen Fallstudien eingesetzt werden. Zudem war es Ziel dieser Arbeit, Erkenntnisse aus diesen Fallstudien zu gewinnen, um die Auswahl der Werkzeuge zur Entwicklung von CFF-Prozessen im biopharmazeutischen DSP zu erweitern. In Kapitel 1 dieser Arbeit wird einen Überblick über DSP-Ansätze für die beiden in dieser Arbeit exemplarisch verwendeten Biopharmazeutika, virusähnliche Partikel (virus-like particles, VLPs) und monoklonale Antikörper (monoclonal antibodies, mAbs), gegeben. VLPs sind nicht-infektiöse virale Partikel, denen das virale Genom fehlt. Nicht-umhüllte VLPs bestehen aus Proteinuntereinheiten, die sich in der produzierenden Zelle spontan zu Kapsiden zusammensetzen. VLPs werden meist während des DSP zerlegt und neu zusammengesetzt, um ihre Homogenität, Stabilität und Immunogenität zu verbessern. Biopharmazeutische Anwendungen von VLPs sind Impfstoffe und potenzielle therapeutische Impfstoffe oder Vektoren für die Ein-schleusung anderer Moleküle. MAbs sind Immunglobuline, die aus vier kovalent gebundenen Proteinketten bestehen. Im Vergleich zu mAbs sind die meisten VLPs um mehr als eine Größenordnung größer in Durchmesser und Molekulargewicht. MAbs gehören zu den am häufigsten zugelassenen Biopharmazeutika für den menschlichen Gebrauch und finden unter anderem bei der Behandlung von Krebs- und Entzündungskrankheiten Anwendung. Außerdem werden in Kapitel 1 Grundlagen und Anwendungen der CFF erläutert. Abschließend werden Hintergrundwissen und aktuelle Forschung zu den angewandten Werkzeugen der Prozessentwicklung dargestellt. Alternative Trennverfahren zur chromatographischen Reinigung weisen häufig eine geringere Trennleistung auf und sind schlecht skalierbar. Die wichtigsten Messgrößen für die Prozessleitung im DSP sind Reinheit und Produktivität. Beide können durch Prozessintegration verbessert werden, die durch die Kombination von Grundoperationen in einem gemeinsamen Arbeitsraum oder deren nahtlose Verbindung erreicht wird. In Kapitel 3 wird die Anwendung der Prozessintegration zur Verbesserung der Prozessleistung und der Skalierbarkeit des DSP von nicht-umhüllten VLPs vorgestellt. Dazu wurden die VLP-Fällung, -Wäsche und -Rücklösung mit CFF kombiniert. Es wurde eine Steuerung der Permeatflussrate implementiert, die die Verdichtung des Präzipitats an der Membranoberfläche reduzierte. Im Vergleich zur Abtrennung des Präzipitats mittels Zentrifugation, führte dieser Ansatz zu einer verbesserten Reinheit und Produktivität sowie zu einem höheren Automatisierungsgrad. Die Steuerung der Permeatflussrate ermöglichte auch die zusätzliche Integration von multimodaler Größenausschlusschromatographie (size exclusion chromatography, SEC) in den Rücklösungsstrom und damit eine weitere Verbesserung der Reinheit. Die in-line-Überwachung der Absorbanz von ultraviolettem Licht (UV) und die Produktfraktionierung wurden implementiert, um die Reinheit auf der Grundlage von datengesteuerten Entscheidungen während des Prozesses zu verbessern. Die vorgestellten Maßnahmen führten zu einem integrierten Abtrennungs- und Reinigungsschritt mit flexibler Skalierbarkeit und großem Potenzial für eine vollständige Automatisierung. Die Trennleistung war außerdem vergleichbar mit kompletten DSP-Ansätzen in der Literatur. Durch die Integration mehrerer Trenntechniken wurden Synergien geschaffen, die die Leistungsgrenzen der einzelnen Techniken überwinden. Der resultierende DSP-Ansatz basiert ausschließlich auf größenselektiven Trenntechniken, die den Größenunterschied von VLPs zu üblichen Verunreinigungen ausnutzen. Dieser Größenunterschied gilt für die meisten VLPs und verspricht somit eine breite Anwendbarkeit des vorgestellten DSP-Ansatzes. In der biopharmazeutischen Entwicklung ist die Verfügbarkeit von Proteinmaterial oft begrenzt, während die CFF vergleichsweise große Mengen für experimentelle Studien benötigt. In Kapitel 4 werden diese Herausforderungen adressiert, indem ein Ansatz zur Prozessentwicklung für Proteinreaktionen, die durch eine Änderung der Flüssigphase angetrieben werden, vorgestellt wird. Als Fallstudie wurde die Zerlegung von nicht-umhüllten VLPs untersucht. Sie kann durch eine Änderung der Flüssigphase ausgelöst werden, zum Beispiel durch eine Erhöhung des pH-Werts und der Harnstoffkonzentration. Um die optimalen Flüssigphasenbedingungen für die Zerlegung von VLPs zu finden, wurden HTS in kleinen Volumina durchgeführt. Dazu wurden VLP-Lösungen mit Stammlösungen gemischt, um den Prozessbedingungen zu entsprechen, und unter Reaktionsbedingungen automatisch mittels SEC analysiert. Die daraus resultierenden hochauflösenden Daten ermöglichten die Charakterisierung der Zerlegung der VLPs im Hinblick auf die CFF-basierte Prozessierung. Die optimalen Bedingungen wurden dann in einem DF-Prozessschritt im Labormaßstab angewendet. Die nach der DF-basierten Prozessierung beobachtete höhere Ausbeute und Reinheit wurde auf eine kontrollierte Änderung der Flüssigphase, eine intensivere Durchmischung und die gleichzeitige Abreicherung von Verunreinigungen zurückgeführt. Darüber hinaus wurde der VLP-Zerlegungsschritt in eine Sequenz von filtrationsbasierten Prozess-schritten eingebettet, wodurch unerwünschte Spezies mit höherem Mole-kulargewicht deutlich reduziert wurden. Die ausschließliche Verwendung der Filtration als größenselektiver Trenntechnik macht den entwickelten Prozess unabhängig von anderen molekularen Proteineigenschaften und bietet daher das Potenzial für eine Plattformprozessierung von nicht-umhüllten VLPs im Allgemeinen. Der vorgestellte Ansatz zur Prozessentwicklung reduziert den Zeit- und Proteinbedarf durch die Entkopplung des Screenings der Bedingungen von der CFF-Entwicklung und bietet das Potenzial für eine umfassende Charakterisierung. Die in Kapitel 5 vorgestellte Studie zielte darauf ab, die Herausforderung der Materialbeschränkungen zu überwinden, indem das aus CFF-Experimenten gewonnene Wissen maximiert wird. Dazu wurde ein PAT-Konzept für denselben Prozessschritt der Zerlegung von VLPs entwickelt, der in Kapitel 4 vorgestellt wird. Eine Reihe von PAT-Sensoren wurde unter verschiedenen Prozessbedingungen evaluiert. Parameter der Filtration wie Drücke, Durchflussraten und Pufferaustausch wurden in-line überwacht. Der Fortschritt der Zerlegung der VLPs wurde on-line mittels UV-Absorbanz und statischer Lichtstreuung qualitativ überwacht. Die Analyse der zweiten Ableitung der UV-Spektren zeigte außerdem Veränderungen in der Tertiärstruktur der Proteinuntereinheiten während der VLP-Zerlegung. Die on-line Überwachung der dynamischen Lichtstreuung zeigte Potenzial als qualitativer Indikator für unerwünschte Proteinaggregation. Regressionsmodelle, die UV-Daten als Eingangsgröße und die Konzentration der VLP-Untereinheiten als Ausgangsgröße verwenden, wurden kalibriert und anhand von at-line SEC-Daten als Referenz validiert. Mit Hilfe der Modelle wurden die Konzentrationen der Untereinheiten und damit der Fortschritt der VLP-Zerlegung präzise vorausgesagt. Die Vorhersagen wurden erfolgreich zur Erkennung von Prozessendpunkten eingesetzt. Darüber hinaus wurde nachgewiesen, dass unverarbeitete univariate Signale von UV und statischer Lichtstreuung den Prozessendpunkt erfolgreich erkennen, was einen einfachen Ansatz für die großtechnische Herstellung darstellt. Insgesamt liefert das entwickelte PAT-Konzept prozess- und produktbezogene Daten in (nahezu) Echtzeit, was eine umfassende Überwachung, Charakterisierung und Endpunktdetektion ermöglicht. Der vorgestellte Ansatz hat großes Potenzial zur Charakterisierung der Zerlegung anderer VLPs oder von Reaktionen, die eine Veränderung der Partikelgröße oder der tertiären Proteinstruktur mit sich bringen. Die Formulierung biopharmazeutischer Proteine mittels UF/DF wird mit steigender Proteinkonzentration anspruchsvoller. Die Anreicherung von geladenen Proteinen führt zu einer ungleichmäßigen Verteilung von geladenen Hilfsstoffen durch die Membran, was als Gibbs-Donnan-Effekt bezeichnet wird. Dieser Effekt führt zu Abweichungen des pH-Werts und der Konzentration der Hilfsstoffe von den Zielbedingungen. Diese Abweichungen können durch den Volumenausschlusseffekt oder die Abhängigkeit der pK-Werte von der Ionenstärke noch verstärkt oder verringert werden. Das komplexe Geflecht dieser voneinander abhängigen Phänomene erschwert einfache oder generische Abschätzungen der endgültigen Zusammensetzung. In Kapitel 6 wird die Entwicklung und Validierung eines mechanistischen Modells vorgestellt, das die genannten Phänomene und Wechselwirkungen beschreibt. Ziel der Studie war es, ein besseres Verständnis der Modellvariablen zu erlangen und die Zusammensetzung während UF/DF-Prozessen mit hohen Konzentrationen vorherzusagen. Derzeit verfügbare Modelle beschreiben und validieren den Bereich hoher Proteinkonzentrationen über 100 gL^{-1} nur unzureichend oder erfordern eine experimentelle Kalibrierung. Es wurde ein mechanistisches Modell entwickelt, das auf der Poisson-Boltzmann-Theorie und einem grundlegenden Stern-Modell basiert, um die elektrostatischen Wechselwirkungen von Proteinen und geladenen gelösten Stoffen zu beschreiben. Ein besonderer Fokus bei der Entwicklung lag auf hohen Proteinkonzentrationen. Das Modell wurde außerdem so konzipiert, dass als Eingangsvariablen lediglich üblicherweise bekannte theoretische Informationen über das Protein und die Pufferzusammensetzung benötigt werden. Das Modell wurde anhand umfassender experimenteller Daten kompletter UF/DF/UF-Sequenzen von mAbs und verschiedenen Flüssigphasenbedingungen sorgfältig validiert. Die Vorhersagen des Modells zeigten im Vergleich zu bestehenden Ansätzen eine bessere Genauigkeit im Bereich hoher Konzentrationen. Zusammenfassend lässt sich sagen, dass das entwickelte Modell und die angewandte Validierungsstrategie ein tieferes Verständnis von UF/DF-Modellen, die auf der Poisson-Boltzmann Theorie basieren, ermöglichen. Das rein prädiktive Modell ermöglicht ein systematisches in silico Design von hochkonzentrierten UF/DF-Schritten, ohne dass Proteinmaterial benötigt wird. Abschließend kann gesagt werden, dass Prozessintegration, HTS, PAT und mechanistische Modellierung erfolgreich für die Entwicklung von CFF-Prozessen implementiert und zur Verbesserung der Prozessleistung, des Proteinbedarfs und der Entwicklungszeiten eingesetzt wurden. Diese Arbeit liefert somit potenzielle Lösungen für die Herausforderungen in der biopharmazeutischen CFF-Prozessentwicklung auf der Grundlage von konkreten Fallstudien. Zusätzlich zu diesen Lösungen bieten die entwickelten CFF-Prozesse neue Ansätze für die größenselektive Aufreinigung von nicht-umhüllten VLPs und damit Bausteine für ein Plattform-DSP. Für die Modellierung der Zusammensetzung während der UF/DF von hochkonzentrierten mAb-Formulierungen wird ein umfassendes Verständnis der Modellvariablen und der Gültigkeit der Annahmen erarbeitet. Diese Arbeit zur Erweiterung des Forschungsstandes zur CFF-Prozessentwicklung durch fortschrittliche Entwicklungsansätze und Prozessdesigns bei

    Cost based optimization for strategic mobile radio access network planning using metaheuristics

    Get PDF
    La evolución experimentada por las comunicaciones móviles a lo largo de las últimas décadas ha sido motivada por dos factores principales: el surgimiento de nuevas aplicaciones y necesidades por parte del usuario, así como los avances tecnológicos. Los servicios ofrecidos para términales móviles han evolucionado desde el clásico servicio de voz y mensajes cortos (SMS), a servicios más atractivos y por lo tanto con una rápida aceptación por parte de usuario final como, video telephony, video streaming, online gaming, and the internet broadband access (MBAS). Todos estos nuevos servicios se han convertido en una realidad gracias a los avances técnologicos, avances tales como nuevas técnicas de acceso al medio compartido, nuevos esquemas de codificiación y modulación de la información intercambiada, sistemas de transmisión y recepción basados en múltiples antenas (MIMO), etc. Un aspecto importante en esta evolución fue la liberación del sector a principios de los años 90, donde la función reguladora llevado a cabo por las autoridades regulatorias nacionales (NRA) se ha antojado fundamental. Uno de los principales problemas tratados por la NRA espcífica de cada nación es la determinación de los costes por servicios mayoristas, esto es los servicios entre operadores de servicios móvilles, entre los que cabe destacar el coste por terminación de llamada o de inteconexión. El servicio de interconexión hace posible la comunicación de usuarios de diferente operadores, así como el acceso a la totalidad de servicios, incluso a aquellos no prestados por un operador en concreto gracias al uso de una red perteneciente a otro operador, por parte de todos los usuarios. El objetivo principal de esta tesis es la minimización de los costes de inversión en equipamiento de red, lo cual repercute en el establecimiento de las tarifas de interconexión como se verá a lo largo de este trabajo. La consecución de dicho objetivo se divide en dos partes: en primer lugar, el desarrollo de un conjunto de algoritmos para el dimesionado óptimo de una red de acceso radio (RAN) para un sistema de comunicaciones móvilles. En segundo lugar, el diseño y aplicación de algoritmos de optimización para la distribución óptima de los servicios sobre el conjunto de tecnologías móviles existentes (OSDP). El modulo de diseño de red proporciona cuatro algoritmos diferenciados encargados del dimensionado y planificación de la red de acceso móvil. Estos algoritmos se aplican en un entorno multi-tecnología, considerando sistemas de segunda (2G), tercera (3G) y cuarta (4G) generación, multi-usuario, teniendo en cuenta diferentes perfiles de usuarios con su respectiva carga de tráfico, y multo-servicio, incluyendo voz, servicios de datos de baja velocidad (64-144 Kbps), y acceso a internet de banda ancha móvil. La segunda parte de la tesis se encarga de distribuir de una manera óptima el conjunto de servicios sobre las tecnologías a desplegar. El objetivo de esta parte es hacer un uso eficiente de las tecnologías existentes reduciendo los costes de inversión en equipamiento de red. Esto es posible gracias a las diferencias tecnológicas existente entre los diferentes sistemas móviles, que hacen que los sistemas de segunda generación sean adecuados para proporcionar el servicio de voz y mensajería corta, mientras que redes de tercera generación muestran un mejor rendimiento en la transmisión de servicios de datos. Por último, el servicio de banda ancha móvil es nativo de redes de última generadón, como High Speed Data Acces (HSPA) y 4G. Ambos módulos han sido aplicados a un extenso conjunto de experimentos para el desarrollo de análisis tecno-económicos tales como el estudio del rendimiento de las tecnologías de HSPA y 4G para la prestación del servicio de banda ancha móvil, así como el análisis de escenarios reales de despliegue para redes 4G que tendrán lugar a partir del próximo año coinicidiendo con la licitación de las frecuencias en la banda de 800 MHz. Así mismo, se ha llevado a cabo un estudio sobre el despliegue de redes de 4G en las bandas de 800 MHz, 1800 MHz y 2600 MHz, comparando los costes de inversión obtenidos tras la optimización. En todos los casos se ha demostrado la mejora, en términos de costes de inversión, obtenida tras la aplicación de ambos módulos, posibilitando una reducción en la determinación de los costes de provisión de servicios. Los estudios realizados en esta tesis se centran en la nación de España, sin embargo todos los algoritmos implementados son aplicables a cualquier otro país europeo, prueba de ello es que los algoritmos de diseño de red han sido utilizados en diversos proyectos de regulación

    Cost based optimization for strategic mobile radio access network planning using metaheuristics

    Get PDF
    La evolución experimentada por las comunicaciones móviles a lo largo de las últimas décadas ha sido motivada por dos factores principales: el surgimiento de nuevas aplicaciones y necesidades por parte del usuario, así como los avances tecnológicos. Los servicios ofrecidos para términales móviles han evolucionado desde el clásico servicio de voz y mensajes cortos (SMS), a servicios más atractivos y por lo tanto con una rápida aceptación por parte de usuario final como, video telephony, video streaming, online gaming, and the internet broadband access (MBAS). Todos estos nuevos servicios se han convertido en una realidad gracias a los avances técnologicos, avances tales como nuevas técnicas de acceso al medio compartido, nuevos esquemas de codificiación y modulación de la información intercambiada, sistemas de transmisión y recepción basados en múltiples antenas (MIMO), etc. Un aspecto importante en esta evolución fue la liberación del sector a principios de los años 90, donde la función reguladora llevado a cabo por las autoridades regulatorias nacionales (NRA) se ha antojado fundamental. Uno de los principales problemas tratados por la NRA espcífica de cada nación es la determinación de los costes por servicios mayoristas, esto es los servicios entre operadores de servicios móvilles, entre los que cabe destacar el coste por terminación de llamada o de inteconexión. El servicio de interconexión hace posible la comunicación de usuarios de diferente operadores, así como el acceso a la totalidad de servicios, incluso a aquellos no prestados por un operador en concreto gracias al uso de una red perteneciente a otro operador, por parte de todos los usuarios. El objetivo principal de esta tesis es la minimización de los costes de inversión en equipamiento de red, lo cual repercute en el establecimiento de las tarifas de interconexión como se verá a lo largo de este trabajo. La consecución de dicho objetivo se divide en dos partes: en primer lugar, el desarrollo de un conjunto de algoritmos para el dimesionado óptimo de una red de acceso radio (RAN) para un sistema de comunicaciones móvilles. En segundo lugar, el diseño y aplicación de algoritmos de optimización para la distribución óptima de los servicios sobre el conjunto de tecnologías móviles existentes (OSDP). El modulo de diseño de red proporciona cuatro algoritmos diferenciados encargados del dimensionado y planificación de la red de acceso móvil. Estos algoritmos se aplican en un entorno multi-tecnología, considerando sistemas de segunda (2G), tercera (3G) y cuarta (4G) generación, multi-usuario, teniendo en cuenta diferentes perfiles de usuarios con su respectiva carga de tráfico, y multo-servicio, incluyendo voz, servicios de datos de baja velocidad (64-144 Kbps), y acceso a internet de banda ancha móvil. La segunda parte de la tesis se encarga de distribuir de una manera óptima el conjunto de servicios sobre las tecnologías a desplegar. El objetivo de esta parte es hacer un uso eficiente de las tecnologías existentes reduciendo los costes de inversión en equipamiento de red. Esto es posible gracias a las diferencias tecnológicas existente entre los diferentes sistemas móviles, que hacen que los sistemas de segunda generación sean adecuados para proporcionar el servicio de voz y mensajería corta, mientras que redes de tercera generación muestran un mejor rendimiento en la transmisión de servicios de datos. Por último, el servicio de banda ancha móvil es nativo de redes de última generadón, como High Speed Data Acces (HSPA) y 4G. Ambos módulos han sido aplicados a un extenso conjunto de experimentos para el desarrollo de análisis tecno-económicos tales como el estudio del rendimiento de las tecnologías de HSPA y 4G para la prestación del servicio de banda ancha móvil, así como el análisis de escenarios reales de despliegue para redes 4G que tendrán lugar a partir del próximo año coinicidiendo con la licitación de las frecuencias en la banda de 800 MHz. Así mismo, se ha llevado a cabo un estudio sobre el despliegue de redes de 4G en las bandas de 800 MHz, 1800 MHz y 2600 MHz, comparando los costes de inversión obtenidos tras la optimización. En todos los casos se ha demostrado la mejora, en términos de costes de inversión, obtenida tras la aplicación de ambos módulos, posibilitando una reducción en la determinación de los costes de provisión de servicios. Los estudios realizados en esta tesis se centran en la nación de España, sin embargo todos los algoritmos implementados son aplicables a cualquier otro país europeo, prueba de ello es que los algoritmos de diseño de red han sido utilizados en diversos proyectos de regulación
    corecore