98 research outputs found

    Avances en el modelamiento y experimentación de tensiones inducidas en redes de distribución

    Get PDF
    Abstract. This Phd Thesis was focused on the lightning induced transients modeling on long and complex networks and the induced voltage measurements on energized distribution networks. Here is described and compared two methodologies for the induced transient calculation which are implemented in three different software linked to a transient analysis program (LIOV-EMTP, LIV-ATP and YALUK-ATP). The YALUK-ATP is a software developed in this PhD thesis which improves the link with the transient program; this new proposal allows make link without including an additional delay on the traveling waves. The developed software (YALUK-ATP) and the LIOV-EMTP showed to have the best features calculating lightning-induced voltage on complex networks; these software are used for the analysis of the network topology on lightning-induced voltages calculation for a different stroke location and ground conductivity. Moreover, as an engineering application, it was developed a new software which uses the advantages of YALUKATP and the genetic algorithms technique to locate appropriately surge arresters on a complex distribution network. As a new contribution, it was built a new lightning-induced voltage measurement system on an energized distribution network which uses fiber optics and solar energy technology in order to reduce the electromagnetic interference. This distribution network is located 100m far away from the Colombian direct natural lightning measurement station where the induced voltage signals are gathered and registered. Nowadays, in Colombia, it has been measured more than 200 induced voltages on two measurement systems which were analyzed on this Phd Thesis. Several measurements have been correlated with the Colombian Lightning Location System and compared with calculations made with the induced voltage software.Esta tesis de doctorado está enfocada en el modelamiento de tensiones inducidas en sistemas de distribución largos y complejos y la medición en redes energizadas. En este documento se describen y comparan dos metodologías para el cálculo de tensiones inducidas, las cuales están implementadas en 3 programas computacionales vinculados con un programa para análisis transitorio (LIOV-EMTP, LIV-ATP, YALUK-ATP). El YALUK-ATP es un programa computacional desarrollado durante esta tesis doctoral, el cual es vinculado con el ATP por medio de una nueva metodología propuesta en esta tesis. Los programas YALUK ATP y LIOV-EMTP mostraron ser adecuados para el análisis de tensiones inducidas en sistemas complejos. Adicionalmente, fue realizado un programa computacional como aplicación en ingeniería el cual utiliza las ventajas del uso del YALUK-ATP, para el cálculo de tensiones inducidas, y la técnica de algoritmos genéticos, para optimización. Este nuevo programa estima la localización más adecuada de descargadores de sobretensión en sistemas de distribución complejos. Como aporte adicional a la investigación mundial fue construido un nuevo sistema de medición de tensiones inducidas en una red energizada, usando técnicas como fibra óptica y tecnología de energía solar para disminuir los efectos de interferencia. La red está localizada a 100m de distancia de la estación de medición directa de rayos colombiana y en ella son registradas todas las mediciones. En la actualidad, en Colombia, se han realizado más de 200 mediciones de tensiones inducidas que fueron descritas y analizadas en esta tesis doctoral. Algunas de las mediciones han sido correlacionadas con el Sistema de Localización de Rayos Colombiano obteniendo los datos de localización y amplitud de los rayos generados. En este documento se describió los resultados encontrados al realizar esta comparación. Advances on Modeling and Experimentation of Lightning Induced Voltages on Distribution Lines Ernesto Pérez González Abstract This Phd Thesis was focused on lightning induced transients modeling on long and complex networks and induced voltage measurements on energized distribution networks. Here is described and compared two methodologies for induced transient calculation which are implemented in three different software linked to a transient analysis program (LIOV-EMTP, LIV-ATP and YALUK-ATP). The YALUK-ATP is a software developed in this PhD thesis which improves the link with the transient program; this new proposal allows make link without including an additional delay on the traveling waves. The developed software (YALUK-ATP) and LIOV-EMTP showed to have the best features calculating lightning-induced voltage on complex networks; these software are used for the analysis of the network topology on lightning-induced voltages calculation for different stroke location and ground conductivity. Moreover, as engineering application, it was developed new software which uses the advantages of YALUK-ATP and the genetic algorithms technique to locate appropriately surge arresters on complex distribution networks. As additional contribution, it was built a lightning-induced voltage measurement system on an energized distribution network which uses fiber optics and solar energy technology in order to reduce the electromagnetic interference. This distribution network is located 100m far away from the Colombian direct natural lightning measurement station where the induced voltage signals are gathered and registered. Nowadays, in Colombia, it has been measured and analyzed more than 200 induced voltages on two measurement systems. Several measurements have been correlated with the Colombian Lightning Location System and compared with calculations made with software.Doctorad

    Transformación no lineal para la clasificación de nubes a partir de imágenes nocturnas del sensor AVHRR

    Get PDF
    Las nubes juegan un papel muy importante en el balance radiativo del sistema tierra-atmosfera, modulando fuertemente el clima a escala global. Por lo tanto, es de especial interés conocer tanto el efecto de cada uno de los tipos de nubes como su distribución espacial y temporal. Actualmente, la herramienta más eficaz para este fin son los sensores a bordo de satélites, sobre todo aquellos que permiten observar la mayor parte de la superficie terrestre con una aceptable resolución temporal. A lo largo de las últimas décadas se han desarrollado técnicas que permiten de forma automática la clasificación de los distintos tipos de nubes a partir de imágenes de satélites. La mayor parte de estos metodos han sido desarrollados para imágenes diurnas, en las que la radiacion solar reflejada facilita la clasificación. En este trabajo se comprueba la posibilidad de distinguir distintos tipos de nubes mediante el uso de imágenes nocturnas del radiometro NOAA-AVHRR,haciendo uso de los canales 3,4 y 5 del mismo. Para ello, se ha desarrollado una herramienta de análisis de imágenes de satélites y sus correspondientes histogramas multidimensionales, que permiten, además, la simulación de las radiancias que llegan al satélite para multitud de situaciones posibles, tanto de las nubes coo de la superficie bajo ella y la atmósfera en la que se encuentran. Se proponen la aplicación de una transformación no lineal, basada en un modelo fisico, al espacio de características definido por las temperaturas de brillo de las tres bandas espectrales consideradas, con el fin de facilitar la definición de las fronteras de decisión del clasificador. Esta aproximación muestra varias ventajas sobre las transformaciones lineales basadas en la estadística de los datos, tales como la independencia de la imagen tratada o el significado fisico de las nuevas componentes del vector de caracteristicas, relacionadas con la temperatura de la nube, su espesor optico y el radio efectivo de sus particulas. Esto facilita en gran medida el diseño del clasificador a utilizar, obteniendose resultados satisfactorios mediante tecnicas sencillas

    Aplicación de técnica de optimización mediante algoritmos genéticos para calibración de modelo Qual2k como una aproximación a la modelación de la calidad del agua de los principales ríos de la zona urbana de Bogotá D. C.

    Get PDF
    Un modelo de calidad del agua, como el que puede ser elaborado con la herramienta Qual2k, necesita ajustarse mediante un proceso de calibración. En el caso del programa Qual2k, el software incluye un algoritmo genético como herramienta matemática para dicha calibración. Sin embargo, esta herramienta necesita una serie de operaciones que deben ser introducidos por el modelador. En este sentido esta tesis empleó la documentación existente para modelar, tres ríos de Bogotá D.C., con el software Qual2k, buscando elaborar un modelo para estas corrientes, y, realizar recomendaciones generales sobre tres operadores que utiliza el algoritmo genético: a) semilla, b) número de generaciones, y, c) número de poblaciones. Los dos últimos parámetros, resultan importantes porque implican tiempos computacionales asociados. Una combinación que genere muchas corridas, puede no presentar variaciones significativas en el ajuste total del modelo. Por esta razón, una combinación "óptima" podría dar buenas soluciones en tiempos razonables. Este trabajo encontró, que efectivamente hay puntos donde la mejora en la calidad del ajuste no aumenta más de un 5%, en relación a la variación del valor obtenido por la función de error. Por tanto, se obtuvieron valores sobre los tres operadores, los que pueden ser empleados por parte del modelador al momento de emplear esta herramienta para la modelación de la calidad del agua.A model of water quality model, as it can be produced with the Qual2k program, it requires adjustment through a calibration process . For Qual2k program, the software includes a genetic algorithm as a mathematical tool for such calibration. However, this tool requires a number of operators to be introduced by the modeler . In this sense this thesis use existing documentation to modeling, three rivers of Bogota D.C., with Qual2k software seeking to make a water quality model for this rivers, and it give general recommendations about three operators of the genetic algorithm: a) seed, b ) generations number, and c ) populations number. The last two operators are important because they involve associated computational times . A combination that creates many runs , it may not present significant variations in the total adjustment model. For this reason, an "optimal" combination could give good solutions in reasonable time. This study found that effectively there are points, where the improvement in the quality of the adjustment does not increase more than 5 % in relation to the variation of the value obtained for the error function. Therefore, this thesis got values for the three operators, that it may be modeler when using this tool for water quality modeling.Magíster en HidrosistemasMaestrí

    Estudio y análisis comparativo de las actuales técnicas biométricas

    Full text link
    El siguiente Trabajo Fin de Master se divide en tres partes, siempre, alrededor de la identificación biométrica. Esta ciencia aprovecha que existen ciertas características biológicas o conductuales singulares e inalterables, por lo que pueden ser analizados y medidos para crear una huella biométrica. Estas características son difíciles de perder, transferir u olvidar y son perdurables en el tiempo. En la primera de las partes se ofrecerá una visión sobre la importancia histórica de esta ciencia, desde los primeros vestigios humanos, en la zona de Mesopotamia, pasando por los grandes innovadores y precursores de la identificación biométrica, como Bertillon, Galton, Vucetich, etc. auspiciados por una finalidad mayoritariamente criminalística o policiaca, hasta la gran revolución a finales del siglo pasado, en las que técnicas que parecían ciencia ficción se hicieron realidad. En el siguiente apartado se analizaran las 6 principales técnicas que se usan actualmente, realizando una mirada más profunda en los principios naturales, fisiológicos y físicos sobre los que se basan se expondrán las tendencias futuras sobre las que trabajara la industria para el desarrollo de técnicas más seguras, menos invasivas y más transparentes para los usuarios finales. Estas como ha pasado a lo largo de la historia sonaran increíbles, pero una vez más la raza humana conseguirá materializarlas e introducirlas en su día a día. Para finalizar y después de este estudio en detalle, se intentará realizar una comparación y análisis basados en las más importantes características para las técnicas biométricas, fiabilidad, facilidad, usurpación, aceptación y estabilidad, etc. ABSTRACT The following Master's Thesis is divided into three parts, always, about biometric identification. This science fail that certain biological or behavioural characteristics unique and unchangeable, so it can be analysed and measured to create a biometric fingerprint. These features are hard to miss, or forget to transfer and are enduring in time. In the first part a vision of the historical importance of this science are offered, from the earliest human remains in the area of Mesopotamia, to the great innovators and pioneers of biometric identification, such as Bertillon, Galton, Vucetich, etc. . sponsored a largely forensic or detective purpose, until the great revolution in the late nineteenth century, in which techniques that seemed science fiction became reality. The following section will analyse the 6 main techniques currently in use, making a deeper look at the natural, physiological and physical principles on which future trends are based on the industry to work for the development of techniques will be discussed more safer, less invasive and more transparent to end users. Such as has happened throughout history sounded amazing, but once again the human race get materialize and introduce them in their day to day. Finally and after the study in detail, and try to make a comparison based on the most important features for biometric technologies, reliability, ease, alienation, acceptance and stability analysis etc.

    Modelo de optimización en la generación de plantas industriales, considerando las actividades de mantenimiento y las condiciones ambientales mediante el uso de la metodología de los algoritmos genéticos

    Full text link
    El entorno competitivo donde se desenvuelven actualmente las organizaciones empresariales, obliga a plantearse esquemas de operación bajo requerimientos de alta calidad y mínimos costes de producción. En los costes de producción, influyen, considerablemente, la distribución de las diferentes actividades en planta y el mantenimiento de los equipos que la conforman. Para la distribución de las actividades, es imperioso diseñar la ordenación, que favorezca el recorrido óptimo de los materiales de producción, para minimizar los gastos asociados al desplazamiento y a otros criterios de implantación. En relación al mantenimiento, es indispensable habilitar aquellas acciones que permitan conservar, plenamente operativos, los equipos del proceso y que a su vez impliquen costes mínimos. Hasta el presente, no se ha propuesto una metodología que contemple ambas consideraciones en el diseño de plantas. En este trabajo, se propone un primer modelo, cuya finalidad es minimizar tanto los costes relacionados por el posicionamiento de las actividades, como los esperados por la aplicación del mantenimiento a los equipos, y la influencia que tiene la distribución en éstos. Como metodología de búsqueda y validación se emplea un algoritmo genético.Contreras Pérez, RA. (2010). Modelo de optimización en la generación de plantas industriales, considerando las actividades de mantenimiento y las condiciones ambientales mediante el uso de la metodología de los algoritmos genéticos [Tesis doctoral no publicada]. Universitat Politècnica de València. https://doi.org/10.4995/Thesis/10251/7344Palanci

    Optimización del sistema de gestión de energía de una red inteligente

    Get PDF
    Se estudiarán las posibles soluciones de optimización del EMS de una Smart Grid para maximizar el uso de los recursos renovables, mantener la calidad de la red eléctrica y asegurar el suministro de energía demandada.Aquest projecte desenvolupa i implementa un algorisme d'optimització lineal estocàstica per assegurar la millor operació d'una xarxa elèctrica de distribució amb penetració d'energies renovables, fotovoltaica i eòlica, juntament amb diferents sistemes d'emmagatzematge d'energia. En aquesta xarxa de quinzebusos, s'incorporen recursos energètics distribuïts que, amb l'energia provinent de la xarxa de transport, proveeixen la demanda elèctrica d'una zona rural, industrial i metropolitana amb diferents característiques de demanda. L'optimització de l'operació de la xarxa es formula a partir de la linealització de les equacions de flux de potència AC per assegurar que s'opera sota els criteris de seguretat i limitacions del sistema: tensió en cada bus, corrent màxim, factor de potència, rampes dels generadors, etc. A més, es modelen els convertidors de potència dels DER per subministrar energia segons les seves corbes d'operació reals. L'estocasticitats'aplica tant als recursos meteorològics després d'una anàlisi de dades històriques, com a la demanda elèctrica sobre la base de l'estudi de valors de predicció i demanda reals. La implementació es realitza en AIMMS®i l'aproximació de les equacions de flux es verifica amb MATPOWER en MATLAB®

    Desarrollo y validación de un modelo dinámico para una pila de combustible tipo PEM

    Get PDF
    JORNADAS DE AUTOMÁTICA (27) (27.2006.ALMERÍA)El objetivo de este trabajo es realizar un modelo dinámico detallado de una pila de combustible tipo PEM de 1.2 kW de potencia nominal. El modelo desarrollado incluye efectos como el ’flooding’ y la dinámica de la temperatura y es de utilidad para poder diseñar y ensayar controles tanto de la válvula de purga como de la refrigeración de la pila mediante un ventilador. Se ha desarrollado un novedoso tratamiento de la ecuación experimental que modela la curva de polarización que simplifica considerablemente su caracterización. Por último el modelo realizado ha sido validado con datos tomados de una pila real

    Calibración y modelación hidrológica preliminar con énfasis en el ordenamiento y control de datos

    Get PDF
    Práctica Supervisada (IC)--FCEFN-UNC, 2013Expone la recopilación de antecedentes hidrológicos históricos de las cuencas del río Salado (Santa Fé), y del río Gualeguay (Entre Ríos). A posteriori, se llevó a cabo la calibración automática de un modelo hidrológico de origen francés, denominado Génie Rural (GR), a través de una metodología de optimización multi-objetivo, denominada Mocom-Ua, dicha metodología permitió calibrar el modelo en modo simulación y en modo pronóstic

    Exploración de la confluencia entre agroinformática, IoT, grandes datos y extracción del conocimiento

    Get PDF
    La agricultura es fuente de alimentos, de bienes de intercambio a nivel nacional e internacional y de recaudación a través de impuestos para los gobiernos, entre otras cosas. La mejora en el desempeño de este sector requiere de recursos e innovación, de forma de mejorar el acceso a nuevos mercados e incrementar la capacidad productiva. La cadena de producción agrícola es una candidata ideal para la aplicación combinada de tecnologías como Internet de las cosas, grandes datos y extracción del conocimiento, dado que esta contiene diversos procesos que requieren ser controlados y administrados donde contar con información precisa, concisa, oportuna y completa lleva a mejorar la planificación y el proceso de toma de decisiones. En este contexto, el presente trabajo, realiza un compendio del estado del arte de cuatro tópicos principales: Internet de las cosas (IoT), Grandes Datos, Extracción del conocimiento y Agroinformática. Para luego explorar la intersección de ellos con el foco puesto sobre las aplicaciones del agro.Facultad de Informátic

    Optimización multi-objetivo como herramienta de decisión frente a diversos escenarios de pronóstico hidrológico

    Get PDF
    Tesis (DCI)--FCEFN-UNC, 2018El acelerado crecimiento demográfico de las poblaciones ubicadas a las márgenes de los ríos, sumado a un mundo con escenarios climáticos futuros cada vez menos predecibles en términos fenomenológicos, conforma una combinación compleja que implica nuevos desafíos en el campo de la prevención de daños contra inundaciones. Los modelos de pronóstico hidrológico constituyen potentes herramientas capaces de predecir con suficiente anticipación los valores de caudales máximos esperados, y el tiempo en el cual se espera que ocurran dichos picos de crecida. Sin embargo, se han identificados dos situaciones típicas de operación que los vuelven vulnerables. En primer lugar, estos modelos se caracterizan por disponer de una estructura altamente dependiente de la información a tiempo real de los valores de caudal medidos en la sección de interés. Ahora bien, durante un evento de gran magnitud, existe un riesgo potencial de falla del sistema de transmisión de datos, produciendo en ocasiones una degradación parcial o una pérdida total de dicha información. En estos eventos, el modelo se vuelve simplemente de simulación, ejercicio para el cual otro modelo (o el mismo parametrizado distinto) podría dar resultados más confiables. En segundo lugar, el complejo entramado de los modernos sistemas de alerta temprana frente a inundaciones requiere la predicción de valores de caudal para distintos tiempos de antelación. En estos casos, el modelo es forzado a emitir valores de caudal para horizontes de pronóstico en los cuales no fue calibrado. En síntesis, no existe en la actualidad una estrategia de adaptación de los modelos que les permita operar en condiciones distintas para los cuales fueron calibrados. En esta tesis se aporta una herramienta que permite al operador del modelo de pronóstico adaptar su funcionamiento a diversos escenarios típicos de operación no contemplados a partir de la calibración convencional. Para ello, se desarrolló una versión mejorada del algoritmo MOCOM-UA de optimización multi-objetivo como metodología de confrontación de los diversos escenarios alternativos, lo cual permitió ofrecer soluciones de compromiso capaces de abordar a un mismo tiempo más de una situación posible. Los experimentos fueron llevados a cabo para la pequeña cuenca del río Moros al noroeste de Francia de sólo 20,97 km 2 . Los resultados mostraron que, para un gran número de casos, existe un juego de valores para los parámetros capaz de optimizar simultáneamente ambos escenarios confrontados, volviendo la optimización muti-objetivo no estrictamente necesaria. Sin embargo, para el resto de los casos, la determinación del óptimo para cada escenario es decisiva en relación al éxito del valor estimado, convirtiendo al frente de Pareto en una herramienta fundamental para la toma de decisiones del operador del sistema de pronóstico hidrológico. Finalmente, el método MOCOM-UA adaptado en esta tesis, demostró mayor robustez en alcanzar en los sucesivos experimentos el mismo frente de Pareto, por lo cual se recomienda su uso, en lugar del método original, para los experimentos de esta naturaleza.Fil: Alonso, Facundo José. Universidad Nacional de Córdoba. Facultad de Ciencias Exactas, Físicas y Naturales; Argentina
    corecore