387 research outputs found

    Model Order Reduction of External Power Systems

    Get PDF
    Model order reduction of external power systems remains a useful technique to reduce the computational efforts introduced by transient stability studies. In this paper, the equivalent of the 10-machine power system is build. By preserving the electrical power of those generators in the internal system following a disturbance, the problem is formulated as a single objective function solved by the novel Salp Swarm Algorithm (SSA). Furthermore, to fit the dynamic characteristics of the external system, the equivalent generator is expressed by the six-order model with excitation system. The results show the capability of the proposed methodology to imitate the dynamics of the external system. Quality of the estimated model is confirmed by several transient stability studies and the equivalent was able to preserve the dynamic properties of the original system with accuracy.La réduction d’ordre relative aux modèles des systèmes électriques externes reste une technique utile pour réduire les efforts de calcul introduits par les études de stabilité transitoire. Dans cet article, l'équivalent du système de 10 machines est construit. En préservant la puissance électrique de ces générateurs dans le système interne suite à une perturbation, le problème est formulé comme une fonction mono-objective résolue par l'algorithme Essaim Salpidae (ES). De plus, pour s'adapter aux caractéristiques dynamiques du système externe, le générateur équivalent est exprimé par un modèle du sixième ordre avec un système d'excitation. Les résultats montrent la capacité de la méthodologie proposée à imiter la dynamique du système externe. La qualité du modèle estimé est confirmée par plusieurs études de stabilité transitoire et l'équivalent a pu préserver les propriétés dynamiques du système initial avec précision

    Optimisation d'un hélicoptère tandem pour la surveillance maritime avec des rotors à vitesse variable

    Get PDF
    L'utilisation d'avions non-pilotés est une solution éprouvée dans le domaine de la surveillance maritime. Toutefois, l'utilisation d'hélicoptères non-pilotés est maintenant une alternative convoitée grâce aux bénéfices du décollage et de l'atterrissage vertical. Ces bénéfices permettent d'intégrer l'opération de l'aéronef au navire lui-même, permettant ainsi un déploiement immédiat. Le critère de performance le plus critique lors d'une mission de surveillance maritime est l'endurance, c'est-à-dire le temps de vol maximal de l'aéronef. De façon intrinsèque à leur principe de fonctionnement, les hélicoptères offrent une moins grande endurance que les avions. Il y a donc un intérêt majeur à améliorer l'autonomie de vol d'un hélicoptère lors d'une opération de surveillance maritime. Un concept prometteur pour augmenter l'endurance d'un hélicoptère est de diminuer la vitesse d'opération du rotor en plein vol. Ce mémoire présente les bénéfices potentiels de coupler le concept de rotor à vitesse variable avec un moteur à allumage commandé (gasoline) ou par compression (diesel). Jusqu'à maintenant, cette combinaison n'a pas été étudiée dans la littérature. Les études se sont plutôt limitées aux turbines à gaz, ce qui résulte en des effets conflictuels liés à la chute d'efficacité lors de la diminution de la vitesse d'opération. L'efficacité quasi-constante des moteurs à pistons permettrait donc de profiter du plein potentiel du concept de rotor à vitesse variable. Pour ce faire, un modèle de performance d'hélicoptère tandem est développé et validé expérimentalement avec le LX300 de Laflamme Aéro. Deux configurations du LX300 sont étudiées, soit l'une équipée d'un moteur à allumage par étincelle et l'autre par compression, et sont comparées. Il est démontré que la configuration du LX300 incorporant un moteur à allumage par compression bénéficie de gains plus importants que la configuration avec moteur à allumage par étincelle. Les bénéfices sont particulièrement intéressants pour des vols à grande capacité de carburant où jusqu'à 25% et 19% d'augmentation en autonomie et en rayon d'action sont réalisables respectivement pour la configuration diesel. La configuration équipée d'un moteur gasoline quant à elle offre des gains de 15% et 6% en autonomie et rayon d'action respectivement. La combinaison du concept de rotor à vitesse variable et d'un moteur à allumage par étincelle ou compression est donc une avenue prometteuse pour améliorer la performance d'hélicoptères non-pilotés pour accomplir des missions de surveillance maritime. Ces gains de performances se transfèrent aussi pour des missions de transport de charge lourde sur de longues distances

    Deep Variational Reinforcement Learning for POMDPs

    Full text link
    Many real-world sequential decision making problems are partially observable by nature, and the environment model is typically unknown. Consequently, there is great need for reinforcement learning methods that can tackle such problems given only a stream of incomplete and noisy observations. In this paper, we propose deep variational reinforcement learning (DVRL), which introduces an inductive bias that allows an agent to learn a generative model of the environment and perform inference in that model to effectively aggregate the available information. We develop an n-step approximation to the evidence lower bound (ELBO), allowing the model to be trained jointly with the policy. This ensures that the latent state representation is suitable for the control task. In experiments on Mountain Hike and flickering Atari we show that our method outperforms previous approaches relying on recurrent neural networks to encode the past

    Traitement et compression de données en temps réel en utilisant l’intelligence artificielle pour des détecteurs à haut débit

    Get PDF
    Le SLAC National Accelerator Laboratory démarrera bientôt la prochaine génération de lasers à électrons libres rayons X; le Linac Coherent Light Source - II (LCLS-II). Les expériences scientifiques rendues possibles par ce dernier conduisent à une génération de données qui dépassera le To/s. L’objectif global de la recherche proposée est de réduire la bande passante requise pour le transfert des données générées par les expériences qui auront lieu dans ces nouvelles installations. Pour ce faire, nous manipulons localement et en temps réel les données numériques rendues disponibles par un détecteur du SLAC National Accelerator Laboratory (la «CookieBox»), afin de compresser les données par discrimination événementielle. Cette compression rejette les données générées avec des impulsions de rayons X non conformes, ce qui diminue la bande passante globale. Les algorithmes existants ne permettent pas d’atteindre les requis en latence pour le traitement des données. En revanche, des algorithmes d’intelligence artificielle, comme le réseau de neurones artificiels, utilisent des opérations arithmétiques simples et parallélisables. Par conséquent, ces algorithmes démontrent le potentiel d’atteindre les requis en latence pour traiter les données générées par la «CookieBox». Malgré tout, la conception et l’utilisation d’algorithmes d’intelligence artificielle peuvent être incompatibles avec l’acquisition de données scientifiques en temps réel. Ainsi, ces travaux combinent des méthodes standards de compression de données avec les réseaux neuronaux. Cette approche permet d’atteindre la latence nécessaire pour la compression, en plus de minimiser l’empreinte matérielle nécessaire. Dans un premier temps, une méthode de quantification nonuniforme optimise la représentation de l’information à travers les données de la «CookieBox». La représentation plus dense permet de compresser les données en conservant les informations pertinentes qu’elles contiennent. Cela signifie que la taille des données est réduite sans perdre les informations importantes. Par la suite, un petit réseau neuronal utilise ces données afin de classifier les impulsions de rayons X en moins de 6 μs avec un taux de classification de 86 %. Il est possible d’atteindre une latence de moins de 2 μs en tolérant une baisse de 3 % sur le taux de classification. Les travaux de recherche proposés offrent une solution pour réduire la génération de données massives lors des expériences scientifiques de grande envergure tout en considérant les paradigmes liés à l’intelligence artificielle en science. La communauté scientifique pourra acquérir plus de données de meilleure qualité et les analyser plus rapidement, ce qui accélérera la recherche. Ces travaux auront des retombées directes sur la performance du détecteur visé, qui contribuera à la recherche fondamentale en structure des matériaux et des molécules biologiques. Plus encore, les outils de compression développés pourront être transférés à d’autres applications, par exemple en imagerie médicale et en informatique quantique

    Performance,ottimizzazioni e best-practice nei contratti Solidity di Ethereum

    Get PDF
    Gli smart contract sono a tutti gli effetti dei programmi eseguiti su una blockchain. Sulla piattaforma più diffusa, Ethereum, il gas è la tassa che si va a pagare ai miners in cambio dell'' esecuzione del codice presente sulla blockchain. Questo paradigma rappresenta una novità nell'informatica moderna ed apre le porte a nuove possibilità ma anche a nuove problematiche. In Ethereum quando si parla di performance non si intendono microsecondi di computazione risparmiati ma bensì un risparmio di gas, che si traduce in un reale risparmio economico. Analizzando i pochi studi presenti sul settore, verranno tracciate delle best-practice e ottimizzazioni possibili sull'utilizzo del gas, partendo dal bytecode generato in fase di compilazione sino ai costrutti di alto livello

    Un'applicazione iOS per il riconoscimento di medicinali mediante reti neurali

    Get PDF
    Negli ultimi anni il Machine Learning e svariate sue applicazioni si sono prepotentemente affermati in molte aree, sia dell'informatica che della vita quotidiana, a partire dalle semplici operazioni svolte con uno smartphone. Un campo in cui si sono avuti notevoli risultati è quello della Visione Artificiale, ovvero dare la possibilità ad una macchina di "vedere" ed apprendere informazioni da immagini e fotografie. In questa tesi si affronta il problema di riconoscere un medicinale partendo dalla foto di una pillola, attraverso la creazione di una rete neurale convoluzionale (o ConvNet) e soprattutto, della sua implementazione all'interno di un'applicazione iOS che possa permettere la classificazione in mobilità. Si partirà dal considerare gli aspetti teorici alla base delle reti neurali, per poi illustrare lo stato dell'arte e le caratteristiche specifiche del modello convoluzionale. In seguito, si illustrerà PillRecogNet, la ConvNet realizzata e specializzata nel riconoscimento di 12 medicinali, insieme ad alcune delle tecniche utilizzare per l'allenamento, quali il transfer learning ed il fine tuning, e le relative statistiche sull'accuratezza. Sebbene una rete neurale convoluzionale sia un modello computazionalmente oneroso, si mostrerà com'è stato possibile implementare PillRecogNet in un'applicazione per smartphone, descrivendo prima alcune delle possibile tecnologie utilizzabili e, in seguito, le scelte implementative effettuate al fine di poter sfruttare la capacità di calcolo delle GPU dei dispositivi mobili. Infine, si mostreranno i risultati promettenti ottenuti, sia riguardo l'esecuzione di un modello da circa 28 milioni di parametri in uno smartphone, sia riguardo possibili sviluppi futuri quali l'utilizzo dell'applicazione in campo medico per la supervisione di una terapia farmacologica da parte del personale sanitario

    Behavioural Cloning in Ambiente Simulato con Reti Neurali

    Get PDF
    Questa tesi descrive lo studio e l’implementazione di un sistema basilare di autopilota in cui vengano coniugati aspetti di Computer Graphics e tecnologie innovative del Machine Learning, nello specifico il "Behavioural Cloning", una metodologia di apprendimento supervisionato in cui le capacità cognitive possono essere carpite e riprodotte da un programma, attraverso l’imitazione. Perché ciò avvenga è necessario possedere un record di una serie di azioni logiche che un soggetto ha precedentemente registrato e memorizzato. Il programma di apprendimento utilizza queste informazioni per costruire una funzione che mappi l’input di un certo stato, al suo corrispondente output. In questa tesi si vedono questi principi applicati alla creazione di un veicolo virtuale a guida autonoma, e se ne descrivono le caratteristiche, sperimentando con nuove strategie e migliorie applicate al modello neurale

    Learning disentangled representations of satellite image time series in a weakly supervised manner

    Get PDF
    Cette thèse se focalise sur l'apprentissage de représentations de séries temporelles d'images satellites via des méthodes d'apprentissage non supervisé. Le but principal est de créer une représentation qui capture l'information la plus pertinente de la série temporelle afin d'effectuer d'autres applications d'imagerie satellite. Cependant, l'extraction d'information à partir de la donnée satellite implique de nombreux défis. D'un côté, les modèles doivent traiter d'énormes volumes d'images fournis par les satellites. D'un autre côté, il est impossible pour les opérateurs humains d'étiqueter manuellement un tel volume d'images pour chaque tâche (par exemple, la classification, la segmentation, la détection de changement, etc.). Par conséquent, les méthodes d'apprentissage supervisé qui ont besoin des étiquettes ne peuvent pas être appliquées pour analyser la donnée satellite. Pour résoudre ce problème, des algorithmes d'apprentissage non supervisé ont été proposés pour apprendre la structure de la donnée au lieu d'apprendre une tâche particulière. L'apprentissage non supervisé est une approche puissante, car aucune étiquette n'est nécessaire et la connaissance acquise sur la donnée peut être transférée vers d'autres tâches permettant un apprentissage plus rapide avec moins d'étiquettes. Dans ce travail, on étudie le problème de l'apprentissage de représentations démêlées de séries temporelles d'images satellites. Le but consiste à créer une représentation partagée qui capture l'information spatiale de la série temporelle et une représentation exclusive qui capture l'information temporelle spécifique à chaque image. On présente les avantages de créer des représentations spatio-temporelles. Par exemple, l'information spatiale est utile pour effectuer la classification ou la segmentation d'images de manière invariante dans le temps tandis que l'information temporelle est utile pour la détection de changement. Pour ce faire, on analyse plusieurs modèles d'apprentissage non supervisé tels que l'auto-encodeur variationnel (VAE) et les réseaux antagonistes génératifs (GANs) ainsi que les extensions de ces modèles pour effectuer le démêlage des représentations. Considérant les résultats impressionnants qui ont été obtenus par les modèles génératifs et reconstructifs, on propose un nouveau modèle qui crée une représentation spatiale et une représentation temporelle de la donnée satellite. On montre que les représentations démêlées peuvent être utilisées pour effectuer plusieurs tâches de vision par ordinateur surpassant d'autres modèles de l'état de l'art. Cependant, nos expériences suggèrent que les modèles génératifs et reconstructifs présentent des inconvénients liés à la dimensionnalité de la représentation, à la complexité de l'architecture et au manque de garanties sur le démêlage. Pour surmonter ces limitations, on étudie une méthode récente basée sur l'estimation et la maximisation de l'informations mutuelle sans compter sur la reconstruction ou la génération d'image. On propose un nouveau modèle qui étend le principe de maximisation de l'information mutuelle pour démêler le domaine de représentation. En plus des expériences réalisées sur la donnée satellite, on montre que notre modèle est capable de traiter différents types de données en étant plus performant que les méthodes basées sur les GANs et les VAEs. De plus, on prouve que notre modèle demande moins de puissance de calcul et pourtant est plus efficace. Enfin, on montre que notre modèle est utile pour créer une représentation qui capture uniquement l'information de classe entre deux images appartenant à la même catégorie. Démêler la classe ou la catégorie d'une image des autres facteurs de variation permet de calculer la similarité entre pixels et effectuer la segmentation d'image d'une manière faiblement supervisée.This work focuses on learning data representations of satellite image time series via an unsupervised learning approach. The main goal is to enforce the data representation to capture the relevant information from the time series to perform other applications of satellite imagery. However, extracting information from satellite data involves many challenges since models need to deal with massive amounts of images provided by Earth observation satellites. Additionally, it is impossible for human operators to label such amount of images manually for each individual task (e.g. classification, segmentation, change detection, etc.). Therefore, we cannot use the supervised learning framework which achieves state-of-the-art results in many tasks.To address this problem, unsupervised learning algorithms have been proposed to learn the data structure instead of performing a specific task. Unsupervised learning is a powerful approach since no labels are required during training and the knowledge acquired can be transferred to other tasks enabling faster learning with few labels.In this work, we investigate the problem of learning disentangled representations of satellite image time series where a shared representation captures the spatial information across the images of the time series and an exclusive representation captures the temporal information which is specific to each image. We present the benefits of disentangling the spatio-temporal information of time series, e.g. the spatial information is useful to perform time-invariant image classification or segmentation while the knowledge about the temporal information is useful for change detection. To accomplish this, we analyze some of the most prevalent unsupervised learning models such as the variational autoencoder (VAE) and the generative adversarial networks (GANs) as well as the extensions of these models to perform representation disentanglement. Encouraged by the successful results achieved by generative and reconstructive models, we propose a novel framework to learn spatio-temporal representations of satellite data. We prove that the learned disentangled representations can be used to perform several computer vision tasks such as classification, segmentation, information retrieval and change detection outperforming other state-of-the-art models. Nevertheless, our experiments suggest that generative and reconstructive models present some drawbacks related to the dimensionality of the data representation, architecture complexity and the lack of disentanglement guarantees. In order to overcome these limitations, we explore a recent method based on mutual information estimation and maximization for representation learning without relying on image reconstruction or image generation. We propose a new model that extends the mutual information maximization principle to disentangle the representation domain into two parts. In addition to the experiments performed on satellite data, we show that our model is able to deal with different kinds of datasets outperforming the state-of-the-art methods based on GANs and VAEs. Furthermore, we show that our mutual information based model is less computationally demanding yet more effective. Finally, we show that our model is useful to create a data representation that only captures the class information between two images belonging to the same category. Disentangling the class or category of an image from other factors of variation provides a powerful tool to compute the similarity between pixels and perform image segmentation in a weakly-supervised manner

    Uncertainty Maximization in Partially Observable Domains: A Cognitive Perspective

    Get PDF
    Faced with an ever-increasing complexity of their domains of application, artificial learning agents are now able to scale up in their ability to process an overwhelming amount of information coming from their interaction with an environment. However, this process of scaling does come with a cost of encoding and processing an increasing amount of redundant information that is not necessarily beneficial to the learning process itself. This work exploits the properties of the learning systems defined over partially observable domains by selectively focusing on the specific type of information that is more likely to express the causal interaction among the transitioning states of the environment. Adaptive masking of the observation space based on the temporal difference displacement\textit{temporal difference displacement} criterion enabled a significant improvement in convergence of temporal difference algorithms defined over a partially observable Markov process
    • …
    corecore