77 research outputs found

    Incorporating Second-Order Functional Knowledge for Better Option Pricing

    Get PDF
    Incorporating prior knowledge of a particular task into the architecture of a learning algorithm can greatly improve generalization performance. We study here a case where we know that the function to be learned is non-decreasing in its two arguments and convex in one of them. For this purpose we propose a class of functions similar to multi-layer neural networks but (1) that has those properties, (2) is a universal approximator of continuous functions with these and other properties. We apply this new class of functions to the task of modeling the price of call options. Experiments show improvements on regressing the price of call options using the new types of function classes that incorporate the a priori constraints. Incorporer une connaissance a priori pour une tache particulière aux algorithmes d'apprentissage peut grandement améliorer leur performance en généralisation. Dans cet article, nous étudions un cas où nous savons que la fonction à apprendre est non-décroissante pour ses deux arguments, et convexe pour l'un d'entre eux. Pour ce cas particulier, nous proposons une classe de fonctions similaires aux réseaux de neurones multi-couches mais (1) avec les propriétés mentionnées plus haut, et (2) est un approximateur universel de fonctions continues avec ces propriétés et avec d'autres. Nous appliquons cette nouvelle classe de fonctions au problème de la modélisation du prix des options d'achat. Nos expériences montrent une amélioration pour la régression sur ces prix d'options d'achat lorsque nous utilisons la nouvelle classe de fonctions qui incorporent les contraintes a priori.Prior knowledge, learning algorithm, universal approximator, call options, Connaissance a priori, algorithme d'apprentissage, approximateur universel, options d'achat

    Adaptive Smoothing in fMRI Data Processing Neural Networks

    Full text link
    Functional Magnetic Resonance Imaging (fMRI) relies on multi-step data processing pipelines to accurately determine brain activity; among them, the crucial step of spatial smoothing. These pipelines are commonly suboptimal, given the local optimisation strategy they use, treating each step in isolation. With the advent of new tools for deep learning, recent work has proposed to turn these pipelines into end-to-end learning networks. This change of paradigm offers new avenues to improvement as it allows for a global optimisation. The current work aims at benefitting from this paradigm shift by defining a smoothing step as a layer in these networks able to adaptively modulate the degree of smoothing required by each brain volume to better accomplish a given data analysis task. The viability is evaluated on real fMRI data where subjects did alternate between left and right finger tapping tasks.Comment: 4 pages, 3 figures, 1 table, IEEE 2017 International Workshop on Pattern Recognition in Neuroimaging (PRNI

    Valorisation d'options par optimisation du Sharpe Ratio

    Get PDF
    Prior work on option pricing falls mostly in two categories: it either relies on strong distributional or economical assumptions, or it tries to mimic the Black-Scholes formula through statistical models, trained to fit today's market price based on information available today. The work presented here is closer to the second category but its objective is different: predict the future value of the option, and establish its current value based on a trading scenario. This work thus innovates in two ways: first it proposes an empirical and hypothesis-free method to compare different option pricing systems (by having trade against each other or against the market), second it uses this criterion to train a non-parametric statistical model (here based on neural networks) to estimate a price for the option that maximizes the expected utility when trading against the market. Note that the price will depend on the utility function and current portfolio (i.e. current risks) of the trading agent. Preliminary experiments are presented on the S&P 500 options. Les travaux précédents sur la valorisation des options entraient en gros dans deux catégories : ou bien ils étaient basés sur de fortes hypothèses distributionnelles ou économiques, ou bien ils essayaient d'imiter la formule de Black-Scholes par des modèles statistiques entraînés à approximer les prix de marché quotidiens à l'aide d'information disponible le jour même. Le travail présenté ici se rapproche plus de la deuxième catégorie mais son objectif est différent : prédire les prix futurs d'une option, et établir sa valeur courante à l'aide d'un scénario de transactions. Ce travail innove donc de deux façons : premièrement, il propose une méthode empirique et sans hypothèse pour comparer différents systèmes de valorisation d'options (en transigeant contre lui-même ou contre le marché) et deuxièmement, il utilise ce critère pour entraîner un modèle statistique non-paramétrique (utilisant dans ce cas-ci des réseaux de neurones) pour estimer un prix pour l'option qui maximise l'utilité espérée lorsque l'on transige contre le marché. À noter que les prix dépendront de la fonction d'utilité ainsi que du portefeuille (i.e. des risques courants) de la personne qui transige. Des résultats préliminaires sur des options d'achat du S&P 500 sont présentés.Black-Scholes, option pricing, non-parametric statistical model, Black-Scholes, valorisation d'options, modèle statistique non-paramétrique

    Hyperparameters analysis of long short-term memory architecture for crop classification

    Get PDF
    Deep learning (DL) has seen a massive rise in popularity for remote sensing (RS) based applications over the past few years. However, the performance of DL algorithms is dependent on the optimization of various hyperparameters since the hyperparameters have a huge impact on the performance of deep neural networks. The impact of hyperparameters on the accuracy and reliability of DL models is a significant area for investigation. In this study, the grid Search algorithm is used for hyperparameters optimization of long short-term memory (LSTM) network for the RS-based classification. The hyperparameters considered for this study are, optimizer, activation function, batch size, and the number of LSTM layers. In this study, over 1,000 hyperparameter sets are evaluated and the result of all the sets are analyzed to see the effects of various combinations of hyperparameters as well the individual parameter effect on the performance of the LSTM model. The performance of the LSTM model is evaluated using the performance metric of minimum loss and average loss and it was found that classification can be highly affected by the choice of optimizer; however, other parameters such as the number of LSTM layers have less influence

    Multi-Task Learning For Option Pricing

    Get PDF
    Multi-task learning is a process used to learn domain-specific bias. It consists in simultaneously training models on different tasks derived from the same domain and forcing them to exchange domain information. This transfer of knowledge is performed by imposing constraints on the parameters defining the models and can lead to improved generalization performance. In this paper, we explore a particular multi-task learning method that forces the parameters of the models to lie on an affine manifold defined in parameter space and embedding domain information. We apply this method to the prediction of the prices of call options on the S&P index for a period of time ranging from 1987 to 1993. An analysis of variance of the results is presented that shows significant improvements of the generalization performance. L'apprentissage multi-tâches est une manière d'apprendre des particularités d'un domaine (le biais) qui comprend plusieurs tâches possibles. On entraîne simultanément plusieurs modèles, un par tâche, en imposant des contraintes sur les paramètres de manière à capturer ce qui est en commun entre les tâches, afin d'obtenir une meilleure généralisation sur chaque tâche, et pour pouvoir rapidement généraliser (avec peu d'exemples) sur une nouvelle tâche provenant du même domaine. Ici cette commonalité est définie par une variété affine dans l'espace des paramètres. Dans cet article, nous appliquons ces méthodes à la prédiction du prix d'options d'achat de l'indice S&P 500 entre 1987 et 1993. Une analyse de la variance des résultats est présentée, démontrant des améliorations significatives de la prédiction hors-échantillon.option call pricing, multi-task learning, artificial neural networks, valorisation d'options d'achat, apprentissage multi-tâches, réseau de neurones artificiels

    Forecasting Non-Stationary Volatility with Hyper-Parameters

    Get PDF
    We consider sequential data that is sampled from an unknown process, so that the data are not necessarily iid. We develop a measure of generalization for such data and we consider a recently proposed approach to optimizing hyper-parameters, based on the computation of the gradient of a model selection criterion with respect to hyper-parameters. Hyper-parameters are used to give varying weights in the historical data sequence. The approach is successfully applied to modeling the volatility of Canadian stock returns one month ahead. Nous considérons des données séquentielles échantillonnées à partir d'un processus inconnu, donc les données ne sont pas nécessairement iid. Nous développons une mesure de généralisation pour de telles données et nous considérons une approche récemment proposée pour optimiser les hyper-paramètres qui est basée sur le calcul du gradient d'un critère de sélection de modèle par rapport à ces hyper-paramètres. Les hyper-paramètres sont utilisés pour donner différents poids dans la séquence de données historiques. Notre approche est appliquée avec succès à la modélisation de la volatilité des rendements d'actions canadiennes sur un horizon de un mois.Sequential data, hyper-parameters, generalization, stock returns, volatility., Données séquentielles, hyper-paramètres, généralisation, rendement d'actions, volatilité

    Unsupervised Sparse Dirichlet-Net for Hyperspectral Image Super-Resolution

    Full text link
    In many computer vision applications, obtaining images of high resolution in both the spatial and spectral domains are equally important. However, due to hardware limitations, one can only expect to acquire images of high resolution in either the spatial or spectral domains. This paper focuses on hyperspectral image super-resolution (HSI-SR), where a hyperspectral image (HSI) with low spatial resolution (LR) but high spectral resolution is fused with a multispectral image (MSI) with high spatial resolution (HR) but low spectral resolution to obtain HR HSI. Existing deep learning-based solutions are all supervised that would need a large training set and the availability of HR HSI, which is unrealistic. Here, we make the first attempt to solving the HSI-SR problem using an unsupervised encoder-decoder architecture that carries the following uniquenesses. First, it is composed of two encoder-decoder networks, coupled through a shared decoder, in order to preserve the rich spectral information from the HSI network. Second, the network encourages the representations from both modalities to follow a sparse Dirichlet distribution which naturally incorporates the two physical constraints of HSI and MSI. Third, the angular difference between representations are minimized in order to reduce the spectral distortion. We refer to the proposed architecture as unsupervised Sparse Dirichlet-Net, or uSDN. Extensive experimental results demonstrate the superior performance of uSDN as compared to the state-of-the-art.Comment: Accepted by The IEEE Conference on Computer Vision and Pattern Recognition (CVPR 2018, Spotlight

    Addressing Dynamism in E-negotiations by Workflow Management Systems

    Get PDF
    Workflows (Wfs) are a major enabling technology for e-commerce. In our research, a Combined Negotiation (CN) is modeled and enacted using Wf technology. The modeling task captures the sequencing of the individual negotiations as well as the dependencies between them, and the enacting task runs the model. A CN support system (CONSENSUS) is used by the user to perform both tasks. Supporting dynamic modifications to the model during run-time should increase the benefits of our approach. In this paper, we highlight the need for such support by identifying the dynamic aspects that can occur while negotiating the different items of a package (i.e., the CN object). To address these aspects, we experimented using ADEPT, a Wf Management System supporting dynamism. This leads us to discuss the Wf Reference Model of the Wf Management Coalition, and suggest a "dynamic" extension to the current functional areas and architecture. La technologie des Workflows (Wfs) s'est avérée importante pour le commerce électronique. Dans le cadre de notre recherche, une négociation combinée (CN) est modélisée et exécutée utilisant un Wf. La phase de modélisation capture la séquence des différentes négociations ainsi que les dépendances qui existent entre elles. La phase d'exécution quant à elle, permet comme son nom l'indique, d'exécuter le modèle. Un système de support pour les CN (CONSENSUS) est utilisé pour accomplir ces deux tâches. Supporter les modifications dynamiques du modèle lors de l'exécution devrait augmenter les bénéfices de notre approche. Dans cet article, nous mettons l'emphase sur le besoin d'un tel support, ceci en identifiant les aspects dynamiques qui peuvent apparaître lors de la négociation des différents items d'un package (i.e., l'objet de la CN). Nous utilisons ADEPT - un système de gestion de Wf qui supporte le dynamisme - pour étudier ces aspects. Ceci nous mène à discuter le modèle de référence de la Wf Management Coalition, et à proposer une extension "dynamique" à l'architecture actuelle.e-Negotiations, Sourcing, Workflows, Workflow management systems, Dynamism, Négociations électroniques, Approvisionnement, Workflows, Systèmes de gestion de Workflow, Dynamisme

    Valorisation d'options par optimisation du Sharpe Ratio

    Get PDF
    Les travaux précédents sur la valorisation des options entraient en gros dans deux catégories : ou bien ils étaient basés sur de fortes hypothèses distributionnelles ou économiques, ou bien ils essayaient d'imiter la formule de Black-Scholes par des modèles statistiques entraînés à approximer les prix de marché quotidiens à l'aide d'information disponible le jour même. Le travail présenté ici se rapproche plus de la deuxième catégorie mais son objectif est différent : prédire les prix futurs d'une option, et établir sa valeur courante à l'aide d'un scénario de transactions. Ce travail innove donc de deux façons : premièrement, il propose une méthode empirique et sans hypothèse pour comparer différents systèmes de valorisation d'options (en transigeant contre lui-même ou contre le marché) et deuxièmement, il utilise ce critère pour entraîner un modèle statistique non-paramétrique (utilisant dans ce cas-ci des réseaux de neurones) pour estimer un prix pour l'option qui maximise l'utilité espérée lorsque l'on transige contre le marché. À noter que les prix dépendront de la fonction d'utilité ainsi que du portefeuille (i.e. des risques courants) de la personne qui transige. Des résultats préliminaires sur des options d'achat du S&P 500 sont présentés.Prior work on option pricing falls mostly in two categories: it either relies on strong distributional or economical assumptions, or it tries to mimic the Black-Scholes formula through statistical models, trained to fit today's market price based on information available today. The work presented here is closer to the second category but its objective is different: predict the future value of the option, and establish its current value based on a trading scenario. This work thus innovates in two ways: first it proposes an empirical and hypothesis-free method to compare different option pricing systems (by having trade against each other or against the market), second it uses this criterion to train a non-parametric statistical model (here based on neural networks) to estimate a price for the option that maximizes the expected utility when trading against the market. Note that the price will depend on the utility function and current portfolio (i.e. current risks) of the trading agent. Preliminary experiments are presented on the S&P 500 options
    corecore