64 research outputs found

    Fractional LWE: a nonlinear variant of LWE

    Get PDF
    Many cryptographic constructions are based on the famous problem LWE \cite{LWERegev05}. In particular, this cryptographic problem is currently the most relevant to build FHE. In some LWE-based schemes, encrypting xx consists of randomly choosing a vector cc satisfying s,c=x+noise(modq)\langle s,c\rangle=x+\textsf{noise}\pmod q where ss is a secret size-nn vector. While the vector sum is a homomorphic operator, such a scheme is intrinsically vulnerable to lattice-based attacks. To overcome this, we propose to define cc as a pair of vectors (u,v)(u,v) satisfying s,u/s,v=x+noise(modq)\langle s,u\rangle/\langle s,v\rangle=x+\textsf{noise}\pmod q. This simple scheme is based on a new cryptographic problem intuitively not easier than LWE, called Fractional LWE (FLWE). While some homomorphic properties are lost, the secret vector ss could be hopefully chosen shorter leading to more efficient constructions. We extensively study the hardness of FLWE. We first prove that the decision and search versions are equivalent provided qq is a \textit{small} prime. We then propose lattice-based cryptanalysis showing that nn could be chosen logarithmic in logq\log q

    Simultaneous Clustering and Model Selection for Multinomial Distribution: A Comparative Study

    Get PDF
    International audienceIn this paper, we study different discrete data clustering methods, which use the Model-Based Clustering (MBC) framework with the Multinomial distribution. Our study comprises several relevant issues, such as initialization, model estimation and model selection. Additionally, we propose a novel MBC method by efficiently combining the partitional and hierarchical clustering techniques. We conduct experiments on both synthetic and real data and evaluate the methods using accuracy, stability and computation time. Our study identifies appropriate strategies to be used for discrete data analysis with the MBC methods. Moreover, our proposed method is very competitive w.r.t. clustering accuracy and better w.r.t. stability and computation time

    Coastal zone management in the fisheries sector program

    Get PDF
    International audienceThis paper presents an analysis of censored survival data for breast cancer specific mortality and disease-free survival. There are three stages to the process, namely time-to-event modelling, risk stratification by predicted outcome and model interpretation using rule extraction. Model selection was carried out using the benchmark linear model, Cox regression but risk staging was derived with Cox regression and with Partial Logistic Regression Artificial Neural Networks regularised with Automatic Relevance Determination (PLANN-ARD). This analysis compares the two approaches showing the benefit of using the neural network framework especially for patients at high risk. The neural network model also has results in a smooth model of the hazard without the need for limiting assumptions of proportionality. The model predictions were verified using out-of-sample testing with the mortality model also compared with two other prognostic models called TNG and the NPI rule model. Further verification was carried out by comparing marginal estimates of the predicted and actual cumulative hazards. It was also observed that doctors seem to treat mortality and disease-free models as equivalent, so a further analysis was performed to observe if this was the case. The analysis was extended with automatic rule generation using Orthogonal Search Rule Extraction (OSRE). This methodology translates analytical risk scores into the language of the clinical domain, enabling direct validation of the operation of the Cox or neural network model. This paper extends the existing OSRE methodology to data sets that include continuous-valued variables

    Réseaux Bayésiens

    No full text
    International audienc

    Réseaux Bayésiens

    No full text
    International audienc

    Combining imperfect knowledge of maybe corrupted sources

    No full text
    International audienceMany data management applications, such as setting up Web portals, managing enterprise data, managing community data, and sharing scientific data, require integrating data from multiple sources. Each of these sources provides a set of values and different sources can often provide conflicting values. To discover the true values, data integration systems should resolve conflicts. In this paper, we present a formal probabilistic framework in the expert/authority setting. Each expert has a partial and maybe imperfect view of a binary target tuple b that an authority wishes recovering. The goal of this paper consists of proposing a multi-party aggregating function of experts' views to recover b with an error rate as small as possible. In addition, it is assumed that some of the experts are corrupted by an adversary A. This adversary controls and coordinates the behavior of the corrupted experts and can thus perturb the aggregating process. In this paper, we present a simple aggregating function and we provide a formal upper-bound over of the output tuple error expectation in the worst case, i.e. whatever the behavior of the adversary is

    Analyse critique des algorithmes EDA dans le cadre de l'apprentissage de structure de réseaux Bayésiens

    No full text
    12 pagesRécemment, une nouvelle classe d'algorithmes d'optimisation baptisée EDA (pour estimation of distribution algorithms) a montré son efficacité sur le problème de l'apprentissage de structure de réseaux Bayésiens. Pour cela, les chercheurs ont comparé les EDA avec des algorithmes génétiques. Dans cet article nous proposons de comparer les EDA avec un algorithme à base de score reconnu comme performant : GES. L'objectif de ce travail est de réaliser une analyse critique des EDA dans ce cadre

    Recherche de structure d'un réseau Bayésien par métaheuristiques

    No full text
    National audienceLes réseaux bayésiens sont des modèles graphiques et probabilistes de plus en plus utilisés en aide à la décision. Ils permettent de prédire, analyser, simuler ou contrôler le comportement d'un système. Une des problématiques est la construction automatique de la structure à partir de données observées. Dans cet article nous nous interessons à l'exploration de l'espace complet des réseaux en utilisant le score BIC. Nous proposons de comparer les performances de deux métaheuristiques, les algorithmes génétiques et les colonies de fourmis avec d'autres algorithmes connus. Nous présenterons tout d'abord nos choix algorithmiques pour la mise en place de ces deux métaheuristiques, puis les résultats de construction des structures

    Base de connaissances anatomo-fonctionnelles : application au cerveau et au coeur

    No full text
    National audienceLes articles de ce numéro représentent une partie des résultats de trois années de travail d’un projet interrégional ayant pour but la construction d’une base de connaissances sur le cœur et le cerveau. L’objectif de ce projet était l’extraction et la représentation des connaissances de ces deux organes vitaux dans les domaines anatomique et fonctionnel. Un modèle de représentation et d’organisation des données et des connaissances actuelles sur le cerveau et le cœur a été élaboré. Un des buts de ce travail était d’aider, dans le cas du cerveau, à la recherche des bases neurales des fonctions cognitives et comportementales chez l’homme, et d’aider à mieux comprendre les pathologies ischémiques pour ce qui est du cœur.Il s’agit d’utiliser la modélisation mathématique et les technologies avancées de l’informatique afin de mettre en œuvre une base de données anatomo-fonctionnelles permettant le recueil et la mise en corrélation des données fonctionnelles et des données anatomiques. Ce projet met en avant le rôle fondamental des mathématiques et de l’informatique dans le domaine médical
    corecore