14 research outputs found

    JFPC 2019 - Actes des 15es Journées Francophones de Programmation par Contraintes

    Get PDF
    National audienceLes JFPC (JournĂ©es Francophones de Programmation par Contraintes) sont le principal congrĂšs de la communautĂ© francophone travaillant sur les problĂšmes de satisfaction de contraintes (CSP), le problĂšme de la satisfiabilitĂ© d'une formule logique propositionnelle (SAT) et/ou la programmation logique avec contraintes (CLP). La communautĂ© de programmation par contraintes entretient Ă©galement des liens avec la recherche opĂ©rationnelle (RO), l'analyse par intervalles et diffĂ©rents domaines de l'intelligence artificielle.L'efficacitĂ© des mĂ©thodes de rĂ©solution et l'extension des modĂšles permettent Ă  la programmation par contraintes de s'attaquer Ă  des applications nombreuses et variĂ©es comme la logistique, l'ordonnancement de tĂąches, la conception d'emplois du temps, la conception en robotique, l'Ă©tude du gĂ©nĂŽme en bio-informatique, l'optimisation de pratiques agricoles, etc.Les JFPC se veulent un lieu convivial de rencontres, de discussions et d'Ă©changes pour la communautĂ© francophone, en particulier entre doctorants, chercheurs confirmĂ©s et industriels. L'importance des JFPC est reflĂ©tĂ©e par la part considĂ©rable (environ un tiers) de la communautĂ© francophone dans la recherche mondiale dans ce domaine.PatronnĂ©es par l'AFPC (Association Française pour la Programmation par Contraintes), les JFPC 2019 ont lieu du 12 au 14 Juin 2019 Ă  l'IMT Mines Albi et sont organisĂ©es par Xavier Lorca (prĂ©sident du comitĂ© scientifique) et par Élise Vareilles (prĂ©sidente du comitĂ© d'organisation)

    Contribution à la Spécification et à la Vérification des Exigences Temporelles (Proposition d'une extension des SRS d'ERTMS niveau 2)

    Get PDF
    Les travaux dĂ©veloppĂ©s dans cette thĂšse visent Ă  assister le processus d ingĂ©nierie des exigences temporelles pour les systĂšmes complexes Ă  contraintes de temps. Nos contributions portent sur trois volets : la spĂ©cification des exigences, la modĂ©lisation du comportement et la vĂ©rification. Pour le volet spĂ©cification, une nouvelle classification des exigences temporelles les plus communĂ©ment utilisĂ©es a Ă©tĂ© proposĂ©e. Ensuite, afin de cadrer l utilisateur durant l expression des exigences, une grammaire de spĂ©cification Ă  base de motifs prĂ©dĂ©finis en langage naturel est dĂ©veloppĂ©e. Les exigences gĂ©nĂ©rĂ©es sont syntaxiquement prĂ©cises et correctes quand elles sont prises individuellement, nĂ©anmoins cela ne garantie pas la cohĂ©rence de l ensemble des exigences exprimĂ©es. Ainsi, nous avons dĂ©veloppĂ© des mĂ©canismes capables de dĂ©tecter certains types d incohĂ©rences entre les exigences temporelles. Pour le volet modĂ©lisation du comportement, nous avons proposĂ© un algorithme de transformation des state-machine avec des annotations temporelles en des automates temporisĂ©s. L idĂ©e Ă©tant de manipuler une notation assez intuitive et de gĂ©nĂ©rer automatiquement des modĂšles formels qui se prĂȘtent Ă  la vĂ©rification. Finalement, pour le volet vĂ©rification, nous avons adoptĂ© une technique de vĂ©rification Ă  base d observateurs et qui repose sur le model-checking. ConcrĂštement, nous avons Ă©laborĂ© une base de patterns d observation (ou observateurs) ; chacun des patterns dĂ©veloppĂ©s est relatif Ă  un type d exigence temporelle dans la nouvelle classification. Ainsi, la vĂ©rification est rĂ©duite Ă  une analyse d accessibilitĂ© des Ă©tats correspondants Ă  la violation de l exigence associĂ©eThe work developed in this thesis aims to assist the engineering process of temporal requirements for time-constrained complex systems. Our contributions concern three phases: the specification, the behaviour modelling and the verification. For the specification of temporal requirements, a new temporal properties typology taking into account all the common requirements one may meet when dealing with requirements specification, is introduced. Then, to facilitate the expression, we have proposed a structured English grammar. Nevertheless, even if each requirement taken individually is correct, we have no guarantee that a set of temporal properties one may express is consistent. Here we have proposed an algorithm based on graph theory techniques to check the consistency of temporal requirements sets. For the behaviour modelling, we have proposed an algorithm for transforming UML State Machine with time annotations into Timed Automata (TA). The idea is to allow the user manipulating a quite intuitive notation (UML SM diagramsduring the modelling phase and thereby, automatically generate formal models (TA) that could be used directly by the verification process. Finally, for the verification phase, we have adopted an observer-based technique. Actually, we have developed a repository of observation patterns where each pattern is relative to a particular temporal requirement class in our classification. Thereby, the verification process is reduced to a reachability analysis of the observers KO states relatives to the requirements violationVILLENEUVE D'ASCQ-ECLI (590092307) / SudocSudocFranceF

    Caractérisation de visualisations et exploration interactive de grandes quantités de données multidimensionnelles

    Get PDF
    A great number of activities use IS (Information Systems) relying on interactive graphic visualizations. As a vector for the transmission of information, these visualizations aim at optimizing the bandwidth between the user and the visual information. To create effective visualizations, designers use methods based on their expertise and user tests. These methods affect the design process, they are time consuming, and they do not rely on specific detailed theories, which could avoid, in advance, errors of conception. In order to better study these visualizations, we propose to characterize them, which means to systematically number and define their properties explaining all the visual phenomena that enable transmission of information. The thesis that we hold to, consists in saying that the characterization of a visualization is important for their conception, and that their exploitation in the light of these methods and tools enable the creation of better interactive systems. Thus, we have determined that a characterization is composed of two elements: its contents and the way in which its content take form. We will show that the DataFlow model, a model that usually permits the description of the construction of the visualization, does not accomplish a sufficiently complete characterization. We will propose other models enabling characterization of the dynamic aspects, emerging information (notably those issuing from so-called "ecological" design) and especially graphic accumulation. In using visualization issuing from the milieu of air transportation, we will show how the characterization enables the understanding of their similarities and differences, to remove the ambiguities from the communication between designers and to conceive of, for example, a new schematic visualization of air routes. In addition, we have adapted the process to transform a collection of data into a visualization in the form of an exploration software of large numbers of multidimensional data. This software relies notably on an exploration of visual configuration and on a collection of original interactions with powerful implementation. FromDaDy (From Data to Display) enables the configuration and manipulation, in real-time, of rich and original visualizations, such as those using graphical accumulation.Un grand nombre d'activités utilise des outils informatisés s'appuyant sur des représentations graphiques interactives. En tant que vecteurs de transmission d'informations, ces visualisations visent à optimiser la bande passante entre le visuel et l'utilisateur. Pour créer des visualisations efficaces, les concepteurs utilisent des méthodes basées sur leur expertise et sur des tests utilisateurs. Ces méthodes altÚrent le processus de design : elles sont chronophages et ne reposent pas sur des fondements théoriques précis qui pourraient éviter des erreurs de conception en amont. Afin de mieux étudier les visualisations, nous proposons de les caractériser, c'est-à-dire d'en énumérer et d'en définir systématiquement les propriétés, tout en explicitant les phénomÚnes visuels qui engendrent la transmission d'informations. La thÚse que nous soutenons consiste à dire que la caractérisation des visualisations est importante pour leurs conceptions, et que son opérationnalisation par des méthodes et des outils permet de concevoir de meilleurs systÚmes interactifs. Ainsi, nous avons déterminé qu'une caractérisation est composée de deux éléments : son contenu et sa mise en forme. Nous montrons que le modÚle de Data Flow, modÚle usuel permettant la description de la construction de visualisations, ne permet pas de les caractériser. Nous proposons d'autres modÚles qui permettent de caractériser l'aspect dynamique, les informations émergentes (et notamment celles issues des visualisations dites "écologiques"), ainsi que l'accumulation graphique. En utilisant des visualisations issues du milieu du transport aérien, nous montrons comment la caractérisation permet de comprendre leurs similitudes et leurs différences, de lever les ambiguïtés de communication entre concepteurs, et de concevoir, par exemple, une nouvelle visualisation schématique de routes aériennes. Enfin, nous avons réifié le processus de transformation d'un ensemble de données vers une visualisation sous la forme d'un logiciel d'exploration et de visualisation de grandes quantités de données multidimensionnelles : From Data To Display (FromDaDy). Ce logiciel s'appuie notamment sur l'exploration des configurations visuelles, et sur un ensemble d'interactions originales avec une implémentation performante. FromDady permet de configurer et de manipuler en temps réel des visualisations riches et originales, comme celles utilisant l'accumulation

    Représentations des polynÎmes, algorithmes et bornes inférieures

    Get PDF
    La complexitĂ© algorithmique est l'Ă©tude des ressources nĂ©cessaires le temps, la mĂ©moire, pour rĂ©soudre un problĂšme de maniĂšre algorithmique. Dans ce cadre, la thĂ©orie de la complexitĂ© algĂ©brique est l'Ă©tude de la complexitĂ© algorithmique de problĂšmes de nature algĂ©brique, concernant des polynĂŽmes.Dans cette thĂšse, nous Ă©tudions diffĂ©rents aspects de la complexitĂ© algĂ©brique. D'une part, nous nous intĂ©ressons Ă  l'expressivitĂ© des dĂ©terminants de matrices comme reprĂ©sentations des polynĂŽmes dans le modĂšle de complexitĂ© de Valiant. Nous montrons que les matrices symĂ©triques ont la mĂȘme expressivitĂ© que les matrices quelconques dĂšs que la caractĂ©ristique du corps est diffĂ©rente de deux, mais que ce n'est plus le cas en caractĂ©ristique deux. Nous construisons Ă©galement la reprĂ©sentation la plus compacte connue du permanent par un dĂ©terminant. D'autre part, nous Ă©tudions la complexitĂ© algorithmique de problĂšmes algĂ©briques. Nous montrons que la dĂ©tection de racines dans un systĂšme de n polynĂŽmes homogĂšnes Ă  n variables est NP-difficile. En lien avec la question VP = VNP ? , version algĂ©brique de P = NP ? , nous obtenons une borne infĂ©rieure pour le calcul du permanent d'une matrice par un circuit arithmĂ©tique, et nous exhibons des liens unissant ce problĂšme et celui du test d'identitĂ© polynomiale. Enfin nous fournissons des algorithmes efficaces pour la factorisation des polynĂŽmes lacunaires Ă  deux variables.Computational complexity is the study of the resources time, memory, needed to algorithmically solve a problem. Within these settings, algebraic complexity theory is the study of the computational complexity of problems of algebraic nature, concerning polynomials. In this thesis, we study several aspects of algebraic complexity. On the one hand, we are interested in the expressiveness of the determinants of matrices as representations of polynomials in Valiant's model of complexity. We show that symmetric matrices have the same expressiveness as the ordinary matrices as soon as the characteristic of the underlying field in different from two, but that this is not the case anymore in characteristic two. We also build the smallest known representation of the permanent by a determinant.On the other hand, we study the computational complexity of algebraic problems. We show that the detection of roots in a system of n homogeneous polynomials in n variables in NP-hard. In line with the VP = VNP ? question, which is the algebraic version of P = NP? we obtain a lower bound for the computation of the permanent of a matrix by an arithmetic circuit, and we point out the links between this problem and the polynomial identity testing problem. Finally, we give efficient algorithms for the factorization of lacunary bivariate polynomials.LYON-ENS Sciences (693872304) / SudocSudocFranceF

    Modélisation multi-échelles de la morphologie urbaine à partir de données carroyées de population et de bùti

    Get PDF
    Since a couple of decades the relationships between urban form and travel patterns are central to reflection on sustainable urban planning and transport policy. The increasing distribution of regular grid data is in this context a new perspective for modeling urban structures from measurements of density freed from the constraints of administrative division. Population density data are now available on 200 meters grids covering France. We complete these data with built area densities in order to propose two types of classified images adapted to the study of travel patterns and urban development: classifications of urban fabrics and classifications of morphotypes of urban development. The construction of such classified images is based on theoretical and experimental which raise methodological issues regarding the classification of a statistically various urban spaces. To proceed exhaustively those spaces, we proposed a per-pixel classification method of urban fabrics by supervised transfer learning. Hidden Markov random fields are used to take into account the dependencies in the spatial data. The classifications of morphotypes are then obtained by broadening the knowledge of urban fabrics. These classifications are formalized from chorematique theoretical models and implemented by qualitative spatial reasoning. The analysis of these classifications by methods of quantitative spatial reasoning and factor analysis allowed us to reveal the morphological diversity of 50 metropolitan areas. It highlights the relevance of these classifications to characterize urban areas in accordance with various development issues related to the density or multipolar developmentLa question des liens entre forme urbaine et transport se trouve depuis une vingtaine d'annĂ©es au cƓur des rĂ©flexions sur la mise en place de politiques d'amĂ©nagement durable. L'essor de la diffusion de donnĂ©es sur grille rĂ©guliĂšre constitue dans ce cadre une nouvelle perspective pour la modĂ©lisation de structures urbaines Ă  partir de mesures de densitĂ©s affranchies de toutes les contraintes des maillages administratifs. A partir de donnĂ©es de densitĂ© de population et de surface bĂątie disponibles Ă  l'Ă©chelle de la France sur des grilles Ă  mailles de 200 mĂštres de cĂŽtĂ©, nous proposons deux types de classifications adaptĂ©es Ă  l'Ă©tude des pratiques de dĂ©placement et du dĂ©veloppement urbain : des classifications des tissus urbains et des classifications des morphotypes de dĂ©veloppement urbain. La construction de telles images classĂ©es se base sur une dĂ©marche de modĂ©lisation thĂ©orique et expĂ©rimentale soulevant de forts enjeux mĂ©thodologiques quant Ă  la classification d'espaces urbains statistiquement variĂ©s. Pour nous adapter au traitement exhaustif de ces espaces, nous avons proposĂ© une mĂ©thode de classification des tissus urbains par transfert d'apprentissage supervisĂ©. Cette mĂ©thode utilise le formalisme des champs de Markov cachĂ©s pour prendre en compte les dĂ©pendances prĂ©sentes dans ces donnĂ©es spatialisĂ©es. Les classifications en morphotypes sont ensuite obtenus par un enrichissement de ces premiĂšres images classĂ©es, formalisĂ© Ă  partir de modĂšles chorĂ©matiques et mis Ă  Ɠuvre par raisonnement spatial qualitatif. L'analyse de ces images classĂ©es par des mĂ©thodes de raisonnement spatial quantitatif et d'analyses factorielles nous a permis de rĂ©vĂ©ler la diversitĂ© morphologique de 50 aires urbaines françaises. Elle nous a permis de mettre en avant la pertinence de ces classifications pour caractĂ©riser les espaces urbains en accord avec diffĂ©rents enjeux d'amĂ©nagement relatifs Ă  la densitĂ© ou Ă  la multipolarit

    Représentation, modélisation et génération procédurale de terrains

    Get PDF
    Slides disponiblesSoutenance oral (présentation + questions) disponible sur demandeThis PhD (entitled "Representation, modelisation and procedural generation of terrains") is related to movie and videogames digital content creation, especially natural scenes.Our work is dedicated to handle and to generate landscapes efficently. We propose a new model based on a construction tree inside which the user can handle parts of the terrain intuitively. We also present techniques to efficently visualize such model. Finally, we present a new algorithm for generating large-scale terrains exhibiting hierarchical structures based on their hydrographic networks: elevation is generated in a broad compliance to water-tansport principles without having to resort on costly hydraulic simulations.Cette thÚse (qui a pour intitulé "Représentation, modélisation et génération procédurale de terrains") a pour cadre la génération de contenus numériques destinés aux films et aux jeux-vidéos, en particulier les scÚnes naturelles.Nos travaux visent à représenter et à générer des terrains. Nous proposons, en particulier, un nouveau modÚle de représentation qui s'appuie sur un arbre de construction et qui va permettre à l'utilisateur de manipuler des morceaux de terrain de façon intuitive. Nous présentons également des techniques pour visualiser ce modÚle avec un maximum d'efficacité. Enfin nous développons un nouvel algorithme de génération de terrains qui construit de trÚs grands reliefs possédant des structures hiérarchiques découlant d'un réseau hydrographique : le relief généré est conforme aux grands principes d'écoulement des eaux sans avoir besoin d'utiliser de coûteuses simulations d'érosion hydrique

    SARIPOD : SystĂšme multi-Agent de Recherche Intelligente POssibiliste de Documents Web

    Get PDF
    La prĂ©sente thĂšse de doctorat en informatique propose un modĂšle pour une recherche d'information intelligente possibiliste des documents Web et son implĂ©mentation. Ce modĂšle est Ă  base de deux RĂ©seaux Petits Mondes HiĂ©rarchiques (RPMH) et d'un RĂ©seau Possibiliste (RP) : Le premier RPMH consiste Ă  structurer les documents retrouvĂ©s en zones denses de pages Web thĂ©matiquement liĂ©es les unes aux autres. Nous faisons ainsi apparaĂźtre des nuages denses de pages qui traitent d'un sujet et des sujets connexes (assez similaires sĂ©mantiquement) et qui rĂ©pondent toutes fortement Ă  une requĂȘte. Le second RPMH est celui qui consiste Ă  ne pas prendre les mots-clĂ©s tels quels mais Ă  considĂ©rer une requĂȘte comme multiple en ce sens qu'on ne cherche pas seulement le mot-clĂ© dans les pages Web mais aussi les substantifs qui lui sont sĂ©mantiquement proches. Les RĂ©seaux Possibilistes combinent les deux RPMH afin d'organiser les documents recherchĂ©s selon les prĂ©fĂ©rences de l'utilisateur. En effet, l'originalitĂ© du modĂšle proposĂ© se dĂ©cline selon les trois volets suivants qui synthĂ©tisent nos contributions. Le premier volet s'intĂ©resse au processus itĂ©ratif de la reformulation sĂ©mantique de requĂȘtes. Cette technique est Ă  base de relations de dĂ©pendance entre les termes de la requĂȘte. Nous Ă©valuons notamment les proximitĂ©s des mots du dictionnaire français « Le Grand Robert » par rapport aux termes de la requĂȘte. Ces proximitĂ©s sont calculĂ©es par le biais de notre approche de recherche des composantes de sens dans un RPMH de dictionnaire de mots par application d'une mĂ©thode basĂ©e sur le dĂ©nombrement des circuits dans le rĂ©seau. En fait, l'utilisateur du systĂšme proposĂ© choisit le nombre de mots sĂ©mantiquement proches qu'il dĂ©sire ajouter Ă  chaque terme de sa requĂȘte originelle pour construire sa requĂȘte reformulĂ©e sĂ©mantiquement. Cette derniĂšre reprĂ©sente la premiĂšre partie de son profil qu'il propose au systĂšme. La seconde partie de son profil est constituĂ©e des choix des coefficients de pertinence possibilistes affectĂ©s aux entitĂ©s logiques des documents de la collection. Ainsi, notre systĂšme tient compte des profils dynamiques des utilisateurs au fur et Ă  mesure que ces derniers utilisent le systĂšme. Ce dernier est caractĂ©risĂ© par son intelligence, son adaptativitĂ©, sa flexibilitĂ© et sa dynamicitĂ©. Le second volet consiste Ă  proposer des relations de dĂ©pendance entre les documents recherchĂ©s dans un cadre ordinal. Ces relations de dĂ©pendance entre ces documents traduisent les liens sĂ©mantiques ou statistiques Ă©valuant les distributions des termes communs Ă  des paires ou ensembles de documents. Afin de quantifier ces relations, nous nous sommes basĂ©s sur les calculs des proximitĂ©s entres ces documents par application d'une mĂ©thode de dĂ©nombrement de circuits dans le RPMH de pages Web. En effet, les documents peuvent ainsi ĂȘtre regroupĂ©s dans des classes communes (groupes de documents thĂ©matiquement proches). Le troisiĂšme volet concerne la dĂ©finition des relations de dĂ©pendance, entre les termes de la requĂȘte et les documents recherchĂ©s, dans un cadre qualitatif. Les valeurs affectĂ©es Ă  ces relations traduisent des ordres partiels de prĂ©fĂ©rence. En fait, la thĂ©orie des possibilitĂ©s offre deux cadres de travail : le cadre qualitatif ou ordinal et le cadre quantitatif. Nous avons proposĂ© notre modĂšle dans un cadre ordinal. Ainsi, des prĂ©fĂ©rences entre les termes de la requĂȘte se sont ajoutĂ©es Ă  notre modĂšle de base. Ces prĂ©fĂ©rences permettent de restituer des documents classĂ©s par prĂ©fĂ©rence de pertinence. Nous avons mesurĂ© aussi l'apport de ces facteurs de prĂ©fĂ©rence dans l'augmentation des scores de pertinence des documents contenant ces termes dans le but de pĂ©naliser les scores de pertinence des documents ne les contenant pas. Pour la mise en place de ce modĂšle nous avons choisi les systĂšmes multi-agents. L'avantage de l'architecture que nous proposons est qu'elle offre un cadre pour une collaboration entre les diffĂ©rents acteurs et la mise en Ɠuvre de toutes les fonctionnalitĂ©s du systĂšme de recherche d'information (SRI). L'architecture s'accorde parfaitement avec le caractĂšre intelligent possibiliste et permet de bĂ©nĂ©ficier des capacitĂ©s de synergie inhĂ©rente entre les diffĂ©rentes composantes du modĂšle proposĂ©. Dans le prĂ©sent travail, nous avons donc pu mettre en exergue Ă  travers les expĂ©rimentations effectuĂ©es l'intĂ©rĂȘt de faire combiner les deux RPMH via un rĂ©seau possibiliste dans un SRI, ce qui permet d'enrichir le niveau d'exploration d'une collection. Ce dernier n'est pas limitĂ© aux documents mais l'Ă©tend en considĂ©rant les requĂȘtes. En effet, la phase de reformulation sĂ©mantique de requĂȘte permet Ă  l'utilisateur de profiter des autres documents correspondants aux termes sĂ©mantiquement proches des termes de la requĂȘte originelle. Ces documents peuvent exister dans d'autres classes des thĂšmes. En consĂ©quence, une reclassification proposĂ©e par le systĂšme s'avĂšre pertinente afin d'adapter les rĂ©sultats d'une requĂȘte aux nouveaux besoins des utilisateurs. ABSTRACT : This Ph.D. thesis proposes a new model for a multiagent possibilistic Web information retrieval and its implementation. This model is based on two Hierarchical Small-Worlds (HSW) Networks and a Possibilistic Networks (PN): The first HSW consists in structuring the founded documents in dense zones of Web pages which strongly depend on each other. We thus reveal dense clouds of pages which "speak" more or less about the same subject and related subjects (semantically similar) and which all strongly answer user's query. The second HSW consists in considering the query as multiple in the sense that we don't seek only the keyword in the Web pages but also its semantically close substantives. The PN generates the mixing of these two HSW in order to organize the searched documents according to user's preferences. Indeed, the originality of the suggested model is declined according to three following shutters' which synthesize our contributions. The first shutter is interested in the iterative process of query semantic reformulation. This technique is based on relationship dependence between query's terms. We evaluate in particular the semantics proximities between the words of the French dictionary "Le Grand Robert" and query's terms. These proximities are calculated via our approach of research of the semantics components in the HSW of dictionary of words by application of our method of enumeration of circuits in the HSW of dictionary. In fact, the user of the suggested system chooses the number of close words that he desire to add to each word of his initial query to build his semantically reformulated query. This one represents the first part of user's profile which he proposes to the system. The second part of its profile makes up of its choices of the coefficients of relevance possibilistic of the logical entities of the documents of the collection. Thus, our system takes account of the dynamic profiles of its users progressively they use the system, which proves its intelligence, its adaptability, its flexibility and its dynamicity. The second shutter consists in proposing relationship dependence between documents of the collection within an ordinal framework. These relationships dependence between these documents represent the semantic or statistical links evaluating the distributions of the general terms to pairs or sets of documents.  In order to quantify these relationships, we are based on the calculations of the proximities between these documents by application of a method enumerating of circuits in the HSW of Web pages. Indeed, the documents can thus be clustered in common classes (groups of close documents). The third shutter is related to the definition of the relationships dependence between query's terms and documents of the collection, within a qualitative framework. The assigned values to these relations translate preferably partial orders. In fact, possibilistic theory offers two working frameworks:  the qualitative or ordinal framework and the numerical framework.  We proposed our model within an ordinal framework. Thus, we add to our basic model preferences between query's terms. These preferences make it possible to restore documents classified by relevance's preference. We also measured the contribution of these preferably factors in the increase of the relevance's scores of  documents containing these terms with an aim of penalizing the relevance's scores of the documents not containing them. For the installation of this model we chose multiagent systems. The advantage of the proposed architecture is that it offers a framework for collaboration between the various actors and the implementation of all the functionalities of the information retrieval system. Architecture agrees perfectly with the possibilistic intelligent character and makes it possible to profit from the capacities of inherent synergy in the suggested model. We thus could put forward, through the carried out experiments, the goal of combining the two HSW via a possibilistic network in an information retrieval system, which makes it possible to enrich the exploration level of a collection. This exploration is not only limited to the documents but it extends by considering also the query. Indeed, the semantic query reformulation phase makes it possible to benefit user from other documents which contain some close terms of the initial query. These documents can exist in other topics classes. Consequently, a reclassification suggested by the system proves its relevance in order to adapt query's results to new user's needs

    De 0 Ă  1 ou l’heure de l’informatique Ă  l’école

    Get PDF
    corecore