8 research outputs found

    RĂ©solution d'Ă©quations en algĂšbre de Kleene : applications Ă  l'analyse de programmes

    Get PDF
    Au fil des ans, l'algĂšbre de Kleene s'est avĂ©rĂ©e ĂȘtre un outil formel trĂšs pratique et flexible quant vient le temps de raisonner sur les programmes informatiques. Cependant, actuellement, la plupart des applications Ă  l'analyse de programmes de l'algĂšbre de Kleene se font en sĂ©lectionnant un problĂšme prĂ©cis et en voyant comment l'algĂšbre de Kleene permet de le rĂ©soudre, ce qui limite les applications possibles. L'objectif visĂ© par ce mĂ©moire est de dĂ©terminer dans quelle mesure la rĂ©solution d'Ă©quations, en algĂšbre de Kleene, peut ĂȘtre utilisĂ©e en analyse de programmes. Une grande partie de ce mĂ©moire est donc consacrĂ©e Ă  la rĂ©solution de diffĂ©rents types d'Ă©quations dans diffĂ©rentes variantes de l'algĂšbre de Kleene. Puis nous montrons comment la vĂ©rification de programmes ainsi que la synthĂšse de contrĂŽleurs peuvent tirer profit de la rĂ©solution d'Ă©quations en algĂšbre de Kleene

    Une approche centrée exigences pour la composition de services web

    Get PDF
    International audienceThis paper presents a requirement-centric approach for Web service composition which allows: (i) modeling users' requirements with the MAP formalism and specifying required services using an Intentional Service Model (ISM); (ii) discovering relevant Web services by querying the service search engine Service-Finder; (iii) selecting automatically relevant and high QoS services by applying Formal Concept Analysis (FCA); and (iv) generating automatically BPEL coordination processes by applying the model transformation technique. In this paper, we illustrate our approach with a conference arrangement application and we validate it empirically in terms of precision and recall on this application. MOTS-CLÉS : composition de services web, exigences des utilisateurs, QdS, AFC, transformation de modĂšles.Cet article prĂ©sente une approche centrĂ©e exigences pour la composition de services web qui permet : (i) la modĂ©lisation des exigences des utilisateurs avec le formalisme la Carte et la spĂ©cification des services requis avec un modĂšle intentionnel de services (MIS) ; (ii) la dĂ©couverte des services web pertinents en interrogeant le moteur de recherche de services Service-Finder ; (iii) la sĂ©lection automatique de services pertinents et de haute QdS par l'application de l'analyse formelle de concepts (AFC) ; et (iv) la gĂ©nĂ©ration automatique de processus de coordination BPEL par l'application de la technique de transformation de modĂšles. Dans cet article, nous illustrons notre approche par une application d'arrangement de confĂ©rences et nous la validons empiriquement en termes de prĂ©cision et de rappel sur cette application

    Identification et localisation des préoccupations fonctionnelles dans un code légataire Java

    Full text link
    Traditionnellement, les applications orientĂ©es objets lĂ©gataires intĂšgrent diffĂ©rents aspects fonctionnels. Ces aspects peuvent ĂȘtre dispersĂ©s partout dans le code. Il existe diffĂ©rents types d’aspects : ‱ des aspects qui reprĂ©sentent des fonctionnalitĂ©s mĂ©tiers ; ‱ des aspects qui rĂ©pondent Ă  des exigences non fonctionnelles ou Ă  d’autres considĂ©rations de conception comme la robustesse, la distribution, la sĂ©curitĂ©, etc. GĂ©nĂ©ralement, le code qui reprĂ©sente ces aspects chevauche plusieurs hiĂ©rarchies de classes. Plusieurs chercheurs se sont intĂ©ressĂ©s Ă  la problĂ©matique de la modularisation de ces aspects dans le code : programmation orientĂ©e sujets, programmation orientĂ©e aspects et programmation orientĂ©e vues. Toutes ces mĂ©thodes proposent des techniques et des outils pour concevoir des applications orientĂ©es objets sous forme de composition de fragments de code qui rĂ©pondent Ă  diffĂ©rents aspects. La sĂ©paration des aspects dans le code a des avantages au niveau de la rĂ©utilisation et de la maintenance. Ainsi, il est important d’identifier et de localiser ces aspects dans du code lĂ©gataire orientĂ© objets. Nous nous intĂ©ressons particuliĂšrement aux aspects fonctionnels. En supposant que le code qui rĂ©pond Ă  un aspect fonctionnel ou fonctionnalitĂ© exhibe une certaine cohĂ©sion fonctionnelle (dĂ©pendances entre les Ă©lĂ©ments), nous proposons d’identifier de telles fonctionnalitĂ©s Ă  partir du code. L’idĂ©e est d’identifier, en l’absence des paradigmes de la programmation par aspects, les techniques qui permettent l’implĂ©mentation des diffĂ©rents aspects fonctionnels dans un code objet. Notre approche consiste Ă  : ‱ identifier les techniques utilisĂ©es par les dĂ©veloppeurs pour intĂ©grer une fonctionnalitĂ© en l’absence des techniques orientĂ©es aspects ‱ caractĂ©riser l’empreinte de ces techniques sur le code ‱ et dĂ©velopper des outils pour identifier ces empreintes. Ainsi, nous prĂ©sentons deux approches pour l’identification des fonctionnalitĂ©s existantes dans du code orientĂ© objets. La premiĂšre identifie diffĂ©rents patrons de conception qui permettent l’intĂ©gration de ces fonctionnalitĂ©s dans le code. La deuxiĂšme utilise l’analyse formelle de concepts pour identifier les fonctionnalitĂ©s rĂ©currentes dans le code. Nous expĂ©rimentons nos deux approches sur des systĂšmes libres orientĂ©s objets pour identifier les diffĂ©rentes fonctionnalitĂ©s dans le code. Les rĂ©sultats obtenus montrent l’efficacitĂ© de nos approches pour identifier les diffĂ©rentes fonctionnalitĂ©s dans du code lĂ©gataire orientĂ© objets et permettent de suggĂ©rer des cas de refactorisation.Object oriented applications integrate various functional aspects. These aspects can be scattered everywhere in the code. There are various types of aspects : ‱ aspects which represent business functionalities ; ‱ aspects related to non functional requirements or to design concerns such as robustness, distribution, and security. The code representing such aspects can be located in different class hierarchies. Researchers have been interested in the problem of the modularisation of these aspects and many approaches were proposed : oriented programming subjects, oriented programming Aspects and oriented programming view. These approaches offer techniques and tools for designing object oriented applications based on the composition of slices of various aspects. The main benefit of the separation of aspects is supporting reuse and maintenance. Consequently, it is well worth identifying and extracting aspects of legacy object oriented applications. Our work mainly focuses on functional aspects. Assuming that the code of a functional aspect or a feature has a functional cohesion (dependencies between elements), we suggest methods for identifying such features from the code. The idea is to identify, in the absence of any aspect oriented paradigm, the techniques used for implementing a feature in the code. Our approach consists of : ‱ identifying techniques used by developers to integrate a feature in the absence of aspect oriented techniques ‱ characterizing the patterns of these techniques ‱ and developing tools to identify these patterns. We present two approaches for the identification of the existing features in the object oriented code. The first one identifies various design patterns which integrates these features in the code. The second approach uses the formal concept analysis to identify the recurring features in the code. We experiment our approaches to identify functional features in different open source object oriented applications. The results show the efficiency of our approaches in identifying various functional features in the legacy object oriented, and can some times suggest refactoring

    Détermination de propriétés de flot de données pour améliorer les estimations de temps d'exécution pire-cas

    Get PDF
    La recherche d'une borne supĂ©rieure au temps d'exĂ©cution d'un programme est une partie essentielle du processus de vĂ©rification de systĂšmes temps-rĂ©el critiques. Les programmes de tels systĂšmes ont gĂ©nĂ©ralement des temps d'exĂ©cution variables et il est difficile, voire impossible, de prĂ©dire l'ensemble de ces temps possibles. Au lieu de cela, il est prĂ©fĂ©rable de rechercher une approximation du temps d'exĂ©cution pire-cas ou Worst-Case Execution Time (WCET). Une propriĂ©tĂ© cruciale de cette approximation est qu'elle doit ĂȘtre sĂ»re, c'est-Ă -dire qu'elle doit ĂȘtre garantie de majorer le WCET. Parce que nous cherchons Ă  prouver que le systĂšme en question se termine en un temps raisonnable, une surapproximation est le seul type d'approximation acceptable. La garantie de cette propriĂ©tĂ© de sĂ»retĂ© ne saurait raisonnablement se faire sans analyse statique, un rĂ©sultat se basant sur une sĂ©rie de tests ne pouvant ĂȘtre sĂ»r sans un traitement exhaustif des cas d'exĂ©cution. De plus, en l'absence de certification du processus de compilation (et de transfert des propriĂ©tĂ©s vers le binaire), l'extraction de propriĂ©tĂ©s doit se faire directement sur le code binaire pour garantir leur fiabilitĂ©. Toutefois, cette approximation a un coĂ»t : un pessimisme - Ă©cart entre le WCET estimĂ© et le WCET rĂ©el - important entraĂźne des surcoĂ»ts superflus de matĂ©riel pour que le systĂšme respecte les contraintes temporelles qui lui sont imposĂ©es. Il s'agit donc ensuite, tout en maintenant la garantie de sĂ©curitĂ© de l'estimation du WCET, d'amĂ©liorer sa prĂ©cision en rĂ©duisant cet Ă©cart de telle sorte qu'il soit suffisamment faible pour ne pas entraĂźner des coĂ»ts supplĂ©mentaires dĂ©mesurĂ©s. Un des principaux facteurs de surestimation est la prise en compte de chemins d'exĂ©cution sĂ©mantiquement impossibles, dits infaisables, dans le calcul du WCET. Ceci est dĂ» Ă  l'analyse par Ă©numĂ©ration implicite des chemins ou Implicit Path Enumeration Technique (IPET) qui raisonne sur un surensemble des chemins d'exĂ©cution. Lorsque le chemin d'exĂ©cution pire-cas ou Worst-Case Execution Path (WCEP), correspondant au WCET estimĂ©, porte sur un chemin infaisable, la prĂ©cision de cette estimation est nĂ©gativement affectĂ©e. Afin de parer Ă  cette perte de prĂ©cision, cette thĂšse propose une technique de dĂ©tection de chemins infaisables, permettant l'amĂ©lioration de la prĂ©cision des analyses statiques (dont celles pour le WCET) en les informant de l'infaisabilitĂ© de certains chemins du programme. Cette information est passĂ©e sous la forme de propriĂ©tĂ©s de flot de donnĂ©es formatĂ©es dans un langage d'annotation portable, FFX, permettant la communication des rĂ©sultats de notre analyse de chemins infaisables vers d'autres analyses. Les mĂ©thodes prĂ©sentĂ©es dans cette thĂšse sont inclues dans le framework OTAWA, dĂ©veloppĂ© au sein de l'Ă©quipe TRACES Ă  l'IRIT. Elles usent elles-mĂȘmes d'approximations pour reprĂ©senter les Ă©tats possibles de la machine en diffĂ©rents points du programme. Ce sont des abstractions maintenues au fil de l'analyse, et dont la validitĂ© est assurĂ©e par des outils de la thĂ©orie de l'interprĂ©tation abstraite. Ces abstractions permettent de reprĂ©senter de maniĂšre efficace - mais sĂ»re - les ensembles d'Ă©tats pour une classe de chemins d'exĂ©cution jusqu'Ă  un point du programme, et de dĂ©tecter d'Ă©ventuels points du programme associĂ©s Ă  un ensemble d'Ă©tats possibles vide, traduisant un (ou plusieurs) chemin(s) infaisable(s). L'objectif de l'analyse dĂ©veloppĂ©e, la dĂ©tection de tels cas, est rendue possible par l'usage de solveurs SMT (SatisfiabilitĂ© Modulo des ThĂ©ories). Ces solveurs permettent essentiellement de dĂ©terminer la satisfiabilitĂ© d'un ensemble de contraintes, dĂ©duites Ă  partir des Ă©tats abstraits construits. Lorsqu'un ensemble de contraintes, formĂ© Ă  partir d'une conjonction de prĂ©dicats, s'avĂšre insatisfiable, aucune valuation des variables de la machine ne correspond Ă  un cas d'exĂ©cution possible, et la famille de chemins associĂ©e est donc infaisable. L'efficacitĂ© de cette technique est soutenue par une sĂ©rie d'expĂ©rimentations sur divers suites de benchmarks, reconnues dans le domaine du WCET statique et/ou issues de cas rĂ©els de l'industrie. Des heuristiques sont configurĂ©es afin d'adoucir la complexitĂ© de l'analyse, en particulier pour les applications de plus grande taille. Les chemins infaisables dĂ©tectĂ©s sont injectĂ©s sous la forme de contraintes de flot linĂ©aires dans le systĂšme de Programmation LinĂ©aire en Nombres Entiers ou Integer Linear Programming (ILP) pilotant le calcul final de l'analyse WCET d'OTAWA. Selon le programme analysĂ©, cela peut rĂ©sulter en une rĂ©duction du WCET estimĂ©, et donc une amĂ©lioration de sa prĂ©cision.The search for an upper bound of the execution time of a program is an essential part of the verification of real-time critical systems. The execution times of the programs of such systems generally vary a lot, and it is difficult, or impossible, to predict the range of the possible times. Instead, it is better to look for an approximation of the Worst-Case Execution Time (WCET). A crucial requirement of this estimate is that it must be safe, that is, it must be guaranteed above the real WCET. Because we are looking to prove that the system in question terminates reasonably quickly, an overapproximation is the only acceptable form of approximation. The guarantee of such a safety property could not sensibly be done without static analysis, as a result based on a battery of tests could not be safe without an exhaustive handling of test cases. Furthermore, in the absence of a certified compiler (and tech- nique for the safe transfer of properties to the binaries), the extraction of properties must be done directly on binary code to warrant their soundness. However, this approximation comes with a cost : an important pessimism, the gap between the estimated WCET and the real WCET, would lead to superfluous extra costs in hardware in order for the system to respect the imposed timing requirements. It is therefore important to improve the precision of the WCET by reducing this gap, while maintaining the safety property, as such that it is low enough to not lead to immoderate costs. A major cause of overestimation is the inclusion of semantically impossible paths, said infeasible paths, in the WCET computation. This is due to the use of the Implicit Path Enumeration Technique (IPET), which works on an superset of the possible execution paths. When the Worst-Case Execution Path (WCEP), corresponding to the estimated WCET, is infeasible, the precision of that estimation is negatively affected. In order to deal with this loss of precision, this thesis proposes an infeasible paths detection technique, enabling the improvement of the precision of static analyses (namely for WCET estimation) by notifying them of the infeasibility of some paths of the program. This information is then passed as data flow properties, formatted in the FFX portable annotation language, and allowing the communication of the results of our infeasible path analysis to other analyses. The methods hereafter presented are included in the OTAWA framework, developed in TRACES team at the IRIT lab. They themselves make use of approximations in order to represent the possible states of the machine in various program points. These approximations are abstractions maintained throughout the analysis, and which validity is ensured by abstract interpretation tools. They enable us to represent the set of states for a family of execution paths up to a given program point in an efficient - yet safe - way, and to detect the potential program points associated to an empty set of possible states, signalling one (or several) infeasible path(s). As the end goal of the developed analysis, the detection of such cases is made possible by the use of Satisfiability Modulo Theory (SMT) solvers. Those solvers are notably able to determine the satisfiability of a set of contraints, which we deduct from the abstract states. If a set of constraints, derived from a conjonction of predicates, is unsatisfiable, then there exists no valuation of the machine variables that match a possible execution case, and thus the associated infeasible paths are infeasible. The efficiency of this technique is asserted by a series of experiments on various benchmarks suites, some of which widely recognized in the domain of static WCET, some others derived from actual industrial applications. Heuristics are set up in order to soften the complexity of the analysis, especially for the larger applications. The detected infeasible paths are injected as Integer Linear Programming (ILP) linear data flow constraints in the final computation for the WCET estimation in OTAWA. Depending on the analysed program, this can result in a reduction of the estimated WCET, thereby improving its precision

    Société Francophone de Classification (SFC) Actes des 26Úmes Rencontres

    Get PDF
    National audienceLes actes des rencontres de la SociĂ©tĂ© Francophone de Classification (SFC, http://www.sfc-classification.net/) contiennent l'ensemble des contributions,prĂ©sentĂ©s lors des rencontres entre les 3 et 5 septembre 2019 au Centre de Recherche Inria Nancy Grand Est/LORIA Nancy. La classification sous toutes ces formes, mathĂ©matiques, informatique (apprentissage, fouille de donnĂ©es et dĂ©couverte de connaissances ...), et statistiques, est la thĂ©matique Ă©tudiĂ©e lors de ces journĂ©es. L'idĂ©e est d'illustrer les diffĂ©rentes facettes de la classification qui reflĂštent les intĂ©rĂȘts des chercheurs dans la matiĂšre, provenant des mathĂ©matiques et de l'informatique

    SARIPOD : SystĂšme multi-Agent de Recherche Intelligente POssibiliste de Documents Web

    Get PDF
    La prĂ©sente thĂšse de doctorat en informatique propose un modĂšle pour une recherche d'information intelligente possibiliste des documents Web et son implĂ©mentation. Ce modĂšle est Ă  base de deux RĂ©seaux Petits Mondes HiĂ©rarchiques (RPMH) et d'un RĂ©seau Possibiliste (RP) : Le premier RPMH consiste Ă  structurer les documents retrouvĂ©s en zones denses de pages Web thĂ©matiquement liĂ©es les unes aux autres. Nous faisons ainsi apparaĂźtre des nuages denses de pages qui traitent d'un sujet et des sujets connexes (assez similaires sĂ©mantiquement) et qui rĂ©pondent toutes fortement Ă  une requĂȘte. Le second RPMH est celui qui consiste Ă  ne pas prendre les mots-clĂ©s tels quels mais Ă  considĂ©rer une requĂȘte comme multiple en ce sens qu'on ne cherche pas seulement le mot-clĂ© dans les pages Web mais aussi les substantifs qui lui sont sĂ©mantiquement proches. Les RĂ©seaux Possibilistes combinent les deux RPMH afin d'organiser les documents recherchĂ©s selon les prĂ©fĂ©rences de l'utilisateur. En effet, l'originalitĂ© du modĂšle proposĂ© se dĂ©cline selon les trois volets suivants qui synthĂ©tisent nos contributions. Le premier volet s'intĂ©resse au processus itĂ©ratif de la reformulation sĂ©mantique de requĂȘtes. Cette technique est Ă  base de relations de dĂ©pendance entre les termes de la requĂȘte. Nous Ă©valuons notamment les proximitĂ©s des mots du dictionnaire français « Le Grand Robert » par rapport aux termes de la requĂȘte. Ces proximitĂ©s sont calculĂ©es par le biais de notre approche de recherche des composantes de sens dans un RPMH de dictionnaire de mots par application d'une mĂ©thode basĂ©e sur le dĂ©nombrement des circuits dans le rĂ©seau. En fait, l'utilisateur du systĂšme proposĂ© choisit le nombre de mots sĂ©mantiquement proches qu'il dĂ©sire ajouter Ă  chaque terme de sa requĂȘte originelle pour construire sa requĂȘte reformulĂ©e sĂ©mantiquement. Cette derniĂšre reprĂ©sente la premiĂšre partie de son profil qu'il propose au systĂšme. La seconde partie de son profil est constituĂ©e des choix des coefficients de pertinence possibilistes affectĂ©s aux entitĂ©s logiques des documents de la collection. Ainsi, notre systĂšme tient compte des profils dynamiques des utilisateurs au fur et Ă  mesure que ces derniers utilisent le systĂšme. Ce dernier est caractĂ©risĂ© par son intelligence, son adaptativitĂ©, sa flexibilitĂ© et sa dynamicitĂ©. Le second volet consiste Ă  proposer des relations de dĂ©pendance entre les documents recherchĂ©s dans un cadre ordinal. Ces relations de dĂ©pendance entre ces documents traduisent les liens sĂ©mantiques ou statistiques Ă©valuant les distributions des termes communs Ă  des paires ou ensembles de documents. Afin de quantifier ces relations, nous nous sommes basĂ©s sur les calculs des proximitĂ©s entres ces documents par application d'une mĂ©thode de dĂ©nombrement de circuits dans le RPMH de pages Web. En effet, les documents peuvent ainsi ĂȘtre regroupĂ©s dans des classes communes (groupes de documents thĂ©matiquement proches). Le troisiĂšme volet concerne la dĂ©finition des relations de dĂ©pendance, entre les termes de la requĂȘte et les documents recherchĂ©s, dans un cadre qualitatif. Les valeurs affectĂ©es Ă  ces relations traduisent des ordres partiels de prĂ©fĂ©rence. En fait, la thĂ©orie des possibilitĂ©s offre deux cadres de travail : le cadre qualitatif ou ordinal et le cadre quantitatif. Nous avons proposĂ© notre modĂšle dans un cadre ordinal. Ainsi, des prĂ©fĂ©rences entre les termes de la requĂȘte se sont ajoutĂ©es Ă  notre modĂšle de base. Ces prĂ©fĂ©rences permettent de restituer des documents classĂ©s par prĂ©fĂ©rence de pertinence. Nous avons mesurĂ© aussi l'apport de ces facteurs de prĂ©fĂ©rence dans l'augmentation des scores de pertinence des documents contenant ces termes dans le but de pĂ©naliser les scores de pertinence des documents ne les contenant pas. Pour la mise en place de ce modĂšle nous avons choisi les systĂšmes multi-agents. L'avantage de l'architecture que nous proposons est qu'elle offre un cadre pour une collaboration entre les diffĂ©rents acteurs et la mise en Ɠuvre de toutes les fonctionnalitĂ©s du systĂšme de recherche d'information (SRI). L'architecture s'accorde parfaitement avec le caractĂšre intelligent possibiliste et permet de bĂ©nĂ©ficier des capacitĂ©s de synergie inhĂ©rente entre les diffĂ©rentes composantes du modĂšle proposĂ©. Dans le prĂ©sent travail, nous avons donc pu mettre en exergue Ă  travers les expĂ©rimentations effectuĂ©es l'intĂ©rĂȘt de faire combiner les deux RPMH via un rĂ©seau possibiliste dans un SRI, ce qui permet d'enrichir le niveau d'exploration d'une collection. Ce dernier n'est pas limitĂ© aux documents mais l'Ă©tend en considĂ©rant les requĂȘtes. En effet, la phase de reformulation sĂ©mantique de requĂȘte permet Ă  l'utilisateur de profiter des autres documents correspondants aux termes sĂ©mantiquement proches des termes de la requĂȘte originelle. Ces documents peuvent exister dans d'autres classes des thĂšmes. En consĂ©quence, une reclassification proposĂ©e par le systĂšme s'avĂšre pertinente afin d'adapter les rĂ©sultats d'une requĂȘte aux nouveaux besoins des utilisateurs. ABSTRACT : This Ph.D. thesis proposes a new model for a multiagent possibilistic Web information retrieval and its implementation. This model is based on two Hierarchical Small-Worlds (HSW) Networks and a Possibilistic Networks (PN): The first HSW consists in structuring the founded documents in dense zones of Web pages which strongly depend on each other. We thus reveal dense clouds of pages which "speak" more or less about the same subject and related subjects (semantically similar) and which all strongly answer user's query. The second HSW consists in considering the query as multiple in the sense that we don't seek only the keyword in the Web pages but also its semantically close substantives. The PN generates the mixing of these two HSW in order to organize the searched documents according to user's preferences. Indeed, the originality of the suggested model is declined according to three following shutters' which synthesize our contributions. The first shutter is interested in the iterative process of query semantic reformulation. This technique is based on relationship dependence between query's terms. We evaluate in particular the semantics proximities between the words of the French dictionary "Le Grand Robert" and query's terms. These proximities are calculated via our approach of research of the semantics components in the HSW of dictionary of words by application of our method of enumeration of circuits in the HSW of dictionary. In fact, the user of the suggested system chooses the number of close words that he desire to add to each word of his initial query to build his semantically reformulated query. This one represents the first part of user's profile which he proposes to the system. The second part of its profile makes up of its choices of the coefficients of relevance possibilistic of the logical entities of the documents of the collection. Thus, our system takes account of the dynamic profiles of its users progressively they use the system, which proves its intelligence, its adaptability, its flexibility and its dynamicity. The second shutter consists in proposing relationship dependence between documents of the collection within an ordinal framework. These relationships dependence between these documents represent the semantic or statistical links evaluating the distributions of the general terms to pairs or sets of documents.  In order to quantify these relationships, we are based on the calculations of the proximities between these documents by application of a method enumerating of circuits in the HSW of Web pages. Indeed, the documents can thus be clustered in common classes (groups of close documents). The third shutter is related to the definition of the relationships dependence between query's terms and documents of the collection, within a qualitative framework. The assigned values to these relations translate preferably partial orders. In fact, possibilistic theory offers two working frameworks:  the qualitative or ordinal framework and the numerical framework.  We proposed our model within an ordinal framework. Thus, we add to our basic model preferences between query's terms. These preferences make it possible to restore documents classified by relevance's preference. We also measured the contribution of these preferably factors in the increase of the relevance's scores of  documents containing these terms with an aim of penalizing the relevance's scores of the documents not containing them. For the installation of this model we chose multiagent systems. The advantage of the proposed architecture is that it offers a framework for collaboration between the various actors and the implementation of all the functionalities of the information retrieval system. Architecture agrees perfectly with the possibilistic intelligent character and makes it possible to profit from the capacities of inherent synergy in the suggested model. We thus could put forward, through the carried out experiments, the goal of combining the two HSW via a possibilistic network in an information retrieval system, which makes it possible to enrich the exploration level of a collection. This exploration is not only limited to the documents but it extends by considering also the query. Indeed, the semantic query reformulation phase makes it possible to benefit user from other documents which contain some close terms of the initial query. These documents can exist in other topics classes. Consequently, a reclassification suggested by the system proves its relevance in order to adapt query's results to new user's needs

    JFPC 2019 - Actes des 15es Journées Francophones de Programmation par Contraintes

    Get PDF
    National audienceLes JFPC (JournĂ©es Francophones de Programmation par Contraintes) sont le principal congrĂšs de la communautĂ© francophone travaillant sur les problĂšmes de satisfaction de contraintes (CSP), le problĂšme de la satisfiabilitĂ© d'une formule logique propositionnelle (SAT) et/ou la programmation logique avec contraintes (CLP). La communautĂ© de programmation par contraintes entretient Ă©galement des liens avec la recherche opĂ©rationnelle (RO), l'analyse par intervalles et diffĂ©rents domaines de l'intelligence artificielle.L'efficacitĂ© des mĂ©thodes de rĂ©solution et l'extension des modĂšles permettent Ă  la programmation par contraintes de s'attaquer Ă  des applications nombreuses et variĂ©es comme la logistique, l'ordonnancement de tĂąches, la conception d'emplois du temps, la conception en robotique, l'Ă©tude du gĂ©nĂŽme en bio-informatique, l'optimisation de pratiques agricoles, etc.Les JFPC se veulent un lieu convivial de rencontres, de discussions et d'Ă©changes pour la communautĂ© francophone, en particulier entre doctorants, chercheurs confirmĂ©s et industriels. L'importance des JFPC est reflĂ©tĂ©e par la part considĂ©rable (environ un tiers) de la communautĂ© francophone dans la recherche mondiale dans ce domaine.PatronnĂ©es par l'AFPC (Association Française pour la Programmation par Contraintes), les JFPC 2019 ont lieu du 12 au 14 Juin 2019 Ă  l'IMT Mines Albi et sont organisĂ©es par Xavier Lorca (prĂ©sident du comitĂ© scientifique) et par Élise Vareilles (prĂ©sidente du comitĂ© d'organisation)
    corecore