8 research outputs found
RĂ©solution d'Ă©quations en algĂšbre de Kleene : applications Ă l'analyse de programmes
Au fil des ans, l'algĂšbre de Kleene s'est avĂ©rĂ©e ĂȘtre un outil formel trĂšs pratique et flexible quant vient le temps de raisonner sur les programmes informatiques. Cependant, actuellement, la plupart des applications Ă l'analyse de programmes de l'algĂšbre de Kleene se font en sĂ©lectionnant un problĂšme prĂ©cis et en voyant comment l'algĂšbre de Kleene permet de le rĂ©soudre, ce qui limite les applications possibles. L'objectif visĂ© par ce mĂ©moire est de dĂ©terminer dans quelle mesure la rĂ©solution d'Ă©quations, en algĂšbre de Kleene, peut ĂȘtre utilisĂ©e en analyse de programmes. Une grande partie de ce mĂ©moire est donc consacrĂ©e Ă la rĂ©solution de diffĂ©rents types d'Ă©quations dans diffĂ©rentes variantes de l'algĂšbre de Kleene. Puis nous montrons comment la vĂ©rification de programmes ainsi que la synthĂšse de contrĂŽleurs peuvent tirer profit de la rĂ©solution d'Ă©quations en algĂšbre de Kleene
Une approche centrée exigences pour la composition de services web
International audienceThis paper presents a requirement-centric approach for Web service composition which allows: (i) modeling users' requirements with the MAP formalism and specifying required services using an Intentional Service Model (ISM); (ii) discovering relevant Web services by querying the service search engine Service-Finder; (iii) selecting automatically relevant and high QoS services by applying Formal Concept Analysis (FCA); and (iv) generating automatically BPEL coordination processes by applying the model transformation technique. In this paper, we illustrate our approach with a conference arrangement application and we validate it empirically in terms of precision and recall on this application. MOTS-CLĂS : composition de services web, exigences des utilisateurs, QdS, AFC, transformation de modĂšles.Cet article prĂ©sente une approche centrĂ©e exigences pour la composition de services web qui permet : (i) la modĂ©lisation des exigences des utilisateurs avec le formalisme la Carte et la spĂ©cification des services requis avec un modĂšle intentionnel de services (MIS) ; (ii) la dĂ©couverte des services web pertinents en interrogeant le moteur de recherche de services Service-Finder ; (iii) la sĂ©lection automatique de services pertinents et de haute QdS par l'application de l'analyse formelle de concepts (AFC) ; et (iv) la gĂ©nĂ©ration automatique de processus de coordination BPEL par l'application de la technique de transformation de modĂšles. Dans cet article, nous illustrons notre approche par une application d'arrangement de confĂ©rences et nous la validons empiriquement en termes de prĂ©cision et de rappel sur cette application
Identification et localisation des préoccupations fonctionnelles dans un code légataire Java
Traditionnellement, les applications orientĂ©es objets lĂ©gataires intĂšgrent diffĂ©rents aspects fonctionnels. Ces aspects peuvent ĂȘtre dispersĂ©s partout dans le code. Il existe diffĂ©rents types dâaspects :
⹠des aspects qui représentent des fonctionnalités métiers ;
âą des aspects qui rĂ©pondent Ă des exigences non fonctionnelles ou Ă dâautres considĂ©rations de conception comme la robustesse, la distribution, la sĂ©curitĂ©, etc.
Généralement, le code qui représente ces aspects chevauche plusieurs hiérarchies de
classes. Plusieurs chercheurs se sont intĂ©ressĂ©s Ă la problĂ©matique de la modularisation de ces aspects dans le code : programmation orientĂ©e sujets, programmation orientĂ©e aspects et programmation orientĂ©e vues. Toutes ces mĂ©thodes proposent des techniques et des outils pour concevoir des applications orientĂ©es objets sous forme de composition de fragments de code qui rĂ©pondent Ă diffĂ©rents aspects. La sĂ©paration des aspects dans le code a des avantages au niveau de la rĂ©utilisation et de la maintenance. Ainsi, il est important dâidentifier et de localiser ces aspects dans du code lĂ©gataire orientĂ© objets.
Nous nous intéressons particuliÚrement aux aspects fonctionnels. En supposant que
le code qui répond à un aspect fonctionnel ou fonctionnalité exhibe une certaine cohésion
fonctionnelle (dĂ©pendances entre les Ă©lĂ©ments), nous proposons dâidentifier de telles fonctionnalitĂ©s Ă partir du code. LâidĂ©e est dâidentifier, en lâabsence des paradigmes de la programmation par aspects, les techniques qui permettent lâimplĂ©mentation des diffĂ©rents aspects fonctionnels dans un code objet. Notre approche consiste Ă :
⹠identifier les techniques utilisées par les développeurs pour intégrer une fonctionnalité
en lâabsence des techniques orientĂ©es aspects
âą caractĂ©riser lâempreinte de ces techniques sur le code
⹠et développer des outils pour identifier ces empreintes.
Ainsi, nous prĂ©sentons deux approches pour lâidentification des fonctionnalitĂ©s existantes dans du code orientĂ© objets. La premiĂšre identifie diffĂ©rents patrons de conception qui permettent lâintĂ©gration de ces fonctionnalitĂ©s dans le code. La deuxiĂšme utilise lâanalyse formelle de concepts pour identifier les fonctionnalitĂ©s rĂ©currentes dans le code.
Nous expérimentons nos deux approches sur des systÚmes libres orientés objets pour
identifier les différentes fonctionnalités dans le code. Les résultats obtenus montrent
lâefficacitĂ© de nos approches pour identifier les diffĂ©rentes fonctionnalitĂ©s dans du code
légataire orienté objets et permettent de suggérer des cas de refactorisation.Object oriented applications integrate various functional aspects. These aspects can
be scattered everywhere in the code. There are various types of aspects :
âą aspects which represent business functionalities ;
âą aspects related to non functional requirements or to design concerns such as robustness, distribution, and security.
The code representing such aspects can be located in different class hierarchies. Researchers have been interested in the problem of the modularisation of these aspects and many approaches were proposed : oriented programming subjects, oriented programming Aspects and oriented programming view. These approaches offer techniques and
tools for designing object oriented applications based on the composition of slices of various aspects. The main benefit of the separation of aspects is supporting reuse and maintenance. Consequently, it is well worth identifying and extracting aspects of legacy object oriented applications.
Our work mainly focuses on functional aspects. Assuming that the code of a functional aspect or a feature has a functional cohesion (dependencies between elements), we suggest methods for identifying such features from the code. The idea is to identify, in the absence of any aspect oriented paradigm, the techniques used for implementing a feature in the code. Our approach consists of :
âą identifying techniques used by developers to integrate a feature in the absence of
aspect oriented techniques
âą characterizing the patterns of these techniques
âą and developing tools to identify these patterns.
We present two approaches for the identification of the existing features in the object oriented code. The first one identifies various design patterns which integrates these features in the code. The second approach uses the formal concept analysis to identify the recurring features in the code. We experiment our approaches to identify functional features in different open source object oriented applications. The results show the efficiency of our approaches in identifying various functional features in the legacy object oriented, and can some times suggest refactoring
Détermination de propriétés de flot de données pour améliorer les estimations de temps d'exécution pire-cas
La recherche d'une borne supérieure au temps d'exécution d'un programme est une partie essentielle du processus de vérification de systÚmes temps-réel critiques. Les programmes
de tels systÚmes ont généralement des temps d'exécution variables et il est difficile, voire impossible, de prédire l'ensemble de ces temps possibles. Au lieu de cela, il est
préférable de rechercher une approximation du temps d'exécution pire-cas ou Worst-Case Execution Time (WCET).
Une propriĂ©tĂ© cruciale de cette approximation est qu'elle doit ĂȘtre sĂ»re, c'est-Ă -dire qu'elle doit ĂȘtre garantie de majorer le WCET. Parce que nous cherchons Ă prouver que le
systĂšme en question se termine en un temps raisonnable, une surapproximation est le seul type d'approximation acceptable.
La garantie de cette propriĂ©tĂ© de sĂ»retĂ© ne saurait raisonnablement se faire sans analyse statique, un rĂ©sultat se basant sur une sĂ©rie de tests ne pouvant ĂȘtre sĂ»r sans un
traitement exhaustif des cas d'exécution. De plus, en l'absence de certification du processus de compilation (et de transfert des propriétés vers le binaire), l'extraction de
propriétés doit se faire directement sur le code binaire pour garantir leur fiabilité.
Toutefois, cette approximation a un coût : un pessimisme - écart entre le WCET estimé et le WCET réel - important entraßne des surcoûts superflus de matériel pour que le systÚme
respecte les contraintes temporelles qui lui sont imposées. Il s'agit donc ensuite, tout en maintenant la garantie de sécurité de l'estimation du WCET, d'améliorer sa précision
en réduisant cet écart de telle sorte qu'il soit suffisamment faible pour ne pas entraßner des coûts supplémentaires démesurés.
Un des principaux facteurs de surestimation est la prise en compte de chemins d'exĂ©cution sĂ©mantiquement impossibles, dits infaisables, dans le calcul du WCET. Ceci est dĂ» Ă
l'analyse par énumération implicite des chemins ou Implicit Path Enumeration Technique (IPET) qui raisonne sur un surensemble des chemins d'exécution. Lorsque le chemin
d'exécution pire-cas ou Worst-Case Execution Path (WCEP), correspondant au WCET estimé, porte sur un chemin infaisable, la précision de cette estimation est négativement
affectée.
Afin de parer à cette perte de précision, cette thÚse propose une technique de détection de chemins infaisables, permettant l'amélioration de la précision des analyses statiques
(dont celles pour le WCET) en les informant de l'infaisabilité de certains chemins du programme. Cette information est passée sous la forme de propriétés de flot de données
formatées dans un langage d'annotation portable, FFX, permettant la communication des résultats de notre analyse de chemins infaisables vers d'autres analyses.
Les mĂ©thodes prĂ©sentĂ©es dans cette thĂšse sont inclues dans le framework OTAWA, dĂ©veloppĂ© au sein de l'Ă©quipe TRACES Ă l'IRIT. Elles usent elles-mĂȘmes d'approximations pour
représenter les états possibles de la machine en différents points du programme. Ce sont des abstractions maintenues au fil de l'analyse, et dont la validité est assurée par des
outils de la théorie de l'interprétation abstraite. Ces abstractions permettent de représenter de maniÚre efficace - mais sûre - les ensembles d'états pour une classe de chemins
d'exécution jusqu'à un point du programme, et de détecter d'éventuels points du programme associés à un ensemble d'états possibles vide, traduisant un (ou plusieurs) chemin(s)
infaisable(s).
L'objectif de l'analyse développée, la détection de tels cas, est rendue possible par l'usage de solveurs SMT (Satisfiabilité Modulo des Théories). Ces solveurs permettent
essentiellement de déterminer la satisfiabilité d'un ensemble de contraintes, déduites à partir des états abstraits construits. Lorsqu'un ensemble de contraintes, formé à partir
d'une conjonction de prédicats, s'avÚre insatisfiable, aucune valuation des variables de la machine ne correspond à un cas d'exécution possible, et la famille de chemins
associée est donc infaisable.
L'efficacité de cette technique est soutenue par une série d'expérimentations sur divers suites de benchmarks, reconnues dans le domaine du WCET statique et/ou issues de cas
réels de l'industrie. Des heuristiques sont configurées afin d'adoucir la complexité de l'analyse, en particulier pour les applications de plus grande taille. Les chemins
infaisables détectés sont injectés sous la forme de contraintes de flot linéaires dans le systÚme de Programmation Linéaire en Nombres Entiers ou Integer Linear Programming
(ILP) pilotant le calcul final de l'analyse WCET d'OTAWA. Selon le programme analysé, cela peut résulter en une réduction du WCET estimé, et donc une amélioration de sa
précision.The search for an upper bound of the execution time of a program is an essential part of the verification of real-time critical systems. The execution times of the programs of
such systems generally vary a lot, and it is difficult, or impossible, to predict the range of the possible times. Instead, it is better to look for an approximation of the
Worst-Case Execution Time (WCET).
A crucial requirement of this estimate is that it must be safe, that is, it must be guaranteed above the real WCET. Because we are looking to prove that the system in question
terminates reasonably quickly, an overapproximation is the only acceptable form of approximation.
The guarantee of such a safety property could not sensibly be done without static analysis, as a result based on a battery of tests could not be safe without an exhaustive
handling of test cases. Furthermore, in the absence of a certified compiler (and tech- nique for the safe transfer of properties to the binaries), the extraction of properties
must be done directly on binary code to warrant their soundness.
However, this approximation comes with a cost : an important pessimism, the gap between the estimated WCET and the real WCET, would lead to superfluous extra costs in hardware
in order for the system to respect the imposed timing requirements. It is therefore important to improve the precision of the WCET by reducing this gap, while maintaining the
safety property, as such that it is low enough to not lead to immoderate costs.
A major cause of overestimation is the inclusion of semantically impossible paths, said infeasible paths, in the WCET computation. This is due to the use of the Implicit Path
Enumeration Technique (IPET), which works on an superset of the possible execution paths. When the Worst-Case Execution Path (WCEP), corresponding to the estimated WCET, is
infeasible, the precision of that estimation is negatively affected.
In order to deal with this loss of precision, this thesis proposes an infeasible paths detection technique, enabling the improvement of the precision of static analyses (namely
for WCET estimation) by notifying them of the infeasibility of some paths of the program. This information is then passed as data flow properties, formatted in the FFX portable
annotation language, and allowing the communication of the results of our infeasible path analysis to other analyses.
The methods hereafter presented are included in the OTAWA framework, developed in TRACES team at the IRIT lab. They themselves make use of approximations in order to represent
the possible states of the machine in various program points. These approximations are abstractions maintained throughout the analysis, and which validity is ensured by abstract
interpretation tools. They enable us to represent the set of states for a family of execution paths up to a given program point in an efficient - yet safe - way, and to detect
the potential program points associated to an empty set of possible states, signalling one (or several) infeasible path(s).
As the end goal of the developed analysis, the detection of such cases is made possible by the use of Satisfiability Modulo Theory (SMT) solvers. Those solvers are notably able
to determine the satisfiability of a set of contraints, which we deduct from the abstract states. If a set of constraints, derived from a conjonction of predicates, is
unsatisfiable, then there exists no valuation of the machine variables that match a possible execution case, and thus the associated infeasible paths are infeasible.
The efficiency of this technique is asserted by a series of experiments on various benchmarks suites, some of which widely recognized in the domain of static WCET, some others
derived from actual industrial applications. Heuristics are set up in order to soften the complexity of the analysis, especially for the larger applications. The detected
infeasible paths are injected as Integer Linear Programming (ILP) linear data flow constraints in the final computation for the WCET estimation in OTAWA. Depending on the
analysed program, this can result in a reduction of the estimated WCET, thereby improving its precision
Société Francophone de Classification (SFC) Actes des 26Úmes Rencontres
National audienceLes actes des rencontres de la SociĂ©tĂ© Francophone de Classification (SFC, http://www.sfc-classification.net/) contiennent l'ensemble des contributions,prĂ©sentĂ©s lors des rencontres entre les 3 et 5 septembre 2019 au Centre de Recherche Inria Nancy Grand Est/LORIA Nancy. La classification sous toutes ces formes, mathĂ©matiques, informatique (apprentissage, fouille de donnĂ©es et dĂ©couverte de connaissances ...), et statistiques, est la thĂ©matique Ă©tudiĂ©e lors de ces journĂ©es. L'idĂ©e est d'illustrer les diffĂ©rentes facettes de la classification qui reflĂštent les intĂ©rĂȘts des chercheurs dans la matiĂšre, provenant des mathĂ©matiques et de l'informatique
SARIPOD : SystĂšme multi-Agent de Recherche Intelligente POssibiliste de Documents Web
La prĂ©sente thĂšse de doctorat en informatique propose un modĂšle pour une recherche d'information intelligente possibiliste des documents Web et son implĂ©mentation. Ce modĂšle est Ă base de deux RĂ©seaux Petits Mondes HiĂ©rarchiques (RPMH) et d'un RĂ©seau Possibiliste (RP) : Le premier RPMH consiste Ă structurer les documents retrouvĂ©s en zones denses de pages Web thĂ©matiquement liĂ©es les unes aux autres. Nous faisons ainsi apparaĂźtre des nuages denses de pages qui traitent d'un sujet et des sujets connexes (assez similaires sĂ©mantiquement) et qui rĂ©pondent toutes fortement Ă une requĂȘte. Le second RPMH est celui qui consiste Ă ne pas prendre les mots-clĂ©s tels quels mais Ă considĂ©rer une requĂȘte comme multiple en ce sens qu'on ne cherche pas seulement le mot-clĂ© dans les pages Web mais aussi les substantifs qui lui sont sĂ©mantiquement proches. Les RĂ©seaux Possibilistes combinent les deux RPMH afin d'organiser les documents recherchĂ©s selon les prĂ©fĂ©rences de l'utilisateur. En effet, l'originalitĂ© du modĂšle proposĂ© se dĂ©cline selon les trois volets suivants qui synthĂ©tisent nos contributions. Le premier volet s'intĂ©resse au processus itĂ©ratif de la reformulation sĂ©mantique de requĂȘtes. Cette technique est Ă base de relations de dĂ©pendance entre les termes de la requĂȘte. Nous Ă©valuons notamment les proximitĂ©s des mots du dictionnaire français « Le Grand Robert » par rapport aux termes de la requĂȘte. Ces proximitĂ©s sont calculĂ©es par le biais de notre approche de recherche des composantes de sens dans un RPMH de dictionnaire de mots par application d'une mĂ©thode basĂ©e sur le dĂ©nombrement des circuits dans le rĂ©seau. En fait, l'utilisateur du systĂšme proposĂ© choisit le nombre de mots sĂ©mantiquement proches qu'il dĂ©sire ajouter Ă chaque terme de sa requĂȘte originelle pour construire sa requĂȘte reformulĂ©e sĂ©mantiquement. Cette derniĂšre reprĂ©sente la premiĂšre partie de son profil qu'il propose au systĂšme. La seconde partie de son profil est constituĂ©e des choix des coefficients de pertinence possibilistes affectĂ©s aux entitĂ©s logiques des documents de la collection. Ainsi, notre systĂšme tient compte des profils dynamiques des utilisateurs au fur et Ă mesure que ces derniers utilisent le systĂšme. Ce dernier est caractĂ©risĂ© par son intelligence, son adaptativitĂ©, sa flexibilitĂ© et sa dynamicitĂ©. Le second volet consiste Ă proposer des relations de dĂ©pendance entre les documents recherchĂ©s dans un cadre ordinal. Ces relations de dĂ©pendance entre ces documents traduisent les liens sĂ©mantiques ou statistiques Ă©valuant les distributions des termes communs Ă des paires ou ensembles de documents. Afin de quantifier ces relations, nous nous sommes basĂ©s sur les calculs des proximitĂ©s entres ces documents par application d'une mĂ©thode de dĂ©nombrement de circuits dans le RPMH de pages Web. En effet, les documents peuvent ainsi ĂȘtre regroupĂ©s dans des classes communes (groupes de documents thĂ©matiquement proches). Le troisiĂšme volet concerne la dĂ©finition des relations de dĂ©pendance, entre les termes de la requĂȘte et les documents recherchĂ©s, dans un cadre qualitatif. Les valeurs affectĂ©es Ă ces relations traduisent des ordres partiels de prĂ©fĂ©rence. En fait, la thĂ©orie des possibilitĂ©s offre deux cadres de travail : le cadre qualitatif ou ordinal et le cadre quantitatif. Nous avons proposĂ© notre modĂšle dans un cadre ordinal. Ainsi, des prĂ©fĂ©rences entre les termes de la requĂȘte se sont ajoutĂ©es Ă notre modĂšle de base. Ces prĂ©fĂ©rences permettent de restituer des documents classĂ©s par prĂ©fĂ©rence de pertinence. Nous avons mesurĂ© aussi l'apport de ces facteurs de prĂ©fĂ©rence dans l'augmentation des scores de pertinence des documents contenant ces termes dans le but de pĂ©naliser les scores de pertinence des documents ne les contenant pas. Pour la mise en place de ce modĂšle nous avons choisi les systĂšmes multi-agents. L'avantage de l'architecture que nous proposons est qu'elle offre un cadre pour une collaboration entre les diffĂ©rents acteurs et la mise en Ćuvre de toutes les fonctionnalitĂ©s du systĂšme de recherche d'information (SRI). L'architecture s'accorde parfaitement avec le caractĂšre intelligent possibiliste et permet de bĂ©nĂ©ficier des capacitĂ©s de synergie inhĂ©rente entre les diffĂ©rentes composantes du modĂšle proposĂ©. Dans le prĂ©sent travail, nous avons donc pu mettre en exergue Ă travers les expĂ©rimentations effectuĂ©es l'intĂ©rĂȘt de faire combiner les deux RPMH via un rĂ©seau possibiliste dans un SRI, ce qui permet d'enrichir le niveau d'exploration d'une collection. Ce dernier n'est pas limitĂ© aux documents mais l'Ă©tend en considĂ©rant les requĂȘtes. En effet, la phase de reformulation sĂ©mantique de requĂȘte permet Ă l'utilisateur de profiter des autres documents correspondants aux termes sĂ©mantiquement proches des termes de la requĂȘte originelle. Ces documents peuvent exister dans d'autres classes des thĂšmes. En consĂ©quence, une reclassification proposĂ©e par le systĂšme s'avĂšre pertinente afin d'adapter les rĂ©sultats d'une requĂȘte aux nouveaux besoins des utilisateurs. ABSTRACT : This Ph.D. thesis proposes a new model for a multiagent possibilistic Web information retrieval and its implementation. This model is based on two Hierarchical Small-Worlds (HSW) Networks and a Possibilistic Networks (PN): The first HSW consists in structuring the founded documents in dense zones of Web pages which strongly depend on each other. We thus reveal dense clouds of pages which "speak" more or less about the same subject and related subjects (semantically similar) and which all strongly answer user's query. The second HSW consists in considering the query as multiple in the sense that we don't seek only the keyword in the Web pages but also its semantically close substantives. The PN generates the mixing of these two HSW in order to organize the searched documents according to user's preferences. Indeed, the originality of the suggested model is declined according to three following shutters' which synthesize our contributions. The first shutter is interested in the iterative process of query semantic reformulation. This technique is based on relationship dependence between query's terms. We evaluate in particular the semantics proximities between the words of the French dictionary "Le Grand Robert" and query's terms. These proximities are calculated via our approach of research of the semantics components in the HSW of dictionary of words by application of our method of enumeration of circuits in the HSW of dictionary. In fact, the user of the suggested system chooses the number of close words that he desire to add to each word of his initial query to build his semantically reformulated query. This one represents the first part of user's profile which he proposes to the system. The second part of its profile makes up of its choices of the coefficients of relevance possibilistic of the logical entities of the documents of the collection. Thus, our system takes account of the dynamic profiles of its users progressively they use the system, which proves its intelligence, its adaptability, its flexibility and its dynamicity. The second shutter consists in proposing relationship dependence between documents of the collection within an ordinal framework. These relationships dependence between these documents represent the semantic or statistical links evaluating the distributions of the general terms to pairs or sets of documents. In order to quantify these relationships, we are based on the calculations of the proximities between these documents by application of a method enumerating of circuits in the HSW of Web pages. Indeed, the documents can thus be clustered in common classes (groups of close documents). The third shutter is related to the definition of the relationships dependence between query's terms and documents of the collection, within a qualitative framework. The assigned values to these relations translate preferably partial orders. In fact, possibilistic theory offers two working frameworks: the qualitative or ordinal framework and the numerical framework. We proposed our model within an ordinal framework. Thus, we add to our basic model preferences between query's terms. These preferences make it possible to restore documents classified by relevance's preference. We also measured the contribution of these preferably factors in the increase of the relevance's scores of documents containing these terms with an aim of penalizing the relevance's scores of the documents not containing them. For the installation of this model we chose multiagent systems. The advantage of the proposed architecture is that it offers a framework for collaboration between the various actors and the implementation of all the functionalities of the information retrieval system. Architecture agrees perfectly with the possibilistic intelligent character and makes it possible to profit from the capacities of inherent synergy in the suggested model. We thus could put forward, through the carried out experiments, the goal of combining the two HSW via a possibilistic network in an information retrieval system, which makes it possible to enrich the exploration level of a collection. This exploration is not only limited to the documents but it extends by considering also the query. Indeed, the semantic query reformulation phase makes it possible to benefit user from other documents which contain some close terms of the initial query. These documents can exist in other topics classes. Consequently, a reclassification suggested by the system proves its relevance in order to adapt query's results to new user's needs
JFPC 2019 - Actes des 15es JourneÌes Francophones de Programmation par Contraintes
National audienceLes JFPC (JournĂ©es Francophones de Programmation par Contraintes) sont le principal congrĂšs de la communautĂ© francophone travaillant sur les problĂšmes de satisfaction de contraintes (CSP), le problĂšme de la satisfiabilitĂ© d'une formule logique propositionnelle (SAT) et/ou la programmation logique avec contraintes (CLP). La communautĂ© de programmation par contraintes entretient Ă©galement des liens avec la recherche opĂ©rationnelle (RO), l'analyse par intervalles et diffĂ©rents domaines de l'intelligence artificielle.L'efficacitĂ© des mĂ©thodes de rĂ©solution et l'extension des modĂšles permettent Ă la programmation par contraintes de s'attaquer Ă des applications nombreuses et variĂ©es comme la logistique, l'ordonnancement de tĂąches, la conception d'emplois du temps, la conception en robotique, l'Ă©tude du gĂ©nĂŽme en bio-informatique, l'optimisation de pratiques agricoles, etc.Les JFPC se veulent un lieu convivial de rencontres, de discussions et d'Ă©changes pour la communautĂ© francophone, en particulier entre doctorants, chercheurs confirmĂ©s et industriels. L'importance des JFPC est reflĂ©tĂ©e par la part considĂ©rable (environ un tiers) de la communautĂ© francophone dans la recherche mondiale dans ce domaine.PatronnĂ©es par l'AFPC (Association Française pour la Programmation par Contraintes), les JFPC 2019 ont lieu du 12 au 14 Juin 2019 Ă l'IMT Mines Albi et sont organisĂ©es par Xavier Lorca (prĂ©sident du comitĂ© scientifique) et par Ălise Vareilles (prĂ©sidente du comitĂ© d'organisation)