12 research outputs found

    Architectures multi-flots simultanés pour le temps-réel strict

    Get PDF
    Dans les systĂšmes critiques, les applications doivent satisfaire des contraintes temporelles strictes, chaque tĂąche devant s'exĂ©cuter en un temps maximum prĂ©dĂ©fini ; le non-respect d'une seule Ă©chĂ©ance peut compromettre toute la stabilitĂ© du systĂšme et engendrer des effets dĂ©sastreux. Un tel systĂšme est appelĂ© systĂšme temps-rĂ©el strict. Pour pouvoir assigner une Ă©chĂ©ance Ă  une tĂąche, il faut ĂȘtre capable de dĂ©terminer le temps maximum que mettra cette tĂąche Ă  s'exĂ©cuter, ceci indĂ©pendamment des donnĂ©es en entrĂ©e de la tĂąche. Ce temps maximum recherchĂ© s'appelle le WCET (Worst Case Execution Time, temps d'exĂ©cution pire cas), il est souvent dĂ©terminĂ© Ă  l'issue d'un processus de calcul nĂ©cessitant une modĂ©lisation des structures de l'architecture du processeur. Les mĂ©canismes architecturaux qui augmentent les performances d'un processeur (prĂ©diction de branchement, cache) induisent souvent un fort taux d'indĂ©terminisme qui rend la modĂ©lisation difficile. C'est pourquoi il est souvent prĂ©fĂ©rable d'utiliser des architectures relativement simples pour un systĂšme temps-rĂ©el strict, ou de simplifier des architectures hautes performances rĂ©centes. Notre optique est plutĂŽt d'essayer d'adapter, par de lĂ©gĂšres modifications, une de ces architectures performantes mais peu prĂ©dictibles pour un respect de contraintes temps-rĂ©el strict et un calcul de WCET facilitĂ©. L'architecture que nous choisissons est l'architecture Multi-Flots SimultanĂ©s (Simultaneous Multihtreading, SMT), ou plusieurs programmes peuvent s'exĂ©cuter simultanĂ©ment en partageant les ressources d'un seul cƓur d'exĂ©cution.In critical systems, applications must satisfy hard timing constraints, each task must execute in a maximum predefinite time. Any unrespected constraint may compromise the stability of the whole system and generate disastrous effects. Such a system is called hard real-time system. To be able to assign a constraint to a task, you must be able to determinate the maximum time this task will execute, independently from the input data of the task. This maximum time you search is called the WCET (Worst Case Execution Time), it is obtained by a calculation process where we need to modelise the structures of the processor architecture. The architecture mechanisms increasing performance (caches, branch prediction) are often a lot undeterministic and thus are difficult to modelise. That's why we usually prefer using relatively simple architectures for a hard real-time system, or simplifying recent high-performance architecture. In this work, we will rather adapt, using small modifications, one of those high-performance but little predictible architecture to respect hard timing constraints and make simpler WCET calculation. We choose the Simultaneous Multithreading architecture where several programs can run at the same time sharing the resources of one core only

    Parallélisation de simulations interactives de champs ultrasonores pour le contrÎle non destructif

    Get PDF
    The Non Destructive Testing field increasingly uses simulation.It is used at every step of the whole control process of an industrial part, from speeding up control development to helping experts understand results. During this thesis, a simulation tool dedicated to the fast computation of an ultrasonic field radiated by a phase array probe in an isotropic specimen has been developped. Its performance enables an interactive usage. To benefit from the commonly available parallel architectures, a regular model (aimed at removing divergent branching) derived from the generic CIVA model has been developped. First, a reference implementation was developped to validate this model against CIVA results, and to analyze its performance behaviour before optimization. The resulting code has been optimized for three kinds of parallel architectures commonly available in workstations: general purpose processors (GPP), manycore coprocessors (Intel MIC) and graphics processing units (nVidia GPU). On the GPP and the MIC, the algorithm was reorganized and implemented to benefit from both parallelism levels, multhreading and vector instructions. On the GPU, the multiple steps of field computing have been divided in multiple successive CUDA kernels.Moreover, libraries dedicated to each architecture were used to speedup Fast Fourier Transforms, Intel MKL on GPP and MIC and nVidia cuFFT on GPU. Performance and hardware adequation of the produced algorithms were thoroughly studied for each architecture. On multiple realistic control configurations, interactive performance was reached. Perspectives to adress more complex configurations were drawn. Finally, the integration and the industrialization of this code in the commercial NDT plateform CIVA is discussed.La simulation est de plus en plus utilisée dans le domaine industriel du ContrÎle Non Destructif. Elle est employée tout au long du processus de contrÎle, que ce soit pour en accélérer la mise au point ou en comprendre les résultats. Les travaux menés au cours de cette thÚse présentent une méthode de calcul rapide de champ ultrasonore rayonné par un capteur multi-éléments dans une piÚce isotrope, permettant un usage interactif des simulations. Afin de tirer parti des architectures parallÚles communément disponibles, un modÚle régulier (qui limite au maximum les branchements divergents) dérivé du modÚle générique présent dans la plateforme logicielle CIVA a été mis au point. Une premiÚre implémentation de référence a permis de le valider par rapport aux résultats CIVA et d'analyser son comportement en termes de performances. Le code a ensuite été porté et optimisé sur trois classes d'architectures parallÚles aujourd'hui disponibles dans les stations de calcul : le processeur généraliste central (GPP), le coprocesseur manycore (Intel MIC) et la carte graphique (nVidia GPU). Concernant le processeur généraliste et le coprocesseur manycore, l'algorithme a été réorganisé et le code implémenté afin de tirer parti des deux niveaux de parallélisme disponibles, le multithreading et les instructions vectorielles. Sur la carte graphique, les différentes étapes de simulation de champ ont été découpées en une série de noyaux CUDA. Enfin, des bibliothÚques de calculs spécifiques à ces architectures, Intel MKL et nVidia cuFFT, ont été utilisées pour effectuer les opérations de Transformées de Fourier Rapides. Les performances et la bonne adéquation des codes produits ont été analysées en détail pour chaque architecture. Dans plusieurs cas, sur des configurations de contrÎle réalistes, des performances autorisant l'interactivité ont été atteintes. Des perspectives pour traiter des configurations plus complexes sont dressées. Enfin la problématique de l'industrialisation de ce type de code dans la plateforme logicielle CIVA est étudiée

    MĂ©thodes In-Situ et In-Transit : vers un continuum entre les applications interactives et offline Ă  grande Ă©chelle.

    Get PDF
    Parallel simulation has become a very useful tool in various scientific areas. In order to perform such simulations, large parallel machines are required. The computational power of these machine continues to grow, allowing scientists to construct larger and larger models. However, the I/O systems, used to store the data produced by simulation, have not improved at the same pace. Currently, it is already difficult for scientist to store all the accumulated data and to have enough computational power later on to process them. Yet, these data are the key toward major scientific discoveries.In-situ treatments are a promising solution to this problem. The idea is to analyze the data while the simulation is still running and the data are still living in memory. This approach allows avoiding the I/O bottleneck as well as taking benefit of the computational power provided by a supercomputer to perform the analysis. In this thesis, we propose to use the data flow paradigm to construct complex asynchronous in-situ applications. We use the middleware FlowVR to couple heterogeneous parallel codes and to form a graph. Our approach provides enough flexibility to facilitate various placement strategies for the analytics in order to minimize their impact on the simulation. We applied our approach exemplarily to a well-known software from the field of molecular dynamics, Gromacs. With of the of biology experts, we designed several realistic scenarios in which we evaluated both the flexibility of our approach and the capability of our infrastructure to support each step of the biologists' analysis workflow.Les simulations parallĂšles sont devenues des outils indispensables dans de nombreux domaines scientifiques. La puissance de calcul de ces machines n'a cessĂ© de monter permettant ainsi le traitement de simulations de plus en plus imposantes. En revanche, les systĂšmes d'I/O nĂ©cessaires Ă  la sauvegarde des donnĂ©es produites par les simulations ont suivit une croissance beaucoup plus faible. Actuellement dĂ©jĂ , il est difficile pour les scientifiques de sauvegarder l'ensemble des donnĂ©es dĂ©sirĂ©es et d'avoir suffisamment de puissance de calcul pour les analyser par la suite. Ces donnĂ©es sont pourtant une des clĂ©s vers des dĂ©couvertes scientifiques majeures. Les traitements in-situ sont une solution prometteuse Ă  ce problĂšme. Le principe est d'effectuer des analyses alors que la simulation est en cours d'exĂ©cution et que les donnĂ©es sont encore en mĂ©moire. Cette approche permet d'une part d'Ă©viter le goulot d'Ă©tranglement au niveau des I/O mais aussi de profiter de la puissance de calcul offerte par les machines parallĂšles pour effectuer des traitements lourds. Dans cette thĂšse, nous proposons d'utiliser le paradigme du dataflow pour permettre la construction d'applications in-situ complexes asynchrones. Pour cela, nous utilisons l'intergiciel FlowVR permettant de coupler des codes parallĂšles hĂ©tĂ©rogĂšnes en formant un graphe. Nous proposons une approche avec suffisamment de flexibilitĂ© pour permettre plusieurs stratĂ©gies de placement des processus d'analyses que cela soit sur les nƓuds de la simulation, sur des cƓurs dĂ©diĂ©s ou des nƓuds dĂ©diĂ©s. De plus, les traitements in-situ peuvent ĂȘtre exĂ©cutĂ©s de maniĂšre asynchrone permettant ainsi un faible impact sur les performances de la simulation. Pour dĂ©montrer la flexibilitĂ© de notre approche, nous nous sommes intĂ©ressĂ©s au cas Ă  la dynamique molĂ©culaire et plus particuliĂšrement Gromacs, un code de simulation de dynamique molĂ©culaire couramment utilisĂ© par les biologistes pouvant passer Ă  l'Ă©chelle sur plusieurs milliers de coeurs. En Ă©troite collaboration avec des experts du domaine biologique, nous avons construit plusieurs applications pour Ă©valuer les performances et la flexibilitĂ© de notre approche

    Traitement des signaux et images en temps réel ("implantation de H.264 sur MPSoC")

    Get PDF
    Cette thÚse est élaborée en cotutelle entre l université Badji Mokhtar (Laboratoire LERICA) et l université de bourgogne (Laboratoire LE2I, UMR CNRS 5158). Elle constitue une contribution à l étude et l implantation de l encodeur H.264/AVC. Durent l évolution des normes de compression vidéo, une réalité sure est vérifiée de plus en plus : avoir une bonne performance du processus de compression nécessite l élaboration d équipements beaucoup plus performants en termes de puissance de calcul, de flexibilité et de portabilité et ceci afin de répondre aux exigences des différents traitements et satisfaire au critÚre Temps Réel . Pour assurer un temps réel pour ce genre d applications, une solution reste possible est l utilisation des systÚmes sur puce (SoC) ou bien des systÚmes multiprocesseurs sur puce (MPSoC) implantés sur des plateformes reconfigurables à base de circuit FPGA. L objective de cette thÚse consiste à l étude et l implantation des algorithmes de traitement des signaux et images et en particulier la norme H.264/AVC, et cela dans le but d assurer un temps réel pour le cycle codage-décodage. Nous utilisons deux plateformes FPGA de Xilinx (ML501 et XUPV5). Dans la littérature, il existe déjà plusieurs implémentations du décodeur. Pour l encodeur, malgré les efforts énormes réalisés, il reste toujours du travail pour l optimisation des algorithmes et l extraction des parallélismes possibles surtout avec une variété de profils et de niveaux de la norme H.264/AVC.Dans un premier temps de cette thÚse, nous proposons une implantation matérielle d un contrÎleur mémoire spécialement pour l encodeur H.264/AVC. Ce contrÎleur est réalisé en ajoutant, au contrÎleur mémoire DDR2 des deux plateformes de Xilinx, une couche intelligente capable de calculer les adresses et récupérer les données nécessaires pour les différents modules de traitement de l encodeur. Ensuite, nous proposons des implantations matérielles (niveau RTL) des modules de traitement de l encodeur H.264. Sur ces implantations, nous allons exploiter les deux principes de parallélisme et de pipelining autorisé par l encodeur en vue de la grande dépendance inter-blocs. Nous avons ainsi proposé plusieurs améliorations et nouvelles techniques dans les modules de la chaine Intra et le filtre anti-blocs. A la fin de cette thÚse, nous utilisons les modules réalisés en matériels pour la l implantation Matérielle/logicielle de l encodeur H.264/AVC. Des résultats de synthÚse et de simulation, en utilisant les deux plateformes de Xilinx, sont montrés et comparés avec les autres implémentations existantesThis thesis has been carried out in joint supervision between the Badji Mokhtar University (LERICA Laboratory) and the University of Burgundy (LE2I laboratory, UMR CNRS 5158). It is a contribution to the study and implementation of the H.264/AVC encoder. The evolution in video coding standards have historically demanded stringent performances of the compression process, which imposes the development of platforms that perform much better in terms of computing power, flexibility and portability. Such demands are necessary to fulfill requirements of the different treatments and to meet "Real Time" processing constraints. In order to ensure real-time performances, a possible solution is to made use of systems on chip (SoC) or multiprocessor systems on chip (MPSoC) built on platforms based reconfigurable FPGAs. The objective of this thesis is the study and implementation of algorithms for signal and image processing (in particular the H.264/AVC standard); especial attention was given to provide real-time coding-decoding cycles. We use two FPGA platforms (ML501 and XUPV5 from Xilinx) to implement our architectures. In the literature, there are already several implementations of the decoder. For the encoder part, despite the enormous efforts made, work remains to optimize algorithms and extract the inherent parallelism of the architecture. This is especially true with a variety of profiles and levels of H.264/AVC. Initially, we proposed a hardware implementation of a memory controller specifically targeted to the H.264/AVC encoder. This controller is obtained by adding, to the DDR2 memory controller, an intelligent layer capable of calculating the addresses and to retrieve the necessary data for several of the processing modules of the encoder. Afterwards, we proposed hardware implementations (RTL) for the processing modules of the H.264 encoder. In these implementations, we made use of principles of parallelism and pipelining, taking into account the constraints imposed by the inter-block dependency in the encoder. We proposed several enhancements and new technologies in the channel Intra modules and the deblocking filter. At the end of this thesis, we use the modules implemented in hardware for implementing the H.264/AVC encoder in a hardware/software design. Synthesis and simulation results, using both platforms for Xilinx, are shown and compared with other existing implementationsDIJON-BU Doc.électronique (212319901) / SudocSudocFranceF

    Stratégie de parallélisation hybride MPI/OPENMP pour EF, un programme d'analyse par éléments spectraux spécialisé pour la mécanique des fluides

    Get PDF
    RÉSUMÉ Le programme d’analyse par Ă©lĂ©ments spectraux, EF, est dĂ©veloppĂ© au sein de Polytechnique MontrĂ©al afin de rĂ©soudre des problĂšmes de dynamique des fluides et de transfert de chaleur. BĂ©nĂ©ficiant actuellement d’une parallĂ©lisation multi-threads avec l’interface OpenMP, il est optimisĂ© pour le calcul sur des architectures Ă  mĂ©moire partagĂ©e uniquement. Typiquement, ces derniers sont munis de processeurs ayant tout au plus quelques dizaines de coeurs. Ce facteur devient limitant pour la rĂ©alisation de simulations d’envergure, notamment pour des domaines tridimensionnels. Ce mĂ©moire prĂ©sente une stratĂ©gie de parallĂ©lisation hybride MPI/OMP adaptĂ©e aux structures de donnĂ©es d’EF, afin de porter le programme sur des environnements Ă  mĂ©moire distribuĂ©e disposant de ressources significativement plus grandes. La mĂ©thode implĂ©mentĂ©e utilise Ă©galement un troisiĂšme niveau de parallĂ©lisme avec l’ajout d’instructions SIMD. Typiquement, ce dernier permet d’accĂ©lĂ©rer la phase d’assemblage par un facteur entre 2 et 4. La rĂ©solution du systĂšme linĂ©aire repose sur l’usage de solveurs directs distribuĂ©s afin de conserver la robustesse du programme. Les solveurs CPardiso et Mumps sont alors incorporĂ©s au programme et leurs performances ont Ă©tĂ© Ă©valuĂ©es sur un problĂšme de diffusion thermique simple. Pour les deux solveurs, les besoins en mĂ©moire sont redistribuĂ©s Ă©quitablement et permettent donc de traĂźter des problĂšmes dont la taille excĂšde la capacitĂ© maximale d’un seul noeud de calcul. En terme de temps d’exĂ©cution, CPardiso offre une certaine accĂ©lĂ©ration pour la phase d’analyse et de factorisation mais aucun gain n’est observĂ© lors de la rĂ©solution. Pour Mumps, des mesures prĂ©liminaires suggĂšrent des accĂ©lĂ©rations plus significatives, mĂȘme pour la phase de rĂ©solution. Toutefois, plus de tests devront ĂȘtre effectuĂ©s avant de se prononcer dĂ©finitivement sur ce solveur.----------ABSTRACT EF is a spectral elements analysis software developped by Polytechnique MontrĂ©al to solve problems mainly related to fluid dynamics and thermal diffusion. Currently parallelized with OpenMP interface, the software is optimized for shared memory architectures with typically a few dozen cores. This limits the performance for analysis of large scale simulations, particularly for three dimensional domains. This work develops a MPI/OMP hybrid parallelization strategy customized for EF’s data structures in order to run the program on significantly larger resources with distributed memory architectures. OpenMP SIMD constructs are also used in the matrix assembling phase as a third level of parallelization. Typical result shows a speed-up factor between 2 and 4. This strategy uses distributed solvers based on direct methods to maintain the software’s reliability. Cluster Pardiso and Mumps solvers are integrated and their performances evaluated using simple thermal diffusion problem. For both solvers, results show that memory is equitably distributed within each process. Therefore, they are useful for the treatment of large scale problems. Concerning execution time of CPardiso, the analysis phase as well as factorization benefit from hybrid parallelization but no gain is obtained with this method in the solving phase. With Mumps, preliminary results suggest more important speed-ups. However, it has not been tested on large scale problems yet

    Analyses statistiques des communications sur puce

    Get PDF
    This PhD is composed of two main parts. The first one focuses on Internet traffic modelling. From the analysis of many traffic traces, we have proposed a parsimonious model (Gamma-Farima) adapted to aggregated throughput traces and valid for wide range of aggregation levels. In order to produce synthetic traffic from this model, we have also studied the generation of sample path of non-gaussian and long memory stochastic processes. We have then used the Gamma-Farima model in order to build an anomaly detection method. To this end we have introduced a multiresolution model that can differentiate a regular traffic from a malicious one (including a DDoS attack). This method was evaluated both on real traces and simulations. Finally, we have studied the production of long range dependent traffic in a network simulator (NS-2). The second part of this PhD deals with the analysis and synthesis of on-chip traffic, i.e. the traffic occurring in a system on chip. In such systems, the introduction of networks on chip (NOC) has brought the interconnection system on top of the design flow. In order to prototype these NOC rapidly, fast simulations need to be done, and replacing the components by traffic generators is a good way to achieve this purpose. So, we have set up and developed a complete and flexible on-chip traffic generation environment that is able to replay a previously recorded trace, to generate a random load on the network, to produce a stochastic traffic fitted to a reference trace and to take into account traffic phases. Indeed most of the traffic traces we have obtained were non-stationary, we therefore need to split them into reasonably stationary parts in order to perform a meaningful stochastic fit. We have performed many experiments in the SOCLIB simulation environment that demonstrate that i) our traffic generation procedure is correct, ii) our segmentation algorithm provides promising results and iii) multiphase stochastic traffic generation is a good tradeoff between replay and simple random traffic generation. Finally, we have investigated the presence of long memory in the trace as well as the impact of long memory on the NoC performance.Cette thÚse est composée de deux parties. La premiÚre explore la problématique de la modélisation de trafic Internet. Nous avons proposé, à partir de l'étude de nombreuses traces, un modÚle basé sur des processus stochastiques non-gaussiens à longue mémoire (Gamma-Farima) permettant de modéliser de maniÚre pertinente les traces de débit agrégé, et ce pour une large gamme de niveau d'agrégation. Afin de pouvoir générer du trafic synthétique, nous avons proposé une méthode de synthÚse de tels processus. Nous avons ensuite, à partir du modÚle Gamma-Farima, proposé un modÚle multirésolution permettant de différencier un trafic régulier, d'un trafic contenant une attaque (de type déni de service distribuée). Ceci nous a permis de proposer une méthode de détection d'anomalie que nous avons évalué sur des traces réelles et en simulation. Enfin nous avons étudié expérimentalement le problÚme de la production de trafic à longue mémoire dans un simulateur de réseaux (NS-2). La deuxiÚme partie traite la problématique de la génération de trafic au sein des systÚmes sur puce (SOC). Dans ce domaine, l'arrivée de véritable réseaux sur puce place la conception de l'interconnexion au premier plan, et pour accélérer les simulations, il convient de remplacer les composants par des générateurs de trafic. Nous avons mis en place un environnement complet de génération de trafic sur puce permettant de rejouer une trace, de produire une charge aléatoire sur le réseau, de produire un trafic stochastique ajusté sur une trace de référence et de tenir compte des phases dans le trafic. Nous avons effectué de nombreuses simulations dans l'environnement de simulation de SOC académique SOCLIB qui nous ont permis de valider notre approche, d'évaluer notre algorithme de segmentation ainsi que la génération de trafic stochastique multiphase que nous avons introduite. Nous avons aussi exploré la présence de longue mémoire dans le trafic des processeurs sur puce, ainsi que l'impact de cette caractéristique sur les performances du réseau sur puce

    Analyse pire cas pour processeur multi-cƓurs disposant de caches partagĂ©s

    No full text
          Hard real-time systems are subject to timing constraints and failure to respect them can cause economic, ecological or human disasters. The validation process which guarantees the safety of such software, by ensuring the respect of these constraints in all situations including the worst case, is based on the knowledge of the worst case execution time of each task. However, determining the worst case execution time is a difficult problem for modern architectures because of complex hardware mechanisms that could cause significant execution time variability. This document focuses on the analysis of the worst case timing behavior of cache hierarchies, to determine their contribution to the worst case execution time. Several approaches are proposed to predict and improve the worst case execution time of tasks running on multicore processors with a cache hierarchy in which some cache levels are shared between cores.      Les systĂšmes temps-rĂ©el strict sont soumis Ă  des contraintes temporelles dont le non respect peut entraĂźner des consĂ©quences Ă©conomiques, Ă©cologiques, humaines catastrophiques. Le processus de validation, garantissant la sĂ»retĂ© de ces logiciels en assurant le respect de ces contraintes dans toutes les situations possibles y compris le pire cas, se base sur la connaissance Ă  priori du pire temps d'exĂ©cution de chacune des tĂąches du logiciel. Cependant, l'obtention de ce pire temps d'exĂ©cution est un problĂšme difficile pour les architectures actuelles, en raison des mĂ©canismes matĂ©riels complexes pouvant amener une variabilitĂ© importante du temps d'exĂ©cution. Ce document se concentre sur l'analyse du comportement temporel pire cas des hiĂ©rarchies de mĂ©moires cache, afin de dĂ©terminer leur contribution au pire temps d'exĂ©cution. Plusieurs approches sont proposĂ©es afin de prĂ©dire et d'amĂ©liorer le pire temps d'exĂ©cution des tĂąches s'exĂ©cutant sur des processeurs multi-cƓurs disposant d'une hiĂ©rarchie de mĂ©moires cache avec des niveaux partagĂ©s entre les diffĂ©rents cƓurs de calculs

    Informatique et culture scientifique du numérique

    Get PDF
    National audienceCe document transcrit les MOOC rĂ©alisĂ©s par le Learning Lab Inria, avec le soutien du MinistĂšre de l’éducation nationale et de la jeunesse, en partenariat avec le projet Class ́Code et l’UniversitĂ© CĂŽte d’Azur.Cette premiĂšre version reprend et remet en forme les contenus des MOOC, notamment en transcrivant les propos oraux des diffĂ©rents intervenants issus des supports multimĂ©dias, et en adaptant les contenus Ă  un mĂ©dia textuel. Les apports supplĂ©mentaires concernent modestement la partie surles logiciels libres et celle sur le son et la musique. En l’état, il manque encore un chapitre sur les implications et applications de l’informatique (bioinformatique, mĂ©decine, arts, etc.) et un autre sur l’architecture des ordinateurs et des rĂ©seaux. Cependant, le taux de recouvrement n’est pas nul car ces sujets sont Ă©galement abordĂ©s dans d’autres sections du manuel. Toutefois, le manuel reste exploitable comme tel et sera enrichi et amĂ©liorĂ© dans des versions suivantes

    33Úmes Journées Francophones des Langages Applicatifs

    Get PDF
    International audienceLes 33Ăšmes JournĂ©es Francophones des Langages Applicatifs (JFLA) se sont tenues Ă  Saint-MĂ©dard-d'Excideuil, plus prĂ©cisĂ©ment Domaine d'EssendiĂ©ras (PĂ©rigord), du mardi 28 juin 2022 au vendredi 1er juillet 2022.Les JFLA rĂ©unissent concepteurs, utilisateurs et thĂ©oriciens ; elles ont pour ambition de couvrir les domaines des langages applicatifs, de la preuve formelle, de la vĂ©rification de programmes, et des objets mathĂ©matiques qui sous-tendent ces outils. Ces domaines doivent ĂȘtre pris au sens large : nous souhaitons promouvoir les ponts entre les diffĂ©rentes thĂ©matiques.- Langages fonctionnels et applicatifs : sĂ©mantique, compilation, optimisation, typage, mesures, extensions par d'autres paradigmes.- Assistants de preuve : implĂ©mentation, nouvelles tactiques, dĂ©veloppements prĂ©sentant un intĂ©rĂȘt technique ou mĂ©thodologique.- Logique, correspondance de Curry-Howard, rĂ©alisabilitĂ©, extraction de programmes, modĂšles.- SpĂ©cification, prototypage, dĂ©veloppements formels d'algorithmes.- VĂ©rification de programmes ou de modĂšles, mĂ©thode dĂ©ductive, interprĂ©tation abstraite, raffinement.- Utilisation industrielle des langages fonctionnels et applicatifs, ou des mĂ©thodes issues des preuves formelles, outils pour le web.Les articles soumis aux JFLA sont relus par au moins deux personnes s'ils sont acceptĂ©s, trois personnes s'ils sont rejetĂ©s. Les critiques des relecteurs sont toujours bienveillantes et la plupart du temps encourageantes et constructives, mĂȘme en cas de rejet

    E-gouvernement pour la bonne gouvernance dans les pays en développement : l'expérience du projet eFez

    Get PDF
    PubliĂ© conjointement avec Les Presses de l'UniversitĂ© LavalVersion anglaise disponible dans la BibliothĂšque numĂ©rique du CRDI: E-government for good governance in developing countries : empirical evidence from the eFez ProjectVersion arabe dans la bibliothĂšqueLes pays en dĂ©veloppement accusent encore aujourd’hui beaucoup de retard par rapport aux pays dĂ©veloppĂ©s concernant l’usage gĂ©nĂ©ralisĂ© des technologies de l’information, et en particulier la mise en place de systĂšmes de gouvernement Ă©lectronique (e-gouvernement) pour faciliter aux citoyens l’accĂšs aux services gouvernementaux. C’est dans ce contexte que le projet eFez a Ă©tĂ© conduit entre 2004 3 2009 dans la ville de FĂšs au Maroc avec l’appui financier du CRDI, le Centre de recherches pour le dĂ©veloppement international du Canada. Le but de ce projet Ă©tait de dĂ©montrer qu’un systĂšme d’e-gouvernement peut ĂȘtre dĂ©veloppĂ© dans le contexte d’une grande ville d’un pays en dĂ©veloppement, et utilisĂ© pour soutenir et automatiser les opĂ©rations quotidiennes dans un domaine critique : l’état civil. L’équipe du projet eFez a mis au point une approche d’analyse, de dĂ©veloppement et d’évaluation structurĂ©e des retombĂ©es. Le projet eFez a remportĂ© plusieurs prix au niveau marocain (2006), africain (2007) et international (Prix international du Service Public dĂ©cernĂ© par l’ONU en 2007)
    corecore