10 research outputs found

    Une approche pragmatique pour mesurer la qualité des applications à base de composants logiciels

    Get PDF
    Over the past decade, many companies proceeded with the introduction of component-oriented software technology in their development environments. The component paradigm that promotes the assembly of autonomous and reusable software bricks is indeed an interesting proposal to reduce development costs and maintenance while improving application quality. In this paradigm, as in all others, architects and developers need to evaluate as soon as possible the quality of what they produce, especially along the process of designing and coding. The code metrics are indispensable tools to do this. They provide, to a certain extent, the prediction of the quality of « external » component or architecture being encoded. Several proposals for metrics have been made in the literature especially for the component world. Unfortunately, none of the proposed metrics have been a serious study regarding their completeness, cohesion and especially for their ability to predict the external quality of developed artifacts. Even worse, the lack of support for these metrics with the code analysis tools in the market makes it impossible to be used in the industry. In this state, the prediction in a quantitative way and « a priori » the quality of their developments is impossible. The risk is therefore high for obtaining higher costs as a consequence of the late discovery of defects. In the context of this thesis, I propose a pragmatic solution to the problem. Based on the premise that much of the industrial frameworks are based on object-oriented technology, I have studied the possibility of using some « conventional » code metrics unpopular to component world, to evaluate component-based applications. Indeed, these metrics have the advantage of being well defined, known, equipped and especially to have been the subject of numerous empirical validations analyzing the predictive power for imperatives or objects codes. Among the existing metrics, I identified a subset of them which, by interpreting and applying to specific levels of granularity, can potentially provide guidance on the compliance of developers and architects of large principles of software engineering, particularly on the coupling and cohesion. These two principles are in fact the very source of the component paradigm. This subset has the ability to represent all aspects of a component-oriented application : internal view of a component, its interface and compositional view through architecture. This suite of metrics, identified by hand, was then applied to 10 open-source OSGi applications, in order to ensure, by studying of their distribution, that it effectively conveyed relevant information to the component world. I then built predictive models of external quality properties based on these internal metrics : reusability, failure, etc. The development of such models and the analysis of their power are only able to empirically validate the interest of the proposed metrics. It is also possible to compare the « power » of these models with other models from the literature specific to imperative and/or object world. I decided to build models that predict the existence and frequency of defects and bugs. To do this, I relied on external data from the history of changes and fixes a panel of 6 large mature OSGi projects (with a maintenance period of several years). Several statistical tools were used to build models, including principal component analysis and multivariate logistic regression. This study showed that it is possible to predict with these models 80% to 92% of frequently buggy components with reminders ranging from 89% to 98%, according to the evaluated projects. Models for predicting the existence of a defect are less reliable than the first type of model. This thesis confirms thus the interesting « practice » of using common and well equipped metrics to measure at the earliest application quality in the component world.Ces derniĂšres annĂ©es, de nombreuses entreprises ont introduit la technologie orientĂ©e composant dans leurs dĂ©veloppements logiciels. Le paradigme composant, qui prĂŽne l’assemblage de briques logiciels autonomes et rĂ©utilisables, est en effet une proposition intĂ©ressante pour diminuer les coĂ»ts de dĂ©veloppement et de maintenance tout en augmentant la qualitĂ© des applications. Dans ce paradigme, comme dans tous les autres, les architectes et les dĂ©veloppeurs doivent pouvoir Ă©valuer au plus tĂŽt la qualitĂ© de ce qu’ils produisent, en particulier tout au long du processus de conception et de codage. Les mĂ©triques sur le code sont des outils indispensables pour ce faire. Elles permettent, dans une certaine mesure, de prĂ©dire la qualitĂ© « externe » d’un composant ou d’une architecture en cours de codage. Diverses propositions de mĂ©triques ont Ă©tĂ© faites dans la littĂ©rature spĂ©cifiquement pour le monde composant. Malheureusement, aucune des mĂ©triques proposĂ©es n’a fait l’objet d’une Ă©tude sĂ©rieuse quant Ă  leur complĂ©tude, leur cohĂ©sion et surtout quant Ă  leur aptitude Ă  prĂ©dire la qualitĂ© externe des artefacts dĂ©veloppĂ©s. Pire encore, l’absence de prise en charge de ces mĂ©triques par les outils d’analyse de code du marchĂ© rend impossible leur usage industriel. En l’état, la prĂ©diction de maniĂšre quantitative et « a priori » de la qualitĂ© de leurs dĂ©veloppements est impossible. Le risque est donc important d’une augmentation des coĂ»ts consĂ©cutive Ă  la dĂ©couverte tardive de dĂ©fauts. Dans le cadre de cette thĂšse, je propose une rĂ©ponse pragmatique Ă  ce problĂšme. Partant du constat qu’une grande partie des frameworks industriels reposent sur la technologie orientĂ©e objet, j’ai Ă©tudiĂ© la possibilitĂ© d’utiliser certaines des mĂ©triques de codes "classiques", non propres au monde composant, pour Ă©valuer les applications Ă  base de composants. Parmi les mĂ©triques existantes, j’ai identifiĂ© un sous-ensemble d’entre elles qui, en s’interprĂ©tant et en s’appliquant Ă  certains niveaux de granularitĂ©, peuvent potentiellement donner des indications sur le respect par les dĂ©veloppeurs et les architectes des grands principes de l’ingĂ©nierie logicielle, en particulier sur le couplage et la cohĂ©sion. Ces deux principes sont en effet Ă  l’origine mĂȘme du paradigme composant. Ce sous-ensemble devait ĂȘtre Ă©galement susceptible de reprĂ©senter toutes les facettes d’une application orientĂ©e composant : vue interne d’un composant, son interface et vue compositionnelle au travers l’architecture. Cette suite de mĂ©trique, identifiĂ©e Ă  la main, a Ă©tĂ© ensuite appliquĂ©e sur 10 applications OSGi open- source afin de s’assurer, par une Ă©tude de leur distribution, qu’elle vĂ©hiculait effectivement pour le monde composant une information pertinente. J’ai ensuite construit des modĂšles prĂ©dictifs de propriĂ©tĂ©s qualitĂ© externes partant de ces mĂ©triques internes : rĂ©utilisation, dĂ©faillance, etc. J’ai dĂ©cidĂ© de construire des modĂšles qui permettent de prĂ©dire l’existence et la frĂ©quence des dĂ©fauts et les bugs. Pour ce faire, je me suis basĂ©e sur des donnĂ©es externes provenant de l’historique des modifications et des bugs d’un panel de 6 gros projets OSGi matures (avec une pĂ©riode de maintenance de plusieurs annĂ©es). Plusieurs outils statistiques ont Ă©tĂ© mis en Ɠuvre pour la construction des modĂšles, notamment l’analyse en composantes principales et la rĂ©gression logistique multivariĂ©e. Cette Ă©tude a montrĂ© qu’il est possible de prĂ©voir avec ces modĂšles 80% Ă  92% de composants frĂ©quemment buggĂ©s avec des rappels allant de 89% Ă  98%, selon le projet Ă©valuĂ©. Les modĂšles destinĂ©s Ă  prĂ©voir l’existence d’un dĂ©faut sont moins fiables que le premier type de modĂšle. Ce travail de thĂšse confirme ainsi l’intĂ©rĂȘt « pratique » d’user de mĂ©triques communes et bien outillĂ©es pour mesurer au plus tĂŽt la qualitĂ© des applications dans le monde composant

    Réutilisation des processus d'affaires pour le développement de systÚmes d'information

    Get PDF
    Mémoire numérisé par la Direction des bibliothÚques de l'Université de Montréal

    Data acquisitions for electromyograms

    Get PDF
    Ce travail de bachelor est en relation Ă©troite avec le projet de recherche NinaPro (Non-Invasive Adaptive Hand Prosthesis), un projet menĂ© en collaboration avec le centre de recherche IDIAP (Institut d'Intelligence Artificielle Perceptive). Le but de ce projet est d’aider les personnes amputĂ©es de la main Ă  amĂ©liorer l’apprentissage de l’utilisation de leur prothĂšse et Ă  acquĂ©rir une plus large palette de mouvements. Ce projet se base sur une large rĂ©colte de donnĂ©es effectuĂ©e sur un ensemble de diffĂ©rents sujets. Les donnĂ©es rĂ©coltĂ©es consistent d’une part en des signaux musculaires Ă©mis par les sujets lors de l’exĂ©cution de certains mouvements et d’autre part en des donnĂ©es cliniques concernant les sujets (taille, Ăąge, poids
) et les conditions d’acquisition des donnĂ©es (lieu, date, tempĂ©rature de la piĂšce). Le but de ce travail de bachelor est de crĂ©er une base de donnĂ©es susceptible d’accueillir ces donnĂ©es. Cette base de donnĂ©es devra ĂȘtre accessible Ă  divers intervenants via une interface web, afin de garantir un accĂšs le plus large possible. Naturellement cette application web ne devra ĂȘtre accessible qu’aux personnes autorisĂ©es. Un systĂšme de droits devra donc ĂȘtre mis en place, ainsi que les outils permettant de l’administrer

    Contribution à la modélisation des applications temps réel d'aide à la conduite

    Get PDF
    Advanced Driver Assistance Systems (ADAS) manage an important volume of data that must be updated regularly. However, ADAS don't store, nor manage efficiently these data. For these reasons, we propose to integrate a real-time (RT) database system into ADAS. The integration of the RT database system allows improving the fault tolerance, reducing the number of transactions and minimizing their response time. The management of a lot of data makes these systems complex, thus, their design is highly difficult. To tackle this problem, we have proposed three patterns based on the pattern development process. This process allows defining the steps to follow in order to determine the functionalities and the requirements of the driver assistance domain on one hand, and defining the unification rules for the generation of the UML class and sequence diagrams, on the other hand. In order to represent these patterns, we have proposed UML-RTDB2 profile, which allows (i) expressing the variability of patterns, (ii) representing the real time constraints and the non functional properties and (iii) identifying the role played by each pattern element in a pattern instance. Once the proposed patterns are created, they can be reused by designers to model a specific application. For this reason, we have proposed a process to assist the applications designers when instantiating the patterns solutions. Finally, we have evaluated these patterns based on two categories of metrics.Les systĂšmes d'aide Ă  la conduite gĂšrent un grand volume de donnĂ©es qui doivent ĂȘtre mises Ă  jour rĂ©guliĂšrement. Cependant, ces systĂšmes ne permettent, ni de les stocker, ni de les gĂ©rer d'une maniĂšre efficace. Pour ces raisons, nous proposons l'intĂ©gration d'un systĂšme de bases de donnĂ©es temps rĂ©el (TR) dans les systĂšmes d'aide Ă  la conduite. Cela permet d'amĂ©liorer la tolĂ©rance aux fautes, de rĂ©duire le nombre de transactions et de rĂ©duire leur temps de rĂ©ponse. La gestion d'un grand volume de donnĂ©es et leurs contraintes TR rend ces systĂšmes plus complexes, ce qui rend leur modĂ©lisation plus difficile. Pour remĂ©dier Ă  cette complexitĂ©, nous avons proposĂ© trois patrons de conception en nous basant sur un processus de crĂ©ation de patrons. Ce processus permet de dĂ©finir les Ă©tapes Ă  suivre pour dĂ©terminer les fonctionnalitĂ©s et les exigences du domaine d'aide Ă  la conduite, d'une part, et de dĂ©finir les rĂšgles d'unification pour gĂ©nĂ©rer les diagrammes UML de classes et de sĂ©quence, d'autre part. Pour reprĂ©senter ces patrons, nous avons proposĂ© le profil UML-RTDB2, pour tenir compte : (i) de l'expression de la variabilitĂ© des patrons, (ii) de la reprĂ©sentation des contraintes TR et des aspects non fonctionnels et (iii) des Ă©lĂ©ments instanciĂ©s Ă  partir des patrons lors de la modĂ©lisation d'une application cible. Une fois les patrons crĂ©Ă©s, ils peuvent ĂȘtre rĂ©utilisĂ©s par les concepteurs pour modĂ©liser des systĂšmes spĂ©cifiques. Pour cela, nous avons proposĂ© un processus de rĂ©utilisation pour guider les concepteurs d'applications lors de la rĂ©utilisation des solutions de patrons. Enfin, nous avons procĂ©dĂ© Ă  l'Ă©valuation de ces patrons en utilisant deux catĂ©gories de mĂ©triques

    Scénarisation pédagogique pour des EIAH ouverts (une approche dirigée par les modÚles et spécifique au domaine métier)

    Get PDF
    Dans cette thÚse, nous nous sommes intéressés à l ouverture des EIAH (EnvironnementsInformatiques pour l'Apprentissage Humain), pour répondre à leur faible déploiement dansles établissements de formation, en facilitant leur appropriation par des usagers. Notre travailde recherche s'inscrit dans le cadre du projet REDiM (Réingénierie des EIAH Dirigée par lesModÚles) mené au LIUM (Laboratoire d'Informatique de l'Université du Maine), dont un desobjectifs est d intégrer les enseignants dans le processus de conception des scénariospédagogiques d un EIAH.Nous proposons une approche d ingénierie et de réingénierie pour rendre un EIAH ouvertà la conception et à l adaptation de ses scénarios pédagogiques par les enseignantsutilisateurs. Nous avons défini un processus de conception basé sur la modélisationde scénarios pédagogiques ouverts (SPO), qui permet l instrumentation des enseignantspour les aider dans la conception continue (i.e. qui se poursuit dans l usage) d une activitéd apprentissage. Nous faisons trois propositions scientifiques :- Un modÚle de représentation des SPO, qui permet de les structurer en variantes enfonction des contextes d exécution. Nous qualifions ce modÚle de rationnel puisqu il s appuieprincipalement sur l approche du Design Rationale que nous avons adaptée à notreproblématique.- Un processus itératif et incrémental d ingénierie et de réingénierie qui guide lesenseignants pour concevoir et adapter des SPO conformes au modÚle que nous avonsdéfini.- Une méthode dirigée par les modÚles et spécifique au domaine métier pour instrumenterle processus d ouverture des scénarios pédagogiques d un EIAH existant. Cette méthoded instrumentation, reposant sur l IDM (Ingénierie Dirigée par les ModÚles) et le DSM(Domain-Specific Modeling), implique les enseignants utilisateurs de l EIAH, considérés icicomme des experts du domaine. Elle est structurée en plusieurs phases qui amÚnentprogressivement à définir, de façon spécifique à l EIAH considéré, un langage d expressiondes SPO (ADSGEML - Adaptive Domain-Specific Graphical Educational ModelingLanguage) et un éditeur associé permettant la conception et l adaptation des SPO dansl univers métier de l EIAH.Afin d évaluer et de raffiner nos propositions, nous les avons appliquées sur l EIAH Hop3x , préalablement conçu au LIUM dans le cadre d un autre projet pour pratiquer laprogrammation orientée objet. Nous avons donc élaboré un ADSGEML et un environnementd édition graphique pour permettre aux enseignants de concevoir et d adapterdynamiquement des sessions ouvertes de Hop3x, à un niveau élevé d abstraction.In this thesis, we are interested in opening TEL systems (Technology EnhancedLearning) up in order to respond to the problem of their low deployment in teachinginstitutions, we need to facilitate their adoption by users. Our research work is part ofthe REDiM (French abbreviation which means Model-Driven Re-engineering of TELsystems ) project led by the LIUM Computer Science Laboratory of Le MansUniversity in France. One of the main objectives of this project is to involve teachersin the design process of learning scenarios of a TEL system.We propose an engineering and re-engineering approach for opening TEL systemsin order to facilitate for teachers the design and adaptation of pedagogical scenarios.We defined a design process based on the modeling of Open Pedagogical Scenarios(OPS), which allows the building of supports helping teachers in the continuousdesign of a learning activity (i.e. design which continues in the use process). Wemake three scientific proposals:- A model of OPS representation which defines a structure based on variantsaccording to execution contexts. We consider this model to be rational because it isbased mainly on the Design Rationale approach that we have adapted for ourresearch problem.- An iterative and incremental engineering and re-engineering process that guidesteachers to design and adapt OPS according to the rational model that we define inthis work.- A model-driven and domain-specific method for supporting the process of openingpedagogical scenarios of a legacy TEL system. This method, based on the MDE(Model-Driven Engineering) and DSM (Domain-Specific Modelling), involves teachersusing the TEL system, as they are considered to be domain experts. Our method isdivided into several phases that lead progressively to define the TEL system sADSGEML (Adaptive Educational Graphical Domain-Specific Modelling Language)and an associate editor allowing the design and adaptation of OPS in the businessfield of the TEL system to open for teachers.To evaluate and refine our proposals, we have applied them on the TEL system"Hop3x" which was designed at LIUM under another project for practicing objectorientedprogramming. We therefore developed an ADSGEML and a graphicalediting environment to enable teachers to design and adapt dynamically the openHop3x s learning sessions at a high level of abstraction.LE MANS-BU Sciences (721812109) / SudocSudocFranceF

    Conception et mise en oeuvre d'une plate-forme pour la sûreté de fonctionnement des services Web

    Get PDF
    Les Services Web (SW) constituent la technologie de base pour le dĂ©veloppement d'Architectures OrientĂ©es Services (AOS). Ces architectures, de plus en plus rĂ©pandues sur le Net, permettent de mettre en place des applications semi-critiques Ă  Ă©chelle planĂ©taire. Elles se basent sur la notion de relation de "service" formalisĂ©e par un contrat qui unit le client et le prestataire de services. Dans ce type d'applications, les dĂ©veloppeurs d'applications orientĂ©es services regardent les Services Web comme des COTS (Component Off-The Shell) et ignorent donc leurs implĂ©mentations et leurs comportements en prĂ©sence de fautes. Dans ce but, cette thĂšse introduit, dans ce nouveau contexte, la notion de « connecteurs spĂ©cifiques de tolĂ©rance aux fautes » (SFTC – Specific Fault Tolerance Connectors) capable d'implĂ©menter des applications sĂ»res de fonctionnement Ă  partir de Services Web supposĂ©s non-fiables. Composants logiciels insĂ©rĂ©s entre les clients et les prestataires, les SFTC implĂ©mentent des filtres et diffĂ©rentes techniques de dĂ©tection d'erreurs ainsi que des mĂ©canismes de recouvrement qui sont dĂ©clenchĂ©s quand les Services Web ne satisfont plus les caractĂ©ristiques de sĂ»retĂ© demandĂ©es. L'originalitĂ© de cette approche est d'utilisĂ© une particularitĂ© intĂ©ressante du Web qui est la redondance inhĂ©rente des services qui s'y trouvent. Cette propriĂ©tĂ© a permis de dĂ©finir le concept de Services Web Abstrait (SWA) et de mettre en place des stratĂ©gies de recouvrement Ă  l'aide de services Ă©quivalents. Ainsi, les « connecteurs » et les « SWA », introduits dans les architectures orientĂ©es services, fournissent une approche plus adaptable pour permettre, Ă  des mĂ©canismes de sĂ»retĂ©, d'ĂȘtre dĂ©finis au cas par cas pour une utilisation donnĂ©e du Service Web et d'ĂȘtre modifiĂ©s selon la criticitĂ© de l'application. Ainsi, mes travaux de recherches ont permis de fournir aux dĂ©veloppeurs d'Architectures OrientĂ©es Services : 1) le langage nommĂ© DeWeL pour dĂ©crire les caractĂ©ristiques de sĂ»retĂ© de fonctionnement du connecteur. Ce langage dĂ©diĂ© Ă  la rĂ©alisation de connecteur impose de fortes restrictions inspirĂ©es du monde des logiciels critiques du ferroviaire et de l'avionique afin de diminuer de façon drastique des fautes de dĂ©veloppement. 2) l'infrastructure IWSD pour dynamiquement contrĂŽler et exĂ©cuter les connecteurs dans des applications critiques. Cette plateforme, rĂ©alisĂ© en mode duplex pour tolĂ©rer les fautes matĂ©rielles et logicielles, permet d'exĂ©cuter de façon sĂ»res les connecteurs crĂ©es et d'obtenir Ă©galement des informations sur le caractĂšre non-fonctionnel et opĂ©rationnel des Services Web ciblĂ©s. Ces informations sont capitales pour permettre aux dĂ©veloppeurs de connecteurs d'affiner leurs actions de tolĂ©rances aux fautes pour l'application ciblĂ©e. Environ deux cents connecteurs ont Ă©tĂ© implĂ©mentĂ©s afin de rĂ©aliser des tests sur la performance et la robustesse du langage et de la plate-forme permettant ainsi de valider cette approche capable de dĂ©ployer des applications orientĂ©es services semi-critiques tolĂ©rant les fautes Ă  l'aide de SWA. ABSTRACT : Web Services (WS) technology is the basis for the development of Service Oriented Architectures (SOA). These architectures are increasingly widespread on the Net and enable developers to implement semi-critical planetary applications. Such applications are based on the notion of service and its attached contract. The contract links a client and a service provider. In this kind of applications, application developers look at Web Services as COTS (Commercial Off-The- Shelf) components, consequently they ignore their implementation and their behaviour in the presence of faults. The thesis proposes the notion of Specific Fault Tolerance Connectors (SFTC) to implement dependable applications out of unreliable Web Services. The connectors intercept client-provider requests and implement filtering, error detection techniques (e.g. runtime assertions) together with recovery mechanisms that are triggered when the WS does not satisfy anymore the dependability specifications. The originality of this approach relies on using an interesting feature of the Web that is the inherent redundancy of services. To take advantage of this, we define the concept of Abstract Web Services (AWS) to implement recovery strategies using equivalent services. Thus, "connectors” and “AWS” allow dependability mechanisms to be defined on a case-by-case basis for a given WS usage and possibly dynamically changed according to the needs. Two specific techniques and tools have been designed and implemented to help developers of Services Oriented Architectures : 1) A domain specific language named DeWeL (DEpendable Web services Language) describing the dependability features of a connector. This language is devoted to the realization of connectors. It imposes strong restrictions enforced by standards for critical railway and avionics software in order to reduce software development faults. 2) A support infrastructure named IWSD (Infrastructure for Web Services Dependability) to dynamically manage and run connectors in real applications. This platform is implemented in duplex mode to tolerate crash faults and provides core services. In particular, it provides support to run connectors and get information on the non-functional and operational behaviour of the targeted Web Services. This information is essential to help developers of connector to adjust their fault-tolerance actions to specific application needs. Approximately two hundred connectors have been implemented in order to realize performance and robustness tests of the language and the platform. These experiments show the interest of our approach to deploy fault-tolerant service oriented applications using AW

    Une approche qualitative pour la prise de dĂ©cision sous contraintes non-fonctionnelles dans le cadre d’une composition agile de services

    Get PDF
    Service composition implementation, in a Web and business context, opens many investigation and improvements prospects. The contributions in this thesis are then intended to perform a particularly dynamic and flexible composition, able to take into account multiple non-functional constraints. They revolve around the concepts of active, useful and agile composition.Active composition is able to effectively complement dynamic approaches, in order to improve their capability to adapt to non-functional changes. It relies on a transposition of the late-binding principle to the SSOA context, then able to integrate the current QoS values of services at execution time. Useful composition is linked to our new LCP-net formalism for expressing user preferences. The elicitation of non-functional preferences, established between services QoS properties and their values, will afterward provide a total or almost total order over each candidate services sets, dur- ing service selection. Finally, agile composition is the “sum” of the last two, where we lay the groundwork for global QoS management during processes execution.La mise en Ɠuvre d’une composition de services, dans le contexte de l’entreprise et du Web, ouvre la perspective de nombreux champs d’investigations et d’améliorations. Les contributions de cette thèse ont alors pour vocation de réaliser une composition particulièrement dynamique, souple, et capable de prendre en compte de multiples contraintes non-fonctionnelles. Elles s’articulent autour des concepts de composition active, utile et agile.La composition active est à même de compléter efficacement les approches dynamiques classiques, pour en améliorer les capacités d’adaptation aux changements non-fonctionnels. Elle repose sur une transposition du principe de liaison tardive au contexte des SSOA, alors disposé pour intégrer la QoS courante des services à l’exécution. La composition utile est liée à notre nouveau formalisme LCP-net pour l’expression de préférences utilisateur. L’élicitation de préférences non- fonctionnelles, établies entre les propriétés de QoS des services et leurs valeurs, permet d’obtenir un ordre total ou quasi total sur chaque ensemble de services candidats lors de leur sélection. Enfin, la composition agile correspond à la “somme” des deux précédentes : il s’agit d’une utilisation habile des préférences utilisateurs LCP-net lors de la liaison tardive des services. Nous y posons aussi les bases d’une gestion de la QoS globale des processus métiers

    Vers l'automatisation de la mise à jour des bases de données spatio-temporelles d'aide à la navigation : cas d'une base de données pour la navigation des personnes à mobilité réduite

    Get PDF
    De nos jours, les systĂšmes d'aide Ă  la navigation occupent une place de plus en plus importante dans la vie quotidienne. Toutefois, leur potentiel est mal exploitĂ© pour le dĂ©placement des personnes Ă  mobilitĂ© rĂ©duite (PMR). À cet Ă©gard, le projet MobiliSIG a vu le jour. Son objectif est de dĂ©velopper une solution d'assistance multimodale mobile selon les principes de la conception cognitive pour la navigation des PMR. Au cƓur de cette solution se trouve une base de donnĂ©es d'accessibilitĂ© dont l'usage permettra de proposer des itinĂ©raires adaptĂ©s aux profils des utilisateurs. Cependant, vu que l'environnement Ă©volue et que certains obstacles ont un caractĂšre spatio-temporel, l'outil dĂ©veloppĂ© doit ĂȘtre dotĂ© d'un systĂšme qui lui permettra de rester continuellement Ă  jour. L'objectif global assignĂ© Ă  notre projet est la conception d'un systĂšme automatique de mise Ă  jour (MÀJ) continuelle des donnĂ©es d'accessibilitĂ© en temps quasi-rĂ©el Ă  partir de donnĂ©es multi-sources hĂ©tĂ©rogĂšnes. Pour ce faire, tout d'abord, nous avons passĂ© en revue la littĂ©rature inhĂ©rente aux concepts relatifs Ă  notre problĂ©matique. Ensuite, nous avons crĂ©Ă© et implĂ©mentĂ© une ontologie d'obstacles/facilitateurs sur la base des facteurs environnementaux de la classification PPH afin d'identifier et de bien cibler les donnĂ©es spatio-temporelles d'accessibilitĂ©. Par la suite, nous avons dĂ©terminĂ© les besoins et fonctionnalitĂ©s utiles Ă  notre systĂšme de MÀJ Ă  travers la prĂ©sentation et l'analyse des spĂ©cifications des donnĂ©es d'accessibilitĂ© et de diffĂ©rents scĂ©narios de cas d'utilisations. Finalement, en s'inspirant des concepts fondamentaux des processus ETL et des architectures orientĂ©es services, nous avons proposĂ© une solution composĂ©e d'une couche d'extraction automatique de multi-sources; une couche de transformation qui rĂ©pond au besoin du multi-formats; une application web pour les collaborateurs; et un service web de MÀJ chargĂ© des tĂąches de traitement automatique et en temps quasi-rĂ©el de l'information reçue de multi-sources en effectuant l'analyse syntaxique et sĂ©mantique, la gĂ©olocalisation, le gĂ©ocodage, la projection du systĂšme de rĂ©fĂ©rence le cas Ă©chĂ©ant, la validation et le contrĂŽle d'unicitĂ© avant de procĂ©der au chargement. Les rĂ©sultats des tests et validations du prototype dĂ©veloppĂ© ont permis de confirmer l'atteinte de l'objectif de la recherche

    E-gouvernement pour la bonne gouvernance dans les pays en développement : l'expérience du projet eFez

    Get PDF
    PubliĂ© conjointement avec Les Presses de l'UniversitĂ© LavalVersion anglaise disponible dans la BibliothĂšque numĂ©rique du CRDI: E-government for good governance in developing countries : empirical evidence from the eFez ProjectVersion arabe dans la bibliothĂšqueLes pays en dĂ©veloppement accusent encore aujourd’hui beaucoup de retard par rapport aux pays dĂ©veloppĂ©s concernant l’usage gĂ©nĂ©ralisĂ© des technologies de l’information, et en particulier la mise en place de systĂšmes de gouvernement Ă©lectronique (e-gouvernement) pour faciliter aux citoyens l’accĂšs aux services gouvernementaux. C’est dans ce contexte que le projet eFez a Ă©tĂ© conduit entre 2004 3 2009 dans la ville de FĂšs au Maroc avec l’appui financier du CRDI, le Centre de recherches pour le dĂ©veloppement international du Canada. Le but de ce projet Ă©tait de dĂ©montrer qu’un systĂšme d’e-gouvernement peut ĂȘtre dĂ©veloppĂ© dans le contexte d’une grande ville d’un pays en dĂ©veloppement, et utilisĂ© pour soutenir et automatiser les opĂ©rations quotidiennes dans un domaine critique : l’état civil. L’équipe du projet eFez a mis au point une approche d’analyse, de dĂ©veloppement et d’évaluation structurĂ©e des retombĂ©es. Le projet eFez a remportĂ© plusieurs prix au niveau marocain (2006), africain (2007) et international (Prix international du Service Public dĂ©cernĂ© par l’ONU en 2007)
    corecore