13 research outputs found

    Normalisation orthographique de corpus bruités

    Get PDF
    The information contained in messages posted on the Internet (forums, social networks, review sites...) is of strategic importance for many companies. However, few tools have been designed for analysing such messages, the spelling, typography and syntax of which are often noisy. This industrial PhD thesis has been carried out within the viavoo company with the aim of improving the results of a lemma-based information retrieval tool. We have developed a processing pipeline for the normalisation of noisy texts. Its aim is to ensure that each word is assigned the standard spelling corresponding to one of its lemma’s inflected forms. First, among all tokens of the corpus that are unknown to a reference lexicon, we automatically determine which ones result from alterations — and therefore should be normalised — as opposed to those that do not (neologisms, loanwords...). Normalisation candidates are then generated for these tokens using weighted rules obtained by analogy-based machine learning techniques. Next we identify tokens that are known to the reference lexicon but are nevertheless the result of an alteration (grammatical errors), and generate normalisation candidates for each of them. Finally, language models allow us to perform a context-sensitive disambiguation of the normalisation candidates generated for all types of alterations. Numerous experiments and evaluations are carried out on French data for each module and for the overall pipeline. Special attention has been paid to keep all modules as language-independent as possible, which paves the way for future adaptations of our pipeline to other European languages.Les messages publiĂ©s par les internautes comportent un intĂ©rĂȘt stratĂ©gique pour les entreprises. NĂ©anmoins, peu d’outils ont Ă©tĂ© conçus pour faciliter l'analyse de ces messages souvent bruitĂ©s. Cette thĂšse, rĂ©alisĂ©e au sein de l'entreprise viavoo, veut amĂ©liorer les rĂ©sultats d’un outil d'extraction d'information qui fait abstraction de la variabilitĂ© flexionnelle. Nous avons ainsi dĂ©veloppĂ© une chaĂźne de traitements pour la normalisation orthographique de textes bruitĂ©s. Notre approche consiste tout d'abord Ă  dĂ©terminer automatiquement, parmi les tokens du corpus traitĂ© qui sont inconnus d'un lexique, ceux qui rĂ©sultent d’altĂ©rations et qu'il conviendrait de normaliser, par opposition aux autres (nĂ©ologismes, emprunts...). Des candidats de normalisation sont alors proposĂ©s pour ces tokens Ă  l'aide de rĂšgles pondĂ©rĂ©es obtenues par des techniques d'apprentissage par analogie. Nous identifions ensuite des tokens connus du lexique qui rĂ©sultent nĂ©anmoins d’une altĂ©ration (fautes grammaticales), et proposons des candidats de normalisation pour ces tokens. Enfin, des modĂšles de langue permettent de prendre en compte le contexte dans lequel apparaissent les diffĂ©rents types d'altĂ©rations pour lesquels des candidats de normalisation ont Ă©tĂ© proposĂ©s afin de choisir les plus probables. DiffĂ©rentes expĂ©riences et Ă©valuations sont rĂ©alisĂ©es sur le français Ă  chaque Ă©tape et sur la chaĂźne complĂšte. Une attention particuliĂšre a Ă©tĂ© portĂ©e au caractĂšre faiblement dĂ©pendant de la langue des modules dĂ©veloppĂ©s, ce qui permet d'envisager son adaptation Ă  d'autres langues europĂ©ennes

    Contribution à la définition de modÚles de recherche d'information flexibles basés sur les CP-Nets

    Get PDF
    This thesis addresses two main problems in IR: automatic query weighting and document semantic indexing. Our global contribution consists on the definition of a theoretical flexible information retrieval (IR) model based on CP-Nets. The CP-Net formalism is used for the graphical representation of flexible queries expressing qualitative preferences and for automatic weighting of such queries. Furthermore, the CP-Net formalism is used as an indexing language in order to represent document representative concepts and related relations in a roughly compact way. Concepts are identified by projection on WordNet. Concept relations are discovered by means of semantic association rules. A query evaluation mechanism based on CP-Nets graph similarity is also proposed.Ce travail de thĂšse adresse deux principaux problĂšmes en recherche d'information : (1) la formalisation automatique des prĂ©fĂ©rences utilisateur, (ou la pondĂ©ration automatique de requĂȘtes) et (2) l'indexation sĂ©mantique. Dans notre premiĂšre contribution, nous proposons une approche de recherche d'information (RI) flexible fondĂ©e sur l'utilisation des CP-Nets (Conditional Preferences Networks). Le formalisme CP-Net est utilisĂ© d'une part, pour la reprĂ©sentation graphique de requĂȘtes flexibles exprimant des prĂ©fĂ©rences qualitatives et d'autre part pour l'Ă©valuation flexible de la pertinence des documents. Pour l'utilisateur, l'expression de prĂ©fĂ©rences qualitatives est plus simple et plus intuitive que la formulation de poids numĂ©riques les quantifiant. Cependant, un systĂšme automatisĂ© raisonnerait plus simplement sur des poids ordinaux. Nous proposons alors une approche de pondĂ©ration automatique des requĂȘtes par quantification des CP-Nets correspondants par des valeurs d'utilitĂ©. Cette quantification conduit Ă  un UCP-Net qui correspond Ă  une requĂȘte boolĂ©enne pondĂ©rĂ©e. Une utilisation des CP-Nets est Ă©galement proposĂ©e pour la reprĂ©sentation des documents dans la perspective d'une Ă©valuation flexible des requĂȘtes ainsi pondĂ©reĂ©s. Dans notre seconde contribution, nous proposons une approche d'indexation conceptuelle basĂ©e sur les CP-Nets. Nous proposons d'utiliser le formalisme CP-Net comme langage d'indexation afin de reprĂ©senter les concepts et les relations conditionnelles entre eux d'une maniĂšre relativement compacte. Les noeuds du CP-Net sont les concepts reprĂ©sentatifs du contenu du document et les relations entre ces noeuds expriment les associations conditionnelles qui les lient. Notre contribution porte sur un double aspect : d'une part, nous proposons une approche d'extraction des concepts en utilisant WordNet. Les concepts rĂ©sultants forment les noeuds du CP-Net. D'autre part, nous proposons d'Ă©tendre et d'utiliser la technique de rĂšgles d'association afin de dĂ©couvrir les relations conditionnelles entre les concepts noeuds du CP-Nets. Nous proposons enfin un mĂ©canisme d'Ă©valuation des requĂȘtes basĂ© sur l'appariement de graphes (les CP-Nets document et requĂȘte en l'occurrence)

    Compilation de connaissances pour la décision en ligne : application à la conduite de systÚmes autonomes

    Get PDF
    Controlling autonomous systems requires to make decisions depending on current observations and objectives. This involves some tasks that must be executed online--with the embedded computational power only. However, these tasks are generally combinatory; their computation is long and requires a lot of memory space. Entirely executing them online thus compromises the system's reactivity. But entirely executing them offline, by anticipating every possible situation, can lead to a result too large to be embedded. A tradeoff can be provided by knowledge compilation techniques, which shift as much as possible of the computational effort before the system's launching. These techniques consists in a translation of a problem into some language, obtaining a compiled form of the problem, which is both easy to solve and as compact as possible. The translation step can be very long, but it is only executed once, and offline. There are numerous target compilation languages, among which the language of binary decision diagrams (BDDs), which have been successfully used in various domains of artificial intelligence, such as model-checking, configuration, or planning. The objective of the thesis was to study how knowledge compilation could be applied to the control of autonomous systems. We focused on realistic planning problems, which often involve variables with continuous domains or large enumerated domains (such as time or memory space). We oriented our work towards the search for target compilation languages expressive enough to represent such problems. In a first part of the thesis, we present various aspects of knowledge compilation, as well as a state of the art of the application of compilation to planning. In a second part, we extend the BDD framework to real and enumerated variables, defining the interval automata (IAs) target language. We draw the compilation map of IAs and of some restrictions of IAs, that is, their succinctness properties and their efficiency with respect to elementary operations. We describe methods for compiling into IAs problems that are represented as continuous constraint networks. In a third part, we define the target language of set-labeled diagrams (SDs), another generalization of BDDs allowing the representation of discretized IAs. We draw the compilation map of SDs and of some restrictions of SDs, and describe a method for compiling into SDs problems expressed as discrete continuous networks. We experimentally show that using IAs and SDs for controlling autonomous systems is promising.La conduite de systĂšmes autonomes nĂ©cessite de prendre des dĂ©cisions en fonction des observations et des objectifs courants : cela implique des tĂąches Ă  effectuer en ligne, avec les moyens de calcul embarquĂ©s. Cependant, il s'agit gĂ©nĂ©ralement de tĂąches combinatoires, gourmandes en temps de calcul et en espace mĂ©moire. RĂ©aliser ces tĂąches intĂ©gralement en ligne dĂ©grade la rĂ©activitĂ© du systĂšme ; les rĂ©aliser intĂ©gralement hors ligne, en anticipant toutes les situations possibles, nuit Ă  son embarquabilitĂ©. Les techniques de compilation de connaissances sont susceptibles d'apporter un compromis, en dĂ©portant au maximum l'effort de calcul avant la mise en situation du systĂšme. Ces techniques consistent Ă  traduire un problĂšme dans un certain langage, fournissant une forme compilĂ©e de ce problĂšme, dont la rĂ©solution est facile et la taille aussi compacte que possible. L'Ă©tape de traduction peut ĂȘtre trĂšs longue, mais elle n'est effectuĂ©e qu'une seule fois, hors ligne. Il existe de nombreux langages-cible de compilation, notamment le langage des diagrammes de dĂ©cision binaires (BDDs), qui ont Ă©tĂ© utilisĂ©s avec succĂšs dans divers domaines de l'intelligence artificielle, tels le model-checking, la configuration ou la planification. L'objectif de la thĂšse Ă©tait d'Ă©tudier l'application de la compilation de connaissances Ă  la conduite de systĂšmes autonomes. Nous nous sommes intĂ©ressĂ©s Ă  des problĂšmes rĂ©els de planification, qui impliquent souvent des variables continues ou Ă  grand domaine Ă©numĂ©rĂ© (temps ou mĂ©moire par exemple). Nous avons orientĂ© notre travail vers la recherche et l'Ă©tude de langages-cible de compilation assez expressifs pour permettre de reprĂ©senter de tels problĂšmes. Dans la premiĂšre partie de la thĂšse, nous prĂ©sentons divers aspects de la compilation de connaissances ainsi qu'un Ă©tat de l'art de l'utilisation de la compilation dans le domaine de la planification. Dans une seconde partie, nous Ă©tendons le cadre des BDDs aux variables rĂ©elles et Ă©numĂ©rĂ©es, dĂ©finissant le langage-cible des " interval automata " (IAs). Nous Ă©tablissons la carte de compilation des IAs et de certaines restrictions des IAs, c'est-Ă -dire leurs propriĂ©tĂ©s de compacitĂ© et leur efficacitĂ© vis-Ă -vis d'opĂ©rations Ă©lĂ©mentaires. Nous dĂ©crivons des mĂ©thodes de compilation en IAs pour des problĂšmes exprimĂ©s sous forme de rĂ©seaux de contraintes continues. Dans une troisiĂšme partie, nous dĂ©finissons le langage-cible des " set-labeled diagrams " (SDs), une autre gĂ©nĂ©ralisation des BDDs, permettant de reprĂ©senter des IAs discrĂ©tisĂ©s. Nous Ă©tablissons la carte de compilation des SDs et de certaines restrictions des SDs, et dĂ©crivons une mĂ©thode de compilation de rĂ©seaux de contraintes discrets en SDs. Nous montrons expĂ©rimentalement que l'utilisation de IAs et de SDs pour la conduite de systĂšmes autonomes est prometteuse

    Qualité de service et calcul de chemins dans les réseaux inter-domaine et multicouches

    Get PDF
    Quality of Service (QoS) is a guarantee of network parameters (high bandwidth, short delay, etc.). In an inter-domaine network, it can be provided by contracts between domains, called Service Level Agreements (SLAs). In this thesis, we first focus on the SLA negotiation step, i.e., the selection of SLAs proposed by a domain. We provide exact and approximate methods that allow the domains to propose the SLAs that maximize their revenues. We also study the impact of the domain reputation on the negotiation process. Regarding the SLA instantiation step, we focus on path computation processes that take into account the encapsulation of protocols (in order to overcome the domain technological heterogeneity). Using tools from Language Theory, we provide the first polynomial solution to the path computation problem in this context.La QualitĂ© de Service (Quality of Service - QoS) est une garantie de paramĂštres rĂ©seau (bande passante Ă©levĂ©e, dĂ©lai court, etc.). Dans un rĂ©seaux inter-domaine, elle peut ĂȘtre assurĂ©e par des contrats entre domaines appelĂ©s Service Level Agreements (SLA). Dans cette thĂšse, nous nous intĂ©ressons d’abord Ă  l’étape de nĂ©gociation de SLA : la sĂ©lection des SLA proposĂ©s par un domaine. Nous proposons des mĂ©thodes exactes et approchĂ©es permettant aux domaines de proposer les SLA qui maximisent leurs revenus. Nous Ă©tudions Ă©galement l'impact de la rĂ©putation des domaines sur cette nĂ©gociation. Au niveau de l’instanciation des SLA, nous nous intĂ©ressons au calcul de chemins qui prennent en compte les encapsulations de protocoles (afin de pallier l’hĂ©tĂ©rogĂ©nĂ©itĂ© technologique des domaines). En utilisant des outils de thĂ©orie des langages, nous proposons la premiĂšre solution polynomiale au calcul de chemins dans un tel context

    Contribution au pronostic de défaillances guidé par des données

    Get PDF
    Ce mĂ©moire d’Habilitation Ă  Diriger des Recherche (HDR) prĂ©sente, dans la premiĂšre partie, une synthĂšse de mes travaux d’enseignement et de recherche rĂ©alisĂ©s au sein de l’École Nationale SupĂ©rieure de MĂ©canique et des Microtechniques (ENSMM) et de l’Institut FEMTO-ST. Ces travaux s’inscrivent dans la thĂ©matique du PHM (Prognostics and Health Management) et concernent le dĂ©veloppement d’une approche intĂ©grĂ©e de pronostic de dĂ©faillances guidĂ©e par des donnĂ©es. L’approche proposĂ©e repose sur l’acquisition de donnĂ©es reprĂ©sentatives des dĂ©gradations de systĂšmes physiques, l’extraction de caractĂ©ristiques pertinentes et la construction d’indicateurs de santĂ©, la modĂ©lisation des dĂ©gradations, l’évaluation de l’état de santĂ© et la prĂ©diction de durĂ©es de fonctionnement avant dĂ©faillances (RUL : Remaining Useful Life). Elle fait appel Ă  deux familles d’outils : d’un cĂŽtĂ© des outils probabilistes/stochastiques, tels que les rĂ©seaux BayĂ©siens dynamiques, et de l’autre cĂŽtĂ© les modĂšles de rĂ©gression non linĂ©aires, notamment les machines Ă  vecteurs de support pour la rĂ©gression. La seconde partie du mĂ©moire prĂ©sente le projet de recherche autour du PHM de systĂšmes complexes et de MEMS (Micro-Electro-Mechanical Systems), avec une orientation vers l’approche de pronostic hybride en combinant l’approche guidĂ©e par des donnĂ©es et l’approche basĂ©e sur des modĂšles physiques.This Habilitation manuscript presents, in the first part, a synthesis of my teaching and research works achieved at the National Institute of Mechanics and Microtechnologies (ENSMM) and at FEMTO-ST Institute. These works are within the topic of Prognostics and Health Management (PHM) and concern the development of an integrated data-driven failure prognostic approach. The proposed approach relies on acquisition of data which are representative of systems degradations, extraction of relevant features and construction of health indicators, degradation modeling, health assessment and Remaining Useful Life (RUL) prediction. This approach uses two groups of tools: probabilistic/stochastic tools, such as dynamic Bayesian networks, from one hand, and nonlinear regression models such as support vector machine for regression and Gaussian process regression, from the other hand. The second part of the manuscript presents the research project related to PHM of complex systems and MEMS (Micro-Electro-Mechanical Systems), with an orientation towards a hybrid prognostic approach by considering both model-based and data-driven approaches

    Extraction et Complétion de Terminologies Multilingues

    Get PDF
    Until now, automatic terminology extraction techniques have been often targeted towards monolingual corpora that are homogeneous from a language register point of view. This work, carried out in the context of a CIFRE convention, extends this objective to non-edited textual data written in typologically diverse languages, in order to extract « field terms ».This work focuses on the analysis of verbatim produced in the context of employee surveys carried out within multinational companies and processed by the Verbatim Analysis - VERA company. It involves the design and development of a processing pipeline for automatically extracting terminologies in a virtually language-independent, register-independent and domain-independent way.Based on an assessment of the typological properties of seven diverse languages, we propose a preliminary text pre-processing step prepares the training of models. This step is partly necessary (tokenization) and partly optional (removal of part of the morphological information). We compute from the resulting data a series of numerical features (statistical and frequency-based) used for training statistical models (CRFs).We select a first set of best models by means of an automatic dedicated evaluation of the extracted terms produced in each of the experimental settings considered for each languages. We then carry out a second series of evaluations for assessing the usability of these models on languages that differ from their training languages. Our results tend to demonstrate that the quality of the field terms that we extract is satisfying. The best scores we obtain (in a monolingual setting) are above 0, 9 for most languages. These scores can even be further improved for several languages by using some of the best models trained on other languages ; as a result, our approach could prove useful for extracting terminologies in languages for which such models are not available.Les processus d’extraction terminologique automatique ont Ă©tĂ© jusqu’ici majoritairement conçus pour ĂȘtre appliquĂ©s Ă  des corpus monolingues et dans des registres de langue uniformes. Cette thĂšse, rĂ©alisĂ©e dans le cadre d’une convention CIFRE, prolonge cet objectif pour une application Ă  des donnĂ©es textuelles bruitĂ©es et issues de langues de plus en plus variĂ©es, pour l’extraction de « termes de terrain ».Ce travail s’inscrit dans le cadre de l’analyse de verbatim issus d’enquĂȘtes internes au sein de multinationales traitĂ©es par l’entreprise Verbatim Analysis - VERA ; il consiste Ă  Ă©laborer une sĂ©quence de traitements pour l’extraction automatique de terminologies qui soit faiblement dĂ©pendante de la langue, du registre de langue ou du domaine.Suivant une rĂ©flexion fondĂ©e sur diffĂ©rents aspects de typologie linguistique appliquĂ©e Ă  sept langues, nous proposons des prĂ©traitements textuels prĂ©liminaires Ă  l’entraĂźnement de modĂšles. Ces derniers sont soit indispensables (segmentation en tokens), soit optionnels (amputation d’une partie de l’information morphologique). Sur l’ensemble des donnĂ©es ainsi produites, nous calculons des traits numĂ©riques(statistiques ou frĂ©quentiels) pour l’entraĂźnement des modĂšles statistiques de type CRF. Nous sĂ©lectionnons un ensemble de meilleurs modĂšles grĂące Ă  une Ă©valuation automatisĂ©e, au moyen d’une mĂ©trique adaptĂ©e, des termes extraits par les modĂšles produits pour l’ensemble des cadres expĂ©rimentaux envisagĂ©s pour chaque langue. Nous rĂ©alisons alors une seconde sĂ©rie d’évaluations pour Ă©tudier l’exploitabilitĂ© deces modĂšles pour d’autres langues que celles sur lesquelles ils ont Ă©tĂ© entraĂźnĂ©s. Il ressort de ces expĂ©riences que cette mĂ©thode aboutit Ă  une extraction de termes de terrain de qualitĂ© satisfaisante. Les meilleurs scores obtenus (pour une Ă©valuationmonolingue des modĂšles) se situent, pour la majoritĂ© des langues, au-dessus de l’iso-ligne de f-score 0, 9. Ces scores peuvent mĂȘme ĂȘtre amĂ©liorĂ©s pour certaines langues grĂące Ă  l’application trans-lingue des meilleurs modĂšles d’autres langues ; il en ressort que notre approche constitue potentiellement un bon levier Ă  des extractions terminologiques pour des langues ne disposant pas de leurs propres modĂšles.La seconde partie de notre travail prĂ©sente nos travaux relatifs Ă  la complĂ©tion automatique de terminologies structurĂ©es multilingues. Nous avons proposĂ© et Ă©valuĂ© deux algorithmes de complĂ©tion qui prennent en entrĂ©e un graphe de traduction multilingue (que nous construisons Ă  partir de ressources libres) et une terminologie multilingue structurĂ©e. Ils proposent alors de nouveaux candidats termes pour cette derniĂšre. Notre approche permet de complĂ©ter la terminologie structurĂ©e dans une langue qu’elle couvre dĂ©jĂ , mais Ă©galement d’étendre sa couverture Ă  de nou-velles langue. L’un de ces algorithmes est Ă©galement appliquĂ© au wordnet du français WOLF, ce qui en permet une amĂ©lioration importante de la couverture

    Indexation et interrogation de pages web décomposées en blocs visuels

    Get PDF
    Cette thĂšse porte sur l'indexation et l'interrogation de pages Web. Dans ce cadre, nous proposons un nouveau modĂšle : BlockWeb, qui s'appuie sur une dĂ©composition de pages Web en une hiĂ©rarchie de blocs visuels. Ce modĂšle prend en compte, l'importance visuelle de chaque bloc et la permĂ©abilitĂ© des blocs au contenu de leurs blocs voisins dans la page. Les avantages de cette dĂ©composition sont multiples en terme d'indexation et d'interrogation. Elle permet notamment d'effectuer une interrogation Ă  une granularitĂ© plus fine que la page : les blocs les plus similaires Ă  une requĂȘte peuvent ĂȘtre renvoyĂ©s Ă  la place de la page complĂšte. Une page est reprĂ©sentĂ©e sous forme d'un graphe acyclique orientĂ© dont chaque nƓud est associĂ© Ă  un bloc et Ă©tiquetĂ© par l'importance de ce bloc et chaque arc est Ă©tiquetĂ© la permĂ©abilitĂ© du bloc cible au bloc source. Afin de construire ce graphe Ă  partir de la reprĂ©sentation en arbre de blocs d'une page, nous proposons un nouveau langage : XIML (acronyme de XML Indexing Management Language), qui est un langage de rĂšgles Ă  la façon de XSLT. Nous avons expĂ©rimentĂ© notre modĂšle sur deux applications distinctes : la recherche du meilleur point d'entrĂ©e sur un corpus d'articles de journaux Ă©lectroniques et l'indexation et la recherche d'images sur un corpus de la campagne d'ImagEval 2006. Nous en prĂ©sentons les rĂ©sultats.This thesis is about indexing and querying Web pages. We propose a new model called BlockWeb, based on the decomposition of Web pages into a hierarchy of visual blocks. This model takes in account the visual importance of each block as well as the permeability of block's content to their neighbor blocks on the page. Splitting up a page into blocks has several advantages in terms of indexing and querying. It allows to query the system with a finer granularity than the whole page: the most similar blocks to the query can be returned instead of the whole page. A page is modeled as a directed acyclic graph, the IP graph, where each node is associated with a block and is labeled by the coefficient of importance of this block and each arc is labeled by the coefficient of permeability of the target node content to the source node content. In order to build this graph from the bloc tree representation of a page, we propose a new language : XIML (acronym for XML Indexing Management Language), a rule based language like XSLT. The model has been assessed on two distinct dataset: finding the best entry point in a dataset of electronic newspaper articles, and images indexing and querying in a dataset drawn from web pages of the ImagEval 2006 campaign. We present the results of these experiments.AIX-MARSEILLE3-Bib. Ă©lec. (130559903) / SudocSudocFranceF

    La lutte contre les changements climatiques par l'intégration de principes de l'économie circulaire dans le secteur des transports au Québec

    Get PDF
    L’objectif de cet essai est de déterminer si l’intégration de certains principes de l’économie circulaire au secteur des transports permettrait de réduire les émissions de gaz à effet de serre qui lui sont associées dans le contexte des milieux urbains québécois. Ce nouveau paradigme innovant s’oppose au modèle traditionnel d’économie linéaire qui promeut la consommation à tout prix. La logique de circularité vise plutôt l’optimisation des ressources à toutes les étapes du cycle de vie d’un bien ou d’un service dans une perspective de développement durable. Sa mise en Ɠuvre promet d’être un outil puissant en vue de ralentir l’épuisement des richesses naturelles et de lutter contre les changements climatiques. Ce dernier phénomène étant l’une des plus importantes problématiques auxquelles l’humanité sera confrontée au courant des prochaines décennies, il est impératif d’identifier ses plus grands contributeurs et de mettre en place des mesures d’atténuation de leurs rejets. Au Québec, depuis que la province effectue un inventaire annuel d’émissions de gaz à effet de serre, les transports arrivent toujours en tête de liste des secteurs émetteurs. De plus, malgré l’accroissement des services en transit public et le développement de la filière des véhicules électriques, les projections prédisent que ces mesures ne permettront pas d’atteindre les cibles de réduction des émissions provinciales. De cette manière, il convient d’envisager de nouvelles avenues pour réduire efficacement la quantité de gaz émis par les transports. Les résultats ont démontré que l’économie de la fonctionnalité et la consommation responsable, deux piliers fondamentaux de l’économie circulaire, permettraient d’enregistrer d’importantes réductions de rejets atmosphériques attribuables à la phase d’utilisation des véhicules. Effectivement, de nouvelles alternatives à l’auto solo reposant sur ces principes ont fait leur apparition dans le cocktail de transport urbain modifiant ainsi le rapport à la mobilité des usagers de la route. Parmi celles-ci, l’autopartage offre le meilleur potentiel de développement dans les grandes villes québécoises. Outre cette utilisation partagée de voitures, l’accentuation de l’offre de ridesourcing est recommandée ainsi que l’accroissement du taux d’occupation des véhicules grâce au covoiturage. On reconnaît, entre autres, l’importance du soutien gouvernemental et la mise en place d’incitatifs financiers comme mesures favorisant leur adoption par le public. Par ailleurs, cet essai permet de constater que toute transition vers des modes de déplacement intégrant davantage de circularité doit se faire en complémentarité avec le transit public et le transport actif. Ces derniers, étant faibles en émissions de gaz à effet de serre, doivent être priorisés par toutes mesures visant la réduction de la contribution du secteur des transports aux changements climatiques
    corecore