9 research outputs found

    Conception et Ă©valuation des systĂšmes logiciels de classifications de paquets haute-performance

    Get PDF
    Packet classification consists of matching packet headers against a set of pre-defined rules, and performing the action(s) associated with the matched rule(s). As a key technology in the data-plane of network devices, packet classification has been widely deployed in many network applications and services, such as firewalling, load balancing, VPNs etc. Packet classification has been extensively studied in the past two decades. Traditional packet classification methods are usually based on specific hardware. With the development of data center networking, software-defined networking, and application-aware networking technology, packet classification methods based on multi/many processor platform are becoming a new research interest. In this dissertation, packet classification has been studied mainly in three aspects: algorithm design framework, rule-set features analysis and algorithm implementation and optimization. In the dissertation, we review multiple proposed algorithms and present a decision tree based algorithm design framework. The framework decomposes various existing packet classification algorithms into a combination of different types of “meta-methods”, revealing the connection between different algorithms. Based on this framework, we combine different “meta-methods” from different algorithms, and propose two new algorithms, HyperSplit-op and HiCuts-op. The experiment results show that HiCuts-op achieves 2~20x less memory size, and 10% less memory accesses than HiCuts, while HyperSplit-op achieves 2~200x less memory size, and 10%~30% less memory accesses than HyperSplit. We also explore the connections between the rule-set features and the performance of various algorithms. We find that the “coverage uniformity” of the rule-set has a significant impact on the classification speed, and the size of “orthogonal structure” rules usually determines the memory size of algorithms. Based on these two observations, we propose a memory consumption model and a quantified method for coverage uniformity. Using the two tools, we propose a new multi-decision tree algorithm, SmartSplit and an algorithm policy framework, AutoPC. Compared to EffiCuts algorithm, SmartSplit achieves around 2.9x speedup and up to 10x memory size reduction. For a given rule-set, AutoPC can automatically recommend a “right” algorithm for the rule-set. Compared to using a single algorithm on all the rulesets, AutoPC achieves in average 3.8 times faster. We also analyze the connection between prefix length and the update overhead for IP lookup algorithms. We observe that long prefixes will always result in more memory accesses using Tree Bitmap algorithm while short prefixes will always result in large update overhead in DIR-24-8. Through combining two algorithms, a hybrid algorithm, SplitLookup, is proposed to reduce the update overhead. Experimental results show that, the hybrid algorithm achieves 2 orders of magnitudes less in memory accesses when performing short prefixes updating, but its lookup speed with DIR-24-8 is close. In the dissertation, we implement and optimize multiple algorithms on the multi/many core platform. For IP lookup, we implement two typical algorithms: DIR-24-8 and Tree Bitmap, and present several optimization tricks for these two algorithms. For multi-dimensional packet classification, we have implemented HyperCuts/HiCuts and the variants of these two algorithms, such as Adaptive Binary Cuttings, EffiCuts, HiCuts-op and HyperSplit-op. The SplitLookup algorithm has achieved up to 40Gbps throughput on TILEPro64 many-core processor. The HiCuts-op and HyperSplit-op have achieved up to 10 to 20Gbps throughput on a single core of Intel processors. In general, our study reveals the connections between the algorithmic tricks and rule-set features. Results in this dissertation provide insight for new algorithm design and the guidelines for efficient algorithm implementation.La classification de paquets consiste Ă  vĂ©rifier par rapport Ă  un ensemble de rĂšgles prĂ©dĂ©finies le contenu des entĂȘtes de paquets. Cette vĂ©rification permet d'appliquer Ă  chaque paquet l'action adaptĂ©e en fonction de rĂšgles qu'il valide. La classification de paquets Ă©tant un Ă©lĂ©ment clĂ© du plan de donnĂ©es des Ă©quipements de traitements de paquets, elle est largement utilisĂ©e dans de nombreuses applications et services rĂ©seaux, comme les pare-feu, l'Ă©quilibrage de charge, les rĂ©seaux privĂ©s virtuels, etc. Au vu de son importance, la classification de paquet a Ă©tĂ© intensivement Ă©tudiĂ©e durant les vingt derniĂšres annĂ©es. La solution classique Ă  ce problĂšme a Ă©tĂ© l'utilisation de matĂ©riel dĂ©diĂ©s et conçus pour cet usage. NĂ©anmoins, l'Ă©mergence des centres de donnĂ©es, des rĂ©seaux dĂ©finis en logiciel nĂ©cessite une flexibilitĂ© et un passage Ă  l'Ă©chelle que les applications classiques ne nĂ©cessitaient pas. Afin de relever ces dĂ©fis des plateformes de traitement multi-cƓurs sont de plus en plus utilisĂ©s. Cette thĂšse Ă©tudie la classification de paquets suivant trois dimensions : la conception des algorithmes, les propriĂ©tĂ©s des rĂšgles de classification et la mise en place logicielle, matĂ©rielle et son optimisation. La thĂšse commence, par faire une rĂ©trospective sur les diverses algorithmes fondĂ©s sur des arbres de dĂ©cision dĂ©veloppĂ©s pour rĂ©soudre le problĂšme de classification de paquets. Nous proposons un cadre gĂ©nĂ©rique permettant de classifier ces diffĂ©rentes approches et de les dĂ©composer en une sĂ©quence de « mĂ©ta-mĂ©thodes ». Ce cadre nous a permis de monter la relation profonde qui existe ces diffĂ©rentes mĂ©thodes et en combinant de façon diffĂ©rentes celle-ci de construire deux nouveaux algorithmes de classification : HyperSplit-op et HiCuts-op. Nous montrons que ces deux algorithmes atteignent des gains de 2~200x en terme de taille de mĂ©moire et 10%~30% moins d'accĂšs mĂ©moire que les meilleurs algorithmes existant. Ce cadre gĂ©nĂ©rique est obtenu grĂące Ă  l'analyse de la structure des ensembles de rĂšgles utilisĂ©s pour la classification des paquets. Cette analyse a permis de constater qu'une « couverture uniforme » dans l'ensemble de rĂšgle avait un impact significatif sur la vitesse de classification ainsi que l'existence de « structures orthogonales » avait un impact important sur la taille de la mĂ©moire. Cette analyse nous a ainsi permis de dĂ©velopper un modĂšle de consommation mĂ©moire qui permet de dĂ©couper les ensembles de rĂšgles afin d'en construire les arbres de dĂ©cision. Ce dĂ©coupage permet jusqu'Ă  un facteur de 2.9 d'augmentation de la vitesse de classification avec une rĂ©duction jusqu'Ă  10x de la mĂ©moire occupĂ©. La classification par ensemble de rĂšgle simple n'est pas le seul cas de classification de paquets. La recherche d'adresse IP par prĂ©fixe le plus long fourni un autre traitement de paquet stratĂ©gique Ă  mettre en Ɠuvre. Une troisiĂšme partie de cette thĂšse c'est donc intĂ©ressĂ© Ă  ce problĂšme et plus particuliĂšrement sur l'interaction entre la charge de mise Ă  jour et la vitesse de classification. Nous avons observĂ© que la mise Ă  jour des prĂ©fixes longs demande plus d'accĂšs mĂ©moire que celle des prĂ©fixes court dans les structures de donnĂ©es d'arbre de champs de bits alors que l'inverse est vrai dans la structure de donnĂ©es DIR-24-8. En combinant ces deux approches, nous avons propose un algorithme hybride SplitLookup, qui nĂ©cessite deux ordres de grandeurs moins d'accĂšs mĂ©moire quand il met Ă  jour les prĂ©fixes courts tout en gardant des performances de recherche de prĂ©fixe proche du DIR-24-8. Tous les algorithmes Ă©tudiĂ©s, conçus et implĂ©mentĂ©s dans cette thĂšse ont Ă©tĂ© optimisĂ©s Ă  partir de nouvelles structures de donnĂ©es pour s'exĂ©cuter sur des plateformes multi-cƓurs. Ainsi nous obtenons des dĂ©bits de recherche de prĂ©fixe atteignant 40 Gbps sur une plateforme TILEPro64

    Application des algorithmes d’apprentissage automatique pour la dĂ©tection de dĂ©fauts de roulements sur les machines tournantes dans le cadre de l’Industrie 4.0

    Get PDF
    L’internet des objets industriels (IIoT) fait partie d’un concept plus large connu sous le nom de L’Internet des Objets, ou IdO (en anglais Internet of Things, ou IoT). Les IIoT apportent de nouvelles opportunitĂ©s aux sites de production telles que la diminution des coĂ»ts des opĂ©rations et l’augmentation de la productivitĂ© dans le but d’une exploitation optimale. La technologie IIoT rĂ©volutionnera les procĂ©dĂ©s de fabrication industrielle en permettant l’acquisition des quantitĂ©s importantes de donnĂ©es, Ă  des vitesses beaucoup plus Ă©levĂ©es, et bien plus efficaces qu’auparavant. Un certain nombre d’entreprises innovantes ont commencĂ© Ă  mettre en oeuvre l’IIoT en exploitant des appareils connectĂ©s intelligents dans leurs usines (c’est ce qu’on appelle les usines intelligentes ou Industrie 4.0). Dans une perspective d’acquisition des donnĂ©es, l’internet des objets a favorisĂ© l’inclusion des sous-systĂšmes ainsi que leurs analyses en temps rĂ©el. Pour ce faire, l’Industrie 4.0 introduit un concept de production numĂ©risĂ©e en permettant une intĂ©gration souple et agile de nouveaux modĂšles commerciaux tout en maintenant les coĂ»ts de fabrications et l’efficacitĂ© Ă  un niveau raisonnable. Dans ce projet de recherche, nous allons Ă©tudier la maintenance prĂ©dictive des installations industrielles. Cette tĂąche est essentielle au bon fonctionnement de l’usine et Ă  la sĂ©curitĂ© des personnes. Compte tenu des coĂ»ts, il est judicieux d’établir un bon Ă©quilibre entre entretien prĂ©ventif systĂ©matique et entretien correctif. La surveillance des installations concourt Ă  limiter le niveau d’entretien prĂ©ventif. Dans ce contexte, l’analyse vibratoire constitue un outil de dĂ©tection puis de diagnostic de dĂ©fauts de fonctionnement des installations. Aussi, aprĂšs avoir dĂ©crit les principales manifestations vibratoires des dĂ©fauts de fonctionnement des machines, nous allons examiner les stratĂ©gies de dĂ©tection et de surveillance dans le domaine temporel et frĂ©quentiel et la dĂ©marche de diagnostic en nous appuyant sur l’intelligence artificielle et en analysant les signaux vibratoires permettant de dĂ©duire une politique de gestion de la maintenance. Notre objectif principal est de rĂ©aliser un systĂšme permettant d’assurer l’analyser les signaux vibratoires d’une machine tournante dans le domaine temps/frĂ©quence. Il sera ensuite aisĂ© de le comparer avec un systĂšme d’apprentissage automatique capable de dĂ©tecter et classer les dĂ©fauts grĂące Ă  des algorithmes d’intelligence artificielle. L’application vise Ă  fournir un systĂšme de dĂ©tection de dĂ©fauts fiable afin de rĂ©duire les temps de dĂ©pannages et favoriser un diagnostic rapide des pannes des systĂšmes industriels. Par consĂ©quent, le projet va de la conception jusqu’à la mise en oeuvre des algorithmes informatiques avec des exemples rĂ©els de signaux vibratoires. Un processus d’optimisation sera mis en oeuvre lors de la prise des dĂ©cisions de l’équipe humaine afin d’augmenter l’efficacitĂ© des rĂ©sultats et rĂ©duire les situations Ă  risque qui mettront les machines hors d’usage. Ce projet de recherche permettra donc d’introduire un systĂšme intelligent dans un environnement de production de l’industrie 4.0. Durant cette Ă©tude, nous avons implĂ©mentĂ© dans un premier temps des algorithmes qui nous ont permis d’extraire des caractĂ©ristiques des signaux d’une machine tournante. Ensuite, nous avons mis en place un systĂšme de surveillance de l’état de cette machine en fixant un seuil pour le bon fonctionnement et un autre pour dĂ©clencher une alarme quand ce dernier est atteint. Dans un second temps, nous avons utilisĂ© des algorithmes d’apprentissage automatique (ou machine learning) pour classer les diffĂ©rents niveaux de dĂ©faillance. AprĂšs extraction des caractĂ©ristiques des signaux dans le domaine temporel et frĂ©quentiel nous avons obtenu une fiabilitĂ© de 99.3% avec la mĂ©thode d’estimation dite « validation croisĂ©e » (en anglais cross-validation). Ce processus d’apprentissage optimise les paramĂštres du modĂšle afin que celui-ci corresponde aux donnĂ©es le mieux possible. Ensuite, nous avons Ă©valuĂ© une autre technique de validation « testset validation » (en anglais holdout method). Cette technique est recommandĂ©e pour les grands ensembles de donnĂ©es. AprĂšs plusieurs tests, nous avons pu obtenir un taux de classification de 100% pour les diffĂ©rents niveaux de dĂ©fauts considĂ©rĂ©s. The internet of industrial objects (IIoT) is part of a larger concept known as the "Internet of Things (IoT)". IoT's bring new opportunities to production sites such as lower operating costs and increased productivity for optimal operation. The application of IoT to the manufacturing industry is called IIoT (or Industrial Internet or Industry 4.0). The IoT will revolutionize manufacturing by enabling the acquisition and accessibility of massive amounts of data at much higher speeds and far more efficiently than before. A few innovative companies have started to implement IoT by exploiting smart connected devices in their factories (so-called smart factories or Industry 4.0). From a data acquisition perspective, the Internet of Things has favoured the inclusion of subsystems and their analysis in real time. To achieve this, Industry 4.0 introduces a digitized production concept by allowing flexible and agile integration of new business models while keeping manufacturing costs and efficiency at a reasonable level. In this thesis, we will study the predictive maintenance for industry 4.0. This method of preventing asset failure by analyzing production data to identify patterns and predict issues before they happen. However, considering the costs, it is wise to strike a better balance between routine preventative maintenance and corrective maintenance. Facility monitoring helps to reduce the level of preventative maintenance. In this context, vibration analysis is a tool for detecting and then diagnosing malfunctions of installations. Also, after describing the main vibratory manifestations of failures of the machines, we will examine the detection and surveillance strategies at the time and frequency domain and the diagnosis process based on artificial intelligence by analyzing the vibratory signals. Our main objective is to design a system that will analyze the vibrating signals of a rotating machine in the time/frequency domain. A machine learning system will be used to detect and classify the defects based on artificial intelligence algorithms. The application aims to provide a reliable fault detection system to reduce repair times and promote rapid diagnosis of industrial operations. Therefore, the project goes from the design to the implementation of new algorithms using vibratory signals. An optimization process will be implemented when the decisions of the adequate staff are made to increase the efficiency of the results and reduce the risk situations that will put the machines out of use. Therefore, this research project will introduce an intelligent system into an industry 4.0 production environment. During this research project, firstly, we will implement algorithms that allowed us to extract characteristics of the vibration signals and set up a system to monitor the state of a rotating machine by setting a threshold of operation and trigger an alarm when this threshold is reached. In a second step, we will use signal processing and machine learning toolkits to classify the different levels of machine failure and use this method to detect the presence of error when the machine is running. After extracting the characteristics of our signals at the time and frequency domain, we will be obtained with the "cross-validation" a recognition rate of 99.3%. The final implementation with the "holdout validation" recommended for large datasets allowed us to have a classification rate of 100% of the different levels of defects considered

    Un compilateur de traitement du paquet pour les réseaux multi-tenants

    Get PDF
    Le Software Defined Network (SDN) est un nouveau paradigme de design et de gestion des rĂ©seaux. Le SDN se base sur la sĂ©paration entre le plan de donnĂ©es et le plan de contrĂŽle. Le rĂ©seau est gĂ©rĂ© Ă  travers un contrĂŽleur centralisĂ©. Ce dernier gĂšre la politique d'acheminement et d'aiguillage des paquets sur tout le rĂ©seau par des opĂ©rations d'ajout et de suppression des rĂšgles. Le SDN simplifie la virtualisation rĂ©seau oĂč plusieurs tenants peuvent coexister sur la mĂȘme infrastructure physique, chaque tenant a son propre contrĂŽleur qui dicte la politique de traitement des paquets dans son rĂ©seau. Cela pose des problĂšmes au niveau du partage des ressources et d'isolation du trafic. Pour assurer une isolation du trafic entre les diffĂ©rents tenants ainsi qu'une haute performance d'acheminement du paquet sur tout le rĂ©seau, on introduit un compilateur centrale qui fera la translation, la distribution et l'application des rĂšgles sur l'infrastructure physique. Dans ce rapport, nous allons dĂ©tailler la conception d'un compilateur de rĂšgles pour un rĂ©seau multi-tenants. Ce compilateur transforme les rĂšgles et adapte les structures de classification pour tenir compte des contraintes matĂ©rielles des Ă©quipements. Une implĂ©mentation du compilateur a Ă©tĂ© dĂ©veloppĂ©e pour les switches physiques et logiciels. Les tests ont montrĂ© une rĂ©duction de 20% Ă  30% de nombre des entrĂ©es, une capacitĂ© de mise Ă  jour qui s'Ă©lĂšve Ă  300 rĂšgles/seconde et une minimisation du dĂ©lai du traitement des paquets par 2-3 us et par 50-100 us respectivement pour les switches physiques et logiciels

    Sécurité des réseaux et infrastructures critiques

    Get PDF
    Les infrastructures et rĂ©seaux critiques commencent Ă  s'ouvrir vers des architectures, protocoles et applications vulnĂ©rables. Ainsi, non seulement il est question de sĂ©curiser ces applications (e.g., contre les attaques potentielles), mais il faut Ă©galement justifier notre confiance dans les mĂ©canismes de sĂ©curitĂ© dĂ©ployĂ©s. Pour cela, nous prĂ©sentons PolyOrBAC, un cadriciel basĂ© sur le modĂšle de contrĂŽle d'accĂšs OrBAC, les mĂ©canismes de services Web ainsi que les contrats Ă©lectroniques. Ensuite, nous prĂ©conisons l'utilisation de la Programmation Logique par Contraintes (PLC) pour dĂ©tecter et rĂ©soudre les conflits Ă©ventuels dans la politique de sĂ©curitĂ©. Au niveau de la mise en Ɠuvre, nous proposons le protocole Q-ESP, notre amĂ©lioration d'IPSec qui assure Ă  la fois des besoins de sĂ©curitĂ© et de QoS. Enfin, nous prĂ©sentons nos modĂšles et rĂ©sultats de test et d'Ă©valuation d'outils de sĂ©curitĂ© notamment les SystĂšmes de DĂ©tection d'Intrusions (IDS)

    Analyses statistiques des communications sur puce

    Get PDF
    This PhD is composed of two main parts. The first one focuses on Internet traffic modelling. From the analysis of many traffic traces, we have proposed a parsimonious model (Gamma-Farima) adapted to aggregated throughput traces and valid for wide range of aggregation levels. In order to produce synthetic traffic from this model, we have also studied the generation of sample path of non-gaussian and long memory stochastic processes. We have then used the Gamma-Farima model in order to build an anomaly detection method. To this end we have introduced a multiresolution model that can differentiate a regular traffic from a malicious one (including a DDoS attack). This method was evaluated both on real traces and simulations. Finally, we have studied the production of long range dependent traffic in a network simulator (NS-2). The second part of this PhD deals with the analysis and synthesis of on-chip traffic, i.e. the traffic occurring in a system on chip. In such systems, the introduction of networks on chip (NOC) has brought the interconnection system on top of the design flow. In order to prototype these NOC rapidly, fast simulations need to be done, and replacing the components by traffic generators is a good way to achieve this purpose. So, we have set up and developed a complete and flexible on-chip traffic generation environment that is able to replay a previously recorded trace, to generate a random load on the network, to produce a stochastic traffic fitted to a reference trace and to take into account traffic phases. Indeed most of the traffic traces we have obtained were non-stationary, we therefore need to split them into reasonably stationary parts in order to perform a meaningful stochastic fit. We have performed many experiments in the SOCLIB simulation environment that demonstrate that i) our traffic generation procedure is correct, ii) our segmentation algorithm provides promising results and iii) multiphase stochastic traffic generation is a good tradeoff between replay and simple random traffic generation. Finally, we have investigated the presence of long memory in the trace as well as the impact of long memory on the NoC performance.Cette thÚse est composée de deux parties. La premiÚre explore la problématique de la modélisation de trafic Internet. Nous avons proposé, à partir de l'étude de nombreuses traces, un modÚle basé sur des processus stochastiques non-gaussiens à longue mémoire (Gamma-Farima) permettant de modéliser de maniÚre pertinente les traces de débit agrégé, et ce pour une large gamme de niveau d'agrégation. Afin de pouvoir générer du trafic synthétique, nous avons proposé une méthode de synthÚse de tels processus. Nous avons ensuite, à partir du modÚle Gamma-Farima, proposé un modÚle multirésolution permettant de différencier un trafic régulier, d'un trafic contenant une attaque (de type déni de service distribuée). Ceci nous a permis de proposer une méthode de détection d'anomalie que nous avons évalué sur des traces réelles et en simulation. Enfin nous avons étudié expérimentalement le problÚme de la production de trafic à longue mémoire dans un simulateur de réseaux (NS-2). La deuxiÚme partie traite la problématique de la génération de trafic au sein des systÚmes sur puce (SOC). Dans ce domaine, l'arrivée de véritable réseaux sur puce place la conception de l'interconnexion au premier plan, et pour accélérer les simulations, il convient de remplacer les composants par des générateurs de trafic. Nous avons mis en place un environnement complet de génération de trafic sur puce permettant de rejouer une trace, de produire une charge aléatoire sur le réseau, de produire un trafic stochastique ajusté sur une trace de référence et de tenir compte des phases dans le trafic. Nous avons effectué de nombreuses simulations dans l'environnement de simulation de SOC académique SOCLIB qui nous ont permis de valider notre approche, d'évaluer notre algorithme de segmentation ainsi que la génération de trafic stochastique multiphase que nous avons introduite. Nous avons aussi exploré la présence de longue mémoire dans le trafic des processeurs sur puce, ainsi que l'impact de cette caractéristique sur les performances du réseau sur puce

    Information and communication services. Annual statistics 1980-1995

    Get PDF

    Information and communication services. Annual statistics 1980-1995

    Get PDF

    Allocation de ressources et ordonnancement multi-utilisateurs : une approche basée sur l'équité

    Get PDF
    Grid and Cloud computing make possible the sharing of computer system resources, such as storage or computation time, among a set of users, according to their requests, thereby creating an illusion of infinite resources. However, as soon as those resources are insufficient to meet users’s expectations, conflicts of interest arise. Therefore, unlimited access to limited resources may lead to inefficient usage which penalizes the whole set of users. In such environments, arbitration becomes necessary in order to settle those conflicts and ensure a fair allocation to all users. We present two classes of problems : multi-user resource allocation under uncertainty and multi-user periodic task scheduling. We tackle these problems from the point of view of fairness.Les grilles de calcul et le “cloud computing” permettent de distribuer un ensemble de ressources informatiques, telles que du stockage ou du temps de calcul, Ă  un ensemble d’utilisateurs en fonction de leurs demandes en donnant l’illusion de ressources infinies. Cependant, lorsque l’ensemble de ces ressources est insuffisant pour satisfaire les exigences des utilisateurs, des conflits d’intĂ©rĂȘts surgissent. Ainsi, un libre accĂšs Ă  des ressources limitĂ©es peut entraĂźner une utilisation inefficace qui pĂ©nalise l’ensemble des participants. Dans de tels environnements, il devient nĂ©cessaire d’établir des procĂ©dures d’arbitrage afin de rĂ©soudre ces conflits en garantissant une distribution Ă©quitable aux diffĂ©rents utilisateurs. Nous prĂ©sentons une nouvelle classe de problĂšmes : celle des ordonnancements multi-utilisateurs. Cette thĂšse aborde la notion d’équitĂ© au travers de problĂšmes d’allocation de ressources sous incertitudes et d’ordonnancement de tĂąches pĂ©riodiques

    Actes de la conférence " Aux frontiÚres de l'urbain. Petites villes du monde : émergence, croissance, rÎle économique et social, intégration territoriale, gouvernance " <br> Conference Proceedings "At the Frontiers of Urban Space. Small towns of the world: emergence, growth, economic and social role, territorial integration, governance"

    No full text
    Sous la Direction de François Moriconi-Ebrard, Catherine Chatel et Julien Bordagi Éditeur : UMR ESPACE - Avignon, Case 19, 74 rue Louis Pasteur, 84029 Avignon Cedex Collection : Actes Avignon - ISBN : 978‐2‐9105‐4509‐1Publication collective. La confĂ©rence internationale " Aux frontiĂšres de l'urbain " s'est dĂ©roulĂ©e Ă  l'UniversitĂ© d'Avignon et des Pays de Vaucluse du 22 au 24 janvier 2014. Elle a Ă©tĂ© organisĂ©e Ă  l'initiative d'un groupe de chercheurs de l'UMR 7300 ESPACE spĂ©cialistes de la ville et des dynamiques d'urbanisation dans le monde. Travaillant Ă  partir de la base de donnĂ©es mondiale e-Geopolis dĂ©crivant l'Ă©volution de la population des agglomĂ©rations urbaines Ă  l'Ă©poque contemporaine et dĂ©veloppWhen we speak of cities, the attention of researchers, the media, and institutions is traditionally focused on large metropoles. Yet in reality, half the urban population of the world lives in hundreds of small and medium-sized cities (Moriconi-Ebrard, 1994). These agglomerations play a key role in urban growth. They have heterogeneous dynamics and profiles that diverge from what is observed in metro cities. Therefore, studies of the base of the urban hierarchy enrich and deepen the urban concept as a whole. Defining these agglomerations also requires the testing of categories of space which go beyond a simple, and increasingly problematic, urban-rural dichotomy. What criteria should define the threshold between these spaces? Can we speak of an "in-between" territory? In terms of process, small cities highlight the different stages of urban growth: genesis, development, mutation, and regression. In the context of fieldwork, researchers' observations are faced with the arbitrary official definition of urban areas, which differ from one country to the next. This contributes to the fuzziness of objective boundaries between "small towns" and villages. The change of the status of small agglomerations can lead to modifications in fiscal, environmental and urban rules. Access to urban status is a major issue for the development of a locality and territory (Giraut, 2005). What is the impact of urban policies on such towns? Is it enough to proclaim that a locality is "urban"? Are there specific governance issues that come with the small and medium town? Are these issues at the basis of original proposals concerning country planning? In a global marketplace, where agglomeration economies are prioritized, metro cities seem to be the only competitive spaces. In reality however, small towns are often spaces of innovation capable of taking their own place in wider global networks (Bairoch, 1984). What are the major assets of such towns compared with larger metro cities? How do they face the major spatial issues of a society: mobility, land access and competition, exploitation of local resources, procurement, and environmental protection? These issues are dependent on forms of spatial organisation, which are themselves the result of intense processes of concentration and dispersion. Do clusters, urban corridors and dispersed settlements represent specific organisational types of such intermediary, "in-between" spaces?Lorsqu'on Ă©voque " la " ville, l'attention des mĂ©dias, des chercheurs et des institutions se concentre traditionnellement sur quelques mĂ©tropoles mondiales. Or, en rĂ©alitĂ©, la moitiĂ© de la population urbaine de la planĂšte vit dans des villes petites et moyennes qui se comptent en milliers (Moriconi-Ebrard, 1994). Ces agglomĂ©rations ont un rĂŽle moteur dans la croissance, tandis qu'elles prĂ©sentent des profils et des dynamiques hĂ©tĂ©rogĂšnes qui s'Ă©cartent de ce que l'on observe dans les mĂ©tropoles (Denis, 2012). DĂšs lors leur Ă©tude vient enrichir et approfondir le concept d'urbain. Chercher Ă  dĂ©finir ces villes, c'est aussi Ă©prouver les catĂ©gories d'espace et aller au-delĂ  d'une simple dichotomie urbain/rural de plus en plus remise en cause. Quels critĂšres permettraient de dĂ©finir un seuil entre ces espaces ? Peut-on parler de territoire de l'entre-deux ? En termes de processus, les petites villes questionnent ainsi les diffĂ©rentes Ă©tapes de la croissance urbaine : genĂšse, dĂ©veloppement, mutation, rĂ©gression. Sur le terrain, l'observation est confrontĂ©e Ă  l'arbitraire des dĂ©finitions officielles de l'urbain qui diffĂšrent d'un pays Ă  l'autre, contribuant Ă  renforcer le flou des limites objectives entre " petite ville " et " village ". Le changement de statut des villes peut entrainer un changement de la fiscalitĂ©, de rĂšgles environnementales et d'urbanisme : l'accĂšs au statut urbain constitue ainsi un enjeu majeur pour le dĂ©veloppement d'une localitĂ© et du territoire (Giraut, 2005). Quel est l'impact des politiques publiques urbaines sur ces villes ? Suffit-il de dĂ©clarer une localitĂ© " urbaine " pour qu'elle le soit ? Les petites et moyennes villes posent-elles des problĂšmes de gouvernance particuliers ou bien sont-elles Ă  l'origine de propositions originales en matiĂšre d'amĂ©nagement du territoire ? Dans un marchĂ© globalisĂ© oĂč les Ă©conomies d'agglomĂ©ration sont mises en avant, les mĂ©tropoles semblent constituer les seuls espaces compĂ©titifs. Or, les petites villes ont souvent Ă©tĂ© des lieux d'innovation capables de s'insĂ©rer directement dans des rĂ©seaux mondiaux (Bairoch, 1984). Quels sont leurs atouts face aux grandes mĂ©gapoles ? Comment se positionnement-elles face aux enjeux territoriaux majeurs de nos sociĂ©tĂ©s : mobilitĂ©, accĂšs Ă  la terre, compĂ©tition fonciĂšre, exploitation des ressources locales, approvisionnement, protection de l'environnement. Ces enjeux dĂ©pendant clairement des formes d'organisation spatiale qui sont le rĂ©sultat de processus de concentration plus ou moins intenses : clusters, corridors urbains, semis dispersĂ©s reprĂ©sentent-ils des types d'organisations spĂ©cifiques Ă  ces villes de l'entre-deux
    corecore