709 research outputs found

    Technologies de l'information et organisation : de la tentation à la flexibilité à la centralisation

    Get PDF
    Les NTIC sont le plus souvent présentées comme un facteur de flexibilité et de coopération. Pourtant l'observation des entreprises montre que les applications des NTIC sont marquées par la coexistence entre un renforcement de la souplesse et une rigidité renouvelée. Ces deux orientations coexistent souvent : les entreprises les plus décentralisées éprouvent par exemple le besoin de garder une vision uniforme des informations ou des activités en concevant des applications au niveau central, de façon directive et très rigide. Cette dualité (plus d'adaptabilité dans un contexte plus centralisé) se retrouve dans des applications techniques et des stratégies organisationnelles diversifiés (workflow, ERP, Intranet). L'analyse de cas d'entreprises permet de dégager plusieurs facteurs d'explication à l'adéquation des TIC avec des formes organisationnelles a priori rigides : maîtrise et recherche de cohérence, technologies supposant des organisations déjà structurées, nécessité de routines communes pour l'apprentissage et le déploiement, optimisation des coûts et de la maintenance. Les organisations étudiées montre que l'ambivalence souplesse/ centralisation est propre à l'ensemble des entreprises et traduit des formes renouvelées d'articulations entre la gestion de l'information et la communication.pratiques;technologies de l'information de la communication;innovation;dynamic capabilities

    Étude d'intégration fonctionnelle du cycle de développement des produits et des communautés de pratique virtuelles

    Get PDF
    RÉSUMÉ Afin d’augmenter leur compétitivité, les industries manufacturières visent à réduire leurs cycles de développement de produits, sans toutefois pouvoir atténuer la complexité de leurs produits. Pour cela, il y a une nécessité d’échanger les informations de façon synchrone afin de partager les connaissances parmi les employés, souvent géodistants et multidisciplinaires. Une fois techniquement et humainement supporté, le flux d’information informelle augmente la productivité lors du développement de produits. Ainsi, les entreprises cherchent à exploiter les fonctionnalités des Réseaux Sociaux d’Entreprise (RSE). Effectué en milieu industriel, ce mémoire explore l’intégration fonctionnelle des technologies d’informations (TI) formelles comme la gestion de cycle de vie d’un produit (PLM), et les TI informelles telles que les RSE. Une revue de littérature a permis d’identifier les zones grises non abordées précédemment, notamment le lien entre les Communautés de Pratique Virtuelles (CdPV) et le développement de produit ainsi que le lien entre les solutions PLM et les RSE non contrôlés dans l’industrie aéronautique. Dans le but d’analyser l’état actuel en termes de la collaboration, l’auteure a effectué des enquêtes en ligne au sein d’un département ayant des employés géodistants, des entrevues semi-structurées et de la recherche dans la documentation existante. Deux maisons de qualités (PLM et RSE), adaptées aux systèmes d’informations, sont élaborées pour extraire des choix préliminaires du support au transfert de l’information en fonction de la nature du contenu. La combinaison des résultats via une catégorisation des besoins similaires permet d’émettre des recommandations au niveau des TI à utiliser. Les CdPV prennent part à cette solution en tant que facteurs humains dans le support de la maturité de l’information. L’auteure propose aussi des moyens efficaces d’en développer de nouvelles ou de supporter celles existantes. Pour conclure, la candidate démontre les limites de cette étude, émet des recommandations à l’entreprise et propose des futures pistes potentielles de solutions qui incluent le PLM 2.0 et les RSE non contrôlés.----------ABSTRACT Product development, subject to time constraints and system complexity, needs synchronous communication between different disciplines and locations in order to enable knowledge sharing. Being well supported, informal information flow increases productivity during product realization. Therefore, manufacturing industries are exploring the use of Enterprise Social Media (ESM) functionalities. This thesis explores the functional integration of formal information technologies such as Product Lifecycle Management (PLM) software with informal technologies as ESM through an industrial case study. Reviewing literature, the candidate has identified a gap between Virtual Communities of Practice (VCoP) and product development, as well as the correlation of PLM solutions and non-controlled ESM in the aerospace industry. In order to disseminate a descriptive study of the current collaboration status, the author has undertaken online surveys for geodistant employees of the same department, semi-structured interviews and research among existing documentations. Subsequently, a Quality Functional Analysis is performed via two modified House of Quality matrices (PLM and ESM) to assign a convenient support for information transfer independently of its content maturity. Users’ needs are categorized, and for each category a choice of platform is made with further recommendation regarding the use of the function or the need of human intervention. VCoP form an integrated part of the solution where employees support the technical content. Thus, essential roles and responsibilities are presented to maintain existing CoP and develop new ones. Finally, the candidate presents the limits of this research, gives recommendations for the manufacturing industry and suggests potential continuation of this study using PLM 2.0 with non-controlled ESM tools

    Modélisation intégratrice du traitement BigData

    Get PDF
    Nowadays, multiple actors of Internet technology are producing very large amounts of data. Sensors, social media or e-commerce, all generate real-time extending information based on the 3 Vs of Gartner: Volume, Velocity and Variety. In order to efficiently exploit this data, it is important to keep track of the dynamic aspect of their chronological evolution by means of two main approaches: the polymorphism, a dynamic model able to support type changes every second with a successful processing and second, the support of data volatility by means of an intelligent model taking in consideration key-data, salient and valuable at a specific moment without processing all volumes of history and up to date data.The primary goal of this study is to establish, based on these approaches, an integrative vision of data life cycle set on 3 steps, (1) data synthesis by selecting key-values of micro-data acquired by different data source operators, (2) data fusion by sorting and duplicating the selected key-values based on a de-normalization aspect in order to get a faster processing of data and (3) the data transformation into a specific format of map of maps of maps, via Hadoop in the standard MapReduce process, in order to define the related graph in applicative layer.In addition, this study is supported by a software prototype using the already described modeling tools, as a toolbox compared to an automatic programming software and allowing to create a customized processing chain of BigDataDans le monde d’aujourd’hui de multiples acteurs de la technologie numérique produisent des quantités infinies de données. Capteurs, réseaux sociaux ou e-commerce, ils génèrent tous de l’information qui s’incrémente en temps-réel selon les 3 V de Gartner : en Volume, en Vitesse et en Variabilité. Afin d’exploiter efficacement et durablement ces données, il est important de respecter la dynamicité de leur évolution chronologique au moyen de deux approches : le polymorphisme d’une part, au moyen d’un modèle dynamique capable de supporter le changement de type à chaque instant sans failles de traitement ; d’autre part le support de la volatilité par un modèle intelligent prenant en compte des données clé seulement interprétables à un instant « t », au lieu de traiter toute la volumétrie des données actuelle et historique.L’objectif premier de cette étude est de pouvoir établir au moyen de ces approches une vision intégratrice du cycle de vie des données qui s’établit selon 3 étapes, (1) la synthèse des données via la sélection des valeurs-clés des micro-données acquises par les différents opérateurs au niveau de la source, (2) la fusion en faisant le tri des valeurs-clés sélectionnées et les dupliquant suivant un aspect de dé-normalisation afin d’obtenir un traitement plus rapide des données et (3) la transformation en un format particulier de carte de cartes de cartes, via Hadoop dans le processus classique de MapReduce afin d’obtenir un graphe défini dans la couche applicative.Cette réflexion est en outre soutenue par un prototype logiciel mettant en oeuvre les opérateurs de modélisation sus-décrits et aboutissant à une boîte à outils de modélisation comparable à un AGL et, permettant une mise en place assistée d'un ou plusieurs traitements sur BigDat

    Ubiquité et confidentialité des données

    Get PDF
    Ubiquité et confidentialité des donnée

    Architecture autonome et distribuée d'adressage et de routage pour la flexibilité des communications dans l'internet

    Get PDF
    Les schémas de routage locaux basés sur des coordonnées prises dans le plan hyperbolique ont attiré un intérêt croissant depuis quelques années. Cependant, les solutions proposées sont toutes appliquées à des réseaux au topologie aléatoire et au nombre de nœuds limités. Dans le même temps, plusieurs travaux se sont concentrés sur la création de modèle topologique basé sur les lois de la géométrie hyperbolique. Dans ce cas, Il est montré que les graphes ont des topologies semblables à Internet et qu'un routage local hyperbolique atteint une efficacité proche de la perfection. Cependant, ces graphes ne garantissent pas le taux de réussite du routage même si aucune panne ne se produit. Dans cette thèse, l'objectif est de construire un système passant à l'échelle pour la création de réseau recouvrant capable de fournir à ses membres un service d'adressage et de routage résilient dans un environnement dynamique. Ensuite, nous étudions de quelle manière les réseaux P2PTV pourraient supporter un nombre d'utilisateur croissant. Dans cette thèse, nous essayons de répondre à cette question en étudiant les facteurs d'efficacité et de passage à l'échelle dans un système de diffusion vidéo P2P typique. Au travers des données fournies par Zattoo, producteur de réseau P2PTV, nous réalisons des simulations dont les résultats montrent qu'il y a encore des obstacles à surmonter avant que les réseaux P2P de diffusion vidéo puissent dépendre uniquement de leurs utilisateurs.Local routing schemes based on virtual coordinates taken from the hyperbolic plane have attracted considerable interest in recent years.However, solutions have been applied to ad-hoc and sensor networks having a random topology and a limited number of nodes. In other hand, some research has focused on the creation of network topology models based on hyperbolic geometric laws. In this case, it has been shown that these graphs have an Internet-like topology and that local hyperbolic routing achieves a near perfect efficiency. However, with these graphs, routing success is not guaranteed even if no failures happen. In this thesis, we aim at building a scalable system for creating overlay networks on top of the Internet that would provide reliable addressing and routing service to its members in a dynamic environment.Next, we investigate how well P2PTV networks would support a growing number of users. In this thesis, we try to address this question by studying scalability and efficiency factors in a typical P2P based live streaming network. Through the use of the data provided by Zattoo a production P2PTV network, we carry out simulations whose results show that there are still hurdles to overcome before P2P based live streaming could depend uniquely of their users.BORDEAUX1-Bib.electronique (335229901) / SudocSudocFranceF

    Architecture autonome et distribuée d'adressage et de routage pour la flexibilité des communications dans l'Internet

    Get PDF
    Local routing schemes based on virtual coordinates taken from the hyperbolic plane have attracted considerable interest in recent years. However, solutions have been applied to ad-hoc and sensor networks having a random topology and a limited number of nodes. In other hand, some research has focused on the creation of network topology models basedon hyperbolic geometric laws. In this case, it has been shown that these graphs have an Internet-like topology and that local hyperbolic routing achieves a near perfect efficiency. However, with these graphs, routing success is not guaranteed even if no failures happen. In this thesis, we aim at building a scalable system for creating overlay networks on top ofthe Internet that would provide reliable addressing and routing service to its members in a dynamic environment. Next, we investigate how well P2PTV networks would support a growing number of users. In this thesis, we try to address this question by studying scalability and efficiency factors in a typical P2P based live streaming network. Throughthe use of the data provided by Zattoo a production P2PTV network, we carry out simulations whose results show that there are still hurdles to overcome before P2P based live streaming could depend uniquely of their users.Les schémas de routage locaux basés sur des coordonnées prises dans le plan hyperbolique ont attiré un intérêt croissant depuis quelques années. Cependant, les solutions proposées sont toutes appliquées à des réseaux aux topologies aléatoires et au nombre de noeuds limité. Dans le même temps, plusieurs travaux se sont concentrés sur la création de modèle topologique basé sur les lois de la géométrie hyperbolique. Dans ce cas, Il est montré que les graphes ont des topologies semblables à Internet et qu’un routage local hyperbolique atteint une efficacité proche de la perfection. Cependant, ces graphes ne garantissent pas le taux de réussite du routage même si aucune panne ne se produit. Dans cette thèse, l’objectif est de construire un système passant à l’échelle pour la création de réseau recouvrant capable de fournir à ses membres un service d’adressage et de routage résilient dans un environnement dynamique. Ensuite, nous étudions de quelle manière les réseaux P2PTV pourraient supporter un nombre d’utilisateur croissant. Dans cette thèse, nous essayons de répondre à cette question en étudiant les facteurs de l’efficacité et du passage à l’échelle dans un système de diffusion vidéo P2P typique. Au travers des données fournies par Zattoo, producteur de réseau P2PTV, nous réalisons des simulations dont les résultats montrent qu’il y a encore des obstacles à surmonter avant que les réseaux P2P de diffusion vidéo puissent dépendre uniquement de leurs utilisateurs
    • …
    corecore