12 research outputs found

    Le code à effacement Mojette : Applications dans les réseaux et dans le Cloud

    Get PDF
    Dans ce travail, je présente l'intérêt du code correcteur à effacement Mojette pour des architectures de stockage distribuées tolérantes aux pannes. De manière générale, l'approche par code permet de réduire d'un facteur 2 le volume de données stockées par rapport à l'approche standard par réplication qui consiste à copier la donnée en autant de fois que l'on suppose de pannes. De manière spécifique, le code à effacement Mojette présente les performances requises pour la lecture et l'écriture de données chaudes i.e très régulièrement sollicitées. Ces performances en entrées/sorties permettent par exemple l'exécution de machines virtuelles sur des données distribuées par le système de fichier RozoFS. En outre, j'effectue un rappel de mes contributions dans le domaine des réseaux auto-organisés de type P2P et ad hoc mobile en présentant respectivement les protocoles P2PWeb et MP-OLSR. L'ensemble de ce travail est le fruit de 5 encadrements doctoraux et de 3 projets collaboratifs majeurs

    La mise à disposition des œuvres et des informations sur les réseaux : régulation juridique et régulation technique

    Get PDF
    Technological developments lead to an exponential increase of the spread of works and information on the networks. Regulatory models from the analogical era based on physical medium scarcity and exclusivity are questioned by digital technology paradigms of copying, remixing and sharing. Copyright has been developed and adaptated at the same time than reproduction and dissemination technologies innovation, as an artificial corrective granting a limited monopoly of exploitation. But copyright can also lead to commons. We analyse how law and technology were conceptualised independently. Technical standards production process and the extension of exclusive rights are creating tensions between cultural industries and the public. This conception led to an intrication between regulation by law and technical protection measures, for the benefit of regulation by technology. Following research on lex informatica, we thus introduce a model based on the mutual influence between regulation by law and regulation by technology, toward legal categorisation redesign and an improved technical rights expression. The development of applications, ontologies and legal metadata allow to automate information and works exchanges management. Integrating regulation by law and regulation by technology, this model was built on the systematic analysis of various licensing models emerging on the networks, between access control and the constitution of Commons.Les développements techniques entraînent une croissance exponentielle de la circulation des œuvres et informations sur les réseaux. Les modèles de régulation de l'ère analogique élaborés sur la rareté du support sont remis en question par le numérique, fondé sur les paradigmes de la copie, de la réappropriation et du partage. Le droit d'auteur a été développé et adapté au rythme des innovations techniques de reproduction et de diffusion des œuvres, comme un correctif artificiel accordant une exclusivité temporaire d'exploitation. Il peut aussi conduire aux biens communs. Nous analysons comment droit et technique ont d'abord été pensés de manière indépendante. Les processus d'élaboration des normes et standards techniques et l'extension des droits exclusifs entraînent des tensions entre les industries culturelles et le public. Cette conception conduit à un enchevêtrement de lois et mesures techniques de protection au profit de la régulation technique. Nous proposons donc, dans la lignée de la lex informatica, un modèle fondé sur l'influence réciproque entre les disciplines, vers la reconception des catégories juridiques du droit d'auteur et vers une meilleure expression technique des droits. Le développement d'applications, d'ontologies et de métadonnées juridiques permet une automatisation de la régulation des échanges d'œuvres et d'informations. Mettant en œuvre une intégration plus équilibrée du droit et de la technique, ce modèle est notamment fondé sur l'analyse de licences et modèles contractuels qui se développent sur Internet, entre contrôle d'accès et biens communs

    Une approche logicielle du traitement de la dyslexie : étude de modèles et applications

    Get PDF
    Neuropsychological disorders are widespread and generate real public health problems. In particular in our modern society, where written communication is ubiquitous, dyslexia can be extremely disabling. Nevertheless we can note that the diagnosis and remediation of this pathology are fastidious and lack of standardization. Unfortunately it seems inherent to the clinical characterization of dyslexia by exclusion, to the multitude of different practitioners involved in such treatment and to the lack of objectivity of some existing methods. In this respect, we decided to investigate the possibilities offered by modern computing to overcome these barriers. Indeed we have assumed that the democratization of computer systems and their computing power could make of them a perfect tool to alleviate the difficulties encountered in the treatment of dyslexia. This research has led us to study the techniques software as well as hardware, which can conduct to the development of an inexpensive and scalable system able to attend a beneficial and progressive changing of practices in this pathology field. With this project we put ourselves definitely in an innovative stream serving quality of care and aid provided to people with disabilities. Our work has been identifying different improvement areas that the use of computers enables. Then each of these areas could then be the subject of extensive research, modeling and prototype developments. We also considered the methodology for designing this kind of system as a whole. In particular our thoughts and these accomplishments have allowed us to define a software framework suitable for implementing a software platform that we called the PAMMA. This platform should theoretically have access to all the tools required for the flexible and efficient development of medical applications integrating business processes. In this way it is expected that this system allows the development of applications for caring dyslexic patients thus leading to a faster and more accurate diagnosis and a more appropriate and effective remediation. Of our innovation efforts emerge encouraging perspectives. However such initiatives can only be achieved within multidisciplinary collaborations with many functional, technical and financial means. Creating such a consortium seems to be the next required step to get a funding necessary for realizing a first functional prototype of the PAMMA, as well as its first applications. Some clinical studies may be conducted to prove undoubtedly the effectiveness of such an approach for treating dyslexia and eventually other neuropsychological disorders.Les troubles neuropsychologiques sont très répandus et posent de réels problèmes de santé publique. En particulier, dans notre société moderne où la communication écrite est omniprésente, la dyslexie peut s’avérer excessivement handicapante. On remarque néanmoins que le diagnostic et la remédiation de cette pathologie restent délicats et manquent d’uniformisation. Ceci semble malheureusement inhérent à la caractérisation clinique par exclusion de la dyslexie, à la multitude de praticiens différents impliqués dans une telle prise en charge ainsi qu’au manque d’objectivité de certaines méthodes existantes. A ce titre, nous avons décidé d’investiguer les possibilités offertes par l’informatique actuelle pour surmonter ces barrières. Effectivement, nous avons supposé que la démocratisation des systèmes informatiques et leur puissance de calcul pourraient en faire un outil de choix pour pallier les difficultés rencontrées lors de la prise en charge de la dyslexie. Cette recherche nous a ainsi mené à étudier les techniques, aussi bien logicielles que matérielles, pouvant conduire au développement d’un système bon marché et évolutif qui serait capable d’assister un changement bénéfique et progressif des pratiques qui entourent cette pathologie. Avec ce projet, nous nous plaçons définitivement dans un courant innovant au service de la qualité des soins et des aides apportées aux personnes souffrant d’un handicap. Notre travail a ainsi consisté à identifier différents axes d’amélioration que l’utilisation de l’outil informatique rend possible. Chacun de ces axes a alors pu faire l’objet de recherches exhaustives, de modélisations et de développements de prototypes. Nous avons également réfléchi à la méthodologie à mettre en œuvre pour concevoir un tel système dans sa globalité. En particulier, nos réflexions et ces différents accomplissements nous ont permis de définir un framework logiciel propice à l’implémentation d’une plate-forme logicielle que nous avons appelée la PAMMA. Cette plate-forme devrait théoriquement pouvoir disposer de tous les outils permettant le développement souple et efficace d’applications médicales intégrant des processus métiers. Il est ainsi attendu de ce système qu’il permette le développement d’applications, pour la prise en charges des patients dyslexiques, conduisant à un diagnostic plus rapide et plus précis ainsi qu’à une remédiation plus adaptée et plus efficace. De notre effort d’innovation ressortent des perspectives encourageantes. Cependant, ce type d’initiative ne peut se concrétiser qu’autour de collaborations pluridisciplinaires disposant de nombreux moyens fonctionnels, techniques et financiers. La constitution d’un tel consortium semble donc être la prochaine étape nécessaire à l’obtention des financements pour réaliser un premier prototype fonctionnel de la PAMMA, ainsi que de premières applications. Des études cliniques pourront être alors menées pour prouver indubitablement l’efficacité d’une telle approche dans le cadre de la prise en charge de la dyslexie, ainsi qu’éventuellement d’autres troubles neuropsychologiques

    La projection d'usage des TICs : la composition de fictions axiomatiques au service de la recherche technologique

    Get PDF
    Innovation is today a major and strategic asset for organisations that compete in a hypercompetitive world (D'Avenir & Gunther, 1994). They are trying to face these new challenges, by using a diversity of “expert systems” typical of our « advanced modernity » (Giddens, 1990). Amongst those, boosting R&D activities is major inputs that demand the use of different expertises. Speculative researches for innovation are one of them. They take place in the “Fuzzy Front End” of innovation, a place where the construction of the social reality of invention is made : its usage, or to be more precise, its projection. Our thesis examines these knowledge-producing technologies and tries to make understable the policies at work, the performance of embedded collectives on the innovation itself, and on themselves, and the arrangements made during this process. Our work in the Grenoble industrial area and collaboration with the CEA-LETI helped us to propose an understanding of these projections as compositions of axiomatic fictions for technological research. Analysing the concept of usage, we highlight its careers and the mutation of associated practices. Interrogating one form of projection, the scenario, we show the links that lie between fiction and perfomativity. By leaning on the project mutating components, we demonstrate the axiomatic character of the projection, understood as a form of answer made to a social demand that comes from different places, and whose necessity of actionnable knowledge is solved by composing with moving data.L'« hypercompétitivité » (D'Avenir & Gunther, 1994) qui caractérise notre environnement économique contemporain fait de l'innovation une préoccupation stratégique pour les organisations. Celles-ci tentent de répondre à cette injonction par le recours à une multitude de « systèmes experts », caractéristique de la « modernité avancée » (Giddens, 1990). Parmi ceux-ci, la stimulation des activités de R&D est reconnue comme une contribution majeure qui nécessite l'utilisation croissante de champs d'expertises variés. C'est dans ce contexte que les sciences sociales sont mobilisées comme forme d'expertise contributives des « recherches spéculatives pour l'innovation » (Stewart & Claeys, 2009). Ces recherches interviennent en amont de processus d'innovation, en un lieu nommé « Fuzzy Front End » (Smith & Reinertsen, 1995), lieu dans lequel se forge la construction de la réalité sociale de l'invention : son usage ou plutôt sa projection. Notre thèse s'interroge sur ces technologies de production de connaissances que sont les projections d'usage et ambitionne de rendre intelligibles les politiques qu'elles mettent en oeuvre, la performance des collectifs mobilisés sur les recherches et sur eux-mêmes ainsi que les arrangements déployés par les acteurs durant ces processus. Notre immersion dans le tissu industriel grenoblois, et en particulier dans l'environnement du CEA-LETI, nous a permis de proposer une lecture des projections d'usage comme des compositions de fictions axiomatiques au service de la recherche technologique. En scrutant le concept d'usage, nous mettons en lumière les carrières empruntées par celui-ci et les mutations des pratiques associées. En interrogeant l'une des formes de la projection d'usage, le scénario, nous mettons en évidence les liens entre performativité et recours à la fiction. En interrogeant les mutations des composantes du projet, nous démontrons le caractère axiomatique des projections, en tant que forme de réponse à une demande sociale qui émane de plusieurs endroits et dont l'exigence de production de savoirs actionnables nécessite de composer avec des données en mouvement

    L’enseignement centré sur la forme et l’apprentissage du vocabulaire en français langue seconde

    Full text link
    Cette thèse a été subventionnée par Le Fonds de recherche du Québec – Société et culture (FRQSC)Dans cette thèse, l’auteur s’est penché sur la question de l’apprentissage/enseignement du vocabulaire en français langue seconde (L2). Depuis plusieurs années, la recherche en L2 fait face à une question essentielle : celle de l’efficacité de différentes approches d’enseignement lexical afin de favoriser l’apprentissage des mots. Certains chercheurs (par ex. Krashen, 1982, 1989) considèrent que l’apprentissage du vocabulaire en L2, tout comme celui des aspects morphosyntaxiques, se produit uniquement de façon incidente pendant l’exposition aux différents échantillons de la langue (c.-à-d., l’intrant) et à travers des activités centrées sur le sens communicatif telles que la lecture de textes. D’autres (par ex. Laufer, 2005, 2006) préconisent une approche plus explicite de l’enseignement du vocabulaire, centrée sur les aspects formels des éléments lexicaux (form-focused instruction). Cette question n’a pas fait l’objet d’une recherche exhaustive, surtout en ce qui concerne les modalités de l’enseignement centré sur la forme (FFI) et le moment approprié (le FFI intégré vs le FFI isolé) pour le fournir, d’où l’importance de cette recherche. Trois études expérimentales ont été effectuées afin d’examiner l’efficacité de différentes approches d’enseignement du vocabulaire en français. Quarante-deux apprenants de français L2 ont participé à deux études de cas multiples (n = 9 et n = 10) et à une étude quasi-expérimentale (n = 23). Les deux premières études ont servi de pilotes pour l’élaboration de la méthodologie de la troisième étude. L'intervention expérimentale (quatre périodes de 45 minutes chacune) ciblant 36 mots a été réalisée à travers trois conditions expérimentales (FFI intégré, FFI isolé et répétition) et une condition de contrôle (apprentissage incident via la lecture). Chacun des participants a bénéficié de toutes les conditions. En d’autres termes, parmi les mots ciblés, certains devaient être appris incidemment, certains à travers une exposition répétée et certains ont été enseignés par le FFI intégré et le FFI isolé. Des tâches lexicales ont été administrées avant et deux fois après l'intervention. Les résultats indiquent les avantages du FFI en comparaison avec l'apprentissage incident et la répétition sans aucune différence significative entre le FFI isolé et le FFI intégré. La conclusion de cette thèse met l’emphase sur l’importance du FFI afin d’améliorer l’apprentissage du vocabulaire, tout en précisant le caractère indispensable des activités de récupération pour diminuer la perte de l’apprentissage produit.In this thesis, the author examined the question of vocabulary learning/teaching in French as a second language (L2). L2 research has been interested in the effects of different approaches of lexical instruction on vocabulary learning. Some researchers (e.g. Krashen, 1982, 1989) contend that L2 learning, vocabulary and morphosyntax, occurs incidentally through the exposure to comprehensible input and through meaning-based activities such as reading. Others (e.g. Laufer, 2005, 2006) advocate a more explicit approach to vocabulary teaching, focused on the form of lexical elements. The effects of lexical form-focused instruction (FFI) have not been thoroughly investigated, particularly its different modalities and timing (integrated FFI vs isolated FFI), hence the relevance of this research. Three experimental studies were conducted to examine the effectiveness of different vocabulary teaching approaches in French as an L2. Forty-two L2 French learners participated in two multiple case studies (n = 9 and n = 10) and a quasi-experimental study (n = 23). Among other things, the first two studies were designed to serve as pilots for the methodological design of the third study. The experimental intervention (four periods of 45 minutes each) targeting 36 words was carried out through three experimental conditions (integrated FFI, isolated FFI and repetition) and a control condition (incidental learning through reading). Each participant benefited from all the conditions. In other words, among the targeted words, some had to be learned incidentally, some through repeated exposure and some were taught by the integrated FFI and the isolated FFI. Lexical tasks were administered before intervention started and twice after it ended (immediate posttest and delayed posttest). Results indicate the advantages of FFI compared to incidental learning and repetition. However, there is no significant differences between the isolated FFI and the integrated FFI. The conclusion of this thesis emphasizes the importance of FFI in order to improve the vocabulary learning, while specifying the necessity of the retrieval activities to reduce learning loss

    Du sémiotique au somatique : pour une approche neuroesthétique de la lecture empathique

    Get PDF
    Plongé dans une fiction littéraire, le lecteur peut faire l'expérience de sensations somesthésiques. Cette expérience, que nous appelons « lecture empathique », est l'objet de cette thèse. Il est difficile de l'expliquer à l'aide des théories de la lecture et de l'interprétation qui ignorent le rôle du biologique dans les processus de construction de la signification. C'est pourquoi nous proposons d'adopter une approche neuroesthétique dans laquelle le sens émerge de l'interrelation entre la cognition et la sensori-motricité que reconnaissent de nombreux philosophes, neurologues et psychologues contemporains. Cette approche interdisciplinaire constitue un des apports scientifiques de cette thèse, laquelle confronte la pensée littéraire et sémiotique à la complexité d'une réalité empirique ne cadrant pas toujours avec ses théories. À travers cette confrontation, ainsi que par l'analyse d'un corpus réunissant quatre auteurs américains contemporains, la lecture empathique apparaît comme un phénomène dont les aspects varient en fonction des caractéristiques formelles des œuvres qui la suscitent, des prédispositions physiologiques et psychologiques du lecteur, ainsi que du contexte de lecture. Il faut ainsi concevoir la lecture empathique comme un ensemble de pratiques qui s'étendent d'une lecture presque hallucinatoire, où le lecteur s'immerge complètement dans l'univers fictionnel et fait l'expérience étonnante de sensations fantômes, jusqu'à une mobilisation inconsciente du sensori-moteur dans le traitement sémantique du langage écrit. Cette mobilisation inconsciente forme la version faible, diffuse et générale de la lecture empathique. Elle s'explique par le fait que, si l'on en croit les chercheurs défendant une conception incarnée de la cognition, la compréhension d'un concept - et à plus forte raison d'un concept mis en scène dans un récit - implique l'activation de simulations neuronales sensori-motrices. Mais comment passe-t-on de ces simulations inconscientes à l'expérience de sensations fantômes, vécues par un corps hybride faisant interface entre le sémiotique et le somatique? Parce que les sensations peuvent advenir à la conscience sans stimulus en provenance du système nerveux périphérique, il est possible de concevoir que le lecteur empathique puisse entrer en résonance avec les formes sensorielles véhiculées par un texte littéraire. L'intensité de cette expérience empathique dépend notamment du niveau d'implication psychique du lecteur dans cette fiction, de sa capacité et de son désir de s'abandonner au texte, à sa voix et à ses images. Le texte doit, de son côté, créer ce désir puis guider le lecteur à travers un langage riche en sensations. C'est ce qu'accomplit le roman autobiographique de James Frey, A Million Little Pieces. Cette œuvre produit l'équivalent littéraire de la réception des body genres cinématographiques où le corps du spectateur reproduit de manière presque involontaire l'état sensoriel du personnage qu'il contemple. Si la narration de A Million Little Pieces favorise, à travers son expression presque onomatopoiétique de la douleur, une expérience somesthésique de la fiction, le roman Guide, de Dennis Cooper, pousse le lecteur vers un rapport intellectuel et optique (non haptique) aux corps érotiques ou souffrants de ses personnages. De même, et contrairement à sa nouvelle Guts qui met en place une didactique somesthésique efficace, les romans Survivor et Choke, de Chuck Palahniuk, se prêtent mal à la lecture empathique. Pourtant, la perspective d'une littérature capable de toucher physiquement son lecteur apparaît, dans ces œuvres, comme une force capable de contrer la dissolution postmodeme du sens et de la sensation. La perspective de la lecture empathique, et plus généralement celle d'une littérature physicaliste, revêt donc chez Palahniuk un caractère politique. Ce caractère devient métaphysique dans House of Leaves, de Mark Z. Danielewski, un roman que dynamise la possibilité d'une incarnation corporelle de la fiction, incarnation menaçante (puisque prenant la forme d'un monstre métaleptique) qu'il promet à son lecteur en échange de son investissement interprétatif. En mettant l'accent sur l'expérience de ces œuvres littéraires plutôt que sur leur interprétation, le modèle de la lecture empathique développé dans cette thèse permet de repenser la question de leur valeur artistique en termes de puissance sensorielle plutôt que de stimulation cognitive ou d'innovation formelle et générique. Ce modèle fait donc plus que de décrire un phénomène : il revalorise l'effet sensoriel et l'immersion fictionnelle, dessinant ainsi le projet d'une technique de lecture qui vise à intensifier la participation corporelle du lecteur dans son expérience de la fiction littéraire. \ud ______________________________________________________________________________ \ud MOTS-CLÉS DE L’AUTEUR : Théorie de la lecture, Neurologie et littérature, Théorie de la fiction, Littérature américaine contemporaine, Cognition incarnée, Empathie, Simulation, Immersio

    Factors Influencing Customer Satisfaction towards E-shopping in Malaysia

    Get PDF
    Online shopping or e-shopping has changed the world of business and quite a few people have decided to work with these features. What their primary concerns precisely and the responses from the globalisation are the competency of incorporation while doing their businesses. E-shopping has also increased substantially in Malaysia in recent years. The rapid increase in the e-commerce industry in Malaysia has created the demand to emphasize on how to increase customer satisfaction while operating in the e-retailing environment. It is very important that customers are satisfied with the website, or else, they would not return. Therefore, a crucial fact to look into is that companies must ensure that their customers are satisfied with their purchases that are really essential from the ecommerce’s point of view. With is in mind, this study aimed at investigating customer satisfaction towards e-shopping in Malaysia. A total of 400 questionnaires were distributed among students randomly selected from various public and private universities located within Klang valley area. Total 369 questionnaires were returned, out of which 341 questionnaires were found usable for further analysis. Finally, SEM was employed to test the hypotheses. This study found that customer satisfaction towards e-shopping in Malaysia is to a great extent influenced by ease of use, trust, design of the website, online security and e-service quality. Finally, recommendations and future study direction is provided. Keywords: E-shopping, Customer satisfaction, Trust, Online security, E-service quality, Malaysia

    Le postulat critique au coeur de l'analyse de discours. Introduction critique aux bases méthodologiques et épistémologiques des Critical Discourse Studies

    Get PDF
    With this thesis, we are aiming at presenting how critique was incorporated into linguistics and discourseanalysis, first in the United-Kingdom in the 1970s and later spread to all European Anglophone discourseanalysis where it became its own discipline, Critical Discourse Analysis (CDA) or alternatively, Critical DiscourseStudies (CDS). With a francophone audience in mind, we have translated excerpts of the major publications ofthe field to French in order to present first how CDA and CDS came into being as established disciplines, startingfrom Critical Linguistics. Then, we explore the main tenets of CDA and CDS and what constitutes them ascoherent scientific fields despite what appears at first sight to be a very eclectic body of works gathered underthese labels. We show that it has to do with critique as a governing principle for discourse analysis; how theresearcher’s position in society is defined; social problems as starting points for research; and a very pragmaticapproach when choosing methodological tools. Our last part presents the major approaches to “doing CDA”,from the founders’ approaches (Wodak’s Discourse Historical Approach, Fairclough’s Dialectical-RelationalApproach, Van Dijk’s Socio-Cognitive Approach, Van Leeuwen’s Representation of Social Actors) to largercurrent trends (CDA with a Cognitive Linguistics or Gender Studies input, Social Semiotics, Forensic Linguistics).Ce travail de thèse a pour enjeux de rendre accessible à la communauté scientifique francophone en analyse dudiscours la manière dont le postulat critique s’est mis en place dans les sciences du langage européennes delangue anglaise à partir des années 1970 avec la Critical Linguistics jusqu’à son évolution actuelle donnant formeet programme à un courant de recherche connu sous les noms de Critical Discourse Analysis (CDA) et de CriticalDiscourse Studies (CDS). Au moyen de nombreuses traductions réalisées dans le but de donner accès aux textes dece courant, nous faisons émerger, à travers leurs publications marquantes, comment sont nés ces courants, etcomment ils se sont établis scientifiquement et institutionnellement dans le paysage des sciences du langageanglophones en tant que disciplines désormais pleinement reconnues et disposant d'une reconnaissanceimportante dans les institutions universitaires. Malgré l’éclectisme de ces disciplines, qui pourrait à première vues’apparenter à un éclatement, nous identifions dans une exploration épistémologique ce qui fait leur unité et leurcohésion interne : principe critique appliquée à l’analyse du discours, posture définie du chercheur comme partieprenante de la société, focalisation sur des problématiques sociales construites comme objets de recherche,interdisciplinarité théorique pour ne jamais se limiter dans l’analyse, et pragmatisme dans le choix desméthodologies de recherche, toujours envisagées comme étant au service d’une analyse la plus complète possibledes aspects sémiotiques et discursifs des problèmes sociaux. Dans notre dernière partie, nous donnonsprécisément à voir des manières de faire de l’analyse du discours en CDS. À travers la présentation et l’analysedes grandes approches et tendances méthodologiques des CDS, nous montrons comment les chercheurss’emparent de problèmes sociaux concrets pour proposer des analyses répondant à une visée d’émancipation,démêlant ce qu'il en est des rapports entre langage et pouvoir. Nous montrons que ces analyses sont basées à lafois sur une théorisation critique du discours, de l’idéologie et de la société dans une visée interdisciplinaire(mêlant librement aux théories linguistiques des concepts issus des sciences sociales, de l’homme ou de lacognition), et sur des méthodologies qui empruntent sans restriction à toutes les branches des sciences dulangage pour appréhender le discours de manière complète, tant sous l’angle de son contenu que de samatérialité, analysant par exemple conjointement les macropropositions sémantiques, les stratégies rhétoriques,la représentation des acteurs sociaux ou les microphénomènes syntaxiques
    corecore