33 research outputs found

    Développement d'outils pour l'imagerie de l'activité neuronale - des épines au comportement

    Get PDF
    Dû à l'échelle des structures et des comportements observés, les neurosciences et la microscopie ont toujours été intimement liées. Que ce soit pour observer les différentes morphologies cellulaires en lumiÚre blanche transmise, ou pour suivre des dynamiques complexes grùce à des sondes fluorescentes, la lumiÚre est l'outil de choix pour étudier le cerveau et sa composition. Plus particuliÚrement, la lumiÚre possÚde la bonne résolution spatiale et temporelle pour sonder autant localement que globalement toutes les échelles de l'activité neuronale. De plus, les techniques de mesure utilisant la lumiÚre sont généralement peu invasives. Cette thÚse de doctorat montre trois techniques d'imagerie de fluorescence, développées pour des échelles d'organisation distinctes. Le but de la thÚse est de fournir de nouveaux outils technologiques visant à repousser les limites des questions biologiques aujourd'hui disponibles aux neuroscientifiques. Afin de pouvoir sonder efficacement les mécanismes internes aux petites structures comme les épines dendritiques et les dendrites, nous avons développé un protocole de marquage unicellulaire du fluorophore sensible au potentiel ANNINE-6plus. La méthode se base sur le chargement intracellulaire de la sonde fluorescente dans des échantillons autant en cultures cellulaires dissociées, qu'en préparations de tranches aigues et organotypiques. Le deuxiÚme projet adresse les défis liés à l'imagerie rapide de l'activité de réseaux. Typiquement, il y a un choix à faire entre la résolution temporelle et la surface d'imagerie. Ce choix vient du fait que les techniques d'imagerie rapides sont habituellement à champs larges et ne fournissent pas de sectionnement optique, ce qui rend leur utilisation dans des échantillons épais difficile. En couplant une technique à champ large multiphotonique, la focalisation temporelle, avec l'illumination structurée ainsi qu'un laser amplifié, nous avons développé un systÚme à champ large doté d'un sectionnement optique en-deçà de 10 um. Le troisiÚme chapitre décrit le développement de deux logiciels distribués avec un produit commercialisé par Doric Lenses Inc., soit un microscope miniature implantable pour l'imagerie de structures profondes du cerveau pour des animaux se déplaçant librement. Les logiciels permettent le traitement des images en temps réel et à posteriori. Ce produit offre finalement un lien entre l'activité neuronale locale, et les comportements animaux observés.Due to the scale of the observed structures and behaviours, neurosciences and microscopy have always been intertwined. Whether it is to observe the different cell morphologies in transmitted white light, or to follow complex dynamics using fluorescent probes, light is the tool of choice to study the brain and its composition. Specifically, the light has the proper spatial and temporal resolution to probe both locally and globally all levels of neuronal activity, while remaining minimally invasive. This thesis shows three techniques developed for different scales, in order to push the limits of the currently addressable biological questions by neuroscientists. In order to effectively probe the internal mechanisms for small structures like dendritic spines and dendrites, we have created a single-cell labeling protocol of the voltage-sensitive fluorophore ANNINE-6plus. The method is based on the intracellular loading of the fluorescent probe in samples both in dissociated cell cultures, than in preparations of acute and organotypic slices. The second project addresses the challenges of rapid imaging of the cellular network activity. Typically, there is a choice between the temporal resolution and the imaging surface. This choice is that the fast imaging techniques are usually widefield and do not provide optical sectioning, making their use in thick samples difficult. By combining a widefield multiphoton technique, the temporal focusing, with the structured illumination and an amplified laser, we have developed a widefield system with an optical sectioning below 10um. The third chapter describes the development of two software distributed with a product created by Doric Lenses Inc., an implantable miniature microscope for imaging of deep brain structures of freely moving animals. This product finally provides a link between the local neuronal activity, and the observed animal behaviours

    Exploration sémantique des modÚles socio-environnementaux: Approche générique pour l'initialisation et l'observation des modÚles de simulation complexes

    Get PDF
    Researchers have sought to deal with the complexity of socio-ecosystems including biophysical and social dynamics, and their interactions. In order to cope with this complexity, they need increasingly complex models, whose initialization, and observation are becoming very difficult to implement. However, no generic framework has yet been developed to address this issue. The objective of the thesis is a generic framework for specifying and implementing the initialization from numerous heterogeneous data, and the observation producing the desired indicators. The result is a set of tools and know-how, allowing thematicians to specify and automate the whole process of exploitation of a simulation model, from the initialization to the production of indicators. For this, we propose to formulate the initialization and observation as transformations among data and data structures. This formulation allows to use the Model Driven Engineering (MDE) concepts in order to implement the generic framework and the corresponding domain specific languages (DSL) allow thematicians to specify easier initialization and observation SES models.Les chercheurs veulent aborder toute la complexitĂ© des socio-Ă©cosystĂšmes (SES) affĂ©rents aux dynamiques biophysiques, sociales ainsi qu’à leurs interactions. Afin d'aborder cette complexitĂ©, ils ont recours Ă  des modĂšles de simulation de plus en plus complexes, dont l'initialisation et l'observation sont devenues difficiles Ă  mettre en Ɠuvre. Toutefois, aucun cadre gĂ©nĂ©rique n'a encore Ă©tĂ© dĂ©veloppĂ© pour rĂ©soudre ce problĂšme. L’objectif de cette thĂšse est de proposer un cadre gĂ©nĂ©rique pour la spĂ©cification et la mise en Ɠuvre de l'initialisation, Ă  partir de nombreuses donnĂ©es hĂ©tĂ©rogĂšnes, et l'observation pour produire les indicateurs souhaitĂ©s par les thĂ©maticiens. Le rĂ©sultat est un ensemble d’outils et de savoir-faire, permettant aux thĂ©maticiens de spĂ©cifier et d’automatiser l'ensemble du processus d'exploitation d’un modĂšle de simulation, de l'initialisation Ă  la production des indicateurs. Pour cela, nous proposons de formuler l'initialisation et l'observation des modĂšles de simulation en des transformations entre donnĂ©es et structures de donnĂ©es. Cette formulation permet d'utiliser les concepts de l’ingĂ©nierie dirigĂ©e par les modĂšles (IDM) afin de mettre en Ɠuvre des langages dĂ©diĂ©s (DSL). Ces derniers fournissent les concepts nĂ©cessaires permettant aux thĂ©maticiens de spĂ©cifier plus facilement l’initialisation et l’observation de modĂšles de SES

    Le modĂšle flot de donnĂ©es appliquĂ© Ă  la synthĂšse haut-niveau pour le traitement d’images sur camĂ©ra intelligente Ă  base de FPGA. Application aux systĂšmes d’apprentissage supervisĂ©s

    Get PDF
    High-level synthesis is a field of research that aims to automate the transformation from an high-level algorithmic description to a register level representation for its implementation on a digital circuit. Most of existing tools based on imperative languages try to provide a general solution to any type of existing algorithm. This approach can be inefficient in some applications where the algorithm description relies on a different paradigm from the hardware execution model. This major drawback can be figured out by the use of specific langages, named Domain Specific Language (DSL). Applied to the image processing field, the dataflow model appears as a good compromise between the expressiveness of the algorithm description and the final implementation efficiency. This thesis address the use of the dataflow programming model as response to high-level synthesis problematics for image processing algorithms on FPGA. To demonstrate the effectiveness of the proposed method but also to put forth the algorithmic reformulation effort to be made by the developer, an ambitious class of applications was chosen : supervised machine learning systems. It will be addressed in particular two algorithms, a classification system based on Support Vector Machine and a convolutional neural network. Experiments will be made with the CAPH langage, a specific HLS tool based on the dataflow programming model.La synthĂšse de haut niveau (High Level Synthesis (HLS)) est un domaine de recherche qui vise Ă  automatiser le passage de la description d’un algorithme Ă  une reprĂ©sentation au niveau registre de celui-ci en vue de son implantation sur un circuit numĂ©rique. Si le problĂšme reste Ă  ce jour largement ouvert pour des algorithmes quelconques, des solutions ont commencĂ© Ă  voir le jour au sein de domaines spĂ©cifiques. C’est notamment le cas dans le domaine du traitement d’images oĂč l’utilisation du modĂšle flot de donnĂ©es offre un bon compromis entre expressivitĂ© et efficacitĂ©. C’est ce que nous cherchons Ă  dĂ©montrer dans cette thĂšse, qui traite de l’applicabilitĂ© du modĂšle flot de donnĂ©es au problĂšme de la synthĂšse haut niveau Ă  travers deux exemples d’implantation d’applications de vision complexes sur FPGA. Les applications, issues du domaine de l’apprentissage supervisĂ© sont un systĂšme de classification Ă  bases de machines Ă  vecteurs supports (SVM) et un systĂšme de reconnaissance exploitant un rĂ©seau de neurones convolutionnels (CNN). Dans les deux cas, on Ă©tudie les problĂ©matiques posĂ©es par la reformulation, au sein du modĂšle flot de donnĂ©es, des structures de donnĂ©es et algorithmes associĂ©s ainsi que l’impact de cette reformulation sur l’efficacitĂ© des implĂ©mentations rĂ©sultantes. Les expĂ©rimentations sont menĂ©es avec CAPH, un outil de HLS exploitant le modĂšle flot de donnĂ©es

    Acquisition de liens sémantiques à partir d'éléments de mise en forme des textes: exploitation des structures énumératives

    Get PDF
    The past decade witnessed significant advances in the field of relation extraction from text, facilitating the building of lexical or semantic resources. However, the methods proposed so far (supervised learning, kernel methods, distant supervision, etc.) don't fully exploit the texts: they are usually applied at the sentential level and they don't take into account the layout and the formatting of texts.In such a context, this thesis aims at expanding those methods and makes them layout-aware for extracting relations expressed beyond sentence boundaries. For this purpose, we rely on the semantics conveyed by typographical (bullets, emphasis, etc.) and dispositional (visual indentations, carriage returns, etc.) features. Those features often substitute purely discursive formulations. In particular, the study reported here is dealing with the relations carried by the vertical enumerative structures. Although they display discontinuities between their various components, the enumerative structures can be dealt as a whole at the semantic level. They form textual structures prone to hierarchical relations.This study was divided into two parts. (i) The first part describes a model representing the hierarchical structure of documents. This model is falling within the theoretical framework representing the textual architecture: an abstraction of the layout and the formatting, as well as a strong connection with the rhetorical structure are achieved. However, our model focuses primarily on the efficiency of the analysis process rather than on the expressiveness of the representation. A bottom-up method intended for building automatically this model is presented and evaluated on a corpus of PDF documents.(ii) The second part aims at integrating this model into the process of relation extraction. In particular, we focused on vertical enumerative structures. A multidimensional typology intended for characterizing those structures was established and used into an annotation task. Thanks to corpus-based observations, we proposed a two-step method, by supervised learning, for qualifying the nature of the relation and identifying its arguments. The evaluation of our method showed that exploiting the formatting and the layout of documents, in combination with standard lexico-syntactic features, improves those two tasks.Ces derniĂšres annĂ©es de nombreux progrĂšs ont Ă©tĂ© faits dans le domaine de l'extraction de relations Ă  partir de textes, facilitant ainsi la construction de ressources lexicales ou sĂ©mantiques. Cependant, les mĂ©thodes proposĂ©es (apprentissage supervisĂ©, mĂ©thodes Ă  noyaux, apprentissage distant, etc.) n’exploitent pas tout le potentiel des textes : elles ont gĂ©nĂ©ralement Ă©tĂ© appliquĂ©es Ă  un niveau phrastique, sans tenir compte des Ă©lĂ©ments de mise en forme.Dans ce contexte, l'objectif de cette thĂšse est d'adapter ces mĂ©thodes Ă  l'extraction de relations exprimĂ©es au-delĂ  des frontiĂšres de la phrase. Pour cela, nous nous appuyons sur la sĂ©mantique vĂ©hiculĂ©e par les indices typographiques (puces, emphases, etc.) et dispositionnels (indentations visuelles, retours Ă  la ligne, etc.), qui complĂštent des formulations strictement discursives. En particulier, nous Ă©tudions les structures Ă©numĂ©ratives verticales qui, bien qu'affichant des discontinuitĂ©s entre leurs diffĂ©rents composants, prĂ©sentent un tout sur le plan sĂ©mantique. Ces structures textuelles sont souvent rĂ©vĂ©latrices de relations hiĂ©rarchiques. Notre travail est divisĂ© en deux parties. (i) La premiĂšre partie dĂ©crit un modĂšle pour reprĂ©senter la structure hiĂ©rarchique des documents. Ce modĂšle se positionne dans la suite des modĂšles thĂ©oriques proposĂ©s pour rendre compte de l'architecture textuelle : une abstraction de la mise en forme et une connexion forte avec la structure rhĂ©torique sont faites. Toutefois, notre modĂšle se dĂ©marque par une perspective d'analyse automatique des textes. Nous en proposons une implĂ©mentation efficace sous la forme d'une mĂ©thode ascendante et nous l'Ă©valuons sur un corpus de documents PDF. (ii) La seconde partie porte sur l'intĂ©gration de ce modĂšle dans le processus d'extraction de relations. Plus particuliĂšrement, nous nous sommes focalisĂ©s sur les structures Ă©numĂ©ratives verticales. Un corpus a Ă©tĂ© annotĂ© selon une typologie multi-dimensionnelle permettant de caractĂ©riser et de cibler les structures Ă©numĂ©ratives verticales porteuses de relations utiles Ă  la crĂ©ation de ressources. Les observations faites en corpus ont conduit Ă  procĂ©der en deux Ă©tapes par apprentissage supervisĂ© pour analyser ces structures : qualifier la relation puis en extraire les arguments. L'Ă©valuation de cette mĂ©thode montre que l'exploitation de la mise en forme, combinĂ©e Ă  un faisceau d'indices lexico-syntaxiques, amĂ©liore les rĂ©sultats

    Gestion autonomique de l'élasticité multi-couche des applications dans le Cloud : vers une utilisation efficiente des ressources et des services du Cloud

    Get PDF
    Cloud computing, through its layered model and access to its on-demand services, has changed the way of managing the infrastructures (IaaS) and how to produce software (SaaS). With the advent of IaaS elasticity, the amount of resources can be automatically adjusted according to the demand to satisfy a certain level of quality of service (QoS) to customers while minimizing underlying operating costs. The current elasticity model is based on adjusting the IaaS resources through basic autoscaling services, which reaches to its limit in terms of responsiveness and adaptation granularity. Although it is an essential feature for Cloud computing, elasticity remains poorly equipped which prevents the various actors of the Cloud to really enjoy its benefits. In this thesis, we propose to extend the concept of elasticity to higher layers of the cloud, and more precisely to the SaaS level. Then, we present the new concept of software elasticity by defining the ability of the software to adapt, ideally in an autonomous way, to cope with workload changes and/or limitations of IaaS elasticity. This predicament brings the consideration of Cloud elasticity in a multi-layer way through the adaptation of all kind of Cloud resources. To this end, we present a model for the autonomic management of multi-layer elasticity and the associated framework ElaStuff. In order to equip and industrialize the elasticity management process, we propose the perCEPtion monitoring tool, based on complex event processing, which enables the administrators to set up an advanced observation of the Cloud system. In addition, we propose a domain specific language (DSL) for the multi-layer elasticity, called ElaScript, which allows to simply and effectively express reconfiguration plans orchestrating the different levels of elasticity actions. Finally, our proposal to extend the Cloud elasticity to higher layers, particularly to SaaS,is validated experimentally from several perspectives (QoS,energy, responsiveness and accuracy of the scaling, etc.).L’informatique en nuage, au travers de son modĂšle en couche et de l’accĂšs Ă  ses services Ă  la demande, a bouleversĂ© la façon de gĂ©rer les infrastructures (IaaS) et la maniĂšre de produire les logiciels (SaaS). GrĂące Ă  l’élasticitĂ© de l’infrastructure, la quantitĂ© de ressource peut ĂȘtre ajustĂ©e automatiquement en fonction de la demande afin de satisfaire un certain niveau de qualitĂ© de service (QoS) aux clients tout en minimisant les coĂ»ts d’exploitation sous-jacents. Le modĂšle d’élasticitĂ© actuel qui consiste Ă  ajuster les ressources IaaS au travers de services de dimensionnement automatique basiques montre ses limites en termes de rĂ©activitĂ© et de granularitĂ© d’adaptation. De plus, bien qu’étant une caractĂ©ristique cruciale de l’informatique en nuage, l’élasticitĂ© est Ă  ce jour pauvrement outillĂ©e empĂȘchant ainsi les diffĂ©rents acteurs du Cloud de jouir pleinement de ses bienfaits. Dans ce travail de thĂšse, nous proposons d’étendre leconcept d’élasticitĂ© aux couches hautes du nuage, et plus prĂ©cisĂ©ment au niveau du SaaS. Nous prĂ©sentons ainsi le nouveau concept d’élasticitĂ© logicielle que nous dĂ©finissons comme la capacitĂ© d’un logiciel Ă  s’adapter, idĂ©alement de maniĂšre autonome, pour rĂ©pondre aux changements de la demande et/ou aux limitations de l’élasticitĂ© des ressources de l’infrastructure. Il s’agit alors d’envisager l’élasticitĂ© de maniĂšre transverse et multi-couche en considĂ©rant l’adaptation des ressources Cloud au sens large. Pour ce faire, nous prĂ©sentons un modĂšle pour la gestion autonome de l’élasticitĂ© multi-couche et le Framework ElaStuff associĂ©. Dans le but d’outiller et d’industrialiser le processus de gestion de l’élasticitĂ©, nous proposons l’outil de surveillance perCEPtion basĂ© sur le traitement des Ă©vĂ©nements complexes et permettant Ă  l’administrateur de mettre en place une observation avancĂ©e du systĂšme Cloud. De plus, un langage dĂ©diĂ© Ă  l’élasticitĂ© multi-couche nommĂ© ElaScript est proposĂ© pour exprimer simplement et efficacement des plans de reconfiguration orchestrant les actions d’élasticitĂ© de diffĂ©rents niveaux. Enfin, notre proposition d’étendre l’élasticitĂ© aux couches hautes du Cloud, et plus particuliĂšrement au niveau SaaS, est validĂ©e expĂ©rimentalement selon plusieurs points devue (QoS, Ă©nergie, rĂ©activitĂ© et prĂ©cision du passage Ă  l’échelle,etc.)

    Générateur de coprocesseur pour le traitement de données en flux (vidéo ou similaire) sur FPGA.

    Get PDF
    Using Field Programmable Gate Arrays (FPGA) is one of the very few solution for real time processingdata flows of several hundreds of Msamples/second. However, using such componentsis technically challenging beyond the need to become familiar with a new kind of dedicateddescription language and ways of describing algorithms, understanding the hardware behaviouris mandatory for implementing efficient processing solutions. In order to circumvent these difficulties,past researches have focused on providing solutions which, starting from a description ofan algorithm in a high-abstraction level language, generetes a description appropriate for FPGAconfiguration. Our contribution, following the strategy of block assembly based on the skeletonmethod, aimed at providing a software environment called CoGen for assembling various implementationsof readily available and validated processing blocks. The resulting processing chainis optimized by including FPGA hardware characteristics, and input and output bandwidths ofeach block in order to provide solution fitting best the requirements and constraints. Each processingblock implementation is either generated automatically or manually, but must complywith some constraints in order to be usable by our tool. In addition, each block developer mustprovide a standardized description of the block including required resources and data processingbandwidth limitations. CoGen then provides to the less experienced user the means to assemblethese blocks ensuring synchronism and consistency of data flow as well as the ability to synthesizethe processing chain in the available hardware resources. This working method has beenapplied to video data flow processing (threshold, contour detection and tuning fork eigenmodesanalysis) and on radiofrequency data flow (wireless interrogation of sensors through a RADARsystem, software processing of a frequency modulated stream, software defined radio).L’utilisation de matrice de portes logiques reconfigurables (FPGA) est une des seules solutionspour traiter des flux de plusieurs 100 MÉchantillons/seconde en temps-rĂ©el. Toutefois, ce typede composant prĂ©sente une grande difficultĂ© de mise en oeuvre : au delĂ  d’un type langage spĂ©cifique,c’est tout un environnement matĂ©riel et une certaine expĂ©rience qui sont requis pourobtenir les traitements les plus efficaces. Afin de contourner cette difficultĂ©, de nombreux travauxont Ă©tĂ© rĂ©alisĂ©s dans le but de proposer des solutions qui, partant d’un code Ă©crit dans unlangage de haut-niveau, vont produire un code dans un langage dĂ©diĂ© aux FPGAs. Nos travaux,suivant l’approche d’assemblage de blocs et en suivant la mĂ©thode du skeleton, ont visĂ© Ă  mettreen place un logiciel, nommĂ© CoGen, permettant, Ă  partir de codes dĂ©jĂ  dĂ©veloppĂ©s et validĂ©s,de construire des chaĂźnes de traitements en tenant compte des caractĂ©ristiques du FPGA cible,du dĂ©bit entrant et sortant de chaque bloc pour garantir l’obtention d’une solution la plus adaptĂ©epossible aux besoins et contraintes. Les implĂ©mentations des blocs de traitements sont soitgĂ©nĂ©rĂ©s automatiquement soit manuellement. Les entrĂ©es-sorties de chaque bloc doivent respecterune norme pour ĂȘtre exploitable dans l’outil. Le dĂ©veloppeur doit fournir une descriptionconcernant les ressources nĂ©cessaires et les limitations du dĂ©bit de donnĂ©es pouvant ĂȘtre traitĂ©es.CoGen fournit Ă  l’utilisateur moins expĂ©rimentĂ© une mĂ©thode d’assemblage de ces blocsgarantissant le synchronisme et cohĂ©rence des flux de donnĂ©es ainsi que la capacitĂ© Ă  synthĂ©tiserle code sur les ressources matĂ©rielles accessibles. Cette mĂ©thodologie de travail est appliquĂ©eĂ  des traitements sur des flux vidĂ©os (seuillage, dĂ©tection de contours et analyse des modespropres d’un diapason) et sur des flux radio-frĂ©quences (interrogation d’un capteur sans-fils parmĂ©thode RADAR, rĂ©ception d’un flux modulĂ© en frĂ©quence, et finalement implĂ©mentation deblocs de bases pour dĂ©porter le maximum de traitements en numĂ©rique)

    Approche gĂ©nĂ©rative conjointe logicielle-matĂ©rielle au dĂ©veloppement du support protocolaire d’applications rĂ©seaux

    Get PDF
    Communications between network applications is achieved by using rulesets known as protocols. Protocol messages are managed by the application layer known as the protocol parsing layer or protocol handling layer. Protocol parsers are coded in software, in hardware or based on a co-design approach. They represent the interface between the application logic and the outside world. Thus, they are critical components of network applications. Global performances of network applications are directly linked to the performances of their protocol parser layers.Developping protocol parsers consists of translating protocol specifications, written in a high level language such as ABNF towards low level software or hardware code. As the use of embedded systems is growing, hardware ressources become more and more available to applications on systems on chip (SoC). Nonetheless, developping a network application that uses hardware ressources is challenging, requiring not only expertise in hardware design, but also a knowledge of the protocols involved and an understanding of low-level network programming.This thesis proposes a generative hardware-software co-design based approach to the developpement of network protocol message parsers, to improve their performances without increasing the expertise the developper may need. Our approach is based on a dedicated language, called Zebra, that generates both hardware and software elements that compose protocol parsers. The necessary expertise is deported in the use of the Zebra language and the generated hardware components permit to improve global performances.The contributions of this thesis are as follows : We provide an analysis of network protocols and applications. This analysis allows us to detect the elements which performances can be improved using hardware ressources. We present the domain specific language Zebra to describe protocol handling layers. Software and hardware components are then generated according to Zebra specifications. We have built a SoC running a Linux operating system to assess our approach.We have designed hardware accelerators for different network protocols that are deployed and driven by applications. To increase sharing of parsing units between several tasks, we have developped a middleware that seamlessly manages all the accesses to the hardware components. The Zebra middleware allows several clients to access the ressources of a hardware accelerator. We have conducted several set of experiments in real conditions. We have compared the performances of our approach with the performances of well-knownprotocol handling layers. We observe that protocol handling layers baded on our approach are more efficient that existing approaches.Les communications entre les applications rĂ©seaux sont rĂ©gies par un ensemble de rĂšgles regroupĂ©es sous forme de protocoles. Les messages protocolaires sont gĂ©rĂ©s par une couche de l’application rĂ©seau connue comme Ă©tant la couche de support protocolaire. Cette couche peut ĂȘtre de nature logicielle, matĂ©rielle ou conjointe. Cette couche se trouve Ă  la frontiĂšre entre le coeur de l’application et le monde extĂ©rieur. A ce titre, elle reprĂ©sente un composant nĂ©vralgique de l’application. Les performances globales de l’application sont ainsi directement liĂ©es aux performances de la couche de support protocolaire associĂ©e.Le processus de dĂ©veloppement de ces couches consiste Ă  traduire une spĂ©cification du protocole, Ă©crite dans un langage de haut niveau tel que ABNF dans un langage bas niveau, logiciel ou matĂ©riel. Avec l’avĂšnement des systĂšmes embarquĂ©s, de plus en plus de systĂšmes sur puce proposent l’utilisation de ressources matĂ©rielles afin d’accroĂźtre les performances des applicatifs. NĂ©anmoins, peu de processus de dĂ©veloppement de couches de support protocolaire tirent parti de ces ressources, en raison notamment de l’expertise nĂ©cessaire dans ce domaine.Cette thĂšse propose une approche gĂ©nĂ©rative conjointe logicielle-matĂ©rielle au dĂ©veloppement du support protocolaire d’applications rĂ©seaux, pour amĂ©liorer leur performance tout en restant ergonomique pour le dĂ©veloppeur de l’application. Notre approche est basĂ©e sur l’exploitation d’un langage dĂ©diĂ©, appellĂ© Zebra pour gĂ©nĂ©rer les diffĂ©rents composants logiciels et matĂ©riels formant la couche de support. L’expertise nĂ©cessaire est dĂ©portĂ©e dans l’utilisation du langage Zebra et les composants matĂ©riels gĂ©nĂ©rĂ©s permettent d’accroĂźtre les performances de l’application.Les contributions de cette thĂšse sont les suivantes : Nous avons effectuĂ© une analyse des protocoles et applications rĂ©seaux. Cette analyse nous a permis d’identifier les composants pour lesquels il est possible d’obtenir des gains de performances.Nous avons conçu et exploitĂ© un langage dĂ©diĂ©, Zebra, permettant de dĂ©crire les diffĂ©rentes entitĂ©s de la couche de support protocolaire et gĂ©nĂ©rant les Ă©lĂ©ments logiciels et matĂ©riels la composant. Nous avons construit un systĂšme sur puce exĂ©cutant un systĂšme d’exploitation Linux afin d’étayer notre approche. Nous avons conçu des accĂ©lĂ©rateurs matĂ©riels dĂ©ployables pour diffĂ©rents protocoles rĂ©seaux sur ce systĂšme et pilotables par les applicatifs. Afin de rendre l’accĂšs aux accĂ©lĂ©rateurs matĂ©riels transparent pour les applications rĂ©seaux, nous avons dĂ©veloppĂ© un intergiciel gĂ©rant l’ensemble de ces accĂšs. Cet intergiciel permet Ă  plusieurs applications et/ou Ă  plusieurs clients d’une mĂȘme application d’utiliser les accĂ©lĂ©rateurs pour le traitement des messages protocolaires. Nous avons Ă©valuĂ© les performances de notre approche dans des conditions rĂ©elles. Nous avons comparĂ© ces performances Ă  celles de couches de supports faisant rĂ©fĂ©rence dans le domaine. Nous avons constatĂ© un gain de performance consĂ©quent pour l’approche que nous proposons

    Définition d'un langage et d'une méthode pour la description et la spécification d'IHM post-W.I.M.P. pour les cockpits interactifs

    Get PDF
    Avec l'apparition de nouvelles technologies comme l'iPad, etc., nous rencontrons dans les logiciels grand public des interfaces de plus en plus riches et innovantes. Ces innovations portent Ă  la fois sur la gestion des entrĂ©es (e. g. Ă©crans multi-touch) et sur la gestion des sorties (e.g. affichage). Ces interfaces sont catĂ©gorisĂ©es de type post-WIMP et permettent d'accroitre la bande passante entre l'utilisateur et le systĂšme qu'il manipule. Plus prĂ©cisĂ©ment elles permettent Ă  l'utilisateur de fournir plus rapidement des commandes au systĂšme et au systĂšme de prĂ©senter plus d'informations Ă  l'utilisateur lui permettant par lĂ -mĂȘme de superviser des systĂšmes de complexitĂ© accrue. L'adoption par le grand public et le niveau de maturitĂ© de ces technos permet d'envisager leur intĂ©gration dans les systĂšmes critiques (comme les cockpits ou de façon plus gĂ©nĂ©rale les systĂšmes de commande et contrĂŽle). Toutefois les aspects logiciels liĂ©s Ă  ces technologies sont loin d'ĂȘtre maĂźtrisĂ©s comme le dĂ©montrent les nombreux dysfonctionnements rencontrĂ©s par leurs utilisateurs. Alors que ces derniers peuvent ĂȘtre tolĂ©rĂ©s pour des applications de jeux ou de divertissement elles ne sont pas acceptables dans le domaine des systĂšmes critiques prĂ©sentĂ©s prĂ©cĂ©demment. La problĂ©matique de cette thĂšse porte prĂ©cisĂ©ment sur le dĂ©veloppement de mĂ©thodes, langages, techniques et outils pour la conception et le dĂ©veloppement de systĂšmes interactifs innovants et fiables. La contribution de cette thĂšse porte sur l'extension d'une notation formelle : ICO (Objets CoopĂ©ratifs Interactifs) pour dĂ©crire de maniĂšres exhaustive et non ambiguĂ« les techniques d'interactions multi-touch et la dĂ©monstrabilitĂ© de son application dans le cadre des applications multi-touch civils. Nous proposons en plus de cette notation, une mĂ©thode pour la conception et la validation de systĂšmes interactifs offrants des interactions multi-touch Ă  leurs utilisateurs. Le fonctionnement de ces systĂšmes interactifs est basĂ© sur une architecture gĂ©nĂ©rique permettant une structuration des modĂšles allant de la partie matĂ©rielle des pĂ©riphĂ©riques d'entrĂ©es jusqu' Ă  la partie applicative pour la commande et le contrĂŽle de ces systĂšmes. Cet ensemble de contribution est appliquĂ© sur un ensemble d'Ă©tude de ca dont la plus significative est une application de gestion mĂ©tĂ©o pour un avion civil.With the advent of new technologies such as the iPad, general public software feature richer and more innovative interfaces. These innovations are both on the input layer (e.g. multi-touch screens) and on the output layer (e.g. display). These interfaces are categorized as post-W.I.M.P. type and allow to increase the bandwidth between the user and the system he manipulates. Specifically it allows the user to more quickly deliver commands to the system and the system to present more information to the user enabling him managing increasingly complex systems. The large use in the general public and the level of maturity of these technologies allows to consider their integration in critical systems (such as cockpits or more generally control and command systems). However, the software issues related to these technologies are far from being resolved judging by the many problems encountered by users. While the latter may be tolerated for gaming applications and entertainment, it is not acceptable in the field of critical systems described above. The problem of this thesis focuses specifically on the development of methods, languages, techniques and tools for the design and development of innovative and reliable interactive systems. The contribution of this thesis is the extension of a formal notation: ICO (Interactive Cooperative Object) to describe in a complete and unambiguous way multi-touch interaction techniques and is applied in the context of multi-touch applications for civilians aircrafts. We provide in addition to this notation, a method for the design and validation of interactive systems featuring multi-touch interactions. The mechanisms of these interactive systems are based on a generic architecture structuring models from the hardware part of the input devices up to the application part for the control and monitoring of these systems. This set of contribution is applied on a set of case studies, the most significant being an application for weather management in civilian aircrafts

    E-gouvernement pour la bonne gouvernance dans les pays en développement : l'expérience du projet eFez

    Get PDF
    PubliĂ© conjointement avec Les Presses de l'UniversitĂ© LavalVersion anglaise disponible dans la BibliothĂšque numĂ©rique du CRDI: E-government for good governance in developing countries : empirical evidence from the eFez ProjectVersion arabe dans la bibliothĂšqueLes pays en dĂ©veloppement accusent encore aujourd’hui beaucoup de retard par rapport aux pays dĂ©veloppĂ©s concernant l’usage gĂ©nĂ©ralisĂ© des technologies de l’information, et en particulier la mise en place de systĂšmes de gouvernement Ă©lectronique (e-gouvernement) pour faciliter aux citoyens l’accĂšs aux services gouvernementaux. C’est dans ce contexte que le projet eFez a Ă©tĂ© conduit entre 2004 3 2009 dans la ville de FĂšs au Maroc avec l’appui financier du CRDI, le Centre de recherches pour le dĂ©veloppement international du Canada. Le but de ce projet Ă©tait de dĂ©montrer qu’un systĂšme d’e-gouvernement peut ĂȘtre dĂ©veloppĂ© dans le contexte d’une grande ville d’un pays en dĂ©veloppement, et utilisĂ© pour soutenir et automatiser les opĂ©rations quotidiennes dans un domaine critique : l’état civil. L’équipe du projet eFez a mis au point une approche d’analyse, de dĂ©veloppement et d’évaluation structurĂ©e des retombĂ©es. Le projet eFez a remportĂ© plusieurs prix au niveau marocain (2006), africain (2007) et international (Prix international du Service Public dĂ©cernĂ© par l’ONU en 2007)

    Approche modulaire pour la planification continue : application Ă  la conduite des systĂšmes de culture

    Get PDF
    Dans le cadre de cette thĂšse, nous nous sommes intĂ©ressĂ©s Ă  la conception des systĂšmes complexes autonomes opĂ©rant dans un environnement dynamique et incertain. Nous expliquons que la conduite des systĂšmes de culture d'une exploitation agricole est un problĂšme multi-Ă©chelles spatiales et temporelles. La structure de l'exploitation Ă©tant fixĂ©e, elle intĂšgre trois types de dĂ©cision qui sont: l'allocation des cultures (Ă  long terme), choix du mode de conduite des cultures, les itinĂ©raires technique (Ă  moyen terme) et l'ordonnancement des opĂ©rations agricoles journaliĂšres (Ă  court terme). Ces problĂšmes de dĂ©cision Ă©tant de nature diffĂ©rente, nous avons dĂ©veloppĂ© pour chacun d'eux des mĂ©thodes de planification spĂ©cifiques. Nous proposons d'aborder l'allocation des cultures comme un problĂšme de satisfaction de contraintes pondĂ©rĂ©es oĂč l'utilitĂ© de l'allocation est Ă©valuĂ©e par une fonction de coĂ»t globale. Les modes de conduite des cultures Ă©tant prĂ©dĂ©finis, nous utilisons une approche de planification temporelle et hiĂ©rarchique dans laquelle l'heuristique de dĂ©composition est une fonction globale permettant ainsi, de prendre en compte les interdĂ©pendances entre les effets de chaque mode de conduite. Enfin, l'approche que nous proposons pour l'ordonnancement des opĂ©rations agricoles est basĂ©e sur un modĂšle de programmation linĂ©aire. Pour apprĂ©hender ces diffĂ©rents problĂšmes de dĂ©cision, nous proposons une architecture systĂ©mique nommĂ©e "Safihr". Celle-ci est capable de prendre en compte l'entrelacement en ligne de plusieurs planificateurs spĂ©cifiques. Cette architecture repose sur le cadre des systĂšmes Ă  Ă©vĂ©nements discrets (DEVS). L'agent agriculteur est vu comme un systĂšme hiĂ©rarchique, dynamique et distribuĂ© en interaction avec son environnement physique. Chacun des planificateurs est vu comme un systĂšme de contrĂŽle indĂ©pendant. "Safihr" intĂšgre les mĂ©canismes permettant de faire coopĂ©rer diffĂ©rents planificateurs au sein d'un mĂȘme systĂšme.In this work, we address the challenge of the development of autonomous complex systems operating in a dynamic and uncertain environment. We only consider a farm with a cropping system and a determined structure. We explain that decision-making in farming systems is a complex issue in which decisions are joined up, through various spatial and scales. These decisions are usually grouped in three classes: strategic, tactical and operational decisions. Strategic decisions are long-term planning problems in which, knowing biophysical and structural constraints, crops are assigned to plots over a fixed horizon. Tactical decisions are mid-term planning problems in which, knowing crops to be grown, a crop management systems is assigned to each pair of plot and crop. Finally, operational decisions are short-term scheduling problems that could be summarized as scheduling daily farm operations to timely control crop production processes. Considering, the inherent feature of these decision-making problems, we developed for each of them a specific planning technique. Strategic decisions are address as a Weighted Constraint Satisfaction Problem in which the relevance of crops allocation is assessed by a global objective function. Tactical decisions are address as hierarchical and temporal planning problems, based on Hierarchical Tasks Networks and Simple Temporal Network. We introduced a new decomposition heuristic into HTN framework which enables to take into account the interdependence between crops production techniques. Finally, we proposed to tackle operational decisions by using linear programming techniques. To interleave these decision-making problems, we introduce a new modular architecture call Safihr "Simulation based Architecture For Interleaving Heterogeneous decisions in Real world problems". The proposed architecture is a model-based approach relying on Discrete EVent System specification formalism
    corecore