150 research outputs found

    Méthodologie d'identification et d'évaluation de la sûreté de fonctionnement en phase de réponse à appel d'offre

    Get PDF
    La sûreté de fonctionnement (SdF) des produits, processus et services est une préoccupation permanente de tous les acteurs industriels. C'est le cas notamment dans le secteur automobile à l'exemple des équipementiers confrontés à des clients de plus en plus exigeants en matière de sûreté de fonctionnement. Jusqu'alors uniquement intéressé par les résultats, le client requiert aujourd'hui, dès les négociations couplées à l'appel d'offre (AO), une information précise sur la démarche même que le fournisseur prévoit de mettre en place pour satisfaire aux exigences SdF. Conscients de ces nouveaux besoins, nous nous sommes intéressés à la problématique d'identification de la "dimension SdF" du produit au stade de l'AO et à l'évaluation de l'impact économique de son intégration sur le développement futur du produit. Les conséquences de la prise en compte de la SdF sont doubles puisqu'elles concernent à la fois le produit qui voit sa robustesse optimisée mais aussi la démarche d'analyse permettant de dimensionner les solutions appropriées. Dans l'objectif de répondre à la problématique, nous avons proposé une organisation du processus de réponse à appel d'offre en différentes étapes instrumentées allant de l'identification des éléments relatifs à la SdF dans les documents clients fournis pour l'AO à la définition et à l'évaluation de l'impact SdF.Products Dependability, process and services is a major and permanent topic for industrial actors and especially in automotive industry, where products suppliers are faced to customers more and more aware about dependability. Until now, Customers was only interested about results, they request today, in bid process timeframe, informations about processes put in place in order to reach dependability objectives. Taking these new requirements into accounts, we have focused our work on dependability identification during bid process and the evaluation its cost impact on development. Taking dependability into account allow to increase product robustness but also to make better design choice in term of dependability. Thus, in order to reach this objective, we propose a step by step process for bid phases from dependability topics identification to cost impact.TOULOUSE-INP (315552154) / SudocSudocFranceF

    Méthodologie d'identification et d'évaluation de la sûreté de fonctionnement en phase de réponse à appel d'offre

    Get PDF
    La sûreté de fonctionnement (SdF) des produits, processus et services est une préoccupation permanente de tous les acteurs industriels. C'est le cas notamment dans le secteur automobile à l'exemple des équipementiers confrontés à des clients de plus en plus exigeants en matière de sûreté de fonctionnement. Jusqu'alors uniquement intéressé par les résultats, le client requiert aujourd'hui, dès les négociations couplées à l'appel d'offre (AO), une information précise sur la démarche même que le fournisseur prévoit de mettre en place pour satisfaire aux exigences SdF. Conscients de ces nouveaux besoins, nous nous sommes intéressés à la problématique d'identification de la "dimension SdF" du produit au stade de l'AO et à l'évaluation de l'impact économique de son intégration sur le développement futur du produit. Les conséquences de la prise en compte de la SdF sont doubles puisqu'elles concernent à la fois le produit qui voit sa robustesse optimisée mais aussi la démarche d'analyse permettant de dimensionner les solutions appropriées. Dans l'objectif de répondre à la problématique, nous avons proposé une organisation du processus de réponse à appel d'offre en différentes étapes instrumentées allant de l'identification des éléments relatifs à la SdF dans les documents clients fournis pour l'AO à la définition et à l'évaluation de l'impact SdF. ABSTRACT : Products Dependability, process and services is a major and permanent topic for industrial actors and especially in automotive industry, where products suppliers are faced to customers more and more aware about dependability. Until now, Customers was only interested about results, they request today, in bid process timeframe, informations about processes put in place in order to reach dependability objectives. Taking these new requirements into accounts, we have focused our work on dependability identification during bid process and the evaluation its cost impact on development. Taking dependability into account allow to increase product robustness but also to make better design choice in term of dependability. Thus, in order to reach this objective, we propose a step by step process for bid phases from dependability topics identification to cost impact

    Modélisation à haut niveau d'abstraction pour les systèmes embarqués

    No full text
    Modern embedded systems have reached a level of complexity such that it is no longer possible to wait for the first physical prototypes to validate choices on the integration of hardware and software components. It is necessary to use models, early in the design flow. The work presented in this document contribute to the state of the art in several domains. First, we present some verification techniques based on abstract interpretation and SMT-solving for programs written in general-purpose languages like C, C++ or Java. Then, we use verification tools on models written in SystemC at the transaction level (TLM). Several approaches are presented, most of them using compilation techniques specific to SystemC to turn the models into a format usable by existing tools. The second part of the document deal with non-functional properties of models: timing performances, power consumption and temperature. In the context of TLM, we show how functional models can be enriched with non-functional information. Finally, we present contributions to the modular performance analysis (MPA) with real-time calculus (RTC) framework. We describe several ways to connect RTC to more expressive formalisms like timed automata and the synchronous language Lustre. These connections raise the problem of causality, which is defined formally and solved with the new causality closure algorithm.Les systèmes embarqués modernes ont atteint un niveau de complexité qui fait qu'il n'est plus possible d'attendre les premiers prototypes physiques pour valider les décisions sur l'intégration des composants matériels et logiciels. Il est donc nécessaire d'utiliser des modèles, tôt dans le flot de conception. Les travaux présentés dans ce document contribuent à l'état de l'art dans plusieurs domaines. Nous présentons dans un premier temps de nouvelles techniques de vérification de programmes écrits dans des langages généralistes comme C, C++ ou Java. Dans un second temps, nous utilisons des outils de vérification formelle sur des modèles écrits en SystemC au niveau transaction (TLM). Plusieurs approches sont présentées, la plupart d'entre elles utilisent des techniques de compilations spécifiques à SystemC pour transformer le programme SystemC en un format utilisable par les outils. La seconde partie du document s'intéresse aux propriétés non-fonctionnelles des modèles~: performances temporelles, consommation électrique et température. Dans le contexte de la modélisation TLM, nous proposons plusieurs techniques pour enrichir des modèles fonctionnels avec des informations non-fonctionnelles. Enfin, nous présentons les contributions faites à l'analyse de performance modulaire (MPA) avec le calcul temps-réel (RTC). Nous proposons plusieurs connections entre ces modèles analytiques et des formalismes plus expressifs comme les automates temporisés et le langage de programmation Lustre. Ces connexion posent le problème théorique de la causalité, qui est formellement défini et résolu avec un algorithme nouveau dit de " fermeture causale "

    From formal specification to hardware/software partitionning

    Get PDF
    Research on CAD for electronic systems and the CAD industry have seen significant developments, whit technological advances . This paper adresses hardware/software codesign from formal specification to hardware/software partitionning and introduces the reader to various aspects of codesign to help the reader develop a perpective on modern digital system design .La recherche en CAO de systèmes électroniques ainsi que l'industrie de la CAO ont eu beaucoup de succès et se sont développées, conjointement avec les progrès technologiques. Aujourd'hui, la complexité des systèmes à concevoir est devenue telle que les problèmes deviennent impossibles à gérer humainement aux niveaux bas. C'est pourquoi l'industrie et le monde académique se sont attachés à développer des outils aux niveaux les plus élevés de la conception. Ainsi, la synthèse de haut niveau devient une étape obligatoire dans la méthodologie de conception des systèmes électroniques et la co-spécification de systèmes matériel/logiciels devient un domaine de recherche ouvert

    Rapport annuel 1998-1999

    Get PDF

    Multiagent system for data fusion in image processing

    Get PDF
    The data fusion of results in image processing poses many problems of modelling and representation of knowledge, among whic h one can mention : o the difficulty to define, exhaustively, the conditions of utilization of processings in function of the context , the difficulty to evaluate the results of processings , . the difficulty to elaborate strategies making cooperate several processings or merging results . The system ADAGAR (Atelier of Development of AGents on Distributed Architecture) proposes solutions to these problems . ADAGAR results from elaborated concepts in the project BBI (BlackBoard Image) . The aim of the project BBI was to conceive on a multi–processors architecture, a perceptive system of interpretation of images issued from different sources . The idea was not to elaborate new operators of image processing , but to develop a reception structure of existent processing . One of the particularities of the system lies in the expression of a priori valuation knowledge (scores of aptitude) . The formalizatio n of these knowledge is inspired of the theory of Dempster–Shafer. The formalism allows to represent the ignorance on condition s of activation of a processing in a particular context . The prototype BBI contains currently a thirty of agents . It functions on couples of aerial or satellitaire images in the visible and th e infrared spectra or in the visible and the radar spectra . BBI elaborates dynamically one or several strategies of research, from th e specificities of the processed images and objects to detect . The cooperations between processings at the low level, the information fusion and the focus of attention at the symbolic level are the main reasons of the good functioning of the prototype .La fusion des résultats en analyse d'images pose de nombreux problèmes de modélisation et de représentation des connaissances parmi lesquels, on peut mentionner: . la difficulté de définir exhaustivement les conditions d'utilisation des traitements en fonction du contexte, . la difficulté d'évaluer les résultats des traitements, . la difficulté d'élaborer des stratégies faisant coopérer plusieurs traitements ou fusionnant des résultats. Le système ADAGAR (Atelier de Développement d'AGents sur Architecture Répartie) propose des solutions à ces problèmes. ADAGAR résulte de concepts élaborés dans le projet BBI (BlackBoard Image). L'objectif du projet BBI était de concevoir sur une architecture multi-processeurs, un système perceptif d'interprétation d'images issues de sources différentes. L'idée n'était pas d'élaborer de nouveaux opérateurs de traitements d'images, mais de développer une structure d'accueil des traitements existants. Une des particularités du système réside dans l'expression de connaissances d'estimation a priori (scores d'aptitude). La formalisation de ces connaissances est inspirée de la théorie de Dempster-Shafer. Le formalisme employé permet de représenter l'ignorance sur les conditions d'activation d'un traitement dans un contexte particulier. Le prototype BBI contient actuellement une trentaine d'agents. Il fonctionne sur des couples d'images aériennes ou satellitaires dans les spectres visible/infrarouge et visible/radar. BBI élabore dynamiquement une ou plusieurs stratégies de recherche, à partir des spécificités des images traitées et des objets à détecter. Les coopérations entre les traitements au bas niveau, les fusions d'informations et les focalisations d'attention au niveau symbolique sont les principales raisons du bon fonctionnement du prototype. Intelligence artificielle distribuée, Système multi-agents, Système réparti, Interprétation d'images

    Méthode de modélisation et de raffinement pour les systèmes hétérogènes. Illustration avec le langage System C-AMS

    Get PDF
    Les systèmes sur puces intègrent aujourd hui sur le même substrat des parties analogiques et des unités de traitement numérique. Tandis que la complexité de ces systèmes s accroissait, leur temps de mise sur le marché se réduisait. Une conception descendante globale et coordonnée du système est devenue indispensable de façon à tenir compte des interactions entre les parties analogiques et les partis numériques dès le début du développement. Dans le but de répondre à ce besoin, cette thèse expose un processus de raffinement progressif et méthodique des parties analogiques, comparable à ce qui existe pour le raffinement des parties numériques. L'attention a été plus particulièrement portée sur la définition des niveaux analogiques les plus abstraits et à la mise en correspondance des niveaux d abstraction entre parties analogiques et numériques. La cohérence du raffinement analogique exige de détecter le niveau d abstraction à partir duquel l utilisation d un modèle trop idéalisé conduit à des comportements irréalistes et par conséquent d identifier l étape du raffinement à partir de laquelle les limitations et les non linéarités aux conséquences les plus fortes sur le comportement doivent être introduites. Cette étape peut être d un niveau d'abstraction élevé. Le choix du style de modélisation le mieux adapté à chaque niveau d'abstraction est crucial pour atteindre le meilleur compromis entre vitesse de simulation et précision. Les styles de modélisations possibles à chaque niveau ont été examinés de façon à évaluer leur impact sur la simulation. Les différents modèles de calcul de SystemC-AMS ont été catégorisés dans cet objectif. Les temps de simulation obtenus avec SystemC-AMS ont été comparés avec Matlab Simulink. L'interface entre les modèles issus de l'exploration d'architecture, encore assez abstraits, et les modèles plus fin requis pour l'implémentation, est une question qui reste entière. Une bibliothèque de composants électroniques complexes décrits en SystemC-AMS avec le modèle de calcul le plus précis (modélisation ELN) pourrait être une voie pour réussir une telle interface. Afin d illustrer ce que pourrait être un élément d une telle bibliothèque et ainsi démontrer la faisabilité du concept, un modèle d'amplificateur opérationnel a été élaboré de façon à être suffisamment détaillé pour prendre en compte la saturation de la tension de sortie et la vitesse de balayage finie, tout en gardant un niveau d'abstraction suffisamment élevé pour rester indépendant de toute hypothèse sur la structure interne de l'amplificateur ou la technologie à employer.Systems on Chip (SoC) embed in the same chip analogue parts and digital processing units. While their complexity is ever increasing, their time to market is becoming shorter. A global and coordinated top-down design approach of the whole system is becoming crucial in order to take into account the interactions between the analogue and digital parts since the beginning of the development. This thesis presents a systematic and gradual refinement process for the analogue parts comparable to what exists for the digital parts. A special attention has been paid to the definition of the highest abstracted analogue levels and to the correspondence between the analogue and the digital abstraction levels. The analogue refinement consistency requires to detect the abstraction level where a too idealised model leads to unrealistic behaviours. Then the refinement step consist in introducing for instance the limitations and non-linearities that have a strong impact on the behaviour. Such a step can be done at a relatively high level of abstraction. Correctly choosing a modelling style, that suits well an abstraction level, is crucial to obtain the best trade-off between the simulation speed and the accuracy. The modelling styles at each abstraction level have been examined to understand their impact on the simulation. The SystemC-AMS models of computation have been classified for this purpose. The SystemC-AMS simulation times have been compared to that obtained with Matlab Simulink. The interface between models arisen from the architectural exploration still rather abstracted and the more detailed models that are required for the implementation, is still an open question. A library of complex electronic components described with the most accurate model of computation of SystemC-AMS (ELN modelling) could be a way to achieve such an interface. In order to show what should be an element of such a library, and thus prove the concept, a model of an operational amplifier has been elaborated. It is enough detailed to take into account the output voltage saturation and the finite slew rate of the amplifier. Nevertheless, it remains sufficiently abstracted to stay independent from any architectural or technological assumption.SAVOIE-SCD - Bib.électronique (730659901) / SudocGRENOBLE1/INP-Bib.électronique (384210012) / SudocGRENOBLE2/3-Bib.électronique (384219901) / SudocSudocFranceF

    Conception au niveau système de l'application de protocole sans fil WIMAX

    Get PDF
    RÉSUMÉ Communiquer est le principe même de l'homme. Au l des siècles les modes de communication ont beacoup évolué passant d'un simple échange vocal entre deux personnes à un échange via des appareils (téléphones, ordinateurs,..) d'où la naissance des systèmes de télécommunication. La technologie sous-jacente tient à l'implantation de réseaux de communication qui sont les noyaux de la communication. C'est ainsi que de nos jours on a des réseaux internet, de téléphonie, de télévision, etc. Avec l'évolution des civilisations et l'expansion démographique, on cherche désormais à minimiser la surface occupée par ces réseaux tout en maintenant la même qualité de service. On assiste ainsi à l'émergeance de nouveaux réseaux de communication sans aucune interconnexion laire. Le Wimax est l'une de ces technologies émergeantes. Grâce à ses techniques de modulation telles que l'OFDM, elle permet une meilleure qualité de service que les réseaux existants. Elle est ainsi utilisée pour de nombreuses applications telles que la communication par vidéo conférence (VoIP), un accès étendu à internet, aux hotspot wi et aux réseaux cellulaires . Le problème qui se pose est de savoir comment implanter de nouveaux réseaux de façon rapide et ecace tout en respectant les contraintes de coûts et de temps de conception liées au marché.----------ABSTRACT Now a days, Wireless systems are everywhere. They had a tremendous growth in recent years. From personnal area networks like bluethooth to local networks like Wi, most of the communications systems contains wireless systems which have dierents networks and users. A major problem of these systems is the interoperability and deployment of wireless networks. This is why a lot of research are made to nd solutions and Wimax is one of them. Wimax (wireless interoperability for microwave access) is a metropolitan area network which use dierent transmission mode for pmp or mesh links to portable access due to OFDM modulation. With the improvement of Wireless technology and because of the tight costs and time-to-market constraints, the main challenge is to get fast and ecient design method. To meet these requirements, a method of conception, ESL is mainly used. In this report, a design process of the physical layer of the IEEE 802.16 standard with the OFDM modulation using an ESL Eclipse-based platform of software/hardware platform is presented. This ESL environment, with his integrated tools, build embedded applications and architectures by rening the transaction-level communications to some pin and cycle-accurate protocols as well as the generation of synthesizable hardware from the system-level specications. Those tools automate creation and modication of modules in an ESL design ow and make abstraction of all the implementation details to built an ESL architecture. The main contribution of this work is the multilevel design on baseband of the PHY-OFDM layer of the IEEE 802.16 standard using an ESL (electronic system Level) environnement of software/hardware partitionning and the use of a multisystem cosimulation technique between the ESL model built with the SpaceStudio platform and a model built on Simulink for validation through cosimulation interfaces of heterogeous systems

    Contribution à la modélisation explicite des plates-formes d'exécution pour l'IDM

    Get PDF
    23 pagesNational audienceOne foundation of the model driven engineering (MDE) is to separate the modelling application description from its technological implementation (i.e. platform). Some of them are dedicated to the system execution. Hence, one promise solution of the MDE is to automate transformations from platform independent models to platform specific models. Little work has explicitly described platform characteristics. Yet, an explicit modelling allows taking in account their characteristics more easily (par ex., performances, maintainability,portability). This paper presents both an execution platform modelling state of art and a pattern to describe execution platform modelling framework. It intends to confirm the feasibility and the interests in describing an execution platform metamodel
    corecore