572 research outputs found

    Introducing knowledge concepts in software process modeling

    Get PDF
    ABSTRACT: Software process is knowledge intensive. Nevertheless, knowledge concepts are rarely taken into account in software process modeling. This paper presents a new software process modeling approach, which takes into account the various conceptual knowledge required to perform a task. The approach is based on the Software & Systems Process Engineering Metamodel (SPEM 2.0). It essentially adds knowledge attributes to existing relationships between roles, tasks and artifacts. Comparison between attributes for a given task provides information on the knowledge-gap between the SPEM elements involved. This information could be used in knowledge oriented project management to evaluate the risk associated to the knowledge gaps. A software tool has been implemented to facilitate the recording of various knowledge concepts while modeling the software process. Example of this approach is presented

    Théorie et méthode de Tests des états logiques (TEL), preuve par les tests de logiciels ayant un comportement vectoriel

    Get PDF
    Programme, logiciel et cycle de vie -- Vérification, validation et tests -- Vérification des différentes phases du cycle de vie -- Transformation de l'énoncé du projet -- Erreurs -- Méthodes de vérification -- Tests -- Théorie des tests -- Tests en pratique -- Trois caractéristiques des programmes -- Théorie et méthode de "tests des états logiques " ou TEL

    Modélisation et simulation de processus de biologie moléculaire basée sur les réseaux de Pétri : une revue de littérature

    Get PDF
    Les rĂ©seaux de PĂ©tri sont une technique de simulation Ă  Ă©vĂ©nements discrets dĂ©veloppĂ©e pour la reprĂ©sentation de systĂšmes et plus particuliĂšrement de leurs propriĂ©tĂ©s de concurrence et de synchronisation. DiffĂ©rentes extensions Ă  la thĂ©orie initiale de cette mĂ©thode ont Ă©tĂ© utilisĂ©es pour la modĂ©lisation de processus de biologie molĂ©culaire et de rĂ©seaux mĂ©taboliques. Il s’agit des extensions stochastiques, colorĂ©es, hybrides et fonctionnelles. Ce document fait une premiĂšre revue des diffĂ©rentes approches qui ont Ă©tĂ© employĂ©es et des systĂšmes biologiques qui ont Ă©tĂ© modĂ©lisĂ©s grĂące Ă  celles-ci. De plus, le contexte d’application et les objectif s de modĂ©lisation de chacune sont discutĂ©s

    Mesure et analyse des activités collaboratives AD HOC retrouvées au cours d'un processus de génie logiciel

    Get PDF
    Les processus de gĂ©nie logiciel sont de nos jours de plus en plus objets de prĂ©occupations dans plusieurs organisations qui dĂ©veloppent du logiciel. Le but du processus Ă©tant d’accroĂźtre la prĂ©dictibilitĂ© des Ă©chĂ©anciers, des coĂ»ts ainsi que de la qualitĂ© du logiciel dĂ©veloppĂ©, les entreprises investissent dĂ©sormais une plus grande quantitĂ© d’argent et d’effort afin d’amĂ©liorer continuellement leur processus de dĂ©veloppement de logiciels. Par ailleurs, beaucoup de chercheurs s’entendent pour dire que la rĂ©ussite de projets informatiques ne dĂ©pend pas seulement de facteurs techniques, mais que certains aspects humains auraient un impact tout aussi significatif, sinon plus. Parmi ces derniers, le travail collaboratif au sein d’une Ă©quipe de dĂ©veloppement de logiciels a Ă©tĂ© identifiĂ© par plusieurs comme ayant un impact majeur sur les chances de succĂšs d’un projet logiciel permettant Ă  une Ă©quipe de partager toute l’information nĂ©cessaire en vu de la cristalliser en un logiciel de qualitĂ© qui correspondra aux attentes de l’usager tout en respectant les contraintes de temps et d’argent. De plus, mĂȘme si une organisation possĂšde un processus de gĂ©nie logiciel formel et bien dĂ©finit, des recherches empiriques ont dĂ©montrĂ© l’importance indĂ©niable que revĂȘtent les activitĂ©s collaboratives ad hoc au cours du dĂ©veloppement d’un logiciel, importance qui se fait Ă©galement gravement ressentir dans un contexte de dĂ©veloppement distribuĂ©. Toutefois, ces derniĂšres recherches ont omis de dĂ©crire la teneur de ces activitĂ©s collaboratives informelles et spontanĂ©es laissant de ce fait un vaste champ de recherche en gĂ©nie logiciel toujours inexplorĂ©. Ce document prĂ©sente une recherche empirique, entreprise pour l’obtention d’une maĂźtrise en gĂ©nie informatique, qui a prĂ©sentement cours dans le cadre d’une Ă©tude de cas en profondeur dans l’industrie et qui explore l’aspect du travail collaboratif en gĂ©nie logiciel, plus spĂ©cifiquement les activitĂ©s collaboratives ad hoc retrouvĂ©es lors d’un processus de dĂ©veloppement de logiciels. Cette recherche visera donc dans un premier temps Ă  modĂ©liser et caractĂ©riser les activi tĂ©s collaboratives ad hoc retrouvĂ©es au cours d’un processus de gĂ©nie logiciel pour en connaĂźtre l’importance, le contenu, de mĂȘme qu’en distinguer les activitĂ©s cognitives sous-jacentes impliquĂ©es. Cela constituera dans un deuxiĂšme temps de prĂ©ambule afin de proposer des amĂ©liorations au processus observĂ© dans le cadre de cette Ă©tude. Pour ce faire, la stratĂ©gie de recherche proposĂ©e dans ce document s’appuie sur une collecte de donnĂ©es provenant de diverses sources d’information disponibles rendant ainsi possible une triangulation de celles-ci pour en augmenter la validitĂ©. Finalement, une seconde phase Ă  cette recherche pourrait ĂȘtre menĂ©e afin de confirmer les hypothĂšses issues des thĂ©ories induites des donnĂ©es empiriques recueillies ou encore, afin d’implanter au sein d’une Ă©quipe pilote de nouvelles pratiques au processus observĂ© et visant Ă  y accroĂźtre l’efficacitĂ© sur le plan du travail collaboratif. Une seconde mesure pourrait enfin avoir lieu afin de ressentir l’impact des nouvelles pratiques et si les rĂ©sultats s’avĂšrent fructueux, elles pourraient par la suite ĂȘtre appliquĂ©es Ă  plus grande Ă©chelle. Plus de dĂ©tails sur nos motivations seront trouvĂ©s dans ce document suivis d’une discussion sur la mĂ©thodologie de recherche employĂ©e, incluant nos mĂ©thodes de collecte de donnĂ©es et plaçant Ă©galement une certaine emphase sur les techniques d’analyse utilisĂ©es pour dĂ©chiffrer l’importante quantitĂ© de donnĂ©es amassĂ©es. Finalement, quelques rĂ©sultats d’une analyse prĂ©liminaire seront rĂ©vĂ©lĂ©s, rĂ©sultats qui confirment tant la pertinence des donnĂ©es que l’importance du phĂ©nomĂšne observĂ©

    A knowledge-based perspective for software process modeling

    Get PDF
    As the acquisition and sharing of knowledge form the backbone of the software development process, it is important to identify knowledge discrepancies between the process elements. Explicit representation of the knowledge components within a software process model can provide a means to expose these discrepancies. This paper presents an extension of the Software and System Process Engineering Metamodel (SPEM), to be used as a new knowledge modeling layer. The approach, which is based on ontologies for knowledge representation, constitutes an explicit method for representing knowledge within process models. A concept matching indicator shows the state of the process model in terms of the concept gaps for each task within the process. This indicator could lead to more informed decision making and better management of the associated risks, in terms of team competency, documentation quality, and the training required to mitigate them

    Attainability of Accurate Age Frequencies for Ocean Quahogs (Arctica islandica) Using Large Datasets: Protocol, Reader Precision, and Error Assessment

    Get PDF
    Ocean quahogs (Arctica islandica) are the longest lived bivalve on Earth. Individuals on the deep continental shelf off Georges Bank can survive for centuries, and in the colder, boreal waters of Iceland, ages over 500 y can be reached. Ocean quahog landings in the United States represent a $24 million industry, yet assessment models operate with no age data because of the substantial sample size required to develop adequate population age distributions for such a long-lived species, the unknown error associated with age estimates, and the extensive time and financial investment required to create production-scale age datasets. Inclusion of age data for this species requires precision metrics to evaluate aging uncertainty such as percent agreement, percent error, coefficient of variation, and tests of bias. To move forward using error-validated age-composition data, a 3-fold error protocol was developed using a large dual-reader dataset (n = 610) from Georges Bank. First, a proxy age-validation study was performed to corroborate an aging method, followed by error evaluation in the context of age-reader bias, precision, and error frequency. Error thresholds were established for each of the three error methods. Georges Bank samples ranged from 33 to 261 y of age and met the predetermined error thresholds for bias (conditionally because of significant and nonsignificant results), precision (average coefficient of variation less than 7%), and error frequency (less than 10%). Consequently, age estimates were deemed acceptable to support age frequency analyses. Precision and bias error were greatest for the youngest animals and, in the context of age-reader bias, error rates were higher for young male ocean quahogs than for young females. Improved age validation of young, sex-differentiated A. islandica will constrain aging error and guide refinement of both aging and age-error protocols
    • 

    corecore