572 research outputs found
Introducing knowledge concepts in software process modeling
ABSTRACT: Software process is knowledge intensive. Nevertheless, knowledge concepts are rarely taken into account in software process modeling. This paper presents a new software process modeling approach, which takes into account the various conceptual knowledge required to perform a task. The approach is based on the Software & Systems Process Engineering Metamodel (SPEM 2.0). It essentially adds knowledge attributes to existing relationships between roles, tasks and artifacts. Comparison between attributes for a given task provides information on the knowledge-gap between the SPEM elements involved. This information could be used in knowledge oriented project management to evaluate the risk associated to the knowledge gaps. A software tool has been implemented to facilitate the recording of various knowledge concepts while modeling the software process. Example of this approach is presented
Théorie et méthode de Tests des états logiques (TEL), preuve par les tests de logiciels ayant un comportement vectoriel
Programme, logiciel et cycle de vie -- Vérification, validation et tests -- Vérification des différentes phases du cycle de vie -- Transformation de l'énoncé du projet -- Erreurs -- Méthodes de vérification -- Tests -- Théorie des tests -- Tests en pratique -- Trois caractéristiques des programmes -- Théorie et méthode de "tests des états logiques " ou TEL
Modélisation et simulation de processus de biologie moléculaire basée sur les réseaux de Pétri : une revue de littérature
Les réseaux de Pétri sont une technique
de simulation à événements discrets
développée pour la représentation de systÚmes et plus particuliÚrement de
leurs propriétés de concurrence et de synchronisation.
DiffĂ©rentes extensions Ă
la théorie initiale de cette méthode ont
été utilisées pour la modélisation de
processus de biologie moléculaire et de
rĂ©seaux mĂ©taboliques. Il sâagit des
extensions stochastiques, colorées, hybrides et fonctionnelles. Ce document
fait une premiÚre revue des différentes
approches qui ont été employées et des
systÚmes biologiques qui ont été modélisés grùce à celles-ci. De plus, le
contexte dâapplication et les objectif
s de modélisation de chacune sont
discutés
Mesure et analyse des activités collaboratives AD HOC retrouvées au cours d'un processus de génie logiciel
Les processus de génie logiciel
sont de nos jours de plus en plus objets de préoccupations
dans plusieurs organisations qui développent du logiciel. Le but du processus étant
dâaccroĂźtre la prĂ©dictibilitĂ© des Ă©chĂ©anciers, des coĂ»ts ainsi que de la qualitĂ© du logiciel
dĂ©veloppĂ©, les entreprises investissent dĂ©sormais une plus grande quantitĂ© dâargent et
dâeffort afin dâamĂ©liorer continuellement leur processus de dĂ©veloppement de logiciels.
Par ailleurs, beaucoup de chercheurs sâentendent pour dire que la rĂ©ussite de projets
informatiques ne dépend pas seulement de facteurs techniques, mais que certains aspects
humains auraient un impact tout aussi significatif, sinon plus. Parmi ces derniers, le travail
collaboratif au sein dâune Ă©quipe de dĂ©veloppement de logiciels a Ă©tĂ© identifiĂ© par plusieurs
comme ayant un impact majeur sur les chances de succĂšs dâun projet logiciel permettant Ă
une Ă©quipe de partager toute lâinformation nĂ©cessaire en vu de la
cristalliser
en un logiciel
de qualitĂ© qui correspondra aux attentes de lâusager tout en respectant les contraintes de
temps et dâargent. De plus, mĂȘme si une organisation possĂšde un processus de gĂ©nie
logiciel formel et bien dĂ©finit, des recherches empiriques ont dĂ©montrĂ© lâimportance
indĂ©niable que revĂȘtent les activitĂ©s collaboratives ad hoc au cours du dĂ©veloppement dâun
logiciel, importance qui se fait Ă©galement gravement ressentir dans un contexte de
développement distribué. Toutefois, ces derniÚres recherches ont omis de décrire la teneur
de ces activités collaboratives informelles et spontanées laissant de ce fait un vaste champ
de recherche en génie logiciel toujours inexploré.
Ce document prĂ©sente une recherche empirique, entreprise pour lâobtention dâune
maĂźtrise en
génie informatique,
qui
a prĂ©sentement cours dans le cadre dâune Ă©tude de cas
en profondeur dans lâindustrie et qui explore lâaspect du travail collaboratif en gĂ©nie logiciel,
plus spĂ©cifiquement les activitĂ©s collaboratives ad hoc retrouvĂ©es lors dâun processus de
développement de logiciels.
Cette recherche visera donc dans un premier temps à modéliser et caractériser les
activi
tés collaboratives ad hoc retrouvées au
cours dâun processus de gĂ©nie logiciel pour en
connaĂźtre lâimportance, le contenu, de mĂȘme quâen distinguer les activitĂ©s cognitives sous-jacentes impliquĂ©es. Cela constituera dans un deuxiĂšme temps de prĂ©ambule afin de
proposer des améliorations au processus observé dans le cadre de cette étude.
Pour ce faire, la stratĂ©gie de recherche proposĂ©e dans ce document sâappuie sur une
collecte de données provenant
de diverses sources dâinformation disponibles rendant ainsi
possible une triangulation de celles-ci pour en augmenter la validité. Finalement, une
seconde phase Ă cette recherche pourrait ĂȘtre menĂ©e afin de confirmer les hypothĂšses issues des thĂ©ories induites des donnĂ©es empiriques recueillies ou encore, afin dâimplanter
au sein dâune Ă©quipe pilote de nouvelles pratiques au processus observĂ© et visant Ă y
accroĂźtre lâefficacitĂ© sur le plan du travail collaboratif. Une seconde mesure pourrait enfin
avoir lieu afin de ressentir lâimpact des nouvelles pratiques et si
les rĂ©sultats sâavĂšrent
fructueux, elles pourraient par la suite
ĂȘtre appliquĂ©es Ă plus grande Ă©chelle.
Plus de détails sur nos motivations seront
trouvés dans ce document
suivis dâune
discussion sur la méthodologie de recherche employée, incluant nos méthodes de collecte
de donnĂ©es et plaçant Ă©galement une certaine emphase sur les techniques dâanalyse
utilisĂ©es pour dĂ©chiffrer lâimportante quantitĂ© de donnĂ©es amassĂ©es. Finalement, quelques
rĂ©sultats dâune analyse prĂ©liminaire seront
révélés, résultats qui
confirment tant la
pertinence des donnĂ©es que lâimportance du phĂ©nomĂšne observĂ©
A knowledge-based perspective for software process modeling
As the acquisition and sharing of knowledge form the backbone of the software development process, it is important to identify knowledge discrepancies between the process elements. Explicit representation of the knowledge components within a software process model can provide a means to expose these discrepancies. This paper presents an extension of the Software and System Process Engineering Metamodel (SPEM), to be used as a new knowledge modeling layer. The approach, which is based on ontologies for knowledge representation, constitutes an explicit method for representing knowledge within process models. A concept matching indicator shows the state of the process model in terms of the concept gaps for each task within the process. This indicator could lead to more informed decision making and better management of the associated risks, in terms of team competency, documentation quality, and the training required to mitigate them
Attainability of Accurate Age Frequencies for Ocean Quahogs (Arctica islandica) Using Large Datasets: Protocol, Reader Precision, and Error Assessment
Ocean quahogs (Arctica islandica) are the longest lived bivalve on Earth. Individuals on the deep continental shelf off Georges Bank can survive for centuries, and in the colder, boreal waters of Iceland, ages over 500 y can be reached. Ocean quahog landings in the United States represent a $24 million industry, yet assessment models operate with no age data because of the substantial sample size required to develop adequate population age distributions for such a long-lived species, the unknown error associated with age estimates, and the extensive time and financial investment required to create production-scale age datasets. Inclusion of age data for this species requires precision metrics to evaluate aging uncertainty such as percent agreement, percent error, coefficient of variation, and tests of bias. To move forward using error-validated age-composition data, a 3-fold error protocol was developed using a large dual-reader dataset (n = 610) from Georges Bank. First, a proxy age-validation study was performed to corroborate an aging method, followed by error evaluation in the context of age-reader bias, precision, and error frequency. Error thresholds were established for each of the three error methods. Georges Bank samples ranged from 33 to 261 y of age and met the predetermined error thresholds for bias (conditionally because of significant and nonsignificant results), precision (average coefficient of variation less than 7%), and error frequency (less than 10%). Consequently, age estimates were deemed acceptable to support age frequency analyses. Precision and bias error were greatest for the youngest animals and, in the context of age-reader bias, error rates were higher for young male ocean quahogs than for young females. Improved age validation of young, sex-differentiated A. islandica will constrain aging error and guide refinement of both aging and age-error protocols
- âŠ