1,633 research outputs found

    Using the COSMIC functional size measurement method (ISO 19761) as a software requirements improvement mechanism

    Get PDF
    This research project investigates the contribution of the COSMIC software functional size measurement method (ISO 19761) to identify defects in functional requirements. The functional size measurer has to understand and interpret the functional requirements used in c input to the measurement process. Industry requirements are typically written in natural language and are prone to ambiguities: therefore, interpretation errors do happen. Errors in functional requirements affect the cost of subsequent steps of the software life cycle through rework when these errors are detected and corrected. Organizations then apply review and inspection techniques to detect errors in requirements. However, these techniques do not detect all defects in a single cycle of review or inspection, leaving a number of residual defects in the requirements document. Notwithstanding the application of such techniques, a measurer using the COSMIC method can identify defects in the functional requirements that do not clearly define the elements required as input to the measurement activity. The objectives of this research project are to quantify the efficiency and effectiveness (in terms of unit cost) when using the COSMIC method as a technique for identifying defects in these functional specifications, comparing the results with an inspection method. The efficiency and unit costs are computed using the number of defects identified and the effort to do so. Results show that, on average, a measurer participating in an inspection finds a number of defects similar to the number of defects found by the addition of an inspector, maintaining the efficiency. The average unit cost increases slightly as the effort is slightly higher, except that for this cost, the project gets the software functional size usable for estimation, benchmarking, and process improvement monitoring. Without the identification of defects, the functional size measurement is considered as a management cost. With the additional benefit of the identification of defects, the functional size measurement creates added value in terms of rework costs savings since the defects identified by a measurer can be corrected earlier in the development cycle. In the experiments with experts and practitioners whose experience was limited, it was also observed that the practitioners newly trained to functional size measurement faced several challenges which impacted the quality of their measurement results. Therefore, this research project also contributed in defining requirements for the training of measurers

    Inactivation de la bactérie Escherichia coli dans l'eau par le jus de citron

    Get PDF
    Chaque année, 500000 personnes décèdent à la suite de diarrhées causées par l’eau de boisson contaminée. Dans de nombreux pays en développement, l’accès à des moyens de traitement de l’eau reste encore problématique. Dans le cas où ces moyens existent, le chlore est le produit le plus utilisé. Néanmoins, son utilisation engendre des sous-produits toxiques potentiellement cancérigènes pour l’être humain. Les produits de désinfection chlorés étant moins accessibles dans certaines régions des pays en voie de développement, des alternatives de désinfection avec une approche locale doivent être développées. L’objectif de ce projet est de déterminer l’efficacité du jus de citron pour désinfecter une eau contenant des bactéries Escherichia coli. Les essais réalisés en laboratoire ont permis de tester différents paramètres dont la concentration en jus de citron, la présence et l’absence de rayonnement UV et la concentration initiale en bactéries. Il en résulte de cette étude une réduction du nombre de bactéries de 2 log en présence de 2 mL de jus de citron par 10 mL d’eau au bout de 2 min. Les résultats montrent également que le rayonnement UV est un facteur influençant l’inactivation de la bactérie. En présence de citron, le nombre de bactérie initiale est réduite de 1 log au bout de 100 minutes sous UV, tandis que la réduction est négligeable, car moins de 0.5 log à l’obscurité. L’étude du mécanisme de la réaction d’inactivation indique que la réaction pourrait être un phénomène complexe d’ordre 2. L’utilisation du jus de citron en complémentarité d’un traitement comme celui aux UV du soleil pourrait s’avérer être une option de désinfection intéressante. Des recherches supplémentaires sont nécessaires pour assurer un contrôle de la qualité pour son application en conditions réelles

    Étude de l'interaction aérodynamique entre deux parcs éoliens

    Get PDF
    Depuis l'arrivée de l'industrialisation au XIX" siècle, l'homme a constamment cherché des nouvelles sources d'énergie pour développer l'économie. Ces dernières années, les problèmes de la pollution et du réchauffement climatique ont mis de l'avant les énergies vertes dont l'énergie éolienne. Bien que le vent soit une ressource disponible et gratuite, les régions de choix pour installer les parcs éoliens demeurent limitées. Les contraintes d'ordre scientifique et réglementaire conduisent à des situations où deux parcs se retrouvent à proximité l'un de l'autre. Cette situation peut causer quelques difficultés selon la distance entre deux parcs. La proximité des parcs pourrait amener à des pertes de performances plus ou moins grandes. Afin de quantifier les pertes potentielles, il suffit de rappeler que la puissance d'une ou de plusieurs éoliennes est proportionnelle au cube de la vitesse du vent en amont. Donc, la performance d'un parc est intimement liée à la vitesse du vent en amont de chacune des turbines faisant partie du parc. Des méthodologies ont été développées pour l'étude aérodynamique d'un parc. La plupart de ces méthodes considèrent la performance de chaque éolienne individuellement pour ensuite déduire celle du parc. Cette approche n'a pas été retenue dans le cadre de ce mémoire. Le présent mémoire tente de développer une nouvelle approche globale considérant le parc comme une seule entité créant une rugosité élevée affectant la couche limite atmosphérique. L'approche utilisée introduit le problème de l'écoulement de l'air au dessus d'une plaque ayant une certaine rugosité. Le mémoire présente une revue de ce type de problèmes. La relation entre le déficit de la vitesse et la rugosité de la plaque qui cause le déficit est examinée. Le traitement de l'écoulement près de la paroi étant un élément important, les différents régimes de l'écoulement près de la paroi seront explicités. Les parcs, sujet de notre étude, baignent dans l'atmosphère et interagissent avec la couche limite atmosphérique. Dans ce contexte, une bonne compréhension de la couche limite atmosphérique s'impose. Le mémoire présente les différents aspects de cette couche dans ses diverses parties. Différentes formules et méthodologies d'esfimation de la hauteur de la couche limite sont revues. Ces formules aident à établir la hauteur de notre domaine de simulation. Également, étant donné que le parc est considéré comme une rugosité, plusieurs modèles ont été repris. Plusieurs facteurs régissent le mouvement des particules d'air entourant les éoliennes étudiées comme la pression et la vitesse. Dans un environnement turbulent, comme le notre, les équations moyennées de continuité et de quantité de mouvement de Reynolds sont utilisées. Le modèle de turbulence k-£ standard est adopté pour sa simplicité et son efficacité. Pour valider la méthodologie utilisée, la première étape consistait à procéder à une simulation dans un domame de 2km de longueur par 800m de hauteur avec une rugosité constante. Cette simulation maintes fois répétée, en imposant à chaque fois une valeur de rugosité différente, a donné les résultats escomptés c'est-à-dire, des profils de vitesse, d'énergie cinétique et de taux de dissipation qui ne varient pas dans la direction de l'écoulement. La deuxième étape consistait à considérer un domaine de longueur 20km en prenant compte du changement de rugosité dans la région du parc. Cette simulation a montré des profils de vitesse en aval du parc qui se rapprochent du profil de l'entrée du domaine au fur et à mesure qu'on s'éloigne du parc. Plusieurs simulations effectuées en variant la position de la frontière de sortie de manière à l'éloigner du parc ont permis de confirmer que les résultats trouvés sont indépendants de l'emplacement de la frontière de sortie. Ces différentes simulafions ont permis d'établir une relation entre la position en aval du parc et le pourcentage de la vitesse non-perturbée récupéré. L'indépendance de la solution obtenue par rapport au maillage a été vérifiée. La sensibilité de la solution par rapport à plusieurs paramètres a été examinée. Enfin, une simulation du même parc, mais placé en mer, a été faite avec une longueur de domaine de 28km. Celle-ci a permis d'établir une comparaison entre le comportement du vent en aval du parc dans les deux cas : sur terre et en mer. On constate que le profil de vitesse du vent non-permrbé est récupéré plus rapidement sur terre qu'en mer

    Évaluation des performances mécaniques de raidisseurs en "T" carbone-époxy préformés à l'aide de la couture "one-sided"

    Get PDF
    Afin de réduire le temps de cycle et la variabilité des pièces en composite, la couture « One-Sided Stitching®» est étudiée comme procédé pour assembler les tissus 2D. Dans le contexte industriel du projet de recherche COMP-501, le procédé de préformage et la transition des préformes en pièce composite par VARI doivent être démontrés sur un élément structurel typique soit un panneau raidi. L’influence de la couture sur les propriétés mécaniques a été étudiée à l’aide d’une approche évolutive typique au « building-block approach ». L’influence de la couture a d’abord été étudiée sur des plaques planes et les résultats ont servi à guider la sélection des paramètres de couture pour l’étude sur des raidisseurs en « T ». Pour la deuxième étape du projet, soit l’étude de la couture sur les raidisseurs en « T », les objectifs étaient de sélectionner un motif de couture préférentiel et d’évaluer l’influence de la couture sur les propriétés mécaniques. La position et l’orientation de la couture ont d’abord été évaluées à l’aide d’essais mécaniques d’arrachement et de flexion trois-points sur cinq motifs initiaux afin de sélectionner un motif préférentiel. Le comportement en flambage et la tolérance à l’endommagement ont ensuite été vérifiés pour un raidisseur assemblé avec ce motif. Le motif préférentiel a également été utilisé pour l’étape finale du projet soit la fabrication du panneau démonstrateur. Les essais d’arrachement ont démontré qu’une couture située près de la nouille réduit considérablement la résistance du joint en créant des distorsions au niveau des textiles qui créent des concentrations de contrainte. Cependant, pour un cas de chargement asymétrique, un des motifs a démontré une légère augmentation de la résistance à l’arrachement. Il est supposé que l’augmentation de la rigidité en flexion des laminés du voile et de la semelle par la couture réduit l’effort sur la région de la nouille. Les essais de flexion trois-points ont démontré qu’une couture près de la nouille augmente la rigidité de l’élément en assurant une meilleure distribution du chargement entre le voile et la semelle. Les résultats des tests ci-haut mentionnés ont permis de sélectionner une couture éloignée de la nouille afin de limiter la création de distorsions et de réduire la résistance du raidisseur. Le comportement d’un raidisseur chargé axialement et sa tolérance à l’endommagement ont également été vérifiés. La couture ne semble pas avoir une influence significative sur le mode de rupture ni les limites de l’élément. La couture, étant très locale, affecte peu le comportement global d’une structure

    La sécurité des applications en technologie de l'information : une approche d'intégration des éléments de sécurité dans le cycle de vie des applications et des systèmes d'information

    Get PDF
    L'industrie des technologies de l’information (TI) et les organisations qui les utilisent ont à leur disposition beaucoup de moyens pour développer, acquérir et maintenir des applications sécuritaires. Toutefois, bien qu’il existe pour ce faire une panoplie de bonnes pratiques, de normes et d’outils, les organisations peinent à atteindre ce but. Seize problématiques permettant d’expliquer cette situation ont été identifiées au cours de cette recherche dont le but est de concevoir, de faire approuver par une organisation internationale de normalisation, et de rendre accessible à ceux qui développent ou qui utilisent des applications, un nouveau modèle de sécurité des applications (modèle SA). L’utilisation de ce modèle permet la mise en place et la démonstration de la sécurité d’une application, assurant ainsi la protection des informations sensibles impliquées par son utilisation. Le modèle SA propose des concepts, des principes, des processus et des composants pour permettre à une organisation de se doter d’un cadre normatif répondant à ses besoins de sécurité, tout en respectant ses capacités. Ce modèle SA permet de prendre en compte les contextes d’affaires, juridiques et technologiques spécifiques aux environnements où les applications sont développées et utilisées. Il permet aussi de gérer les risques de sécurité provenant des personnes, des processus et de la technologie qui pourraient menacer les informations sensibles impliquées par ces applications. Ce modèle SA permet d’identifier et de mettre en place un ensemble de contrôles et de mesures de sécurité afin d’assurer un niveau de confiance de la sécurité d’une application durant son cycle de vie. Finalement, le modèle SA permet à l’organisation qui l’utilise de fournir les preuves mesurables et répétables indiquant l’atteinte et le maintien du niveau de confiance ciblé, en fonction du contexte d’utilisation spécifique de ses applications. Le modèle SA inclut les différents éléments d’une architecture de sécurité des applications pouvant être utilisés par les organisations et l’industrie des TI. Ces éléments sont définis, validés, testés et intégrés dans un cadre normatif qui sera utilisé comme une source autoritaire guidant la mise en oeuvre de la sécurité pour les applications d’une organisation

    Développement d'une infrastructure pour l'accélération sur matériel de la simulation numérique

    Get PDF
    En microélectronique, la vérification des systèmes numériques est une étape de la conception qui prend de plus en plus d’importance en termes de temps et de ressources investis. Cette vérification est déterminante, car elle permet de démontrer le bon fonctionnement du système au niveau comportemental et physique avant sa réalisation. Il est possible de faciliter et de bonifier globalement le processus de vérification en utilisant une approche novatrice de vérification comparative qui utilise le « Hardware In the Loop » (HIL). Cette technique permet de remplacer certains calculs logiciels de la simulation numérique par des calculs qui proviennent d’éléments matériels qui fonctionnent physiquement dans la réalité. L’approche de vérification comparative par HIL que nous proposons utilise une infrastructure conviviale qui permet de simuler les traitements numériques sur une plateforme matérielle proche de la plateforme utilisée après la conception et cela en utilisant des stimuli provenant du logiciel MATLAB. Cette approche permet de détecter de manière précoce les obstacles insurmontables ce qui contribue à une accélération globale du processus de vérification des systèmes numériques. Le développement de cette infrastructure a amené la création d’un projet de développement FPGA supportant le HIL, la création d’un coeur d’encapsulation de la conception à vérifier, le développement d’un logiciel de gestion des données, ainsi que le développement d’un logiciel d’interface graphique pour le contrôle du HIL. L’analyse des résultats du HIL a été conclue à l’aide de trois cas de figure. Les différents cas ont permis de démontrer qu’il est possible de faciliter et d’accélérer globalement le processus de vérification en utilisant une approche de vérification comparative qui utilise le HIL

    Apprentissage profond de formes manuscrites pour la reconnaissance et le repérage efficace de l'écriture dans les documents numérisés

    Get PDF
    Malgré les efforts importants de la communauté d’analyse de documents, définir une representation robuste pour les formes manuscrites demeure un défi de taille. Une telle representation ne peut pas être définie explicitement par un ensemble de règles, et doit plutôt être obtenue avec une extraction intelligente de caractéristiques de haut niveau à partir d’images de documents. Dans cette thèse, les modèles d’apprentissage profond sont investigués pour la representation automatique de formes manuscrites. Les représentations proposées par ces modèles sont utilisées pour définir un système de reconnaissance et de repérage de mots individuels dans les documents. Le choix de traiter les mots individuellement est motivé par le fait que n’importe quel texte peut être segmenté en un ensemble de mots séparés. Dans une première contribution, une représentation non supervisée profonde est proposée pour la tâche de repérage de mots manuscrits. Cette représentation se base sur l’algorithme de regroupement spherical k-means, qui est employé pour construire une hiérarchie de fonctions paramétriques encodant les images de documents. Les avantages de cette représentation sont multiples. Tout d’abord, elle est définie de manière non supervisée, ce qui évite la nécessité d’avoir des données annotées pour l’entraînement. Ensuite, elle se calcule rapidement et est de taille compacte, permettant ainsi de repérer des mots efficacement. Dans une deuxième contribution, un modèle de bout en bout est développé pour la reconnaissance de mots manuscrits. Ce modèle est composé d’un réseau de neurones convolutifs qui prend en entrée l’image d’un mot et produit en sortie une représentation du texte reconnu. Ce texte est représenté sous la forme d’un ensemble de sous-sequences bidirectionnelles de caractères formant une hiérarchie. Cette représentation se distingue des approches existantes dans la littérature et offre plusieurs avantages par rapport à celles-ci. Notamment, elle est binaire et a une taille fixe, ce qui la rend robuste à la taille du texte. Par ailleurs, elle capture la distribution des sous-séquences de caractères dans le corpus d’entraînement, et permet donc au modèle entraîné de transférer cette connaissance à de nouveaux mots contenant les memes sous-séquences. Dans une troisième et dernière contribution, un modèle de bout en bout est proposé pour résoudre simultanément les tâches de repérage et de reconnaissance. Ce modèle intègre conjointement les textes et les images de mots dans un seul espace vectoriel. Une image est projetée dans cet espace via un réseau de neurones convolutifs entraîné à détecter les différentes forms de caractères. De même, un mot est projeté dans cet espace via un réseau de neurones récurrents. Le modèle proposé est entraîné de manière à ce que l’image d’un mot et son texte soient projetés au même point. Dans l’espace vectoriel appris, les tâches de repérage et de reconnaissance peuvent être traitées efficacement comme un problème de recherche des plus proches voisins

    Subjective and objective quality assessment of ancient degraded documents

    Get PDF
    Archiving, restoration and analysis of damaged manuscripts have been largely increased in recent decades. Usually, these documents are physically degraded because of aging and improper handing. They also cannot be processed manually because a massive volume of these documents exist in libraries and archives around the world. Therefore, automatic methodologies are needed to preserve and to process their content. These documents are usually processed through their images. Degraded document image processing is a difficult task mainly because of the existing physical degradations. While it can be very difficult to accurately locate and remove such distortions, analyzing the severity and type(s) of these distortions is feasible. This analysis provides useful information on the type and severity of degradations with a number of applications. The main contributions of this thesis are to propose models for objectively assessing the physical condition of document images and to classify their degradations. In this thesis, three datasets of degraded document images along with the subjective ratings for each image are developed. In addition, three no-reference document image quality assessment (NR-DIQA) metrics are proposed for historical and medieval document images. It should be mentioned that degraded medieval document images are a subset of the historical document images and may contain both graphical and textual content. Finally, we propose a degradation classification model in order to identify common distortion types in old document images. Essentially, existing no reference image quality assessment (NR-IQA) metrics are not designed to assess physical document distortions. In the first contribution, we propose the first dataset of degraded document images along with the human opinion scores for each document image. This dataset is introduced to evaluate the quality of historical document images. We also propose an objective NR-DIQA metric based on the statistics of the mean subtracted contrast normalized (MSCN) coefficients computed from segmented layers of each document image. The segmentation into four layers of foreground and background is done based on an analysis of the log-Gabor filters. This segmentation is based on the assumption that the sensitivity of the human visual system (HVS) is different at the locations of text and non-text. Experimental results show that the proposed metric has comparable or better performance than the state-of-the-art metrics, while it has a moderate complexity. Degradation identification and quality assessment can complement each other to provide information on both type and severity of degradations in document images. Therefore, we introduced, in the second contribution, a multi-distortion historical document image database that can be used for the research on quality assessment of degraded documents as well as degradation classification. The developed dataset contains historical document images which are classified into four categories based on their distortion types, namely, paper translucency, stain, readers’ annotations, and worn holes. An efficient NR-DIQA metric is then proposed based on three sets of spatial and frequency image features extracted from two layers of text and non-text. In addition, these features are used to estimate the probability of the four aforementioned physical distortions for the first time in the literature. Both proposed quality assessment and degradation classification models deliver a very promising performance. Finally, we develop in the third contribution a dataset and a quality assessment metric for degraded medieval document (DMD) images. This type of degraded images contains both textual and pictorial information. The introduced DMD dataset is the first dataset in its category that also provides human ratings. Also, we propose a new no-reference metric in order to evaluate the quality of DMD images in the developed dataset. The proposed metric is based on the extraction of several statistical features from three layers of text, non-text, and graphics. The segmentation is based on color saliency with assumption that pictorial parts are colorful. It also follows HVS that gives different weights to each layer. The experimental results validate the effectiveness of the proposed NR-DIQA strategy for DMD images

    Resource allocation in future green wireless networks : applications and challenges

    Get PDF
    Over the past few years, green radio communication has been an emerging topic since the footprint from the Information and Communication Technologies (ICT) is predicted to increase 7.3% annually and then exceed 14% of the global footprint by 2040. Moreover, the explosive progress of ICT, e.g., the fifth generation (5G) networks, has resulted in expectations of achieving 10-fold longer device battery lifetime, and 1000-fold higher global mobile data traffic over the fourth generation (4G) networks. Therefore, the demands for increasing the data rate and the lifetime while reducing the footprint in the next-generation wireless networks call for more efficient utilization of energy and other resources. To overcome this challenge, the concepts of small-cell, energy harvesting, and wireless information and power transfer networks can be evaluated as promising solutions for re-greening the world. In this dissertation, the technical contributions in terms of saving economical cost, protecting the environment, and guaranteeing human health are provided. More specifically, novel communication scenarios are proposed to minimize energy consumption and hence save economic costs. Further, energy harvesting (EH) techniques are applied to exploit available green resources in order to reduce carbon footprint and then protect the environment. In locations where implemented user devices might not harvest energy directly from natural resources, base stations could harvest-and-store green energy and then use such energy to power the devices wirelessly. However, wireless power transfer (WPT) techniques should be used in a wise manner to avoid electromagnetic pollution and then guarantee human health. To achieve all these aspects simultaneously, this thesis proposes promising schemes to optimally manage and allocate resources in future networks. Given this direction, in the first part, Chapter 2 mainly studies a transmission power minimization scheme for a two-tier heterogeneous network (HetNet) over frequency selective fading channels. In addition, the HetNet backhaul connection is unable to support a sufficient throughput for signaling an information exchange between two tiers. A novel idea is introduced in which the time reversal (TR) beamforming technique is used at a femtocell while zero-forcing-based beamforming is deployed at a macrocell. Thus, a downlink power minimizationscheme is proposed, and optimal closed-form solutions are provided. In the second part, Chapters 3, 4, and 5 concentrate on EH and wireless information and power transfer (WIPT) using RF signals. More specifically, Chapter 3 presents an overview of the recent progress in green radio communications and discusses potential technologies for some emerging topics on the platforms of EH and WPT. Chapter 4 develops a new integrated information and energy receiver architecture based on the direct use of alternating current (AC) for computation. It is shown that the proposed approach enhances not only the computational ability but also the energy efficiency over the conventional one. Furthermore, Chapter 5 proposes a novel resource allocation scheme in simultaneous wireless information and power transfer (SWIPT) networks where three crucial issues: power-efficient improvement, user-fairness guarantee, and non-ideal channel reciprocity effect mitigation, are jointly addressed. Hence, novel methods to derive optimal and suboptimal solutions are provided. In the third part, Chapters 6, 7, and 8 focus on simultaneous lightwave information and power transfer (SLIPT) for indoor applications, as a complementary technology to RF SWIPT. In this research, Chapter 6 investigates a hybrid RF/visible light communication (VLC) ultrasmall cell network where optical transmitters deliver information and power using the visible light, whereas an RF access point works as a complementary power transfer system. Thus, a novel resource allocation scheme exploiting RF and visible light for power transfer is devised. Chapter 7 proposes the use of lightwave power transfer to enable future sustainable Federated Learning (FL)-based wireless networks. FL is a new data privacy protection technique for training shared machine learning models in a distributed approach. However, the involvement of energy-constrained mobile devices in the construction of the shared learning models may significantly reduce their lifetime. The proposed approach can support the FL-based wireless network to overcome the issue of limited energy at mobile devices. Chapter 8 introduces a novel framework for collaborative RF and lightwave power transfer for wireless communication networks. The constraints on the transmission power set by safety regulations result in significant challenges to enhance the power transfer performance. Thus, the study of technologies complementary to conventional RF SWIPT is essential. To cope with this isue, this chapter proposes a novel collaborative RF and lightwave power transfer technology for next-generation wireless networks

    Towards automatic context-aware summarization of code entities

    Get PDF
    Software developers are working with different methods and classes and in order to understand those that perplex them and–or that are part of their tasks, they need to tackle with a huge amount of information. Therefore, providing developers with high-quality summaries of code entities can help them during their maintenance and evolution tasks. To provide useful information about the purpose of code entities, informal documentation (Stack Overflow) has been shown to be an important source of information that can be leveraged. In this study, we investigate bug reports as a type of informal documentation and we apply machine learning to produce summaries of code entities (methods and classes) in bug reports. In the proposed approach, code entities are extracted using a technique in a form of an island parser that we implemented to identify code in bug reports. Additionally, we applied machine learning to select a set of useful sentences that will be part of the code entities’ summaries. We have used logistic regression as our machine learning technique to rank sentences based on their importance. To this aim, a corpus of sentences is built based on the occurrence of code entities in the sentences belonging to bug reports containing the code entities in question. In the last step, summaries have been evaluated using surveys to estimate the quality of produced summaries. The results show that the automatically produced summaries can reduce time and effort to understand the usage of code entities. Specifically, the majority of participants found summaries extremely helpful to decrease the understanding time (43.5%) and the effort to understand the code entities (39.1%). In the future, summaries can be produced by using other informal documentation such as mailing lists or stack overflow, etc. Additionally, the approach can be applied in practical settings. Consequently, it can be used within an IDE such as Eclipse to assist developers during their software maintenance and evolution tasks
    • …
    corecore