14 research outputs found

    Discrete event modelling for evaluation and optimisation of power utility energy demand

    Get PDF
    Purpose: The cost and environmental impact of energy is driving better quantification of energy utilization in a business context. Determining an entire business electrical energy usage, inclusive of core operations and support activities, in a singular evaluation protocol is a challenge. The challenge is exasperated when changes occur in the business, where every change implies significant rework of the business energy calculations. This study develops a holistic energy determination model for the entire business requiring minimum inputs for energy re-calculation, when aspects of the business changes. Design/methodology/approach: The research adopts a quantitative approach enabled through a Discrete Event Model. The model is developed based on the activities performed in every functional area of the business. The activities are captured using business process science. The processes are then developed into a DES Model. The model development cycle includes data collection, model development and configuration, model validation and scenario models for optimization. Findings: A coal fired power generation business, with multiple sites is comprehensively simulated to evaluate the baseline electrical energy demand and associated CO2 emissions. The results are captured at various levels of the business including; Enterprise; site, business function and equipment level. The generation sites operational functions are identified as major electrical energy consumers. The adoption of Industry 4.0 technologies of Internet of Things, Big Data Analytics, mobility and automation demonstrate energy savings of 1% of total site demand. As the Industry 4.0 technologies are applied to a limited number of processes, the results demonstrate the capability of these technologies having a significant impact on electrical energy demand and CO2 emission when applied to a broader spectrum of business processes. Research limitations/implications: The research is limited to a multi-site energy generating company, which is a coal to energy business. Practical implications: The research has significant practical implications, mostly on the mechanisms to evaluate business energy utilisation. The ability to include all areas of the business is a key practical differentiator, as compared to traditional models focusing on operations only. Originality/value: The model is unique in that it is a model that is system agnostic to any production configuration, most especially changes in configuration. This implies that the model can be easily and quickly adapted with changes in the business. This implies the model proposed would be significantly more adaptable when compared to traditional approachesPeer Reviewe

    Discovering Business Process Simulation Models in the Presence of Multitasking

    Get PDF
    Business process simulation is a versatile technique for analyzing business processes from a quantitative perspective. A well-known limitation of process simulation is that the accuracy of the simulation results is limited by the faithfulness of the process model and simulation parameters given as input to the simulator. To tackle this limitation, several authors have proposed to discover simulation models from process execution logs so that the resulting simulation models more closely match reality. Existing techniques in this field assume that each resource in the process performs one task at a time. In reality, however, resources may engage in multitasking behavior. Traditional simulation approaches do not handle multitasking. Instead, they rely on a resource allocation approach wherein a task instance is only assigned to a resource when the resource is free. This inability to handle multitasking leads to an overestimation of execution times. This paper proposes an approach to discover multitasking in business process execution logs and to generate a simulation model that takes into account the discovered multitasking behavior. The key idea is to adjust the processing times of tasks in such a way that executing the multitasked tasks sequentially with the adjusted times is equivalent to executing them concurrently with the original processing times. The proposed approach is evaluated using a real-life dataset and synthetic datasets with different levels of multitasking. The results show that, in the presence of multitasking, the approach improves the accuracy of simulation models discovered from execution logs.Comment: Accepted at The 14th International Conference on Research Challenges in Information Science (RCIS 2020). 17 pages, 4 figure

    Discovering business process simulation models in the presence of multitasking and availability constraints

    Get PDF
    Business process simulation is a versatile technique for quantitative analysis of business processes. A well-known limitation of process simulation is that the accuracy of the simulation results is limited by the faithfulness of the process model and simulation parameters given as input to the simulator. To tackle this limitation, various authors have proposed to discover simulation models from process execution logs, so that the resulting simulation models more closely match reality. However, existing techniques in this field make certain assumptions about resource behavior that do not typically hold in practice, including: (i) that each resource performs one task at a time; and (ii) that resources are continuously available (24/7). In reality, resources may engage in multitasking behavior and they work only during certain periods of the day or the week. This article proposes an approach to discover process simulation models from execution logs in the presence of multitasking and availability constraints. To account for multitasking, we adjust the processing times of tasks in such a way that executing the multitasked tasks sequentially with the adjusted times is equivalent to executing them concurrently with the original times. Meanwhile, to account for availability constraints, we use an algorithm for discovering calendar expressions from collections of time-points to infer resource timetables from an execution log. We then adjust the parameters of this algorithm to maximize the similarity between the simulated log and the original one. We evaluate the approach using real-life and synthetic datasets. The results show that the approach improves the accuracy of simulation models discovered from execution logs both in the presence of multitasking and availability constraintsEuropean Research Council PIX 834141Ministerio de Ciencia, Innovación y Universidades OPHELIA RTI2018-101204-B-C22Junta de Andalucía EKIPMENTPLUS (P18–FR–2895

    Kvaliteedi hindamine tähelepanu abil

    Get PDF
    Väitekirja elektrooniline versioon ei sisalda publikatsiooneMasintõlge on saanud osaks mitte ainult keeleteadlaste ja professionaalsete tõlkijate, vaid peaaegu kõigi elust. Enamik inimesi, kes on kasutanud masintõlget, on kohanud naljakaid ja kohati täiesti valesid tõlkeid, mis lause tähendust täielikult moonutavad. Seega peame peale masintõlke mudeli kasutama hindamismehhanismi, mis teavitab inimesi tõlgete kvaliteedist. Loomulikult saavad professionaalsed tõlkijad masintõlke väljundit hinnata ja vajadusel toimetada. Inimeste märkuste kasutamine veebipõhiste masintõlkesüsteemide tõlgete hindamiseks on aga äärmiselt kulukas ja ebapraktiline. Seetõttu on automatiseeritud tõlkekvaliteedi hindamise süsteemid masintõlke töövoo oluline osa. Kvaliteedihinnangu eesmärk on ennustada masintõlke väljundi kvaliteeti, ilma etalontõlgeteta. Selles töös keskendusime kvaliteedihinnangu mõõdikutele ja käsitleme tõlkekvaliteedi näitajana tähelepanumehhanismi ennustatud jaotusi, mis on üks kaasaegsete neuromasintõlke (NMT) süsteemide sisemistest parameetritest. Kõigepealt rakendasime seda rekurrentsetel närvivõrkudel (RNN) põhinevatele masintõlkemudelitele ja analüüsisime pakutud meetodite toimivust juhendamata ja juhendatud ülesannete jaoks. Kuna RNN-põhised MT-süsteemid on nüüdseks asendunud transformeritega, mis muutusid peamiseks tipptaseme masintõlke tehnoloogiaks, kohandasime oma lähenemisviisi ka transformeri arhitektuurile. Näitasime, et tähelepanupõhised meetodid sobivad nii juhendatud kui ka juhendamata ülesannete jaoks, kuigi teatud piirangutega. Kuna annotatsiooni andmete hankimine on üsna kulukas, uurisime, kui palju annoteeritud andmeid on vaja kvaliteedihinnangu mudeli treenimiseks.Machine translation has become a part of the life of not only linguists and professional translators, but almost everyone. Most people who have used machine translation have come across funny and sometimes completely incorrect translations that turn the meaning of a sentence upside down. Thus, apart from a machine translation model, we need to use a scoring mechanism that informs people about the quality of translations. Of course, professional translators can assess and, if necessary, edit the machine translation output. However, using human annotations to evaluate translations of online machine translation systems is extremely expensive and impractical. That is why automated systems for measuring translation quality are a crucial part of the machine translation pipeline. Quality Estimation aims to predict the quality of machine translation output at run-time without using any gold-standard human annotations. In this work, we focused on Quality Estimation methods and explored the distribution of attention—one of the internal parameters of modern neural machine translation systems—as an indicator of translation quality. We first applied it to machine translation models based on recurrent neural networks (RNNs) and analyzed the performance of proposed methods for unsupervised and supervised tasks. Since transformer-based machine translation models had supplanted RNN-based, we adapted our approach to the attention extracted from transformers. We demonstrated that attention-based methods are suitable for both supervised and unsupervised tasks, albeit with some limitations. Since getting annotation labels is quite expensive, we looked at how much annotated data is needed to train a quality estimation model.https://www.ester.ee/record=b549935

    Sissejuhatava programmeerimise MOOCi õppijad: taustamuutujad, kaasatuse mustrid ja õpisooritus

    Get PDF
    Väitekirja elektrooniline versioon ei sisalda publikatsiooneÜks võimalus personaalseks ja professionaalseks arenguks on osalemine vaba juurdepääsuga e-kursustel (ingl massive open online courses, MOOCs). MOOCide osalejatel on suurem autonoomia võrreldes traditsiooniliste klassiruumides toimuvate tundidega. Samuti arvestades suurt osalejate hulka ja nende erinevat tausta, on kõikide õppijate kaasatus (ingl engagement) õppeprotsessis MOOCide korraldajatele väljakutseks. Osalejate taustamuutujate (ingl background variables) mõju kaasatusele, mis omakorda võib mõjutada õpisooritust (ingl performance), on jätkuvalt alauuritud valdkond. Doktoritöö eesmärk oli uurida MOOCide osalejate taustamuutujaid ja nende mõju kursusele registreerumisele ning lõpetamise tõenäosusele, tuvastada lõpetajate seas käitumuslikke (ingl behavioural engagement) ja kognitiivseid (ingl cognitive engagement) kaasatuse rühmasid ning uurida neid taustamuutujate ja õpisoorituse osas. Uurimuse fookuses oli MOOC “Programmeerimisest maalähedaselt”. Selle MOOCi osalejate ja lõpetajate taustamuutujad võrreldi MOOCidega „Programmeerimise alused I“ ja „Programmeerimise alused II“. MOOCil “Programmeerimisest maalähedaselt” oli rohkem naisi ja neid, kelle haridustase oli madalam. Lõpetajate osas selgus, et põhifookuses olnud MOOCil, ei olnud statistiliselt olulist erinevust nais- ja meeslõpetajate osakaalu ning erinevate tööhõive staatuste vahel. Suurem lõpetajate osakaal oli magistrikraadiga lõpetajate hulgas. Väiksem lõpetajate osakaal oli nende õppijate puhul, kes ei ole varem programmeerimist õppinud. Samad tulemused lõpetajate kohta olid ka MOOCil “Programmeerimise alused I“. Uurides MOOCi “Programmeerimisest maalähedaselt” lõpetajate ja mittelõpetajate õpisooritust, selgus, et nad vajasid testi sooritamiseks keskmiselt sama palju katseid. Mittelõpetajatel oli programmeerimisülesannete lahenduste esitamiskordade arv suurem ja neil oli testipunktid madalamad. Lõpetajate käitumusliku ja kognitiivse kaasatuse analüüs näitas, et lõpetajad ei ole homogeenne rühm. Käitumusliku kaasatuse puhul eristati lähtudes tegevuste hulgast 4 rühma. Uurimuse tulemused näitasid, et MOOCil võivad olla lõpetajad, kes teevad kõiki tegevusi, aga ka need, kes teevad vaid mõnda tegevust. Kognitiivse kaasatuse korral eristus 5 rühma, mille puhul kasutati abiallikaid erineva sagedusega. Tulemused näitasid, et lõpetajate erinevat sagedust erinevate abiallikate kasutamisel võib pidada märgiks püsivast soovist MOOC edukalt läbida. Samuti selgus, et abiallikate kasutamise võib võtta aluseks kognitiivse kaasatuse tuvastamiseks ja mõõtmiseks MOOCidel. Lõpetajate taustamuutujad ja õpisooritused varieerusid eristatud rühmade vahel. Doktoritöös esitatud tulemused aitavad uurijatel paremini aru saada MOOCi fenomenist ja kursuste korraldajatel pakkuda tulevikus kulutõhusamaid MOOCe. Uurimistulemustest võib järeldada, et MOOCide korraldajad peavad pakkuma erinevaid tegevusi ja abiallikaid, mis oleksid suunatud konkreetsetele sihtrühmadele. See võib hõlbustada personaliseeritud õppimist ja õppijate tõhusat kaasatust õppeprotsessis.One opportunity to facilitate personal and professional development is to participate in massive open online courses (MOOCs). MOOCs participants have greater autonomy compared to traditional physical classes. In addition, considering the huge number of participants and diversity of their backgrounds, it is a challenge for MOOCs instructors to engage them all in learning. The impact of background variables on engagement, which in turn may influence performance, remains understudied. The doctoral thesis aimed to study MOOCs participants’ background variables and their impact on course enrolment and completion probability, and explore different behavioural and cognitive engagement clusters among completers in terms of background variables and performance. The thesis focused on a MOOC “About Programming”. The MOOC participants’ and completers’ background variables were examined in comparison to MOOCs “Introduction to Programming I” and “Introduction to Programming II”. Females and those with a lower education level dominated in the MOOC “About Programming”. In this course, among completers there was no difference by gender and employment statuses. Master’s degree holders were more likely to complete the MOOC, while inexperienced in programming were less likely to complete it. The same results about completers were found in the MOOC “Introduction to Programming I”. With regard to performance, no difference between the MOOC “About programming” completers and non-completers in the average number of attempts per quiz was found. But non-completers made on average more attempts per programming task and received lower scores per quiz. The analysis of behavioural and cognitive engagement solely among completers indicated that they cannot be considered a homogeneous group. In terms of behavioural engagement, there were identified 4 groups based on the amount of activities a completer engaged with during the MOOC. The study results indicated that in a MOOC there can be completers who engage with all activities, as well as those who engage with only a few activities. In terms of cognitive engagement, there were identified 5 groups that were engaged with help sources at different frequency. The results indicated that the different frequency, with which completers use different help sources, can be considered as a sign of persistent desire to successfully complete the MOOC. In addition, it was revealed that the use of help sources can be applied as a basis for identifying and measuring cognitive engagement in the MOOC context. The background variables and performance of completers from different identified groups varied. The results of the thesis can prove quite beneficial to the scientific literature to understand the phenomenon of MOOC. This comprehension in terms of a variety of background variables, engagement patterns and performance can be helpful for course instructors to develop cost-effective MOOCs and provide personalised learning where different course activities and help sources can be targeted at specific groups.  https://www.ester.ee/record=b552843

    Privaatsuskaitse tehnoloogiaid äriprotsesside kaeveks

    Get PDF
    Protsessikaeve tehnikad võimaldavad organisatsioonidel analüüsida protsesside täitmise käigus tekkivaid logijälgi eesmärgiga leida parendusvõimalusi. Nende tehnikate eelduseks on, et nimetatud logijälgi koondavad sündmuslogid on andmeanalüütikutele analüüside läbi viimiseks kättesaadavad. Sellised sündmuslogid võivad sisaldada privaatset informatsiooni isikute kohta kelle jaoks protsessi täidetakse. Sellistel juhtudel peavad organisatsioonid rakendama privaatsuskaitse tehnoloogiaid (PET), et võimaldada analüütikul sündmuslogi põhjal järeldusi teha, samas säilitades isikute privaatsust. Kuigi PET tehnikad säilitavad isikute privaatsust organisatsiooni siseselt, muudavad nad ühtlasi sündmuslogisid sellisel viisil, mis võib viia analüüsi käigus valede järeldusteni. PET tehnikad võivad lisada sündmuslogidesse sellist uut käitumist, mille esinemine ei ole reaalses sündmuslogis võimalik. Näiteks võivad mõned PET tehnikad haigla sündmuslogi anonüümimisel lisada logijälje, mille kohaselt patsient külastas arsti enne haiglasse saabumist. Käesolev lõputöö esitab privaatsust säilitavate lähenemiste komplekti nimetusega privaatsust säilitav protsessikaeve (PPPM). PPPM põhiline eesmärk on leida tasakaal võimaliku sündmuslogi analüüsist saadava kasu ja analüüsile kohaldatavate privaatsusega seonduvate regulatsioonide (näiteks GDPR) vahel. Lisaks pakub käesolev lõputöö lahenduse, mis võimaldab erinevatel organisatsioonidel protsessikaevet üle ühise andmete terviku rakendada, ilma oma privaatseid andmeid üksteisega jagamata. Käesolevas lõputöös esitatud tehnikad on avatud lähtekoodiga tööriistadena kättesaadavad. Nendest tööriistadest esimene on Amun, mis võimaldab sündmuslogi omanikul sündmuslogi anonüümida enne selle analüütikule jagamist. Teine tööriist on Libra, mis pakub täiendatud võimalusi kasutatavuse ja privaatsuse tasakaalu leidmiseks. Kolmas tööriist on Shareprom, mis võimaldab organisatsioonidele ühiste protsessikaartide loomist sellisel viisil, et ükski osapool ei näe teiste osapoolte andmeid.Process Mining Techniques enable organizations to analyze process execution traces to identify improvement opportunities. Such techniques need the event logs (which record process execution) to be available for data analysts to perform the analysis. These logs contain private information about the individuals for whom a process is being executed. In such cases, organizations need to deploy Privacy-Enhancing Technologies (PETs) to enable the analyst to drive conclusions from the event logs while preserving the privacy of individuals. While PETs techniques preserve the privacy of individuals inside the organization, they work by perturbing the event logs in such a way that may lead to misleading conclusions of the analysis. They may inject new behaviors into the event logs that are impossible to exist in real-life event logs. For example, some PETs techniques anonymize a hospital event log by injecting a trace that a patient may visit a doctor before checking in inside the hospital. In this thesis, we propose a set of privacy-preserving approaches that we call Privacy-Preserving Process Mining (PPPM) approaches to strike a balance between the benefits an analyst can get from analyzing these event logs and the requirements imposed on them by privacy regulations (e.g., GDPR). Also, in this thesis, we propose an approach that enables organizations to jointly perform process mining over their data without sharing their private information. The techniques proposed in this thesis have been proposed as open-source tools. The first tool is Amun, enabling an event log publisher to anonymize their event log before sharing it with an analyst. The second tool is called Libra, which provides an enhanced utility-privacy tradeoff. The third tool is Shareprom, which enables organizations to construct process maps jointly in such a manner that no party learns the data of the other parties.https://www.ester.ee/record=b552434

    Mobiilse värkvõrgu protsessihaldus

    Get PDF
    Värkvõrk, ehk Asjade Internet (Internet of Things, lüh IoT) edendab lahendusi nagu nn tark linn, kus meid igapäevaselt ümbritsevad objektid on ühendatud infosüsteemidega ja ka üksteisega. Selliseks näiteks võib olla teekatete seisukorra monitoorimissüsteem. Võrku ühendatud sõidukitelt (nt bussidelt) kogutakse videomaterjali, mida seejärel töödeldakse, et tuvastada löökauke või lume kogunemist. Tavaliselt hõlmab selline lahendus keeruka tsentraalse süsteemi ehitamist. Otsuste langetamiseks (nt milliseid sõidukeid parasjagu protsessi kaasata) vajab keskne süsteem pidevat ühendust kõigi IoT seadmetega. Seadmete hulga kasvades võib keskne lahendus aga muutuda pudelikaelaks. Selliste protsesside disaini, haldust, automatiseerimist ja seiret hõlbustavad märkimisväärselt äriprotsesside halduse (Business Process Management, lüh BPM) valdkonna standardid ja tööriistad. Paraku ei ole BPM tehnoloogiad koheselt kasutatavad uute paradigmadega nagu Udu- ja Servaarvutus, mis tuleviku värkvõrgu jaoks vajalikud on. Nende puhul liigub suur osa otsustustest ja arvutustest üksikutest andmekeskustest servavõrgu seadmetele, mis asuvad lõppkasutajatele ja IoT seadmetele lähemal. Videotöötlust võiks teostada mini-andmekeskustes, mis on paigaldatud üle linna, näiteks bussipeatustesse. Arvestades IoT seadmete üha suurenevat hulka, vähendab selline koormuse jaotamine vähendab riski, et tsentraalne andmekeskust ülekoormamist. Doktoritöö uurib, kuidas mobiilsusega seonduvaid IoT protsesse taoliselt ümber korraldada, kohanedes pidevalt muutlikule, liikuvate seadmetega täidetud servavõrgule. Nimelt on ühendused katkendlikud, mistõttu otsuste langetus ja planeerimine peavad arvestama muuhulgas mobiilseadmete liikumistrajektoore. Töö raames valminud prototüüpe testiti Android seadmetel ja simulatsioonides. Lisaks valmis tööriistakomplekt STEP-ONE, mis võimaldab teadlastel hõlpsalt simuleerida ja analüüsida taolisi probleeme erinevais realistlikes stsenaariumites nagu seda on tark linn.The Internet of Things (IoT) promotes solutions such as a smart city, where everyday objects connect with info systems and each other. One example is a road condition monitoring system, where connected vehicles, such as buses, capture video, which is then processed to detect potholes and snow build-up. Building such a solution typically involves establishing a complex centralised system. The centralised approach may become a bottleneck as the number of IoT devices keeps growing. It relies on constant connectivity to all involved devices to make decisions, such as which vehicles to involve in the process. Designing, automating, managing, and monitoring such processes can greatly be supported using the standards and software systems provided by the field of Business Process Management (BPM). However, BPM techniques are not directly applicable to new computing paradigms, such as Fog Computing and Edge Computing, on which the future of IoT relies. Here, a lot of decision-making and processing is moved from central data-centers to devices in the network edge, near the end-users and IoT sensors. For example, video could be processed in mini-datacenters deployed throughout the city, e.g., at bus stops. This load distribution reduces the risk of the ever-growing number of IoT devices overloading the data center. This thesis studies how to reorganise the process execution in this decentralised fashion, where processes must dynamically adapt to the volatile edge environment filled with moving devices. Namely, connectivity is intermittent, so decision-making and planning need to involve factors such as the movement trajectories of mobile devices. We examined this issue in simulations and with a prototype for Android smartphones. We also showcase the STEP-ONE toolset, allowing researchers to conveniently simulate and analyse these issues in different realistic scenarios, such as those in a smart city.  https://www.ester.ee/record=b552551

    Bench-Ranking: ettekirjutav analüüsimeetod suurte teadmiste graafide päringutele

    Get PDF
    Relatsiooniliste suurandmete (BD) töötlemisraamistike kasutamine suurte teadmiste graafide töötlemiseks kätkeb endas võimalust päringu jõudlust optimeerimida. Kaasaegsed BD-süsteemid on samas keerulised andmesüsteemid, mille konfiguratsioonid omavad olulist mõju jõudlusele. Erinevate raamistike ja konfiguratsioonide võrdlusuuringud pakuvad kogukonnale parimaid tavasid parema jõudluse saavutamiseks. Enamik neist võrdlusuuringutest saab liigitada siiski vaid kirjeldavaks ja diagnostiliseks analüütikaks. Lisaks puudub ühtne standard nende uuringute võrdlemiseks kvantitatiivselt järjestatud kujul. Veelgi enam, suurte graafide töötlemiseks vajalike konveierite kavandamine eeldab täiendavaid disainiotsuseid mis tulenevad mitteloomulikust (relatsioonilisest) graafi töötlemise paradigmast. Taolisi disainiotsuseid ei saa automaatselt langetada, nt relatsiooniskeemi, partitsioonitehnika ja salvestusvormingute valikut. Käesolevas töös käsitleme kuidas me antud uurimuslünga täidame. Esmalt näitame disainiotsuste kompromisside mõju BD-süsteemide jõudluse korratavusele suurte teadmiste graafide päringute tegemisel. Lisaks näitame BD-raamistike jõudluse kirjeldavate ja diagnostiliste analüüside piiranguid suurte graafide päringute tegemisel. Seejärel uurime, kuidas lubada ettekirjutavat analüütikat järjestamisfunktsioonide ja mitmemõõtmeliste optimeerimistehnikate (nn "Bench-Ranking") kaudu. See lähenemine peidab kirjeldava tulemusanalüüsi keerukuse, suunates praktiku otse teostatavate teadlike otsusteni.Leveraging relational Big Data (BD) processing frameworks to process large knowledge graphs yields a great interest in optimizing query performance. Modern BD systems are yet complicated data systems, where the configurations notably affect the performance. Benchmarking different frameworks and configurations provides the community with best practices for better performance. However, most of these benchmarking efforts are classified as descriptive and diagnostic analytics. Moreover, there is no standard for comparing these benchmarks based on quantitative ranking techniques. Moreover, designing mature pipelines for processing big graphs entails considering additional design decisions that emerge with the non-native (relational) graph processing paradigm. Those design decisions cannot be decided automatically, e.g., the choice of the relational schema, partitioning technique, and storage formats. Thus, in this thesis, we discuss how our work fills this timely research gap. Particularly, we first show the impact of those design decisions’ trade-offs on the BD systems’ performance replicability when querying large knowledge graphs. Moreover, we showed the limitations of the descriptive and diagnostic analyses of BD frameworks’ performance for querying large graphs. Thus, we investigate how to enable prescriptive analytics via ranking functions and Multi-Dimensional optimization techniques (called ”Bench-Ranking”). This approach abstracts out from the complexity of descriptive performance analysis, guiding the practitioner directly to actionable informed decisions.https://www.ester.ee/record=b553332
    corecore