114 research outputs found

    The resource-event-agent ontology as a foundation for business modeling

    Get PDF
    In de praktijk zijn bedrijfsinformatiesystemen—zoals een boekhoudsysteem, een voorraadbeheersysteem, een kostprijscalculatiesysteem, een ordermanagementsysteem — onderdeel van een veel grotere informatieverwerkende omgeving. Bijgevolg is het volgens Moody en Shanks onnuttig om bedrijfsinformatiesystemen los van elkaar te bekijken. In [MS03] stellen en tonen ze aan dat het beschouwen van informatiesystemen binnen deze bredere context cruciaal is voor het verkrijgen van kwaliteitsvolle informatiesystemen. Daarom voegen zijn ‘integratie’toe aan een lijst van reeds bestaande kwaliteitsfactoren voor het ontwerpen van informatiesystemen. Met integratie bedoelen ze de mate waarin de onderliggende infrastructuurmodellen van verschillende bedrijfsinformatiesystemen met elkaar overeenstemmen, wat de samenwerking tussen en het uitwisselen en hergebruik van data door deze systemen moet vergemakkelijken. Bij het ontwerpen van een informatiesysteem starten we met een conceptueel ontwerp. Zo’n conceptueel ontwerp stelt het beoogde informatiesysteem voor zonder details die specifiek zijn voor de gekozen technologie — zoals een webpagina, een database, software — te tonen. Een conceptueel model focust dus op het voorstellen van een conceptuele oplossing voor een bestaand probleem nog voor de technologische oplossing wordt ontworpen. Hoewel zo’n conceptueel model slechts een deel van de uiteindelijke oplossing voorstelt, stelt het de essentie van de oplossing voor—die dan eventueel in verschillende technologie¨en tegelijk kan worden uitgewerkt. Omdat deze oplossing essentieel is, moet een conceptueel model aan een reeks kwaliteitsparameters voldoen. Zo moet een conceptueel model een zo eenvoudig mogelijke maar toch volledige oplossing bieden voor een probleem. Ook moet de oplossing, voorgesteld in het conceptueel model, verstaanbaar zijn voor anderen dan de ontwerpers—bijvoorbeeld de programmeurs die de praktijkoplossing uitwerken of de klant die het systeem besteld heeft en zal gebruiken. Vaak probeert men ook te bereiken dat een systeem flexibel is, waarmee men bedoelt dat de oplossing rekening houdt met mogelijke veranderingen in de omgeving — zonder in te gaan tegen wat als gangbaar wordt beschouwd binnen de bredere informatieverwerkende omgeving of zonder moeilijk te verwezenlijken te zijn binnen het vooropgestelde budget en de beoogde planning. Zonder deze kwaliteitsfactoren uit het oog te verliezen, focussen we in deze doctoraatsthesis op de integratie van informatiesysteemontwerpen, die door Moody en Shanks werd voorgesteld en waarvan zij substanti¨ele voordelen aantoonden. Aangezien er vele verschillende soorten conceptuele modellen bestaan, kiezen wij er in deze thesis twee specifieke soorten uit, namelijk conceptuele datamodellen en simulatiemodellen. We kiezen datamodellen omdat zij een van de meest essenti¨ele soorten conceptuele modellen voorstellen. Conceptuele datamodellen stellen immers de basis van elke informatiesysteem voor. Bijgevolg is de keuze voor of het ontwerp van een datamodel een van de meest cruciale stappen in het ontwerp van een informatiesysteem die invloed heeft op o.a. de uiteindelijke kost van het project, de flexibiliteit van het resulterende systeem, de klantentevredenheid en de integratie met andere (bestaande) informatiesystemen. Waar conceptuele datamodellen ons toelaten een ontwerp te maken voor de data die in informatiesystemen worden bijgehouden over de huidige toestand en historiek van een voor ons relevant deel van de realiteit, laten simulatiemodellen ons toe een ontwerp — dat met potenti¨ele toekomstige situaties kan omgaan — te formuleren van een voor ons relevant deel van een omgeving. Samen laten conceptuele data- en simulatiemodellen ons dus toe het verleden, heden en de toekomst van een voor ons relevant deel van de realiteit voor te stellen. In deze thesis is dat relevant deel van de realiteit de bedrijfseconomische context. Aangezien deze bedrijfseconomische context dynamisch — en dus inherent onstabiel — is met steeds wijzigende en slechts gedeeltelijk gespecificeerde systeemvereisten — wat flexibiliteit vereist — is een speciale aanpak noodzakelijk. Deze aanpak heet ‘Design Science’ [HMJR04] en houdt ook rekening met hoe succesvolle informatiesysteemontwerpen afhankelijk zijn van de cognitieve en sociale vaardigheden van de mensen die deze systemen gebruiken, ontwikkelen en ontwerpen. Om deze flexibiliteit en sociale en cognitieve vaardigheden te ondersteunen, gebruiken we een ontologie als basis voor het ontwerpen van de conceptuele dataen simulatiemodellen in deze doctoraatsthesis. Zo’n ontologie is een gedeelde beschrijving van het probleemdomein (bijvoorbeeld de bedrijfseconomische realiteit). Dat deze beschrijving gedeeld wordt, ondersteunt de sociale en cognitieve vaardigheden van de groep mensen die een informatiesysteem ontwerpt, omdat de beschrijving kan gebruikt worden als een referentiekader voor deze groep mensen. Daarenboven kan dit delen ervoor zorgen dat de beschrijving hergebruikt en verbeterd wordt bij opeenvolgende projecten door verschillende groepen. Dit hergebruik van de beschrijving van het probleemdomein ondersteunt dan impliciet de integratie tussen verschillende projecten, aangezien ze gebaseerd zijn op (verschillende delen van) dezelfde probleembeschrijving. De ontologie die wij in deze thesis hoofdzakelijk hanteren is de Resource- Event-Agent (REA) ontologie. Deze ontologie werd begin jaren ’80 ontwikkeld voor boekhoudinformatiesystemen, met het oog op een gedeelde dataomgeving waarin boekhouders en niet-boekhouders informatie delen over dezelfde economische gebeurtenissen — zoals aankopen, verkopen, productie. De ‘Resources’ beschrijven de producten (i.e. goederen en diensten) die verhandeld en geproduceerd worden. De ‘Events’ beschrijven de gebeurtenissen die de voorraden van deze producten veranderen. Bijvoorbeeld, een verkoop van producten vermindert de voorraad van de verkoper en vermeerdert de voorraad van de aankoper. De ‘Agents’ beschrijven de economische actoren die de goederen en diensten produceren, verkopen en aankopen. Ondertussen werd de REA-ontologie al gebruikt als basis voor boekhoudinformatiesystemen en een ISO open-edi standaard [ISO07] voor het uitwisselen van elektronische bedrijfsdocumenten, als methode voor het onderwijzen van boekhoudinformatiesystemen en nog veel meer. [GLP08] In het eerste hoofdstuk van datamodelsectie gebruiken we de REA- en UFOontologie om conceptuele datamodellen te structureren en af te bakenen zodat ze makkelijker te interpreteren zijn, voornamelijk door onervaren systeemontwerpers. De UFO (i.e. Unified Foundational Ontology) is een ontologie die speciaal werd ontworpen om conceptuele modellen te duiden. [BGHS+05] Van de gestructureerde conceptuele datamodellen wordt verwacht dat ze onervaren ontwerpers helpen conceptuele datamodellen te maken die compleet zijn en geen overbodige onderdelen bevatten. Onvolledige modellen en overbodige onderdelen zijn immers de meest voorkomende fouten die onervaren ontwerpers maken. De gestructureerde datamodellen die aan de onervaren ontwerpers worden aangeboden zijn patronen waarvan al bewezen is dat ze waardevolle oplossingen zijn voor bepaalde problemen binnen een specifieke context. Door deze patronen te structureren volgens de REA- en UFO-ontologie wordt de ontwerper verwacht sneller de overbodige en ontbrekende delen van een patroon te kunnen identificeren, naargelang van het probleem dat hij wenst op te lossen. Door de aangeboden structuur kan de ontwerper ook op zoek naar ontbrekende delen van zijn oplossing in andere patronen, die hij dan kan integreren in zijn bestaande onvolledige oplossing. Dit integreren van patronen heeft twee voordelen. Ten eerste wordt de integratie tussen systemen die (delen) van dezelfde patronen bevatten vergemakkelijkt, ten tweede wordt de kwaliteit van de modellen die werden gemaakt door onervaren informatiesysteemontwerpers verhoogd. In het tweede hoofdstuk van de datamodelsectie gebruiken we de REA-ontologie als basis voor het ontwikkelen van een conceptueel referentiedatamodel dat geschikt is om zowel productie- als transactiedata van verschillende handelspartners voor te stellen. Dat het datamodel data van verschillende handelspartners tegelijkertijd kan voorstellen, heeft als gevolg dat de integratie tussen de bedrijfssystemen van deze handelspartners sterk vergemakkelijkt wordt. Zowel het integreren van de verschillende informatiesystemen van elke individuele handelspartner (bijvoorbeeld verkoopsysteem en voorraadbeheer) als het integreren van informatiesystemen van verschillende handelspartners (bijvoorbeeld een aankoopsysteem met een verkoopsysteem) worden vergemakkelijkt. Het voorstellen van productieen transactiedata van verschillende handelspartners wordt verwezenlijkt door zowel het perspectief van de individuele handelspartners als het perspectief van een onafhankelijke derde partij expliciet in het datamodel te integreren. Door deze keuze is het datamodel geschikt om volledige waardesystemen voor te stellen. Zo’n waardesysteem bestaat uit de transacties tussen handelspartners in een waardenetwerk of toeleveringsketen (supply chain) en de bedrijfsprocessen die elk van deze handelspartners uitvoert. In het derde en laatste hoofdstuk van de datamodelsectie gebruiken we het conceptuele datamodel dat werd voorgesteld in het tweede hoofdstuk om een toepassing te ontwikkelen die het mogelijk maakt historische, huidige en toekomstige product- en geldstromen te volgen in een waardesysteem. Het gekozen voorbeeld toont hoe akkerbouwgewassen worden gebruikt voor humane consumptie en veevoeder. De dierlijke producten worden dan weer gebruikt voor humane consumptie en samen met de landbouwgewassen verwerkt in consumentenproducten. De excrementen vloeien terug naar de akkerbouw. Het beschreven waardesysteem toont hoe goederen- en geldstromen kunnen worden gevolgd bij transacties tussen handelspartners (bijvoorbeeld akkerbouwer en voedermolen) en hoe goederenstromen kunnen worden gevolgd doorheen de productieprocessen van deze handelspartners (bijvoorbeeld het verwerken van akkerbouwgewassen van verschillende herkomst in een lading veevoer). Bovendien toont de ontwikkelde toepassing dat diezelfde data kunnen worden gebruikt om de transacties tussen handelspartners weer te geven (bijvoorbeeld een akkerbouwer die graan verkoopt aan een voedermolen en daarvoor een vergoeding ontvangt). Diezelfde informatie kan dan ook gebruikt worden om geldstromen in kaart te brengen zoals gebeurt met de goederenstromen. Daarenboven wordt gedemonstreerd hoe niet alleen huidige en gewezen, maar ook hoe toekomstige transacties en goederen- en geldstromen in kaart kunnen worden gebracht (o.a. aan de hand van contracten en productieschema’s). In de levensmiddelenindustrie hebben dergelijke systemen voor het traceren van huidige en gewezen goederenstromen al hun nut bewezen wanneer gecontamineerde voedingstoffen werden aangetroffen of getransporteerd vee ziek bleek. Aan de mogelijkheden van dergelijke traceringsystemen voegen wij toe dat niet enkel de bron van de besmetting, maar ook het doel van de goederen en de geldstromen, kan worden ge¨ıdentificeerd. Hierdoor kunnen we de economische gevolgen van zo’n besmetting inschatten aan de hand van contracten en productieschema’s. Met de beschikbare informatie kunnen dan eventueel noodscenario’s worden uitgewerkt om de economische gevolgen van zo’n besmetting te beperken. Ook in andere sectoren kan zo’n traceringssysteem nuttig zijn. Zo kan het in kaart brengen van een volledig waardenetwerk voorkomen dat namaakgoederen in de reguliere handel terechtkomen, of dat geldstromen uit de reguliere economie worden gebruikt om illegale activiteiten wit te wassen of te financieren. Waar het tweede en derde hoofdstuk van de datamodelsectie REA-gebaseerde datamodellen voor de integratie van de informatiesystemen van handelspartners voorstellen, bevat de simulatiemodelsectie REA-gebaseerde simulatiemodelelementen die het toelaten bedrijfsprocesmodellen over bedrijfsgrenzen heen met elkaar te integreren zodat ook simulatiemodellen voor volledige waardesystemen kunnen worden ontwikkeld. De hoofdstukken in de datamodelsectie bevatten dus geen bedrijfsprocesmodellen, maar superstructuren die het mogelijk maken bedrijfsprocesmodellen te hergebruiken en te integreren over de grenzen van de onderneming heen. Daarenboven werden deze superstructuren zo ontworpen dat ze ook als zelfstandige elementen van simulatiemodellen voor transacties tussen handelspartners kunnen worden gebruikt. Dit betekent dan wel dat men abstractie maakt van de bedrijfsprocessen die deze transacties ondersteunen. Het eerste hoofdstuk van de simulatiemodelsectie analyseert de mogelijke configuraties (bijvoorbeeld eerst betalen dan halen, eerst halen dan betalen) voor transacties tussen handelspartners en de manier waarop deze configuraties de interne structuur van een bedrijf be¨ınvloeden. In deze analyse wordt er vooral gekeken naar het vermogen van een bedrijf om zijn activiteiten te financieren met het krediet dat handelspartners verlenen (bijvoorbeeld de betalingstermijn op facturen, voorschotten). De structuren in dit hoofdstuk worden voorgesteld als Petri-net gebaseerde workflowmodellen. Deze workflowmodellen laten toe te evalueren of een gegeven sequentie van transacties externe financiering (bijvoorbeeld een banklening) vereist of niet. Door de verschillende configuraties voor een sequentie van transacties te evalueren kan men de meest optimale (bijvoorbeeld diegene die zo min mogelijk externe financiering vereist) selecteren. Het tweede hoofdstuk van de simulatiemodelsectie bouwt voort op de modellen in het voorgaande hoofdstuk om ook statistische analyses van deze verschillende configuraties mogelijk te maken. In deze analyses hoeft men dus niet meer te vertrekken van een gegeven sequentie van transacties, maar kan men ook onzekerheid en variatie in rekening brengen. Door de REA-elementen toe te voegen aan simulatiemodelelementen, worden de capaciteiten van de huidige generatie statistische simulatiemodellen uitgebreid van het analyseren van logistieke processen naar het analyseren van volledige bedrijfsmodellen met inbegrip van de financi¨ele parameters en resultaten. In tegenstelling tot de workflowmodellen in het eerste hoofdstuk van de simulatiemodelsectie, hebben de statistische simulatiemodellen een gelaagde opbouw. De bovenste laag modelleert de transacties tussen bedrijven, de middelste laag modelleert de interne financi¨ele structuur van bedrijven en de onderste laag bevat bedrijfsprocesmodellen voor individuele bedrijfsprocessen. De gelaagde opbouw laat ons toe zowel de individuele lagen te simuleren als bedrijfsprocesmodellen in interne structuurmodellen te integreren en deze dan weer in transactiemodellen te integreren. In deze thesis ontwikkelen we dus een benadering voor het ontwikkelen en integreren van modellen binnen een bedrijfseconomische context. Deze benadering houdt in dat we conceptuele modellen ontwikkelen vanuit en toetsen aan een bedrijfseconomische ontologie. De bedrijfseconomische ontologie die we in deze thesis gebruiken is de REA-ontologie. Deze thesis toont aan dat de REA-ontologie geschikt is als basis voor het ontwikkelen en integreren van zowel conceptuele datamodellen als simulatiemodellen binnen een bedrijfseconomische context. Door het gebruik van deze benadering zouden we de bedrijfswereld niet enkel moeten kunnen uitrusten met robuustere datamodellen voor de bedrijfsinformatiesystemen die ze dagdagelijks gebruiken, maar ook met krachtigere beslissingsondersteunende hulpmiddelen die hen voorzien van de informatie die ze nodig hebben voor het evalueren en voorspellen van de prestaties van hun bedrijf. Die informatie kan dan zowel van financi¨ele (bijvoorbeeld winstmarges) als operationele (bijvoorbeeld wachttijden) aard zijn. Het evalueren kan gebeuren op basis van de data die zijn opgeslagen in de bedrijfsinformatiesystemen en het voorspellen kan gebeuren door het genereren van hypothetische data in simulatiemodellen voor toekomstige bedrijfsprocessen en omgevingsomstandigheden

    Mass Customization of Cloud Services - Engineering, Negotiation and Optimization

    Get PDF
    Several challenges hinder the entry of mass customization principles into Cloud computing: Firstly, the service engineering on provider side needs to be automated. Secondly, there has to be a suitable negotiation mechanism helping provider and consumer on finding an agreement on Quality-of-Service and price. Thirdly, finding the optimal configuration requires adequate and efficient optimization techniques. The work at hand addresses these challenges through technical and economic contributions

    Contemporary Natural Philosophy and Philosophies - Part 1

    Get PDF
    This book is a printed edition of the Special Issue titled "Contemporary Natural Philosophy and Philosophies" - Part 1 that was published in the journal Philosophies

    Contemporary Natural Philosophy and Philosophies - Part 2

    Get PDF
    Modern technology has eliminated barriers posed by geographic distances between people around the globe, making the world more interdependent. However, in spite of global collaboration within research domains, fragmentation among research fields persists and even escalates. Disintegrated knowledge has become subservient to the competition in the technological and economic race, leading in the direction chosen not by reason and intellect but rather by the preferences of politics and markets. To restore the authority of knowledge in guiding humanity, we have to reconnect its scattered isolated parts and offer an evolving and diverse but shared vision of objective reality connecting the sciences and other knowledge domains and informed by and in communication with ethical and esthetic thinking and being. This collection of articles responds to the second call from the journal Philosophies to build a new, networked world of knowledge with domain specialists from different disciplines interacting and connecting with the rest of the knowledge-producing and knowledge-consuming communities in an inclusive, extended natural-philosophic, human-centric manner. In this process of reconnection, scientific and philosophical investigations enrich each other, with sciences informing philosophies about the best current knowledge of the world, both natural and human-made, while philosophies scrutinize the ontological, epistemological, and methodological foundations of sciences

    Matching disparate geospatial datasets and validating matches using spatial logic

    Get PDF
    In recent years, the emergence and development of crowd-sourced geospatial data has provided challenges and opportunities to national mapping agencies as well as commercial mapping organisations. Crowd-sourced data involves non-specialists in data collection, sharing and maintenance. Compared to authoritative geospatial data, which is collected by surveyors or other geodata professionals, crowd-sourced data is less accurate and less structured, but often provides richer user-based information and reflects real world changes more quickly at a much lower cost. In order to maximize the synergistic use of authoritative and crowd-sourced geospatial data, this research investigates the problem of how to establish and validate correspondences (matches) between spatial features from disparate geospatial datasets. To reason about and validate matches between spatial features, a series of new qualitative spatial logics was developed. Their soundness, completeness, decidability and complexity theorems were proved for models based on a metric space. A software tool `MatchMaps' was developed, which generates matches using location and lexical information, and verifies consistency of matches using reasoning in description logic and qualitative spatial logic. MatchMaps was evaluated by the author and experts from Ordnance Survey, the national mapping agency of Great Britain. In experiments, it achieved high precision and recall, as well as reduced human effort. The methodology developed and implemented in MatchMaps has a wider application than matching authoritative and crowd-sourced data and could be applied wherever it is necessary to match two geospatial datasets of vector data

    Policy-based Contracting in Semantic Web Service Markets

    Get PDF

    Collective agency:From philosophical and logical perspectives

    Get PDF
    People inhabit a vast and intricate social network nowadays. In addition to our own decisions and actions, we confront those of various groups every day. Collective decisions and actions are more complex and bewildering compared to those made by individuals. As members of a collective, we contribute to its decisions, but our contributions may not always align with the outcome. We may also find ourselves excluded from certain groups and passively subjected to their influences without being aware of the source. We are used to being in overlapping groups and may switch identities, supporting or opposing the claims of particular groups. But rarely do we pause to think: What do we talk about when we talk about groups and their decisions?At the heart of this dissertation is the question of collective agency, i.e., in what sense can we treat a group as a rational agent capable of its action. There are two perspectives we take: a philosophical and logical one. The philosophical perspective mainly discusses the ontological and epistemological issues related to collective agency, sorts out the relevant philosophical history, and argues that the combination of a relational view of collective agency and a dispositional view of collective intentionality provides a rational and realistic account. The logical perspective is associated with formal theories of groups, it disregards the psychological content involved in the philosophical perspective, establishes a logical system that is sufficiently formal and objective, and axiomatizes the nature of a collective

    Matching disparate geospatial datasets and validating matches using spatial logic

    Get PDF
    In recent years, the emergence and development of crowd-sourced geospatial data has provided challenges and opportunities to national mapping agencies as well as commercial mapping organisations. Crowd-sourced data involves non-specialists in data collection, sharing and maintenance. Compared to authoritative geospatial data, which is collected by surveyors or other geodata professionals, crowd-sourced data is less accurate and less structured, but often provides richer user-based information and reflects real world changes more quickly at a much lower cost. In order to maximize the synergistic use of authoritative and crowd-sourced geospatial data, this research investigates the problem of how to establish and validate correspondences (matches) between spatial features from disparate geospatial datasets. To reason about and validate matches between spatial features, a series of new qualitative spatial logics was developed. Their soundness, completeness, decidability and complexity theorems were proved for models based on a metric space. A software tool `MatchMaps' was developed, which generates matches using location and lexical information, and verifies consistency of matches using reasoning in description logic and qualitative spatial logic. MatchMaps was evaluated by the author and experts from Ordnance Survey, the national mapping agency of Great Britain. In experiments, it achieved high precision and recall, as well as reduced human effort. The methodology developed and implemented in MatchMaps has a wider application than matching authoritative and crowd-sourced data and could be applied wherever it is necessary to match two geospatial datasets of vector data

    Capability-actor-resource-service : a conceptual modelling approach for value-driven strategic sourcing

    Get PDF
    This PhD research addresses a problem within strategic sourcing, which is a critical area of strategic management that is centered on decision-making related to procurement. Strategic sourcing is related to two disciplines: (i) procurement and supply management and (ii) strategic management. Sourcing is the strategic part of procurement that refers to tasks like determining cost saving and value-driven opportunities, choosing the most appropriate go-to market strategies, and selecting and evaluating suppliers for building long-term and short-term contractual relationships. Many companies face challenges in obtaining the benefits associated with effective strategic sourcing. Although the concept of strategic sourcing is fairly well recognized, managers are still challenged by many barriers to its implementation. The main problem is the lack of practical instruments (i.e., tools and techniques) to implement the value-driven management approach to strategic sourcing, while at the same time preparing companies for fact-based decision-making by delivering data management and data analytics capabilities. This is the problem which is addressed with this PhD research. To address this problem, the research goal has been defined as “develop a modeling approach that enables companies 1) to drive fact-based decision-making with respect to procurement data management and procurement analytics”; and 2) to implement strategic sourcing toward achieving value-driven targets”. We apply conceptual modeling as our main solution approach to achieve the above research goal. We define three major areas where conceptual modeling can contribute to strategic sourcing decision-making: conceptualization, design and computer support. The proposed conceptual modeling approach is characterized by four different perspectives: (i) a way of thinking (i.e., a conceptual foundation), (ii) a way of modeling (i.e., a modeling language and method to use it), (iii) a way of working (i.e., a model-based analysis approach), and (iv) a way of supporting (i.e., a computer-aided design tool). The scope of PhD research is limited to the first three perspectives, while for the fourth perspective a solution architecture will be proposed as part of future research. This PhD dissertation is a paper-based dissertation consisting of six chapters. Three chapters (chapter 3, 4, 5) of this dissertation have been submitted to international peer-reviewed journals (chapter 4 is published and chapters 3 and 5 are accepted) and one chapter (chapter 2) has been published in the post-conference proceedings of an international workshop
    corecore