179 research outputs found

    A Dynamic Knowledge Management Framework for the High Value Manufacturing Industry

    Get PDF
    Dynamic Knowledge Management (KM) is a combination of cultural and technological factors, including the cultural factors of people and their motivations, technological factors of content and infrastructure and, where these both come together, interface factors. In this paper a Dynamic KM framework is described in the context of employees being motivated to create profit for their company through product development in high value manufacturing. It is reported how the framework was discussed during a meeting of the collaborating company’s (BAE Systems) project stakeholders. Participants agreed the framework would have most benefit at the start of the product lifecycle before key decisions were made. The framework has been designed to support organisational learning and to reward employees that improve the position of the company in the market place

    Temporal Data Modeling and Reasoning for Information Systems

    Get PDF
    Temporal knowledge representation and reasoning is a major research field in Artificial Intelligence, in Database Systems, and in Web and Semantic Web research. The ability to model and process time and calendar data is essential for many applications like appointment scheduling, planning, Web services, temporal and active database systems, adaptive Web applications, and mobile computing applications. This article aims at three complementary goals. First, to provide with a general background in temporal data modeling and reasoning approaches. Second, to serve as an orientation guide for further specific reading. Third, to point to new application fields and research perspectives on temporal knowledge representation and reasoning in the Web and Semantic Web

    INVESTIGATION OF THE ROLE OF SERVICE LEVEL AGREEMENTS IN WEB SERVICE QUALITY

    Get PDF
    Context/Background: Use of Service Level Agreements (SLAs) is crucial to provide the value added services to consumers to achieve their requirements successfully. SLAs also ensure the expected Quality of Service to consumers. Aim: This study investigates how efficient structural representation and management of SLAs can help to ensure the Quality of Service (QoS) in Web services during Web service composition. Method: Existing specifications and structures for SLAs for Web services do not fully formalize and provide support for different automatic and dynamic behavioral aspects needed for QoS calculation. This study addresses the issues on how to formalize and document the structures of SLAs for better service utilization and improved QoS results. The Service Oriented Architecture (SOA) is extended in this study with addition of an SLAAgent, which helps to automate the QoS calculation using Fuzzy Inference Systems, service discovery, service selection, SLA monitoring and management during service composition with the help of structured SLA documents. Results: The proposed framework improves the ways of how to structure, manage and monitor SLAs during Web service composition to achieve the better Quality of Service effectively and efficiently. Conclusions: To deal with different types of computational requirements the automation of SLAs is a challenge during Web service composition. This study shows the significance of the SLAs for better QoS during composition of services in SOA

    Knowledge-based systems for knowledge management in enterprises : Workshop held at the 21st Annual German Conference on AI (KI-97)

    Get PDF

    Critical Programming: Toward a Philosophy of Computing

    Get PDF
    Beliefs about the relationship between human beings and computing machines and their destinies have alternated from heroic counterparts to conspirators of automated genocide, from apocalyptic extinction events to evolutionary cyborg convergences. Many fear that people are losing key intellectual and social abilities as tasks are offloaded to the everywhere of the built environment, which is developing a mind of its own. If digital technologies have contributed to forming a dumbest generation and ushering in a robotic moment, we all have a stake in addressing this collective intelligence problem. While digital humanities continue to flourish and introduce new uses for computer technologies, the basic modes of philosophical inquiry remain in the grip of print media, and default philosophies of computing prevail, or experimental ones propagate false hopes. I cast this as-is situation as the post-postmodern network dividual cyborg, recognizing that the rational enlightenment of modernism and regressive subjectivity of postmodernism now operate in an empire of extended mind cybernetics combined with techno-capitalist networks forming societies of control. Recent critical theorists identify a justificatory scheme foregrounding participation in projects, valorizing social network linkages over heroic individualism, and commending flexibility and adaptability through life long learning over stable career paths. It seems to reify one possible, contingent configuration of global capitalism as if it was the reflection of a deterministic evolution of commingled technogenesis and synaptogenesis. To counter this trend I offer a theoretical framework to focus on the phenomenology of software and code, joining social critiques with textuality and media studies, the former proposing that theory be done through practice, and the latter seeking to understand their schematism of perceptibility by taking into account engineering techniques like time axis manipulation. The social construction of technology makes additional theoretical contributions dispelling closed world, deterministic historical narratives and requiring voices be given to the engineers and technologists that best know their subject area. This theoretical slate has been recently deployed to produce rich histories of computing, networking, and software, inform the nascent disciplines of software studies and code studies, as well as guide ethnographers of software development communities. I call my syncretism of these approaches the procedural rhetoric of diachrony in synchrony, recognizing that multiple explanatory layers operating in their individual temporal and physical orders of magnitude simultaneously undergird post-postmodern network phenomena. Its touchstone is that the human-machine situation is best contemplated by doing, which as a methodology for digital humanities research I call critical programming. Philosophers of computing explore working code places by designing, coding, and executing complex software projects as an integral part of their intellectual activity, reflecting on how developing theoretical understanding necessitates iterative development of code as it does other texts, and how resolving coding dilemmas may clarify or modify provisional theories as our minds struggle to intuit the alien temporalities of machine processes

    Ontological View-driven Semantic Integration in Open Environments

    Get PDF
    In an open computing environment, such as the World Wide Web or an enterprise Intranet, various information systems are expected to work together to support information exchange, processing, and integration. However, information systems are usually built by different people, at different times, to fulfil different requirements and goals. Consequently, in the absence of an architectural framework for information integration geared toward semantic integration, there are widely varying viewpoints and assumptions regarding what is essentially the same subject. Therefore, communication among the components supporting various applications is not possible without at least some translation. This problem, however, is much more than a simple agreement on tags or mappings between roughly equivalent sets of tags in related standards. Industry-wide initiatives and academic studies have shown that complex representation issues can arise. To deal with these issues, a deep understanding and appropriate treatment of semantic integration is needed. Ontology is an important and widely accepted approach for semantic integration. However, usually there are no explicit ontologies with information systems. Rather, the associated semantics are implied within the supporting information model. It reflects a specific view of the conceptualization that is implicitly defining an ontological view. This research proposes to adopt ontological views to facilitate semantic integration for information systems in open environments. It proposes a theoretical foundation of ontological views, practical assumptions, and related solutions for research issues. The proposed solutions mainly focus on three aspects: the architecture of a semantic integration enabled environment, ontological view modeling and representation, and semantic equivalence relationship discovery. The solutions are applied to the collaborative intelligence project for the collaborative promotion / advertisement domain. Various quality aspects of the solutions are evaluated and future directions of the research are discussed

    The resource-event-agent ontology as a foundation for business modeling

    Get PDF
    In de praktijk zijn bedrijfsinformatiesystemen—zoals een boekhoudsysteem, een voorraadbeheersysteem, een kostprijscalculatiesysteem, een ordermanagementsysteem — onderdeel van een veel grotere informatieverwerkende omgeving. Bijgevolg is het volgens Moody en Shanks onnuttig om bedrijfsinformatiesystemen los van elkaar te bekijken. In [MS03] stellen en tonen ze aan dat het beschouwen van informatiesystemen binnen deze bredere context cruciaal is voor het verkrijgen van kwaliteitsvolle informatiesystemen. Daarom voegen zijn ‘integratie’toe aan een lijst van reeds bestaande kwaliteitsfactoren voor het ontwerpen van informatiesystemen. Met integratie bedoelen ze de mate waarin de onderliggende infrastructuurmodellen van verschillende bedrijfsinformatiesystemen met elkaar overeenstemmen, wat de samenwerking tussen en het uitwisselen en hergebruik van data door deze systemen moet vergemakkelijken. Bij het ontwerpen van een informatiesysteem starten we met een conceptueel ontwerp. Zo’n conceptueel ontwerp stelt het beoogde informatiesysteem voor zonder details die specifiek zijn voor de gekozen technologie — zoals een webpagina, een database, software — te tonen. Een conceptueel model focust dus op het voorstellen van een conceptuele oplossing voor een bestaand probleem nog voor de technologische oplossing wordt ontworpen. Hoewel zo’n conceptueel model slechts een deel van de uiteindelijke oplossing voorstelt, stelt het de essentie van de oplossing voor—die dan eventueel in verschillende technologie¨en tegelijk kan worden uitgewerkt. Omdat deze oplossing essentieel is, moet een conceptueel model aan een reeks kwaliteitsparameters voldoen. Zo moet een conceptueel model een zo eenvoudig mogelijke maar toch volledige oplossing bieden voor een probleem. Ook moet de oplossing, voorgesteld in het conceptueel model, verstaanbaar zijn voor anderen dan de ontwerpers—bijvoorbeeld de programmeurs die de praktijkoplossing uitwerken of de klant die het systeem besteld heeft en zal gebruiken. Vaak probeert men ook te bereiken dat een systeem flexibel is, waarmee men bedoelt dat de oplossing rekening houdt met mogelijke veranderingen in de omgeving — zonder in te gaan tegen wat als gangbaar wordt beschouwd binnen de bredere informatieverwerkende omgeving of zonder moeilijk te verwezenlijken te zijn binnen het vooropgestelde budget en de beoogde planning. Zonder deze kwaliteitsfactoren uit het oog te verliezen, focussen we in deze doctoraatsthesis op de integratie van informatiesysteemontwerpen, die door Moody en Shanks werd voorgesteld en waarvan zij substanti¨ele voordelen aantoonden. Aangezien er vele verschillende soorten conceptuele modellen bestaan, kiezen wij er in deze thesis twee specifieke soorten uit, namelijk conceptuele datamodellen en simulatiemodellen. We kiezen datamodellen omdat zij een van de meest essenti¨ele soorten conceptuele modellen voorstellen. Conceptuele datamodellen stellen immers de basis van elke informatiesysteem voor. Bijgevolg is de keuze voor of het ontwerp van een datamodel een van de meest cruciale stappen in het ontwerp van een informatiesysteem die invloed heeft op o.a. de uiteindelijke kost van het project, de flexibiliteit van het resulterende systeem, de klantentevredenheid en de integratie met andere (bestaande) informatiesystemen. Waar conceptuele datamodellen ons toelaten een ontwerp te maken voor de data die in informatiesystemen worden bijgehouden over de huidige toestand en historiek van een voor ons relevant deel van de realiteit, laten simulatiemodellen ons toe een ontwerp — dat met potenti¨ele toekomstige situaties kan omgaan — te formuleren van een voor ons relevant deel van een omgeving. Samen laten conceptuele data- en simulatiemodellen ons dus toe het verleden, heden en de toekomst van een voor ons relevant deel van de realiteit voor te stellen. In deze thesis is dat relevant deel van de realiteit de bedrijfseconomische context. Aangezien deze bedrijfseconomische context dynamisch — en dus inherent onstabiel — is met steeds wijzigende en slechts gedeeltelijk gespecificeerde systeemvereisten — wat flexibiliteit vereist — is een speciale aanpak noodzakelijk. Deze aanpak heet ‘Design Science’ [HMJR04] en houdt ook rekening met hoe succesvolle informatiesysteemontwerpen afhankelijk zijn van de cognitieve en sociale vaardigheden van de mensen die deze systemen gebruiken, ontwikkelen en ontwerpen. Om deze flexibiliteit en sociale en cognitieve vaardigheden te ondersteunen, gebruiken we een ontologie als basis voor het ontwerpen van de conceptuele dataen simulatiemodellen in deze doctoraatsthesis. Zo’n ontologie is een gedeelde beschrijving van het probleemdomein (bijvoorbeeld de bedrijfseconomische realiteit). Dat deze beschrijving gedeeld wordt, ondersteunt de sociale en cognitieve vaardigheden van de groep mensen die een informatiesysteem ontwerpt, omdat de beschrijving kan gebruikt worden als een referentiekader voor deze groep mensen. Daarenboven kan dit delen ervoor zorgen dat de beschrijving hergebruikt en verbeterd wordt bij opeenvolgende projecten door verschillende groepen. Dit hergebruik van de beschrijving van het probleemdomein ondersteunt dan impliciet de integratie tussen verschillende projecten, aangezien ze gebaseerd zijn op (verschillende delen van) dezelfde probleembeschrijving. De ontologie die wij in deze thesis hoofdzakelijk hanteren is de Resource- Event-Agent (REA) ontologie. Deze ontologie werd begin jaren ’80 ontwikkeld voor boekhoudinformatiesystemen, met het oog op een gedeelde dataomgeving waarin boekhouders en niet-boekhouders informatie delen over dezelfde economische gebeurtenissen — zoals aankopen, verkopen, productie. De ‘Resources’ beschrijven de producten (i.e. goederen en diensten) die verhandeld en geproduceerd worden. De ‘Events’ beschrijven de gebeurtenissen die de voorraden van deze producten veranderen. Bijvoorbeeld, een verkoop van producten vermindert de voorraad van de verkoper en vermeerdert de voorraad van de aankoper. De ‘Agents’ beschrijven de economische actoren die de goederen en diensten produceren, verkopen en aankopen. Ondertussen werd de REA-ontologie al gebruikt als basis voor boekhoudinformatiesystemen en een ISO open-edi standaard [ISO07] voor het uitwisselen van elektronische bedrijfsdocumenten, als methode voor het onderwijzen van boekhoudinformatiesystemen en nog veel meer. [GLP08] In het eerste hoofdstuk van datamodelsectie gebruiken we de REA- en UFOontologie om conceptuele datamodellen te structureren en af te bakenen zodat ze makkelijker te interpreteren zijn, voornamelijk door onervaren systeemontwerpers. De UFO (i.e. Unified Foundational Ontology) is een ontologie die speciaal werd ontworpen om conceptuele modellen te duiden. [BGHS+05] Van de gestructureerde conceptuele datamodellen wordt verwacht dat ze onervaren ontwerpers helpen conceptuele datamodellen te maken die compleet zijn en geen overbodige onderdelen bevatten. Onvolledige modellen en overbodige onderdelen zijn immers de meest voorkomende fouten die onervaren ontwerpers maken. De gestructureerde datamodellen die aan de onervaren ontwerpers worden aangeboden zijn patronen waarvan al bewezen is dat ze waardevolle oplossingen zijn voor bepaalde problemen binnen een specifieke context. Door deze patronen te structureren volgens de REA- en UFO-ontologie wordt de ontwerper verwacht sneller de overbodige en ontbrekende delen van een patroon te kunnen identificeren, naargelang van het probleem dat hij wenst op te lossen. Door de aangeboden structuur kan de ontwerper ook op zoek naar ontbrekende delen van zijn oplossing in andere patronen, die hij dan kan integreren in zijn bestaande onvolledige oplossing. Dit integreren van patronen heeft twee voordelen. Ten eerste wordt de integratie tussen systemen die (delen) van dezelfde patronen bevatten vergemakkelijkt, ten tweede wordt de kwaliteit van de modellen die werden gemaakt door onervaren informatiesysteemontwerpers verhoogd. In het tweede hoofdstuk van de datamodelsectie gebruiken we de REA-ontologie als basis voor het ontwikkelen van een conceptueel referentiedatamodel dat geschikt is om zowel productie- als transactiedata van verschillende handelspartners voor te stellen. Dat het datamodel data van verschillende handelspartners tegelijkertijd kan voorstellen, heeft als gevolg dat de integratie tussen de bedrijfssystemen van deze handelspartners sterk vergemakkelijkt wordt. Zowel het integreren van de verschillende informatiesystemen van elke individuele handelspartner (bijvoorbeeld verkoopsysteem en voorraadbeheer) als het integreren van informatiesystemen van verschillende handelspartners (bijvoorbeeld een aankoopsysteem met een verkoopsysteem) worden vergemakkelijkt. Het voorstellen van productieen transactiedata van verschillende handelspartners wordt verwezenlijkt door zowel het perspectief van de individuele handelspartners als het perspectief van een onafhankelijke derde partij expliciet in het datamodel te integreren. Door deze keuze is het datamodel geschikt om volledige waardesystemen voor te stellen. Zo’n waardesysteem bestaat uit de transacties tussen handelspartners in een waardenetwerk of toeleveringsketen (supply chain) en de bedrijfsprocessen die elk van deze handelspartners uitvoert. In het derde en laatste hoofdstuk van de datamodelsectie gebruiken we het conceptuele datamodel dat werd voorgesteld in het tweede hoofdstuk om een toepassing te ontwikkelen die het mogelijk maakt historische, huidige en toekomstige product- en geldstromen te volgen in een waardesysteem. Het gekozen voorbeeld toont hoe akkerbouwgewassen worden gebruikt voor humane consumptie en veevoeder. De dierlijke producten worden dan weer gebruikt voor humane consumptie en samen met de landbouwgewassen verwerkt in consumentenproducten. De excrementen vloeien terug naar de akkerbouw. Het beschreven waardesysteem toont hoe goederen- en geldstromen kunnen worden gevolgd bij transacties tussen handelspartners (bijvoorbeeld akkerbouwer en voedermolen) en hoe goederenstromen kunnen worden gevolgd doorheen de productieprocessen van deze handelspartners (bijvoorbeeld het verwerken van akkerbouwgewassen van verschillende herkomst in een lading veevoer). Bovendien toont de ontwikkelde toepassing dat diezelfde data kunnen worden gebruikt om de transacties tussen handelspartners weer te geven (bijvoorbeeld een akkerbouwer die graan verkoopt aan een voedermolen en daarvoor een vergoeding ontvangt). Diezelfde informatie kan dan ook gebruikt worden om geldstromen in kaart te brengen zoals gebeurt met de goederenstromen. Daarenboven wordt gedemonstreerd hoe niet alleen huidige en gewezen, maar ook hoe toekomstige transacties en goederen- en geldstromen in kaart kunnen worden gebracht (o.a. aan de hand van contracten en productieschema’s). In de levensmiddelenindustrie hebben dergelijke systemen voor het traceren van huidige en gewezen goederenstromen al hun nut bewezen wanneer gecontamineerde voedingstoffen werden aangetroffen of getransporteerd vee ziek bleek. Aan de mogelijkheden van dergelijke traceringsystemen voegen wij toe dat niet enkel de bron van de besmetting, maar ook het doel van de goederen en de geldstromen, kan worden ge¨ıdentificeerd. Hierdoor kunnen we de economische gevolgen van zo’n besmetting inschatten aan de hand van contracten en productieschema’s. Met de beschikbare informatie kunnen dan eventueel noodscenario’s worden uitgewerkt om de economische gevolgen van zo’n besmetting te beperken. Ook in andere sectoren kan zo’n traceringssysteem nuttig zijn. Zo kan het in kaart brengen van een volledig waardenetwerk voorkomen dat namaakgoederen in de reguliere handel terechtkomen, of dat geldstromen uit de reguliere economie worden gebruikt om illegale activiteiten wit te wassen of te financieren. Waar het tweede en derde hoofdstuk van de datamodelsectie REA-gebaseerde datamodellen voor de integratie van de informatiesystemen van handelspartners voorstellen, bevat de simulatiemodelsectie REA-gebaseerde simulatiemodelelementen die het toelaten bedrijfsprocesmodellen over bedrijfsgrenzen heen met elkaar te integreren zodat ook simulatiemodellen voor volledige waardesystemen kunnen worden ontwikkeld. De hoofdstukken in de datamodelsectie bevatten dus geen bedrijfsprocesmodellen, maar superstructuren die het mogelijk maken bedrijfsprocesmodellen te hergebruiken en te integreren over de grenzen van de onderneming heen. Daarenboven werden deze superstructuren zo ontworpen dat ze ook als zelfstandige elementen van simulatiemodellen voor transacties tussen handelspartners kunnen worden gebruikt. Dit betekent dan wel dat men abstractie maakt van de bedrijfsprocessen die deze transacties ondersteunen. Het eerste hoofdstuk van de simulatiemodelsectie analyseert de mogelijke configuraties (bijvoorbeeld eerst betalen dan halen, eerst halen dan betalen) voor transacties tussen handelspartners en de manier waarop deze configuraties de interne structuur van een bedrijf be¨ınvloeden. In deze analyse wordt er vooral gekeken naar het vermogen van een bedrijf om zijn activiteiten te financieren met het krediet dat handelspartners verlenen (bijvoorbeeld de betalingstermijn op facturen, voorschotten). De structuren in dit hoofdstuk worden voorgesteld als Petri-net gebaseerde workflowmodellen. Deze workflowmodellen laten toe te evalueren of een gegeven sequentie van transacties externe financiering (bijvoorbeeld een banklening) vereist of niet. Door de verschillende configuraties voor een sequentie van transacties te evalueren kan men de meest optimale (bijvoorbeeld diegene die zo min mogelijk externe financiering vereist) selecteren. Het tweede hoofdstuk van de simulatiemodelsectie bouwt voort op de modellen in het voorgaande hoofdstuk om ook statistische analyses van deze verschillende configuraties mogelijk te maken. In deze analyses hoeft men dus niet meer te vertrekken van een gegeven sequentie van transacties, maar kan men ook onzekerheid en variatie in rekening brengen. Door de REA-elementen toe te voegen aan simulatiemodelelementen, worden de capaciteiten van de huidige generatie statistische simulatiemodellen uitgebreid van het analyseren van logistieke processen naar het analyseren van volledige bedrijfsmodellen met inbegrip van de financi¨ele parameters en resultaten. In tegenstelling tot de workflowmodellen in het eerste hoofdstuk van de simulatiemodelsectie, hebben de statistische simulatiemodellen een gelaagde opbouw. De bovenste laag modelleert de transacties tussen bedrijven, de middelste laag modelleert de interne financi¨ele structuur van bedrijven en de onderste laag bevat bedrijfsprocesmodellen voor individuele bedrijfsprocessen. De gelaagde opbouw laat ons toe zowel de individuele lagen te simuleren als bedrijfsprocesmodellen in interne structuurmodellen te integreren en deze dan weer in transactiemodellen te integreren. In deze thesis ontwikkelen we dus een benadering voor het ontwikkelen en integreren van modellen binnen een bedrijfseconomische context. Deze benadering houdt in dat we conceptuele modellen ontwikkelen vanuit en toetsen aan een bedrijfseconomische ontologie. De bedrijfseconomische ontologie die we in deze thesis gebruiken is de REA-ontologie. Deze thesis toont aan dat de REA-ontologie geschikt is als basis voor het ontwikkelen en integreren van zowel conceptuele datamodellen als simulatiemodellen binnen een bedrijfseconomische context. Door het gebruik van deze benadering zouden we de bedrijfswereld niet enkel moeten kunnen uitrusten met robuustere datamodellen voor de bedrijfsinformatiesystemen die ze dagdagelijks gebruiken, maar ook met krachtigere beslissingsondersteunende hulpmiddelen die hen voorzien van de informatie die ze nodig hebben voor het evalueren en voorspellen van de prestaties van hun bedrijf. Die informatie kan dan zowel van financi¨ele (bijvoorbeeld winstmarges) als operationele (bijvoorbeeld wachttijden) aard zijn. Het evalueren kan gebeuren op basis van de data die zijn opgeslagen in de bedrijfsinformatiesystemen en het voorspellen kan gebeuren door het genereren van hypothetische data in simulatiemodellen voor toekomstige bedrijfsprocessen en omgevingsomstandigheden

    Conceptual Framework for Semantic Interoperability in Sensor-enhanced Health Information Systems (SIOp4Se-HIS)

    Get PDF
    Transducer integration into different accessories such as eyeglasses, wristbands, vest, wristwatches, among others, has brought myriads of physiological data that could be of help in making patients health monitoring easier. However, this myriad of data are generated from different devices with different formats and uncoordinated data types which ultimately compromises the data integrity and renders it medically less importance. Furthermore, several wearables do operate as data island as they cannot incorporate their captured data into the Health Information Systems (HIS) for easy accessibility by the health-care professionals for further processing, interpretation and actions on the patients’ health. Therefore, to enable the flow of data that will be useful to both patient and health-care professional, the existing HIS should be transducer enhanced / enabled, and they should operate at the same semantic interoperability level to allow for exchange of meaningful data from transducers to HIS. In bid to achieve this, several attempts have been made using standards, and archetypes, which goes a long way in providing interoperability at the technical and syntactic level. However, repositories of heterogeneous transducer data as provided by health monitoring systems, requires actionable knowledge of context (environment) from which the data is collected for it to be medically useful and interoperate at the semantic level with the HIS. There are three approaches: the model-driven; standard based and archetype approach but only the ontology driven guarantees making the applications smarter, or make the data smarter. The study propose the latter option using a dual model approach to leverage semantic technologies in order to provide and apply more meaningful health monitoring data representation between transducers and HIS. We approached this study using the design science research methodology and developed a hybrid methodology by combining two methods to develop our ontologies that are based on standards in the domains, with this unique method we achieved a novel approach to solve the obstacle of semantic interoperability through our proposed framework for Semantic Interoperability for Sensor-enhanced Health Information Systems (se-HIS) and bridged the gaps in systems’ interoperability between monitoring units and HIS. The outcome is a robust, explicit conceptual framework for sensor-enhanced health information systems Interoperability (IOp) at the semantic level. This semantically enabled our HIS, to interoperate with Transducers that are compliant with the Institute of Electrical and Electronics Engineers (IEEE) 21451 family of standards, and it provides the ability to query high-level knowledge of the data context as well as low-level raw data accessibility in a multi-transducer enable HIS

    Interoperability of Enterprise Software and Applications

    Get PDF

    A Comprehensive Classification of Business Activities in the Market of Intellectual Property Rights-related Services

    Get PDF
    Technology and intellectual property markets have witnessed great developments in the last few decades. Due to intellectual property rights gaining more importance and technology companies opening up their innovation processes, a wide range of intellectual property rights related services have emerged in the last two decades. The goal of this research is to develop a comprehensive classification system of intellectual property rights related services (IPSC). The classification is created by applying an ontology engineering process. The IPSC consists of 72 various IPR services divided into six main categories (100 Legal Service; 200 IP Consulting; 300 Matchmaking and Trading; 400 IP Portfolio Processing; 500 IPR-related Financial Service; 600 IPR-related Communication Service). The implications of the thesis are directed to policy makers, technology transfer managers, C-level executives and innovation researchers. The IPSC enables practitioners and researchers to organize industry data that can be thereafter analyzed for better strategy and policy making. In addition, this contributes towards organizing a more transparent and single intellectual property market.:Acknowledgements I Abstract II Contents IV List of Figures VI List of Tables VII 1. Introduction 1 1.1. Introduction to Technology Markets 1 1.2. Explanation of Key Concepts 5 1.3. Research Questions and Goals 9 1.4. Readers Guide 13 2. Literature Review 15 2.1. Intellectual Property Markets State of the Art Review 15 2.2. Ontology Engineering State of the Art Review 22 3. Methodology 26 3.1. Methontology 26 3.2. Planning the IPSC 29 3.3. Specification 30 3.4. Conceptualization 31 3.5. Formalization 32 3.6. Integration 32 3.7. Evaluation 33 3.8. Documentation 33 3.9. Realization and Maintenance 33 4. Data description and collection framework 34 5. Applying Methontology 46 5.1. Knowledge Acquisition and Planning the IPSC 46 5.2. Specification 46 5.3. Conceptualization 47 5.4. Formalization 54 100 Legal Service 56 200 IP Consulting 60 300 Matchmaking and Trading 65 400 IP Portfolio Processing 72 500 IPR-related Financial Service 76 600 IPR-related Communication Service 81 5.5. Integration 86 5.6. Evaluation 95 5.7. Documentation 104 5.8. Realization and Maintenance of the IPSC 106 6. Interview Results and Further Discussions 108 6.1. Implications for Industry 108 6.2. Contributions of the IPSC 110 6.3. Limitations of the IPSC and Future Work 112 7. Conclusions 116 References 120 List of experts interviewed and the date of interview 129 Appendices 13
    corecore