3,933 research outputs found

    Semantics-Empowered Big Data Processing with Applications

    Get PDF
    We discuss the nature of Big Data and address the role of semantics in analyzing and processing Big Data that arises in the context of Physical-Cyber-Social Systems. We organize our research around the Five Vs of Big Data, where four of the Vs are harnessed to produce the fifth V - value. To handle the challenge of Volume, we advocate semantic perception that can convert low-level observational data to higher-level abstractions more suitable for decision-making. To handle the challenge of Variety, we resort to the use of semantic models and annotations of data so that much of the intelligent processing can be done at a level independent of heterogeneity of data formats and media. To handle the challenge of Velocity, we seek to use continuous semantics capability to dynamically create event or situation specific models and recognize relevant new concepts, entities and facts. To handle Veracity, we explore the formalization of trust models and approaches to glean trustworthiness. The above four Vs of Big Data are harnessed by the semantics-empowered analytics to derive value for supporting practical applications transcending physical-cyber-social continuum

    Wiki: A Technology for Conversational Knowledge Management and Group Collaboration

    Get PDF
    Wikis (from wikiwiki, meaning fast in Hawaiian) are a promising new technology that supports conversational knowledge creation and sharing. A Wiki is a collaboratively created and iteratively improved set of web pages, together with the software that manages the web pages. Because of their unique way of creating and managing knowledge, Wikis combine the best elements of earlier conversational knowledge management technologies, while avoiding many of their disadvantages. This article introduces Wiki technology, the behavioral and organizational implications of Wiki use, and Wiki applicability as groupware and help system software. The article concludes that organizations willing to embrace the Wiki way with collaborative, conversational knowledge management systems, may enjoy better than linear knowledge growth while being able to satisfy ad-hoc, distributed knowledge needs

    NASA space station automation: AI-based technology review

    Get PDF
    Research and Development projects in automation for the Space Station are discussed. Artificial Intelligence (AI) based automation technologies are planned to enhance crew safety through reduced need for EVA, increase crew productivity through the reduction of routine operations, increase space station autonomy, and augment space station capability through the use of teleoperation and robotics. AI technology will also be developed for the servicing of satellites at the Space Station, system monitoring and diagnosis, space manufacturing, and the assembly of large space structures

    Pushing the boundaries for automated data reconciliation in official statistics

    Get PDF
    Jacco Daalmans presenteert een nieuwe wiskundige methode voor het ‘consistent maken’ van gegevens (data reconciliation) in officiële statistieken door statistische bureaus zoals het CBS. Wanneer één statistiek op meerdere plekken gepubliceerd wordt, dan moeten de uitkomsten hetzelfde zijn. Een aantal mag niet in de ene publicatie anders zijn dan in een andere. Een verschil in uitkomsten levert verwarring op. Eén van de oorzaken van verschillende uitkomsten is dat cijfers die een statistisch bureau verzamelt en verwerkt, uit tal van bronnen komen die meestal niet consistent zijn. Statistieken moeten ook aan onderlinge relaties voldoen. Een voorbeeld is dat twaalf maandcijfers op moeten tellen tot één jaarcijfer. Wanneer hier niet aan is voldaan, kan men naast het gegeven jaarcijfer, een alternatief jaarcijfer afleiden door de onderliggende maandcijfers op te tellen. Ook dan geen eenduidigheid over het ‘ware’ cijfer. Dit strookt niet met het doel van statistische bureaus om onbetwistbare statistieken te leveren. Om consistente statistische uitkomsten te maken is het nodig om gegevens aan te passen. De uitkomsten van verschillende statistieken worden een klein beetje gewijzigd, om ze daarmee beter op elkaar af te stemmen, bijvoorbeeld om te zorgen dat twaalf maandcijfers optellen tot een jaarcijfer. In het proefschrift wordt een nieuwe wiskundige methode voor formele data integratie ontwikkeld en toegepast. De nieuwe methode wordt nu op het CBS toegepast voor het samenstellen van Nationale Rekeningen. Dit gaat om zeer grote en gedetailleerde tabellen, die kunnen worden gezien als boekhouding van een land. Het bruto binnenlands product (BBP) is het bekendste cijfer uit de Nationale Rekeningen. Het aanpassen van data uit de Nationale Rekening is lastig omdat het gaat om zeer veel gegevens die onderling een sterke samenhang hebben. Stel bijvoorbeeld dat uit een confrontatie van bronnen blijkt dat de productie van een bepaald product naar boven moet worden bijgesteld. Dit betekent dat ook meer grondstof moet zijn verbruikt en dit betekent dan weer dat er ook meer van die grondstof moet zijn geproduceerd, of geïmporteerd, etc. Vóór de ingebruikneming van de wiskundige methode hingen correcties meer af van informele methoden zoals inschattingen van experts. De introductie van de formele, wiskundige methode vergroot de reproduceerbaarheid en transparantie van de statistiek. De methode die in het proefschrift is voorgesteld is vergeleken met een andere methode, die door een ander statistisch bureau is toegepast. De nieuwe methode heeft een belangrijke eigenschap waaraan de andere methode niet voldoet. Kortgezegd houdt die eigenschap in dat de resultaten hetzelfde moeten blijven als de richting van de tijd zou worden omgekeerd. Het proefschrift onderzoekt verder toepassingen van data integratiemethoden buiten het traditionele toepassingsgebied van de Nationale Rekeningen, zoals bij de volkstelling en bij bedrijfseconomische statistieken. De voorgestelde methoden blijken sommige problemen van de huidig toegepaste methoden te vermijden

    Using supply chain databases in academic research: A methodological critique

    Get PDF
    This article outlines the main methodological implications of using Bloomberg SPLC, FactSet Supply Chain Relationships, and Mergent Supply Chain for academic purposes. These databases provide secondary data on buyer–supplier relationships that have been publicly disclosed. Despite the growing use of these databases in supply chain management (SCM) research, several potential validity and reliability issues have not been systematically and openly addressed. This article thus expounds on challenges of using these databases that are caused by (1) inconsistency between data, SCM constructs, and research questions (data fit); (2) errors caused by the databases' classifications and assumptions (data accuracy); and (3) limitations due to the inclusion of only publicly disclosed buyer–supplier relationships involving specific focal firms (data representativeness). The analysis is based on a review of previous studies using Bloomberg SPLC, FactSet Supply Chain Relationships, and Mergent Supply Chain, publicly available materials, interviews with information service providers, and the direct experience of the authors. Some solutions draw upon established methodological literature on the use of secondary data. The article concludes by providing summary guidelines and urging SCM researchers toward greater methodological transparency when using these databases
    • …
    corecore