8 research outputs found
Introducing DASC-PM: A Data Science Process Model
Data-driven disciplines like data mining and knowledge management already provide process-based frameworks for data analysis projects, such as the well-known cross-industry standard process for data mining (CRISP-DM) or knowledge discovery in databases (KDD). Although the domain of data science addresses a much broader problem space, i.e., also considers economic, social, and ecological impacts of data-driven projects, a corresponding domain-specific process model is still missing. Consequently, based on a total of four identified meta requirements and 17 corresponding requirements that were collected from experts of theory and practice, this contribution proposes the empirically grounded data science process model (DASC-PM)—a framework that maps a data science project as a four-step process model and contextualizes it among scientific procedures, various areas of application, IT infrastructures, and impacts. To illustrate the phase-oriented specification capabilities of the DASCPM, we exemplarily present competence and role profiles for the analysis phase of a data science project
DASC-PM v1.0 : ein Vorgehensmodell fĂĽr Data-Science-Projekte
Das Thema Data Science hat in den letzten Jahren in vielen Organisationen stark an Aufmerksamkeit gewonnen. Häufig herrscht jedoch weiterhin große Unklarheit darüber, wie diese Disziplin von anderen abzugrenzen ist, welche Besonderheiten der Ablauf eines Data-Science-Projekts besitzt und welche Kompetenzen vorhanden sein müssen, um ein solches Projekt durchzuführen. In der Hoffnung, einen kleinen Beitrag zur Beseitigung dieser Unklarheiten leisten zu können, haben wir von April 2019 bis Februar 2020 in einer offenen und virtuellen Arbeitsgruppe mit Vertretern aus Theorie und Praxis das vorliegende Dokument erarbeitet, in dem ein Vorgehensmodell für Data-Science-Projekte beschrieben wird – das Data Science Process Model (DASC-PM). Ziel war es dabei nicht, neue Herangehensweisen zu entwickeln, sondern viel-mehr, vorhandenes Wissen zusammenzutragen und in geeigneter Form zu strukturieren. Die Ausarbeitung ist als Zusammenführung der Erfahrung sämtlicher Teilnehmerinnen und Teilnehmer dieser Arbeitsgruppe zu verstehen
Enhancing Text Classification to Improve Information Filtering
Text classification, information filtering, semi-supervised learning, quality controlMagdeburg, Univ., Fak. fĂĽr Informatik, Diss., 2001von Carsten Lanquillo
Information Filtering in Changing Domains
The task of information filtering is to classify documents from a stream into either relevant or irrelevant according to a particular user interest with the objective to reduce information load. When using an information filter in an environment that is changing as time proceeds, methods for adapting the filter should be considered in order to retain the desired accuracy in classification. We favor a methodology that attempts to detect changes and adapts the information filter only if inevitable in order to minimize the amount of user feedback for providing new training data. Nevertheless, detecting changes may require costly user feedback as well. This paper explores a method for detecting changes without user feedback and briefly discusses strategies for adapting information filters. Empirical results with two simulated change scenarios based on real-world text data show that our adaptive information filters perform well in changing domains even without user feedback. 1 Introduction..
Connect.Me: A Step Towards Hybrid Intelligence
[EN] Artificial Intelligence (AI) is drastically transforming the world around us. Rather than replacing humans, hybrid intelligence combines human and machine intelligence to leverage each of their individual strengths. We summarize different requirements and approaches identified to achieve hybrid intelligence and focus on conversational AI to build a cognitive agent that supports knowledge management within an organization. The agent automatically extracts knowledge from artifacts provided or published by the users. In addition, the knowledge base steadily grows while the agent talks to the users and the users provide feedback and the system is continuously learning to extract new types of entities and relations to answer more questions based on the knowledge graph and to access other sources of information. The first types of entities and relations extracted already support users in finding colleagues with relevant skills or interests. Based on information provided by the agent, collaboration among employees and, thus, knowledge sharing and transfer is encouraged. The collaboration between the cognitive agent as an AI artifact and employees combined with a system that learns and adapts while in use stressing explainability and trust in its answers entails a step towards hybrid intelligence.Lanquillon, C.; Schacht, S. (2023). Connect.Me: A Step Towards Hybrid Intelligence. Editorial Universitat Politècnica de València. 208-219. https://doi.org/10.4995/BMT2022.2022.1562920821
Künstliche Intelligenz und Digitaler Zwilling in der Produktion – Forschung zu Leitanwendungen und dem Transfer in die Industrie
Der Einsatz von Methoden der kĂĽnstlichen Intelligenz (KI) in der automatisierten Produktion ist aktuell noch immer sehr
herausfordernd. Angepasste Lösungen der KI lassen sich zu wenig auf andere Anwendungsfälle übertragen, die Einrichtung
und Bedienung der KI-Ansätze erfordert tiefes fachliches Knowhow und deren Ergebnisse sind durch Menschen oft
schwer und nicht vollständig nachvollziehbar. Zudem liegen Datenschätze zum Teil in Unternehmen vor, es fehlt aber an
Werkzeugen, diese auszuwerten. In einem von der Carl-Zeiss-Stiftung geförderten interdisziplinären Projekt wird diesen
Problemstellungen forschungsmäßig begegnet und Lösungsmöglichkeiten anhand industrieller Leitanwendungen aufgezeigt.
Neben den Leitanwendungen und der zugesagten industriellen Kooperation wird das „Center for industrial AI“ als
dauerhafte Struktur an der Hochschule Heilbronn eingerichtet, um den Ergebnistransfer nachhaltig zu sichern