6 research outputs found

    Munkaerőpiaci adattárház tervezése kompetenciatrendek elemzésére

    Get PDF
    A munkaerőpiaci kereslet rendkívüli ütemben változik. A kompetenciák és a tudás a kereslet szempontjából gyorsan avulnak, egyre újabb és újabb ismeretekre van szükség. A legfontosabb alapkészségek megalapozásán túl, melyeket a hallgatók hosszú távon használni tudnak, a rövid távú versenyképesség biztosítása érdekében az oktatási intézményeknek folyamatosan összhangban kellene tartania a tanterveket a munkaerőpiaci kereslettel, amit számos tényező befolyásol és előrejelzése egyáltalán nem triviális. Az érintettek, a tárgy- és szakfelelősök legnagyobb nehézsége ebből a szempontból az, hogy nem látják előre az igények változását. Ha objektív képet kaphatnának arról, hogy a kompetenciák iránti kereslet hogyan alakul a munkaerőpiacon, akkor következtetéseket tudnának levonni a jövőbeli trendekre vonatkozóan. A legfontosabb információ, amire egy ilyen előrejelzéshez szükség van, az a munkaerőpiaci kereslet reprezentációja az egyes pillanatokban, idősorosan rögzítve. Ezt tulajdonképpen „pillanatképek” összességének is felfoghatjuk az egyes időpillanatokban igényelt kompetenciahalmazokról. Disszertációmban erre, a kompetenciakereslet és a felsőoktatási kínálat rövid távú összehangolására igyekszem fókuszálni egy olyan keretrendszer felvázolásával, melynek segítségével a munkaerőpiaci trendek és a keresletet leíró adatok valós időben elemezhetőek. Egy munkaerőpiaci „adattárház” koncepciójának kidolgozására teszek kísérletet, melyben a keresletre vonatkozó, álláshirdetésekben megjelenő információk összegyűjthetőek. Megvizsgálok olyan módszereket, melyek segítségével az állásajánlatokban explicit és implicit módon megjelenő, kompetenciakeresletet tükröző információk kinyerhetőek. Egy ilyen jellegű információforrás segítségével a felsőoktatás döntéshozói folyamatosan hozzá tudnák igazítani a kurzusok tematikáját a munkaerőpiaci kereslethez, és olyan kompetenciák elsajátítására tudnak lehetőséget kínálni a hallgatóknak, amit azok karrierjük első éveiben sikeresen értékesíteni tudnak a piacon. Az első kutatási kérdésem célja az adattárolási architektúra kiválasztását megalapozó szempontrendszer, majd segítségével a legmegfelelőbb architektúramodell kidolgozása volt. Implementáltam az adatokat legyűjtő scraper alkalmazást és elkezdtem az automatizált adatgyűjtést. 2019 januárjától közel négyszázezer hirdetést gyűjtöttem össze. Kidolgoztam az adatoknak egy lehetséges modelljét, továbbá a kiválasztási szempontok részletes vizsgálatával ajánlást tettem a megvalósításra javasolt adattárolási architektúrára. Kutatásom ezen szakasza feltáró jellegű. Az architektúraválasztási szempontrendszert szekunder kutatás, illetve szakirodalmi áttekintés segítségével dolgoztam ki. A munkaerőpiaci adattárház legfontosabb céljaként fogalmaztam meg, hogy a hirdetések kompetenciatartalmáról, annak időbeli- és térbeli alakulásáról hasznos információkat szolgáltasson a döntéshozók számára. Disszertációm második kutatási kérdéséhez kapcsolódóan bemutattam olyan módszereket, melyekkel hatékonyan kinyerhető ez az információ a hirdetések szövegéből. Bemutattam gyakori szövegbányászati – az egyes2 kifejezések előfordulási gyakoriságára alapuló – módszereket. Külső ontológiákban található kompetenciakifejezések és karakterláncok hasonlóságát számszerűsítő metrikák segítségével felépítettem egy logit modellt, melynek tesztadatokon mért felidézési aránya 85%, míg a precizitása 71,9%. Mivel a folyamatba való manuális beavatkozás kezdetben elkerülhetetlen, azaz mielőtt elfogadhatnánk ezeket a kompetenciajelölteket valós kompetenciaként, egy szakértőnek át kell néznie az eredményeket, így a modell elfogadható, mint ami hasznos információkkal tud szolgálni, és hozzáadott értékkel bír. A kutatás harmadik nagy blokkjában megvizsgáltam, hogy az álláshirdetésekben közvetlenül nem megjelenő, látens kompetenciák beazonosítása milyen módszerekkel lehetséges. Kidolgoztam egy reguláris kifejezésekre és egyszerű szabályokra alapuló módszert, melynek segítségével a 2019 októberi álláshirdetések 23,7%-át tudtam foglalkozáshoz kapcsolni, 97,5%- ban helyesen. Részletesen bemutattam egy döntési fára alapuló osztályozó modellt, melynek segítségével arra tettem kísérletet, hogy a hirdetéseket – címük alapján – a felhasznált ontológiákban leírt foglalkozásokhoz társítsam. A legjobbként elfogadott modell teszthalmazon mért precizitása 58%, míg felidézési aránya 68%, ami bár nem kiemelkedő, de felveszi a versenyt az irodalomban általam fellelt, hasonló feladatra megalkotott modellekkel (Amato et al. 2015). Saját t-SNE módszerrel végzett kísérletem alapján megerősítettem Csepregi (2020) eredményeit, miszerint az álláshirdetések klaszterei (témacsoportok) nem, vagy csak nagyon korlátozottan, kis hatásfokkal beazonosíthatóak azok leírásából készült tf-idf mátrix alapján. A 7. fejezet utolsó részében bemutattam egy harmadik lehetséges irányt a látens igények feltárására, az explicit megjelenő kompetenciák ontológiakapcsolatainak segítségéve

    Systematische Analyse des aktuellen Forschungsstandes von Prozessmodellen im Kontext der Industrie 4.0

    Get PDF
    Die Schlagwörter Smart Factory, Cloud-Computing sowie Internet-of-Things sind in den ver-gangenen Jahren in den Fokus von Wirtschaft und Politik gerückt. Sie stehen für einen ver-meintlichen Paradigmenwandel, der sogenannten vierten industriellen Revolution, die im deutschsprachigen Raum unter dem Konzept der „Industrie 4.0“ bekannt ist. Die vorliegende Masterarbeit gibt einen umfassenden Überblick über die aktuellen Verständ-nisse von Prozessmodellen und deren mögliche Anwendungen im Zusammenhang mit den Themen dieser vierten industriellen Revolution. Ziel der Arbeit ist es, mit Hilfe einer systema-tischen Analyse der aktuellen Fachliteratur verschiedene Prozessmodellierungsansätze im Kontext der Industrie 4.0 zu identifizieren und zu präsentieren. In diesem Zusammenhang wird eine Untersuchung über den zeitlichen Verlauf von Publikationen, über die unterschiedlichen Themenschwerpunkte der wissenschaftlichen Untersuchungen und der Relevanz für die je-weiligen Forschungsgebiete durchgeführt. Vor dem Hintergrund der Industrie 4.0 sollen die Untersuchungsergebnisse momentane An-wendungsgebiete der Prozessmodellierung in Unternehmen und Forschungsbemühungen der Wissenschaft aufzeigen, sowie weitere potenzielle Applikationen und offene Fragen untersu-chen

    Data-driven conceptual modeling: how some knowledge drivers for the enterprise might be mined from enterprise data

    Get PDF
    As organizations perform their business, they analyze, design and manage a variety of processes represented in models with different scopes and scale of complexity. Specifying these processes requires a certain level of modeling competence. However, this condition does not seem to be balanced with adequate capability of the person(s) who are responsible for the task of defining and modeling an organization or enterprise operation. On the other hand, an enterprise typically collects various records of all events occur during the operation of their processes. Records, such as the start and end of the tasks in a process instance, state transitions of objects impacted by the process execution, the message exchange during the process execution, etc., are maintained in enterprise repositories as various logs, such as event logs, process logs, effect logs, message logs, etc. Furthermore, the growth rate in the volume of these data generated by enterprise process execution has increased manyfold in just a few years. On top of these, models often considered as the dashboard view of an enterprise. Models represents an abstraction of the underlying reality of an enterprise. Models also served as the knowledge driver through which an enterprise can be managed. Data-driven extraction offers the capability to mine these knowledge drivers from enterprise data and leverage the mined models to establish the set of enterprise data that conforms with the desired behaviour. This thesis aimed to generate models or knowledge drivers from enterprise data to enable some type of dashboard view of enterprise to provide support for analysts. The rationale for this has been started as the requirement to improve an existing process or to create a new process. It was also mentioned models can also serve as a collection of effectors through which an organization or an enterprise can be managed. The enterprise data refer to above has been identified as process logs, effect logs, message logs, and invocation logs. The approach in this thesis is to mine these logs to generate process, requirement, and enterprise architecture models, and how goals get fulfilled based on collected operational data. The above a research question has been formulated as whether it is possible to derive the knowledge drivers from the enterprise data, which represent the running operation of the enterprise, or in other words, is it possible to use the available data in the enterprise repository to generate the knowledge drivers? . In Chapter 2, review of literature that can provide the necessary background knowledge to explore the above research question has been presented. Chapter 3 presents how process semantics can be mined. Chapter 4 suggest a way to extract a requirements model. The Chapter 5 presents a way to discover the underlying enterprise architecture and Chapter 6 presents a way to mine how goals get orchestrated. Overall finding have been discussed in Chapter 7 to derive some conclusions

    Scalable integration of uncertainty reasoning and semantic web technologies

    Full text link
    In recent years formal logical standards for knowledge representation to model real world knowledge and domains and make them accessible for computers gained a lot of trac- tion. They provide an expressive logical framework for modeling, consistency checking, reasoning, and query answering, and have proven to be versatile methods to capture knowledge of various fields. Those formalisms and methods focus on specifying knowl- edge as precisely as possible. At the same time, many applications in particular on the Semantic Web have to deal with uncertainty in their data; and handling uncertain knowledge is crucial in many real- world domains. However, regular logic is unable to capture the real-world properly due to its inherent complexity and uncertainty, all the while handling uncertain or incomplete information is getting more and more important in applications like expert system, data integration or information extraction. The overall objective of this dissertation is to identify scenarios and datasets where methods that incorporate their inherent uncertainty improve results, and investigate approaches and tools that are suitable for the respective task. In summary, this work is set out to tackle the following objectives: 1. debugging uncertain knowledge bases in order to generate consistent knowledge graphs to make them accessible for logical reasoning, 2. combining probabilistic query answering and logical reasoning which in turn uses these consistent knowledge graphs to answer user queries, and 3. employing the aforementioned techniques to the problem of risk management in IT infrastructures, as a concrete real-world application. We show that in all those scenarios, users can benefit from incorporating uncertainty in the knowledge base. Furthermore, we conduct experiments that demonstrate the real- world scalability of the demonstrated approaches. Overall, we argue that integrating uncertainty and logical reasoning, despite being theoretically intractable, is feasible in real-world application and warrants further research

    Enabling Ubiquitous OLAP Analyses

    Get PDF
    An OLAP analysis session is carried out as a sequence of OLAP operations applied to multidimensional cubes. At each step of a session, an operation is applied to the result of the previous step in an incremental fashion. Due to its simplicity and flexibility, OLAP is the most adopted paradigm used to explore the data stored in data warehouses. With the goal of expanding the fruition of OLAP analyses, in this thesis we touch several critical topics. We first present our contributions to deal with data extractions from service-oriented sources, which are nowadays used to provide access to many databases and analytic platforms. By addressing data extraction from these sources we make a step towards the integration of external databases into the data warehouse, thus providing richer data that can be analyzed through OLAP sessions. The second topic that we study is that of visualization of multidimensional data, which we exploit to enable OLAP on devices with limited screen and bandwidth capabilities (i.e., mobile devices). Finally, we propose solutions to obtain multidimensional schemata from unconventional sources (e.g., sensor networks), which are crucial to perform multidimensional analyses
    corecore