6 research outputs found
Munkaerőpiaci adattárház tervezése kompetenciatrendek elemzésére
A munkaerĹ‘piaci kereslet rendkĂvĂĽli ĂĽtemben változik. A kompetenciák Ă©s a tudás a kereslet
szempontjából gyorsan avulnak, egyre újabb és újabb ismeretekre van szükség. A legfontosabb
alapkészségek megalapozásán túl, melyeket a hallgatók hosszú távon használni tudnak, a rövid
távĂş versenykĂ©pessĂ©g biztosĂtása Ă©rdekĂ©ben az oktatási intĂ©zmĂ©nyeknek folyamatosan
összhangban kellene tartania a tanterveket a munkaerőpiaci kereslettel, amit számos tényező
befolyásol és előrejelzése egyáltalán nem triviális. Az érintettek, a tárgy- és szakfelelősök
legnagyobb nehézsége ebből a szempontból az, hogy nem látják előre az igények változását.
Ha objektĂv kĂ©pet kaphatnának arrĂłl, hogy a kompetenciák iránti kereslet hogyan alakul a
munkaerőpiacon, akkor következtetéseket tudnának levonni a jövőbeli trendekre vonatkozóan.
A legfontosabb információ, amire egy ilyen előrejelzéshez szükség van, az a munkaerőpiaci
kereslet reprezentáciĂłja az egyes pillanatokban, idĹ‘sorosan rögzĂtve. Ezt tulajdonkĂ©ppen
„pillanatképek” összességének is felfoghatjuk az egyes időpillanatokban igényelt
kompetenciahalmazokrĂłl.
DisszertáciĂłmban erre, a kompetenciakereslet Ă©s a felsĹ‘oktatási kĂnálat rövid távĂş
összehangolására igyekszem fókuszálni egy olyan keretrendszer felvázolásával, melynek
segĂtsĂ©gĂ©vel a munkaerĹ‘piaci trendek Ă©s a keresletet leĂrĂł adatok valĂłs idĹ‘ben elemezhetĹ‘ek.
Egy munkaerĹ‘piaci „adattárház” koncepciĂłjának kidolgozására teszek kĂsĂ©rletet, melyben a
keresletre vonatkozó, álláshirdetésekben megjelenő információk összegyűjthetőek.
Megvizsgálok olyan mĂłdszereket, melyek segĂtsĂ©gĂ©vel az állásajánlatokban explicit Ă©s implicit
módon megjelenő, kompetenciakeresletet tükröző információk kinyerhetőek. Egy ilyen jellegű
informáciĂłforrás segĂtsĂ©gĂ©vel a felsĹ‘oktatás döntĂ©shozĂłi folyamatosan hozzá tudnák igazĂtani
a kurzusok tematikáját a munkaerĹ‘piaci kereslethez, Ă©s olyan kompetenciák elsajátĂtására
tudnak lehetĹ‘sĂ©get kĂnálni a hallgatĂłknak, amit azok karrierjĂĽk elsĹ‘ Ă©veiben sikeresen
Ă©rtĂ©kesĂteni tudnak a piacon.
Az első kutatási kérdésem célja az adattárolási architektúra kiválasztását megalapozó
szempontrendszer, majd segĂtsĂ©gĂ©vel a legmegfelelĹ‘bb architektĂşramodell kidolgozása volt.
Implementáltam az adatokat legyűjtő scraper alkalmazást és elkezdtem az automatizált
adatgyűjtést. 2019 januárjától közel négyszázezer hirdetést gyűjtöttem össze. Kidolgoztam az
adatoknak egy lehetséges modelljét, továbbá a kiválasztási szempontok részletes vizsgálatával
ajánlást tettem a megvalĂłsĂtásra javasolt adattárolási architektĂşrára. Kutatásom ezen szakasza
feltáró jellegű. Az architektúraválasztási szempontrendszert szekunder kutatás, illetve
szakirodalmi áttekintĂ©s segĂtsĂ©gĂ©vel dolgoztam ki.
A munkaerőpiaci adattárház legfontosabb céljaként fogalmaztam meg, hogy a hirdetések
kompetenciatartalmáról, annak időbeli- és térbeli alakulásáról hasznos információkat
szolgáltasson a döntéshozók számára. Disszertációm második kutatási kérdéséhez
kapcsolódóan bemutattam olyan módszereket, melyekkel hatékonyan kinyerhető ez az
információ a hirdetések szövegéből. Bemutattam gyakori szövegbányászati – az egyes2
kifejezések előfordulási gyakoriságára alapuló – módszereket. Külső ontológiákban található
kompetenciakifejezĂ©sek Ă©s karakterláncok hasonlĂłságát számszerűsĂtĹ‘ metrikák segĂtsĂ©gĂ©vel
felĂ©pĂtettem egy logit modellt, melynek tesztadatokon mĂ©rt felidĂ©zĂ©si aránya 85%, mĂg a
precizitása 71,9%. Mivel a folyamatba való manuális beavatkozás kezdetben elkerülhetetlen,
azaz mielőtt elfogadhatnánk ezeket a kompetenciajelölteket valós kompetenciaként, egy
szakĂ©rtĹ‘nek át kell nĂ©znie az eredmĂ©nyeket, Ăgy a modell elfogadhatĂł, mint ami hasznos
informáciĂłkkal tud szolgálni, Ă©s hozzáadott Ă©rtĂ©kkel bĂr.
A kutatás harmadik nagy blokkjában megvizsgáltam, hogy az álláshirdetésekben közvetlenül
nem megjelenĹ‘, látens kompetenciák beazonosĂtása milyen mĂłdszerekkel lehetsĂ©ges.
Kidolgoztam egy reguláris kifejezésekre és egyszerű szabályokra alapuló módszert, melynek
segĂtsĂ©gĂ©vel a 2019 oktĂłberi álláshirdetĂ©sek 23,7%-át tudtam foglalkozáshoz kapcsolni, 97,5%-
ban helyesen. Részletesen bemutattam egy döntési fára alapuló osztályozó modellt, melynek
segĂtsĂ©gĂ©vel arra tettem kĂsĂ©rletet, hogy a hirdetĂ©seket – cĂmĂĽk alapján – a felhasznált
ontolĂłgiákban leĂrt foglalkozásokhoz társĂtsam. A legjobbkĂ©nt elfogadott modell teszthalmazon
mĂ©rt precizitása 58%, mĂg felidĂ©zĂ©si aránya 68%, ami bár nem kiemelkedĹ‘, de felveszi a
versenyt az irodalomban általam fellelt, hasonló feladatra megalkotott modellekkel (Amato et
al. 2015). Saját t-SNE mĂłdszerrel vĂ©gzett kĂsĂ©rletem alapján megerĹ‘sĂtettem Csepregi (2020)
eredményeit, miszerint az álláshirdetések klaszterei (témacsoportok) nem, vagy csak nagyon
korlátozottan, kis hatásfokkal beazonosĂthatĂłak azok leĂrásábĂłl kĂ©szĂĽlt tf-idf mátrix alapján. A
7. fejezet utolsó részében bemutattam egy harmadik lehetséges irányt a látens igények
feltárására, az explicit megjelenĹ‘ kompetenciák ontolĂłgiakapcsolatainak segĂtsĂ©gĂ©ve
Systematische Analyse des aktuellen Forschungsstandes von Prozessmodellen im Kontext der Industrie 4.0
Die Schlagwörter Smart Factory, Cloud-Computing sowie Internet-of-Things sind in den ver-gangenen Jahren in den Fokus von Wirtschaft und Politik gerückt. Sie stehen für einen ver-meintlichen Paradigmenwandel, der sogenannten vierten industriellen Revolution, die im deutschsprachigen Raum unter dem Konzept der „Industrie 4.0“ bekannt ist.
Die vorliegende Masterarbeit gibt einen umfassenden Überblick über die aktuellen Verständ-nisse von Prozessmodellen und deren mögliche Anwendungen im Zusammenhang mit den Themen dieser vierten industriellen Revolution. Ziel der Arbeit ist es, mit Hilfe einer systema-tischen Analyse der aktuellen Fachliteratur verschiedene Prozessmodellierungsansätze im Kontext der Industrie 4.0 zu identifizieren und zu präsentieren. In diesem Zusammenhang wird eine Untersuchung über den zeitlichen Verlauf von Publikationen, über die unterschiedlichen Themenschwerpunkte der wissenschaftlichen Untersuchungen und der Relevanz für die je-weiligen Forschungsgebiete durchgeführt.
Vor dem Hintergrund der Industrie 4.0 sollen die Untersuchungsergebnisse momentane An-wendungsgebiete der Prozessmodellierung in Unternehmen und ForschungsbemĂĽhungen der Wissenschaft aufzeigen, sowie weitere potenzielle Applikationen und offene Fragen untersu-chen
Data-driven conceptual modeling: how some knowledge drivers for the enterprise might be mined from enterprise data
As organizations perform their business, they analyze, design and manage a variety of processes represented in models with different scopes and scale of complexity. Specifying these processes requires a certain level of modeling competence. However, this condition does not seem to be balanced with adequate capability of the person(s) who are responsible for the task of defining and modeling an organization or enterprise operation.
On the other hand, an enterprise typically collects various records of all events occur during the operation of their processes. Records, such as the start and end of the tasks in a process instance, state transitions of objects impacted by the process execution, the message exchange during the process execution, etc., are maintained in enterprise repositories as various logs, such as event logs, process logs, effect logs, message logs, etc. Furthermore, the growth rate in the volume of these data generated by enterprise process execution has increased manyfold in just a few years.
On top of these, models often considered as the dashboard view of an enterprise. Models represents an abstraction of the underlying reality of an enterprise. Models also served as the knowledge driver through which an enterprise can be managed. Data-driven extraction offers the capability to mine these knowledge drivers from enterprise data and leverage the mined models to establish the set of enterprise data that conforms with the desired behaviour.
This thesis aimed to generate models or knowledge drivers from enterprise data to enable some type of dashboard view of enterprise to provide support for analysts. The rationale for this has been started as the requirement to improve an existing process or to create a new process. It was also mentioned models can also serve as a collection of effectors through which an organization or an enterprise can be managed.
The enterprise data refer to above has been identified as process logs, effect logs, message logs, and invocation logs. The approach in this thesis is to mine these logs to generate process, requirement, and enterprise architecture models, and how goals get fulfilled based on collected operational data.
The above a research question has been formulated as whether it is possible to derive the knowledge drivers from the enterprise data, which represent the running operation of the enterprise, or in other words, is it possible to use the available data in the enterprise repository to generate the knowledge drivers? .
In Chapter 2, review of literature that can provide the necessary background knowledge to explore the above research question has been presented. Chapter 3 presents how process semantics can be mined. Chapter 4 suggest a way to extract a requirements model. The Chapter 5 presents a way to discover the underlying enterprise architecture and Chapter 6 presents a way to mine how goals get orchestrated. Overall finding have been discussed in Chapter 7 to derive some conclusions
Scalable integration of uncertainty reasoning and semantic web technologies
In recent years formal logical standards for knowledge representation to model real world knowledge and domains and make them accessible for computers gained a lot of trac- tion. They provide an expressive logical framework for modeling, consistency checking, reasoning, and query answering, and have proven to be versatile methods to capture knowledge of various fields. Those formalisms and methods focus on specifying knowl- edge as precisely as possible.
At the same time, many applications in particular on the Semantic Web have to deal with uncertainty in their data; and handling uncertain knowledge is crucial in many real- world domains. However, regular logic is unable to capture the real-world properly due to its inherent complexity and uncertainty, all the while handling uncertain or incomplete information is getting more and more important in applications like expert system, data integration or information extraction.
The overall objective of this dissertation is to identify scenarios and datasets where methods that incorporate their inherent uncertainty improve results, and investigate approaches and tools that are suitable for the respective task. In summary, this work is set out to tackle the following objectives:
1. debugging uncertain knowledge bases in order to generate consistent knowledge graphs to make them accessible for logical reasoning,
2. combining probabilistic query answering and logical reasoning which in turn uses these consistent knowledge graphs to answer user queries, and
3. employing the aforementioned techniques to the problem of risk management in IT infrastructures, as a concrete real-world application.
We show that in all those scenarios, users can benefit from incorporating uncertainty in the knowledge base. Furthermore, we conduct experiments that demonstrate the real- world scalability of the demonstrated approaches. Overall, we argue that integrating uncertainty and logical reasoning, despite being theoretically intractable, is feasible in real-world application and warrants further research
Enabling Ubiquitous OLAP Analyses
An OLAP analysis session is carried out as a sequence of OLAP operations applied to multidimensional cubes. At each step of a session, an operation is applied to the result of the previous step in an incremental fashion. Due to its simplicity and flexibility, OLAP is the most adopted paradigm used to explore the data stored in data warehouses. With the goal of expanding the fruition of OLAP analyses, in this thesis we touch several critical topics. We first present our contributions to deal with data extractions from service-oriented sources, which are nowadays used to provide access to many databases and analytic platforms. By addressing data extraction from these sources we make a step towards the integration of external databases into the data warehouse, thus providing richer data that can be analyzed through OLAP sessions. The second topic that we study is that of visualization of multidimensional data, which we exploit to enable OLAP on devices with limited screen and bandwidth capabilities (i.e., mobile devices). Finally, we propose solutions to obtain multidimensional schemata from unconventional sources (e.g., sensor networks), which are crucial to perform multidimensional analyses