38 research outputs found

    An Architecture to infer Business Rules from Event Condition Action Rules implemented in the Persistence Layer

    Get PDF
    The business rules that govern the behaviour of a business process can be hardcoded in different ways in a software application. The modernization or improvement of these applications to a process-oriented perspective implies typically the modification of the business rules. Frequently, legacy systems are not well-documented, and almost always, the documentation they have is not updated. As a consequence many times is necessary the analysis of source code and databases structures to be transformed into a business language more understandable by the business experts involved in the modernization process. Database triggers are one of the artefacts in which business rules are hardcoded. We focus on this kind of artefacts, having in mind to avoid the manual analysis of the triggers by a database expert, and bringing it closer to business experts. To get this aim we need to discover business rules that are hardcoded in triggers, and translate it into vocabularies that are commonly used by business experts. In this paper we propose an ADM-based architecture to discover business rules and rewrite then into a language that can be understood by the business experts.Ministerio de Ciencia y Tecnología TIN2009-13714Ministerio de Ciencia y Tecnología TIN2010-20057-C03-02Ministerio de Ciencia y Tecnología TIN2010-21744-C02-

    Declarative techniques for modeling and mining business processes..

    Get PDF
    Organisaties worden vandaag de dag geconfronteerd met een schijnbare tegenstelling. Hoewel ze aan de ene kant veel geld geïnvesteerd hebben in informatiesystemen die hun bedrijfsprocessen automatiseren, lijken ze hierdoor minder in staat om een goed inzicht te krijgen in het verloop van deze processen. Een gebrekkig inzicht in de bedrijfsprocessen bedreigt hun flexibiliteit en conformiteit. Flexibiliteit is belangrijk, omdat organisaties door continu wijzigende marktomstandigheden gedwongen worden hun bedrijfsprocessen snel en soepel aan te passen. Daarnaast moeten organisaties ook kunnen garanderen dan hun bedrijfsvoering conform is aan de wetten, richtlijnen, en normen die hun opgelegd worden. Schandalen zoals de recent aan het licht gekomen fraude bij de Franse bank Société Générale toont het belang aan van conformiteit en flexibiliteit. Door het afleveren van valse bewijsstukken en het omzeilen van vaste controlemomenten, kon één effectenhandelaar een risicoloze arbitragehandel op prijsverschillen in futures omtoveren tot een risicovolle, speculatieve handel in deze financiële derivaten. De niet-ingedekte, niet-geautoriseerde posities bleven lange tijd verborgen door een gebrekkige interne controle, en tekortkomingen in de IT beveiliging en toegangscontrole. Om deze fraude in de toekomst te voorkomen, is het in de eerste plaats noodzakelijk om inzicht te verkrijgen in de operationele processen van de bank en de hieraan gerelateerde controleprocessen. In deze tekst behandelen we twee benaderingen die gebruikt kunnen worden om het inzicht in de bedrijfsprocessen te verhogen: procesmodellering en procesontginning. In het onderzoek is getracht technieken te ontwikkelen voor procesmodellering en procesontginning die declaratief zijn. Procesmodellering process modeling is de manuele constructie van een formeel model dat een relevant aspect van een bedrijfsproces beschrijft op basis van informatie die grotendeels verworven is uit interviews. Procesmodellen moeten adequate informatie te verschaffen over de bedrijfsprocessen om zinvol te kunnen worden gebruikt bij hun ontwerp, implementatie, uitvoering, en analyse. De uitdaging bestaat erin om nieuwe talen voor procesmodellering te ontwikkelen die adequate informatie verschaffen om deze doelstelling realiseren. Declaratieve procestalen maken de informatie omtrent bedrijfsbekommernissen expliciet. We karakteriseren en motiveren declaratieve procestalen, en nemen we een aantal bestaande technieken onder de loep. Voorts introduceren we een veralgemenend raamwerk voor declaratieve procesmodellering waarbinnen bestaande procestalen gepositioneerd kunnen worden. Dit raamwerk heet het EM-BrA�CE raamwerk, en staat voor `Enterprise Modeling using Business Rules, Agents, Activities, Concepts and Events'. Het bestaat uit een formele ontolgie en een formeel uitvoeringsmodel. Dit raamwerk legt de ontologische basis voor de talen en technieken die verder in het doctoraat ontwikkeld worden. Procesontginning process mining is de automatische constructie van een procesmodel op basis van de zogenaamde event logs uit informatiesystemen. Vandaag de dag worden heel wat processen door informatiesystemen in event logs geregistreerd. In event logs vindt men in chronologische volgorde terug wie, wanneer, welke activiteit verricht heeft. De analyse van event logs kan een accuraat beeld opleveren van wat er zich in werkelijkheid afspeelt binnen een organisatie. Om bruikbaar te zijn, moeten de ontgonnen procesmodellen voldoen aan criteria zoals accuraatheid, verstaanbaarheid, en justifieerbaarheid. Bestaande technieken voor procesontginning focussen vooral op het eerste criterium: accuraatheid. Declaratieve technieken voor procesontginning richten zich ook op de verstaanbaarheid en justifieerbaarheid van de ontgonnen modellen. Declaratieve technieken voor procesontginning zijn meer verstaanbaar omdat ze pogen procesmodellen voor te stellen aan de hand van declaratieve voorstellingsvormen. Daarenboven verhogen declaratieve technieken de justifieerbaarheid van de ontgonnen modellen. Dit komt omdat deze technieken toelaten de apriori kennis, inductieve bias, en taal bias van een leeralgoritme in te stellen. Inductief logisch programmeren (ILP) is een leertechniek die inherent declaratief is. In de tekst tonen we hoe proces mining voorgesteld kan worden als een ILP classificatieprobleem, dat de logische voorwaarden leert waaronder gebeurtenis plaats vindt (positief event) of niet plaatsvindt (een negatief event). Vele event logs bevatten van nature geen negatieve events die aangeven dat een bepaalde activiteit niet kon plaatsvinden. Om aan dit probleem tegemoet te komen, beschrijven we een techniek om artificiële negatieve events te genereren, genaamd AGNEs (process discovery by Artificially Generated Negative Events). De generatie van artificiële negatieve events komt neer op een configureerbare inductieve bias. De AGNEs techniek is geïmplementeerd als een mining plugin in het ProM raamwerk. Door process discovery voor te stellen als een eerste-orde classificatieprobleem op event logs met artificiële negatieve events, kunnen de traditionele metrieken voor het kwantificeren van precisie (precision) en volledigheid (recall) toegepast worden voor het kwantificeren van de precisie en volledigheid van een procesmodel ten opzicht van een event log. In de tekst stellen we twee nieuwe metrieken voor. Deze nieuwe metrieken, in combinatie met bestaande metrieken, werden gebruikt voor een uitgebreide evaluatie van de AGNEs techniek voor process discovery in zowel een experimentele als een praktijkopstelling.

    Towards ontological foundations of research information systems

    Get PDF
    Despite continuous advancements in information system technologies it is still not simple to receive relevant answers to Science-related queries. Getting answers requires a gathering of information from heterogeneous systems, and the volume of responses that semantically do not match with the queried intensions overwhelms users. W3C initiatives with extensions such as the Semantic Web and the Linked Open Data Web introduced important technologies to overcome the issues of semantics and access by promoting standard representation formats – formal ontologies – for information integration. These are inherent in architectural system styles, where increased openness challenges the traditional closed-world and often adhocly designed systems. However, technology on its own is not meaningful and the information systems community is increasingly becoming aware of foundations and their importance with guiding system analyses and conceptual design processes towards sustainable and more integrative information systems. As a contribution, this work develops a formal ontology FERON – Field-extensible Research Ontology – following the foundations as introduced by Mario Bunge and applied to information systems design by Wand and Weber, i.e. Bunge- Wand-Weber (BWW). Nevertheless, FERON is not aimed at the modelling of an information system as such, but at the description of a perceived world – the substantial things – that an information system ought to be able to model. FERON is a formal description of the Research domain – a formal ontology according to latest technological standards. Language Technology was chosen as a subdomain to demonstrate its field extensibility. The formal FERON ontology results from a hybrid modelling approach; it was first described top-down based on a many years activity of the author and then fine-tuned bottom-up through a comprehensive analysis and re-use of openly available descriptions and standards. The entire FERON design process was accompanied by an awareness of architectural system levels and system implementation styles, but was at first aimed at a human domain understanding, which according to the General Definition of Information (GDI) is achievable through well-formed meaningful data.Trotz kontinuierlich verbesserter Informationssystemtechnologien ist es nicht einfach möglich, relevante Antworten auf forschungsverwandte Suchanfragen zu erhalten. Dies liegt unter anderem daran, dass Informationen in verschiedenen Systemen bereitgestellt werden, und dass die Beschreibung der bereitgestellten Informationen nicht mit den Beschreibungen der gestellten Fragen übereinstimmen. Neuere Technologien wie das Semantische Web oder Linked Open Data ermöglichen zwar verbesserte Beschreibungen und Zugriffe – jedoch sind die Technologien an sich auch nicht bedeutungsvoll. Weitergehende, fundierende Ansätze zur Beschreibung von Informationenen finden daher zunehmend Anerkennung und Zuspruch in der wissenschaftlichen Gemeinde, diese beinflussen konsequenterweise die Systemanalyse sowie das Systemdesign. Die vorliegende Arbeit entwickelt eine formale Ontologie einer Forschungswelt die disziplinenübergreifend skaliert, namentlich FERON – Field-extensible Research Ontology, basierend auf den Ansätzen der Bunge-Wand-Weber (BWW) Ontologie. Der Titel der Arbeit “Towards Ontological Foundations of Research Information Systems” übersetzt: „Zur ontologischen Fundierung von Forschungsinformationssystemen“. Im Titel ist ontologisch zuallererst im philosophischen Sinne zu verstehen, und nicht zu verwechseln mit der dann resultierenden Ontologie im technologischen Sinne einer formalen Beschreibung der wahrgenommenen Forschungswelt – namentlich FERON. Eine Klärung der Begriffe Ontologie, Konzept, Entität, Daten und Information zum Verständnis der vorliegenden Arbeit wird in Kapitel 2.5 versucht, ein Verständnis wurde als kritisch für die Qualität der resultierenden formalen Ontologie FERON, aber auch als hilfreich für den Leser vorweggenommen, insbesondere weil die genannten Begriffe über Disziplinen hinweg oftmals sehr unterschiedlich wahrgenommen werden. Die Analyse und Modellierung von FERON basiert auf der Bedeutung dieser grundlegenden Begriffe wie die philosophische und wissenschaftliche Literatur verschiedener Disziplinen sie belegt. Die vorliegende Arbeit entwickelt FERON, und modelliert eine Welt der Forschung in disziplinenübergreifender Weise mittels neuester technologischer Standards – formal in RDF/OWL. Die fachspezifische Erweiterbarkeit ist durch Eingliederung von Beschreibungen des Gebietes Sprachtechnologie demonstriert. Die Modellierung wurde durchgehend von der Theorie Mario Bunges begleitet, welche Wand und Weber für eine Anwendung während der Systemanalyse und Systemgestaltung interpretierten und welche im Kapitel 3.1.1 vorgestellt wird. Die Idee ist als Bunge-Wand-Weber Ontologie (BWW) zunehmend bekannt und demgemäße ontologische Ansichten sind teilweise in formalen Beschreibungssprachen und Werkzeugen eingebunden, und damit bei der Modellierung explizit nutzbar. Neben BWW werden kurz die Fundierungsansätze von DOLCE, SUMO und Cyc vorgestellt und deren Relevanz für FERON verdeutlicht. Eine fehlende Fundierung in der Disziplin Informationssysteme wurde lange Zeit als wesentliche Ursache für die vermisste wissenschaftliche Akzeptanz der Disziplin betrachtet; größtenteils wurden Informationssysteme pragmatisch und adhoc entwickelt und skalierten daher nicht konsistent. Zunehmend wird jedoch eine theoretische und insbesondere die ontologische Fundierung von Informationssystemen als wertvoll anerkannt – von der Idee bis hin zur Implementierung aber auch während der Umgestaltungsphasen. Konzepte fundierter Informationssysteme im funktional-technischen Sinne sind als modellgetriebene Architektur bekannt und werden hier durch die Ansätze von Zachmann und Scheer verdeutlicht. In der kurzen Geschichte IT-basierter Informationssysteme wurden phasenweise immer wieder strukturell unterschiedliche Modelle angewandt. Diese werden daher im Kapitel 3.2 Modellierungsgrammatiken untersucht und deren Unterschiede dargestellt – namentlich das Entity-Relationship-Modell, semantische Netzwerke, das relationale Modell, hierarchische Modelle und objekt-orientierte Modelle. Darüberhinaus sind insbesondere formale Ontologien durch die Web Standardisierungsaktivitäten und W3C Empfehlungen ein rasant wachsendes Segment, verstärkt durch politische Entscheidungen für offene Daten und implizierend offene Systeme. Im Vergleich zu traditionellen und weitestgehend geschlossenen sogenannten closed-world Systemen sind hinsichtlich der Modellierung bestimmte Aspekte zu beachten. Diese unterliegen im Gegensatz zu offenen Systemen dem Paradigma des kompletten Wissens und sind sozusagen vorschreibend; im System aktuell nicht vorhandene Information wird als nicht existent interpretiert. Dahingegen gehen offene open-world Systeme davon aus, dass nicht vorhandene Information aktuell unbekannt ist – und die bekannte Information nicht vorschreibt sondern beschreibt. Weitere Unterschiede die es bezüglich der Modellierung zu beachten gilt, befassen sich mit zeitlich geprägten Verknüpfungen – über sogenannte Links oder Relationships – aber auch mit Entitäten und deren Identitäten. Da FERON keine Ontologie eines Informationssystems selbst modelliert, sondern eine Welt für eine mögliche Umsetzung in einem Informationssystem bechreibt sind weitergehende Modellierungsaspekte in Kapitel 3.3 lediglich erklärt und es wird auf Beispiele verwiesen. In der vorliegenden Arbeit wird keine explizite Anwendung empfohlen, weil ein Informationssystem immer derjenigen Form entsprechen sollte, welche einer bestimmten Funktion folgt, und weil die Vorwegnahme von Funktionen eine Dimension darstellt die weit über das Maß der vorliegenden Arbeit hinaus geht. FERON beschreibt eine Welt der Forschung; vorhandene Modellierungsansätze von Forschungsinformationssystemem werden mit Kapitel 4.1 den Ansätzen verwandter Arten gegenübergestellt – nämlich, wissenschaftlichen Repositorien, Datenrepositorien, Digitalen Bibliotheken, Digitalen Archiven und Lehre Systemen. Die untersuchten Modelle offenbaren neben inhaltlichen Unterschieden auch die Verschiedenheit der Modellierungsansätze von z.B. Referenzmodellen gegenüber formalen Datenmodellen oder offenen Weltbeschreibungen, und damit auch die einhergehende Schwierigkeit von Integration. Insbesondere formale Ontologien erlauben über die traditionellen Ansätze hinweg, automatische Schlußfolgerungen und Beweisführungen, welche jedoch hier nicht weitergehend erörtert werden. FERON war von Anfang an für den menschlichen Leser konzipiert, wenn auch formal beschrieben. Der Modellierungsansatz in FERON ist hybrid und wird in Kapitel 7 erläutert. Eine hybride Modellierung war möglich durch eine mehr als zehn-jährige Erfahrung und Tätigkeit der Autorin in diesem Bereich, auch belegt durch zahlreiche Peer-Review Publikationen. Der erste Entwurf von FERON erfolgte demgemäß zuallererst im Top-Down Verfahren (Figure 29), bevor mittels umfassender Analyse (dokumentiert in den Kapiteln 5 und 6) von verfügbaren Domänenbeschreibungen sukszessive eine Bottom-Up Anpassung von FERON vorgenommen wurde (Figure 68), welche bereits standardisierte und bereits definierte Beschreibungen und Eigenschaften wenn möglich integrierte (Figure 67). FERON ist eine ontologisch fundierte, formale Beschreibung – eine formale Ontologie – einer Forschungswelt zur vereinfachten, konsistenten Umsetzung von standardisierten, integrativen Forschungsinformationssystemen oder Fachinformationssystemen. Substantielle Entitäten wurden grundsätzlich erkannt, und deren Eigenschaften sowie Verknüpfungen formal beschrieben (Kapitel 7): Ressource unterschieden nach Nicht-Informations-Ressource und Informations-Ressource. Erstere unterscheidet nach Agent (Person, Organisationseinheit), Aktivität (Methode, Projekt, Bildung, Ereignis), Förderung (Programm, Einkommen), Messung und Infrastruktur (Werkzeug, Dienst, Einrichtung), zweitere nach Publikation, Literatur, Produkt (Daten), Wissensorganisationssystem, auch bekannt als KOS (Knowledge Organisation System), wie in der im Dokument integrierten Graphik (Figure 1) demonstriert. Kapitel 7 präsentiert FERON und dessen formale Einbindung von übergreifenden Eigenschaften wie Sprache, Zeit, Geographie, zeitlich geprägte Verknüpfung, ontologische Verpflichtung, Namensraum, Klasse, Eigenschaft, funktionales Schema, Entität und Identität. Seine inherente Struktur erlaubt eine einfache Disziplinen- oder Domänenerweiterung. Die Sprachtechnologie (englisch: Language Technology – abgekürzt LT) wird als Gebiet zur Demonstration der Erweiterung von FERON formal eingebunden, und mit Kapitel 6 insbesondere seine substantiell fach-spezifischen Entitäten wie Methode, Projekt, Daten, Service, Infrastruktur, Messung, aber auch KOS untersucht. Eine Erweiterung der Ontologie FERON für explizit-funktionale Anforderungen an ein Informationssystem, oder für weitergehende disziplinen-spezifische Eigenschaften, z.B. einer linguistisch verbesserten Anwendung für sprachtechnologische Weiterverarbeitung, ist möglich, erfordert jedoch tiefergehendes Fachwissen. Ziel der Arbeit war es zuallererst, das Verständnis für die Domäne Forschung zu verbessern – mit weiterreichendem Blick auf eine allgemeine integrative system-technische Entwicklung zur Verbesserung von Informationszugriff und Informationsqualität. Daneben wurden historische, gesellschaftliche aber auch politische Faktoren beobachtet, welche helfen, die wachsenden Anforderungen jenseits der Technologie zu bewältigen. FERON ist als formales Model FERON.owl valide und wird mit der vorliegenden Arbeit sozusagen als Template zur weiteren Befüllung bereitgestellt. Darauf basierend sind formale Restriktionen sowie disziplinen-spezifische und terminologische Erweiterungen direkt möglich. Daten-Instanzen wie in den präsentierten Beispielen sind mittels FERON.pprj verfügbar

    General framework for service engineering analysis and design

    Full text link
    The research produced a General Service Engineering Framework (GSEF), a process guideline for building a service system which covers both the business and informatics aspects. The framework also defines service engineering ontologi, which collects and specifies components of service engineering and its internal relations

    A Transformation from SBVR Business rules into Event Coordinated Rules by means of SBVR Patterns

    No full text
    Summary. SBVR is becoming more and more popular as the metamodel for defining vocabulary based business rules. In an extended form SBVR can be used to declare a whole spectrum of business rules including control-flow and organizational rules. Enforcing the rules of the business in information systems is however not straightforward. SBVR leaves open the gap between defining business rules and actually enforcing them. In this paper, we examine if and how business rules can be expressed in SBVR and translated using patterns into a more uniform event mechanism, such that the event handling could provide an integrated enforcement of the defined business rules

    Disrupting Finance

    Get PDF
    This open access Pivot demonstrates how a variety of technologies act as innovation catalysts within the banking and financial services sector. Traditional banks and financial services are under increasing competition from global IT companies such as Google, Apple, Amazon and PayPal whilst facing pressure from investors to reduce costs, increase agility and improve customer retention. Technologies such as blockchain, cloud computing, mobile technologies, big data analytics and social media therefore have perhaps more potential in this industry and area of business than any other. This book defines a fintech ecosystem for the 21st century, providing a state-of-the art review of current literature, suggesting avenues for new research and offering perspectives from business, technology and industry

    Knowledge-base and techniques for effective service-oriented programming & management of hybrid processes

    Full text link
    Recent advances in Web 2.0, SOA, crowd-sourcing, social and collaboration technologies, as well as cloud-computing, have truly transformed the Internet into a global development and deployment platform. As a result, developers have been presented with ubiquitous access to countless Web-services, resources and tools. However, while enabling tremendous automation and reuse opportunities, new productivity challenges have also emerged: The exploitation of services and resources nonetheless requires skilled programmers and a development-centric approach; it is thus inevitably susceptible to the same repetitive, error-prone and time consuming integration work each time a developer integrates a new API. Business Process Management on the other hand were proposed to support service-based integration. It provided the benefit of automation and modelling, which appealed to non-technical domain-experts. The problem however: it proves too rigid for unstructured processes. Thus, without this level of support, building new application either requires extensive manual programming or resorting to homebrew solutions. Alternatively, with the proliferation of SaaS, various such tools could be used for independent portions of the overall process - although this either presupposes conforming to the in-built process, or results in "shadow processes" via use of e-mail or the like, in order to exchange information and share decisions. There has therefore been an inevitable gap in technological support between structured and unstructured processes. To address these challenges, this thesis deals with transitioning process-support from structured to unstructured. We have been motivated to harness the foundational capabilities of BPM for its application to unstructured processes. We propose to achieve this by: First, addressing the productivity challenges of Web-services integration - simplifying this process - whilst encouraging an incremental curation and collective reuse approach. We then extend this to propose an innovative Hybrid-Process Management Platform that holistically combines structured, semi-structured and unstructured activities, based on a unified task-model that encapsulates a spectrum of process specificity. We have thus aimed to bridge the current lacking technology gap. The approach presented has been exposed as service-based libraries and tools. Whereby, we have devised several use-case scenarios and conducted user-studies in order to evaluate the overall effectiveness of our proposed work

    Disrupting Finance : FinTech and Strategy in the 21st Century

    Get PDF
    This open access Pivot demonstrates how a variety of technologies act as innovation catalysts within the banking and financial services sector. Traditional banks and financial services are under increasing competition from global IT companies such as Google, Apple, Amazon and PayPal whilst facing pressure from investors to reduce costs, increase agility and improve customer retention. Technologies such as blockchain, cloud computing, mobile technologies, big data analytics and social media therefore have perhaps more potential in this industry and area of business than any other. This book defines a fintech ecosystem for the 21st century, providing a state-of-the art review of current literature, suggesting avenues for new research and offering perspectives from business, technology and industry

    On the enhancement of Big Data Pipelines through Data Preparation, Data Quality, and the distribution of Optimisation Problems

    Get PDF
    Nowadays, data are fundamental for companies, providing operational support by facilitating daily transactions. Data has also become the cornerstone of strategic decision-making processes in businesses. For this purpose, there are numerous techniques that allow to extract knowledge and value from data. For example, optimisation algorithms excel at supporting decision-making processes to improve the use of resources, time and costs in the organisation. In the current industrial context, organisations usually rely on business processes to orchestrate their daily activities while collecting large amounts of information from heterogeneous sources. Therefore, the support of Big Data technologies (which are based on distributed environments) is required given the volume, variety and speed of data. Then, in order to extract value from the data, a set of techniques or activities is applied in an orderly way and at different stages. This set of techniques or activities, which facilitate the acquisition, preparation, and analysis of data, is known in the literature as Big Data pipelines. In this thesis, the improvement of three stages of the Big Data pipelines is tackled: Data Preparation, Data Quality assessment, and Data Analysis. These improvements can be addressed from an individual perspective, by focussing on each stage, or from a more complex and global perspective, implying the coordination of these stages to create data workflows. The first stage to improve is the Data Preparation by supporting the preparation of data with complex structures (i.e., data with various levels of nested structures, such as arrays). Shortcomings have been found in the literature and current technologies for transforming complex data in a simple way. Therefore, this thesis aims to improve the Data Preparation stage through Domain-Specific Languages (DSLs). Specifically, two DSLs are proposed for different use cases. While one of them is a general-purpose Data Transformation language, the other is a DSL aimed at extracting event logs in a standard format for process mining algorithms. The second area for improvement is related to the assessment of Data Quality. Depending on the type of Data Analysis algorithm, poor-quality data can seriously skew the results. A clear example are optimisation algorithms. If the data are not sufficiently accurate and complete, the search space can be severely affected. Therefore, this thesis formulates a methodology for modelling Data Quality rules adjusted to the context of use, as well as a tool that facilitates the automation of their assessment. This allows to discard the data that do not meet the quality criteria defined by the organisation. In addition, the proposal includes a framework that helps to select actions to improve the usability of the data. The third and last proposal involves the Data Analysis stage. In this case, this thesis faces the challenge of supporting the use of optimisation problems in Big Data pipelines. There is a lack of methodological solutions that allow computing exhaustive optimisation problems in distributed environments (i.e., those optimisation problems that guarantee the finding of an optimal solution by exploring the whole search space). The resolution of this type of problem in the Big Data context is computationally complex, and can be NP-complete. This is caused by two different factors. On the one hand, the search space can increase significantly as the amount of data to be processed by the optimisation algorithms increases. This challenge is addressed through a technique to generate and group problems with distributed data. On the other hand, processing optimisation problems with complex models and large search spaces in distributed environments is not trivial. Therefore, a proposal is presented for a particular case in this type of scenario. As a result, this thesis develops methodologies that have been published in scientific journals and conferences.The methodologies have been implemented in software tools that are integrated with the Apache Spark data processing engine. The solutions have been validated through tests and use cases with real datasets
    corecore