279 research outputs found

    Business models and information systems for sustainable development

    Get PDF
    Businesses are expected to explore market opportunities in the area of sustainable development, thus contributing to finding solutions aiming at sustainable quality of life. This will require adaptation and innovation of business models and information systems, with challenges of particular interest to the business modeling and software design community. This paper briefly discusses two relevant topics in this respect, namely (i) goal and value modeling, and (ii) model-driven development. We mention existing work that can be taken as a starting point for addressing sustainability issues, and we make some observations that may be taken into account when extending existing work

    Capability Driven Development: An Approach to Designing Digital Enterprises

    Get PDF
    The need for organizations to operate in changing environments is addressed by proposing an approach that integrates organizational development with information system (IS) development taking into account changes in the application context of the solution. This is referred to as Capability Driven Development (CDD). A meta-model representing business and IS designs consisting of goals, key performance indicators, capabilities, context and capability delivery patterns, is being proposed. The use of the meta-model is validated in three industrial case studies as part of an ongoing collaboration project, whereas one case is presented in the paper. Issues related to the use of the CDD approach, namely, CDD methodology and tool support are also discussed

    Capability driven development: an approach to designing digital enterprises

    Get PDF
    The final publication is available at Springer via http://dx.doi.org/10.1007/s12599-014-0362-0[EN] The need for organizations to operate in changing environments is addressed by proposing an approach that integrates organizational development with information system (IS) development taking into account changes in the application context of the solution. This is referred to as Capability Driven Development (CDD). A meta-model representing business and IS designs consisting of goals, key performance indicators, capabilities, context and capability delivery patterns, is being proposed. The use of the meta-model is validated in three industrial case studies as part of an ongoing collaboration project, whereas one case is presented in the paper. Issues related to the use of the CDD approach, namely, CDD methodology and tool support are also discussed.This work has been partially supported by the EU-FP7 funded project no: 611351 CaaS - Capability as a Service in Digital Enterprises.Berzisa, S.; Bravos, G.; Cardona Gonzalez, T.; Czubayko, U.; España, S.; Grabis, J.; Henkel, M.... (2015). Capability driven development: an approach to designing digital enterprises. Business and Information Systems Engineering. 57(1):15-25. https://doi.org/10.1007/s12599-014-0362-0S1525571ArchiMate (2013) An enterprise modeling language from the Open Group. http://www.opengroup.org/archimate/ . Accessed 3 Dec 2014Asadi M, Ramsin R (2008) MDA-based methodologies: an analytical survey. In: Proceedings Model driven architecture – foundations and applications (ECMDA-FA 2008), LNCS 5095, pp 419–431Barney JB (1991) Firm resources and sustained competitive advantage. J Manag 17(1):99–120Bērziša S, Bravos G, Gonzalez Cardona T, Czubayko U, España S, Grabis J, Henke lM, Jokste L, Kampars J, Koc H, Kuhr J, Llorca C, Loucopoulos P, Juanes Pascua lR, Sandkuh lK, Simic H, Stirna J, Zdravkovic J (2014) Deliverable 1.4: Requirements specification for CDD, CaaS – capability as a service for digital enterprises. FP7 project no 611351, Riga Technical University, Latvia. Submitted for reviewBubenko JA Jr, Persson A, Stirna J (2001) User guide of the knowledge management approach using enterprise knowledge patterns. Deliverable D3, IST programme project hypermedia and pattern based knowledge management for smart organisations. project no. IST-2000-28401, Royal Institute of Technology, SwedenBriand LC, Yue T, Labiche Y (2011) A systematic review of transformation approaches between user requirements and analysis models. Requir Eng 16:75–99De Kinderen S, Gordijn J, Akkermans H (2009) Reasoning about customer needs in multi-supplier ICT service bundles using decision models. In: Proceedings 11th international conference on enterprise information systems (ICEIS 2009), pp 131–136Deloitte (2009) Cloud computing: forecasting change. Deloitte Consulting, New York. http://public.deloitte.no/dokumenter/2_Cloud_Computing%5B1%5D.pdf . Accessed 3 Dec 2014Dey A (2001) Understanding and using context. Pers Ubiquitous Comput 5(1):4–7Gamma E, Helm R, Johnson R, Vlissides J (1995) Design patterns: elements of reusable object-oriented software architecture. Addison-Wesley, BostonGomes D, Gonçalves JM, Santos R, Aguiar R (2010) XMPP based context management architecture. In: Proceedings GLOBECOM workshop, IEEE, pp 1372–1377González A, España S, Ruiz M, Pastor Ó (2011) Systematic derivation of class diagrams from communication-oriented business process models. In: 12th working conference on business process modeling, development, and support (BPMDS’11). Springer LNBIP 81, pp 246–260Henkel M, Stirna J (2010) Pondering on the key functionality of model driven development tools: the case of mendix. In: Forbrig P, Günther H (eds) Proceedings business informatics research (BIR 2010), Springer LNBIP 64, pp 146–160Hervas R, Bravo J, Fontecha J (2010) A context model based on ontological languages – a proposal for information visualisation. J Univers Comput Sci 16(12):1539–1555Jarke M, Loucopoulos P, Lyytinen K, Mylopoulos J, Robinson W (2011) The brave new world of design requirements. Information Syst 36(7):992–1008Kaplan RS, Norton DP (2004) Strategy maps: converting intangible assets into tangible outcomes. Harvard Business School Press, BostonKleppe A, Warmer J, Bast W (2013) MDA explained. Addison-Wesley, BostonLoniewski G, Insfran E, Abrahao L (2010) A systematic review of the use of requirements engineering techniques in model-driven development. In: Proceedings model driven engineering languages and systems (MODELS 2010), Part II, LNCS 6395, pp 213–227Mohagheghi P, Dehlen V (2008) Where is the proof? - a review of experiences from applying MDE in industry. In: Proceedings model driven architecture – foundations and applications (ECMDA-FA 2008). LNCS 5095. Springer, Heidelberg, pp 432–443Nilsson AG, Tolis C, Nellborn C (eds) (1999) Perspectives on business modelling: understanding and changing organisations. Springer, HeidelbergOASIS (2011) Reference architecture foundation for service oriented architecture version 1.0, committee specification draft 03/public review draft 02 06 July 2011. http://docs.oasis-open.org/soa-rm/soa-ra/v1.0/soa-ra.pdf . Accessed 3 Dec 2014OMG (2011a) UML superstructure. http://www.omg.org/spec/UML/2.4.1/ . Accessed 3 Dec 2014OMG (2011b) Business process model and notation. http://www.omg.org/spec/BPMN/2.0/ . Accessed 3 Dec 2014Osterwalder A, Pigneur Y (2003) Modeling value propositions in e-business. Proc 5th international conference on electronic commerce (ICEC 2003). ACM Conference Proceedings Series 50Papazoglou MP, Yang J (2002) Design methodology for web services and business processes. In: Proceedings 3rd international workshop on technologies for e-services (TES 03). LNCS 2444. Springer, Heidelberg, pp 54–64Pastor O, Giachetti G (2010) Linking goal-oriented requirements and model-driven development. In: Intentional perspectives on information systems engineering. Springer, Heidelberg, pp 257–276Porter ME (1985) Competitive advantage: creating and sustaining superior performance. Free Press, New YorkRuiz M, Costal D, España S, Franch X, Pastor Ó (2014) Integrating the goal and business process perspectives in information system analysis. In: 26th International Conference on Advanced Information Systems Engineering (CAiSE 2014). LNCS 8484. Springer, Heidelberg, pp 332–346Sheng Q, Yu J, Dustar S (eds) (2010) Enabling context-aware web services: methods, architectures, and technologies. Chapman & Hall/CRC, Boca RatonSmanchat S, Ling S, Indrawan M (2008) A survey on context-aware workflow adaptations. In: Proceedings 6th international conference on advances in mobile computing and multimedia (MoMM 2008), New York, pp 414–417Stirna J, Grabis J, Henkel M, Zdravkovic J (2012) Capability driven development – an approach to support evolving organizations. In: The practice of enterprise modeling (PoEM 2012). LNBIP 134. Springer, Heidelberg, pp 117–131Vale S, Hammoudi S (2009) COMODE: a framework for the development of context-aware applications in the context of MDE. In: Proceedings 4th international conference on internet and web applications and services (ICIW 2009). IEEE, Venice, pp 261–266Wesenberg H (2011) Enterprise modeling in an agile world. In: Johannesson P, Krogstie J, Opdahl AL (eds) The practice of enterprise modeling (PoEM 2011). LNBIP 92. Springer, Heidelberg, pp 126–130Zdravkovic J, Stirna J, Henkel M, Grabis J (2013) Modeling business capabilities and context dependent delivery by cloud services. In: Proceedings advanced information systems engineering (CAiSE 2013). LNCS 7908. Springer, Heidelberg, pp 369–38

    Distributed collaborative knowledge management for optical network

    Get PDF
    Network automation has been long time envisioned. In fact, the Telecommunications Management Network (TMN), defined by the International Telecommunication Union (ITU), is a hierarchy of management layers (network element, network, service, and business management), where high-level operational goals propagate from upper to lower layers. The network management architecture has evolved with the development of the Software Defined Networking (SDN) concept that brings programmability to simplify configuration (it breaks down high-level service abstraction into lower-level device abstractions), orchestrates operation, and automatically reacts to changes or events. Besides, the development and deployment of solutions based on Artificial Intelligence (AI) and Machine Learning (ML) for making decisions (control loop) based on the collected monitoring data enables network automation, which targets at reducing operational costs. AI/ML approaches usually require large datasets for training purposes, which are difficult to obtain. The lack of data can be compensated with a collective self-learning approach. In this thesis, we go beyond the aforementioned traditional control loop to achieve an efficient knowledge management (KM) process that enhances network intelligence while bringing down complexity. In this PhD thesis, we propose a general architecture to support KM process based on four main pillars, which enable creating, sharing, assimilating and using knowledge. Next, two alternative strategies based on model inaccuracies and combining model are proposed. To highlight the capacity of KM to adapt to different applications, two use cases are considered to implement KM in a purely centralized and distributed optical network architecture. Along with them, various policies are considered for evaluating KM in data- and model- based strategies. The results target to minimize the amount of data that need to be shared and reduce the convergence error. We apply KM to multilayer networks and propose the PILOT methodology for modeling connectivity services in a sandbox domain. PILOT uses active probes deployed in Central Offices (COs) to obtain real measurements that are used to tune a simulation scenario reproducing the real deployment with high accuracy. A simulator is eventually used to generate large amounts of realistic synthetic data for ML training and validation. We apply KM process also to a more complex network system that consists of several domains, where intra-domain controllers assist a broker plane in estimating accurate inter-domain delay. In addition, the broker identifies and corrects intra-domain model inaccuracies, as well as it computes an accurate compound model. Such models can be used for quality of service (QoS) and accurate end-to-end delay estimations. Finally, we investigate the application on KM in the context of Intent-based Networking (IBN). Knowledge in terms of traffic model and/or traffic perturbation is transferred among agents in a hierarchical architecture. This architecture can support autonomous network operation, like capacity management.La automatización de la red se ha concebido desde hace mucho tiempo. De hecho, la red de gestión de telecomunicaciones (TMN), definida por la Unión Internacional de Telecomunicaciones (ITU), es una jerarquía de capas de gestión (elemento de red, red, servicio y gestión de negocio), donde los objetivos operativos de alto nivel se propagan desde las capas superiores a las inferiores. La arquitectura de gestión de red ha evolucionado con el desarrollo del concepto de redes definidas por software (SDN) que brinda capacidad de programación para simplificar la configuración (descompone la abstracción de servicios de alto nivel en abstracciones de dispositivos de nivel inferior), organiza la operación y reacciona automáticamente a los cambios o eventos. Además, el desarrollo y despliegue de soluciones basadas en inteligencia artificial (IA) y aprendizaje automático (ML) para la toma de decisiones (bucle de control) en base a los datos de monitorización recopilados permite la automatización de la red, que tiene como objetivo reducir costes operativos. AI/ML generalmente requieren un gran conjunto de datos para entrenamiento, los cuales son difíciles de obtener. La falta de datos se puede compensar con un enfoque de autoaprendizaje colectivo. En esta tesis, vamos más allá del bucle de control tradicional antes mencionado para lograr un proceso eficiente de gestión del conocimiento (KM) que mejora la inteligencia de la red al tiempo que reduce la complejidad. En esta tesis doctoral, proponemos una arquitectura general para apoyar el proceso de KM basada en cuatro pilares principales que permiten crear, compartir, asimilar y utilizar el conocimiento. A continuación, se proponen dos estrategias alternativas basadas en inexactitudes del modelo y modelo de combinación. Para resaltar la capacidad de KM para adaptarse a diferentes aplicaciones, se consideran dos casos de uso para implementar KM en una arquitectura de red óptica puramente centralizada y distribuida. Junto a ellos, se consideran diversas políticas para evaluar KM en estrategias basadas en datos y modelos. Los resultados apuntan a minimizar la cantidad de datos que deben compartirse y reducir el error de convergencia. Aplicamos KM a redes multicapa y proponemos la metodología PILOT para modelar servicios de conectividad en un entorno aislado. PILOT utiliza sondas activas desplegadas en centrales de telecomunicación (CO) para obtener medidas reales que se utilizan para ajustar un escenario de simulación que reproducen un despliegue real con alta precisión. Un simulador se utiliza finalmente para generar grandes cantidades de datos sintéticos realistas para el entrenamiento y la validación de ML. Aplicamos el proceso de KM también a un sistema de red más complejo que consta de varios dominios, donde los controladores intra-dominio ayudan a un plano de bróker a estimar el retardo entre dominios de forma precisa. Además, el bróker identifica y corrige las inexactitudes de los modelos intra-dominio, así como también calcula un modelo compuesto preciso. Estos modelos se pueden utilizar para estimar la calidad de servicio (QoS) y el retardo extremo a extremo de forma precisa. Finalmente, investigamos la aplicación en KM en el contexto de red basada en intención (IBN). El conocimiento en términos de modelo de tráfico y/o perturbación del tráfico se transfiere entre agentes en una arquitectura jerárquica. Esta arquitectura puede soportar el funcionamiento autónomo de la red, como la gestión de la capacidad.Postprint (published version

    Monitoring and Information Alignment in Pursuit of an IoT-Enabled Self-Sustainable Interoperability

    Get PDF
    To remain competitive with big corporations, small and medium-sized enterprises (SMEs) often need to be more dynamic, adapt to new business situations, react faster, and thereby survive in today‘s global economy. To do so, SMEs normally seek to create consortiums, thus gaining access to new and more opportunities. However, this strategy may also lead to complications. Due to the different sources of enterprise models and semantics, organizations are experiencing difficulties in seamlessly exchanging vital information via electronic means. In their attempt to address this issue, most seek to achieve interoperability by establishing peer-to-peer mappings with different business partners, or by using neutral data standards to regulate communications in optimized networks. Moreover, systems are more and more dynamic, frequently changing to answer new customer‘s requirements, causing new interoperability problems and a reduction of efficiency. Another situation that is constantly changing is the devices used in the enterprises, as the Enterprise Information Systems, devices are used to register internal data, and to be used to monitor several aspects. These devices are constantly changing, following the evolution and growth of the market. So, it is important to monitor these devices and doing a model representation of them. This dissertation proposes a self-sustainable interoperable framework to monitor existing enterprise information systems and their devices, monitor the device/enterprise network for changes and automatically detecting model changes. With this, network harmonization disruptions are detected in a timely way, and possible solutions are suggested to regain the interoperable status, thus enhancing robustness for reaching sustainability of business networks along time

    Functional Interdependencies between Quality Techniques reverting to Meta Models

    Get PDF
    Considering the digitalization of the economy, process-oriented quality management (PQM) has increasingly been gaining attention. In the course of a PQM project, quality techniques are applied to elicit employees’ process knowledge and transform it into solutions to overcome process weaknesses. However, quality techniques may support each other during application or produce contradictory results, depending on the so-called “functional interdependencies (FIs)” between them. Little understanding exists of how such FIs can be properly identified, which is a prerequisite to exploit valuable synergies between quality techniques. To uncover the corresponding interdependencies, we revert to meta models in this paper, which allow to precisely describe a technique’s functionality. Generally valid indicators on a meta model level are derived to unveil the existence of FIs

    Data Analytics and Knowledge Discovery for Root Cause Analysis in LTE Self-Organizing Networks.

    Get PDF
    En las últimas décadas, las redes móviles han cobrado cada vez más importancia en el mundo de las telecomunicaciones. Lo que empezó con el objetivo de dar un servicio de voz a nivel global, ha tomado recientemente la direcci\'on de convertirse en un servicio casi exclusivo de datos en banda ancha, dando lugar a la red LTE. Como consecuencia de la continua aparición de nuevos servicios, los usuarios demandan cada vez redes con mayor capacidad, mejor calidad de servicio y a precios menores. Esto provoca una dura competición entre los operadores, que necesitan reducir costes y cortes en el servicio causados por trabajos de mejora o problemas. Para este fin, las redes autoorganizadas SON (Self-Organizing Network) proporcionan herramientas para la automatización de las tareas de operación y mantenimiento, haciéndolas más rápidas y mantenibles por pequeños equipos de expertos. Las funcionalidades SON se dividen en tres grupos principales: autoconfiguración (Self-configuration, los elementos nuevos se configuran de forma automática), autooptimización (Self-optimization, los parámetros de la red se actualizan de forma automática para dar el mejor servicio posible) y autocuración (Self-healing, la red se recupera automáticamente de problemas). En el ambiente competitivo de las redes móviles, los cortes de servicio provocados por problemas en la red causan un gran coste de oportunidad, dado que afectan a la experiencia de usuario. Self-healing es la función SON que se encarga de la automatización de la resolución de problemas. El objetivo principal de Self-healing es reducir el tiempo que dura la resolución de un problema y liberar a los expertos de tareas repetitivas. Self-healing tiene cuatro procesos principales: detección (identificar que los usuarios tienen problemas en una celda), compensación (redirigir los recursos de la red para cubrir a los usuarios afectados), diagnosis (encontrar la causa de dichos problemas) y recuperación (realizar las acciones necesarias para devolver los elementos afectados a su operación normal). De todas las funcionalidades SON, Self-healing (especialmente la función de diagnosis) es la que constituye el mayor desafío, dada su complejidad, y por tanto, es la que menos se ha desarrollado. No hay sistemas comerciales que hagan una diagnosis automática con la suficiente fiabilidad para convencer a los operadores de red. Esta falta de desarrollo se debe a la ausencia de información necesaria para el diseño de sistemas de diagnosis automática. No hay bases de datos que recojan datos de rendimiento de la red en casos problemáticos y los etiqueten con la causa del problema que puedan ser estudiados para encontrar los mejores algoritmos de tratamiento de datos. A pesar de esto, se han propuesto soluciones basadas en la Inteligencia Artificial (IA) para la diagnosis, tomando como punto de partida la limitada información disponible. Estos algoritmos a su vez necesitan ser entrenados con datos realistas. Nuevamente, dado que no hay bases de datos de problemas reales, los datos de entrenamiento suelen ser extraídos de simulaciones, lo cual les quita realismo. La causa de la falta de datos es que los expertos en resolución de problemas no registran los casos conforme los van solucionando. En el ambiente competitivo en el que trabajan, su tiempo es un recurso limitado que debe ser utilizado para resolver problemas y no para registrarlos. En el caso en que tales bases de datos fueran recogidas, un aspecto importante a tener en cuenta es que el volumen, variabilidad y velocidad de generación de los datos hacen que éste sea considerado un problema Big Data. El problema principal de los sistemas de diagnosis automática es la falta de conocimiento experto. Para resolver esto, el conocimiento experto debe convertirse a un formato utilizable. Este proceso se conoce como adquisición del conocimiento. Hay dos aproximaciones a la adquisición del conocimiento: manual(a través de entrevistas o con la implicación de los expertos en el desarrollo) o a través de la analítica de datos (minería de datos en bases de datos que contienen el resultado del trabajo de los expertos). Esta tesis estudia la aproximación de la analítica de datos, utilizando las técnicas KDD (Knowledge Discovery and Datamining). Para que esta aproximación pueda ser utilizada, se requiere la existencia de una base de datos de casos reales de fallo, lo cual es un gran desafío. La visión general de esta tesis es una plataforma en la que cada vez que un experto diagnostica un problema en la red, éste puede reportarlo con un esfuerzo mínimo y almacenarlo en el sistema. La parte central de este sistema es un algoritmo de diagnosis (en esta tesis un controlador de lógica borrosa) que evoluciona y mejora aprendiendo de cada nuevo ejemplo, hasta llegar al punto en el que los expertos pueden confiar en su precisión para los problemas más comunes. Cada vez que surja un nuevo problema, se añadirá a la base de datos del sistema, incrementando así aún más su potencia. El fin es liberar a los expertos de tareas repetitivas, de modo que puedan dedicar su tiempo a desafíos cuya resolución sea más gratificante. Por tanto, el primer objetivo de esta tesis es la colección de una base de datos de casos reales de fallos. Para ello, se diseña una interfaz de usuario para la recolección de datos teniendo en cuenta como requisito prioritario la facilidad de uso. Una vez que se dispone de datos recogidos, se analizarán para comprender mejor sus propiedades y obtener la información necesaria para el diseño de los algoritmos de analítica de datos. Otro objetivo de esta tesis es la creación de un modelo de fallos de LTE, encontrando las relaciones entre el rendimiento de la red y la ocurrencia de los problemas. La adquisición del conocimiento se realiza mediante la aplicación de algoritmos de analítica sobre los datos recogidos. Se diseña un proceso KDD que extrae los parámetros de un controlador de lógica borrosa y se aplica sobre la base de datos recogida. Finalmente, esta tesis también tiene como objetivo realizar un análisis de los aspectos Big Data de las funciones Self-healing, y tenerlos en cuenta a la hora de diseñar los algoritmos

    Relatório de Estágio - Solução de BI Roaming Data Science (RoaDS) em ambiente Vodafone

    Get PDF
    A telecom company (Vodafone), had the need to implement a Business Intelligence solution for Roaming data across a wide set of different data sources. Based on the data visualization of this solution, its key users with decision power, can make a business analysis and needs of infrastructure and software expansion. This document aims to expose the scientific papers produced with the various stages of production of the solution (state of the art, architecture design and implementation results), this Business Intelligence solution was designed and implemented with OLAP methodologies and technologies in a Data Warehouse composed of Data Marts arranged in constellation, the visualization layer was custom made in JavaScript (VueJS). As a base for the results a questionnaire was created to be filled in by the key users of the solution. Based on this questionnaire it was possible to ascertain that user acceptance was satisfactory. The proposed objectives for the implementation of the BI solution with all the requirements was achieved with the infrastructure itself created from scratch in Kubernetes. This BI platform can be expanded using column storage databases created specifically with OLAP workloads in mind, removing the need for an OLAP cube layer. Based on Machine Learning algorithms, the platform will be able to perform the predictions needed to make decisions about Vodafone's Roaming infrastructure
    corecore