16 research outputs found

    New platform for intelligent context-based distributed information fusion

    Get PDF
    Tesis por compendio de publicaciones[ES]Durante las últimas décadas, las redes de sensores se han vuelto cada vez más importantes y hoy en día están presentes en prácticamente todos los sectores de nuestra sociedad. Su gran capacidad para adquirir datos y actuar sobre el entorno, puede facilitar la construcción de sistemas sensibles al contexto, que permitan un análisis detallado y flexible de los procesos que ocurren y los servicios que se pueden proporcionar a los usuarios. Esta tesis doctoral se presenta en el formato de “Compendio de Artículos”, de tal forma que las principales características de la arquitectura multi-agente distribuida propuesta para facilitar la interconexión de redes de sensores se presentan en tres artículos bien diferenciados. Se ha planteado una arquitectura modular y ligera para dispositivos limitados computacionalmente, diseñando un mecanismo de comunicación flexible que permite la interacción entre diferentes agentes embebidos, desplegados en dispositivos de tamaño reducido. Se propone un nuevo modelo de agente embebido, como mecanismo de extensión para la plataforma PANGEA. Además, se diseña un nuevo modelo de organización virtual de agentes especializada en la fusión de información. De esta forma, los agentes inteligentes tienen en cuenta las características de las organizaciones existentes en el entorno a la hora de proporcionar servicios. El modelo de fusión de información presenta una arquitectura claramente diferenciada en 4 niveles, siendo capaz de obtener la información proporcionada por las redes de sensores (capas inferiores) para ser integrada con organizaciones virtuales de agentes (capas superiores). El filtrado de señales, minería de datos, sistemas de razonamiento basados en casos y otras técnicas de Inteligencia Artificial han sido aplicadas para la consecución exitosa de esta investigación. Una de las principales innovaciones que pretendo con mi estudio, es investigar acerca de nuevos mecanismos que permitan la adición dinámica de redes de sensores combinando diferentes tecnologías con el propósito final de exponer un conjunto de servicios de usuario de forma distribuida. En este sentido, se propondrá una arquitectura multiagente basada en organizaciones virtuales que gestione de forma autónoma la infraestructura subyacente constituida por el hardware y los diferentes sensores

    Intelligent business processes composition based on mas, semantic and cloud integration (IPCASCI)

    Get PDF
    [EN]Component reuse is one of the techniques that most clearly contributes to the evolution of the software industry by providing efficient mechanisms to create quality software. Reuse increases both software reliability, due to the fact that it uses previously tested software components, and development productivity, and leads to a clear reduction in cost. Web services have become are an standard for application development on cloud computing environments and are essential in business process development. These services facilitate a software construction that is relatively fast and efficient, two aspects which can be improved by defining suitable models of reuse. This research work is intended to define a model which contains the construction requirements of new services from service composition. To this end, the composition is based on tested Web services and artificial intelligent tools at our disposal. It is believed that a multi-agent architecture based on virtual organizations is a suitable tool to facilitate the construction of cloud computing environments for business processes from other existing environments, and with help from ontological models as well as tools providing the standard BPEL (Business Process Execution Language). In the context of this proposal, we must generate a new business process from the available services in the platform, starting with the requirement specifications that the process should meet. These specifications will be composed of a semi-free description of requirements to describe the new service. The virtual organizations based on a multi-agent system will manage the tasks requiring intelligent behaviour. This system will analyse the input (textual description of the proposal) in order to deconstruct it into computable functionalities, which will be subsequently treated. Web services (or business processes) stored to be reused have been created from the perspective of SOA architectures and associated with an ontological component, which allows the multi-agent system (based on virtual organizations) to identify the services to complete the reuse process. The proposed model develops a service composition by applying a standard BPEL once the services that will compose the solution business process have been identified. This standard allows us to compose Web services in an easy way and provides the advantage of a direct mapping from Business Process Management Notation diagrams

    Metodología dirigida por modelos para las pruebas de un sistema distribuido multiagente de fabricación

    Get PDF
    Las presiones del mercado han empujado a las empresas de fabricación a reducir costes a la vez que mejoran sus productos, especializándose en las actividades sobre las que pueden añadir valor y colaborando con especialistas de las otras áreas para el resto. Estos sistemas distribuidos de fabricación conllevan nuevos retos, dado que es difícil integrar los distintos sistemas de información y organizarlos de forma coherente. Esto ha llevado a los investigadores a proponer una variedad de abstracciones, arquitecturas y especificaciones que tratan de atacar esta complejidad. Entre ellas, los sistemas de fabricación holónicos han recibido una atención especial: ven las empresas como redes de holones, entidades que a la vez están formados y forman parte de varios otros holones. Hasta ahora, los holones se han implementado para control de fabricación como agentes inteligentes autoconscientes, pero su curva de aprendizaje y las dificultades a la hora de integrarlos con sistemas tradicionales han dificultado su adopción en la industria. Por otro lado, su comportamiento emergente puede que no sea deseable si se necesita que las tareas cumplan ciertas garantías, como ocurren en las relaciones de negocio a negocio o de negocio a cliente y en las operaciones de alto nivel de gestión de planta. Esta tesis propone una visión más flexible del concepto de holón, permitiendo que se sitúe en un espectro más amplio de niveles de inteligencia, y defiende que sea mejor implementar los holones de negocio como servicios, componentes software que pueden ser reutilizados a través de tecnologías estándar desde cualquier parte de la organización. Estos servicios suelen organizarse como catálogos coherentes, conocidos como Arquitecturas Orientadas a Servicios (‘Service Oriented Architectures’ o SOA). Una iniciativa SOA exitosa puede reportar importantes beneficios, pero no es una tarea trivial. Por este motivo, se han propuesto muchas metodologías SOA en la literatura, pero ninguna de ellas cubre explícitamente la necesidad de probar los servicios. Considerando que la meta de las SOA es incrementar la reutilización del software en la organización, es una carencia importante: tener servicios de alta calidad es crucial para una SOA exitosa. Por este motivo, el objetivo principal de la presente Tesis es definir una metodología extendida que ayude a los usuarios a probar los servicios que implementan a sus holones de negocio. Tras considerar las opciones disponibles, se tomó la metodología dirigida por modelos SODM como punto de partida y se reescribió en su mayor parte con el framework Epsilon de código abierto, permitiendo a los usuarios que modelen su conocimiento parcial sobre el rendimiento esperado de los servicios. Este conocimiento parcial es aprovechado por varios nuevos algoritmos de inferencia de requisitos de rendimiento, que extraen los requisitos específicos de cada servicio. Aunque el algoritmo de inferencia de peticiones por segundo es sencillo, el algoritmo de inferencia de tiempos límite pasó por numerosas revisiones hasta obtener el nivel deseado de funcionalidad y rendimiento. Tras una primera formulación basada en programación lineal, se reemplazó con un algoritmo sencillo ad-hoc que recorría el grafo y después con un algoritmo incremental mucho más rápido y avanzado. El algoritmo incremental produce resultados equivalentes y tarda mucho menos, incluso con modelos grandes. Para sacar más partidos de los modelos, esta Tesis también propone un enfoque general para generar artefactos de prueba para múltiples tecnologías a partir de los modelos anotados por los algoritmos. Para evaluar la viabilidad de este enfoque, se implementó para dos posibles usos: reutilizar pruebas unitarias escritas en Java como pruebas de rendimiento, y generar proyectos completos de prueba de rendimiento usando el framework The Grinder para cualquier Servicio Web que esté descrito usando el estándar Web Services Description Language. La metodología completa es finalmente aplicada con éxito a un caso de estudio basado en un área de fabricación de losas cerámicas rectificadas de un grupo de empresas español. En este caso de estudio se parte de una descripción de alto nivel del negocio y se termina con la implementación de parte de uno de los holones y la generación de pruebas de rendimiento para uno de sus Servicios Web. Con su soporte para tanto diseñar como implementar pruebas de rendimiento de los servicios, se puede concluir que SODM+T ayuda a que los usuarios tengan una mayor confianza en sus implementaciones de los holones de negocio observados en sus empresas

    Twenty years of rewriting logic

    Get PDF
    AbstractRewriting logic is a simple computational logic that can naturally express both concurrent computation and logical deduction with great generality. This paper provides a gentle, intuitive introduction to its main ideas, as well as a survey of the work that many researchers have carried out over the last twenty years in advancing: (i) its foundations; (ii) its semantic framework and logical framework uses; (iii) its language implementations and its formal tools; and (iv) its many applications to automated deduction, software and hardware specification and verification, security, real-time and cyber-physical systems, probabilistic systems, bioinformatics and chemical systems

    Políticas de Copyright de Publicações Científicas em Repositórios Institucionais: O Caso do INESC TEC

    Get PDF
    A progressiva transformação das práticas científicas, impulsionada pelo desenvolvimento das novas Tecnologias de Informação e Comunicação (TIC), têm possibilitado aumentar o acesso à informação, caminhando gradualmente para uma abertura do ciclo de pesquisa. Isto permitirá resolver a longo prazo uma adversidade que se tem colocado aos investigadores, que passa pela existência de barreiras que limitam as condições de acesso, sejam estas geográficas ou financeiras. Apesar da produção científica ser dominada, maioritariamente, por grandes editoras comerciais, estando sujeita às regras por estas impostas, o Movimento do Acesso Aberto cuja primeira declaração pública, a Declaração de Budapeste (BOAI), é de 2002, vem propor alterações significativas que beneficiam os autores e os leitores. Este Movimento vem a ganhar importância em Portugal desde 2003, com a constituição do primeiro repositório institucional a nível nacional. Os repositórios institucionais surgiram como uma ferramenta de divulgação da produção científica de uma instituição, com o intuito de permitir abrir aos resultados da investigação, quer antes da publicação e do próprio processo de arbitragem (preprint), quer depois (postprint), e, consequentemente, aumentar a visibilidade do trabalho desenvolvido por um investigador e a respetiva instituição. O estudo apresentado, que passou por uma análise das políticas de copyright das publicações científicas mais relevantes do INESC TEC, permitiu não só perceber que as editoras adotam cada vez mais políticas que possibilitam o auto-arquivo das publicações em repositórios institucionais, como também que existe todo um trabalho de sensibilização a percorrer, não só para os investigadores, como para a instituição e toda a sociedade. A produção de um conjunto de recomendações, que passam pela implementação de uma política institucional que incentive o auto-arquivo das publicações desenvolvidas no âmbito institucional no repositório, serve como mote para uma maior valorização da produção científica do INESC TEC.The progressive transformation of scientific practices, driven by the development of new Information and Communication Technologies (ICT), which made it possible to increase access to information, gradually moving towards an opening of the research cycle. This opening makes it possible to resolve, in the long term, the adversity that has been placed on researchers, which involves the existence of barriers that limit access conditions, whether geographical or financial. Although large commercial publishers predominantly dominate scientific production and subject it to the rules imposed by them, the Open Access movement whose first public declaration, the Budapest Declaration (BOAI), was in 2002, proposes significant changes that benefit the authors and the readers. This Movement has gained importance in Portugal since 2003, with the constitution of the first institutional repository at the national level. Institutional repositories have emerged as a tool for disseminating the scientific production of an institution to open the results of the research, both before publication and the preprint process and postprint, increase the visibility of work done by an investigator and his or her institution. The present study, which underwent an analysis of the copyright policies of INESC TEC most relevant scientific publications, allowed not only to realize that publishers are increasingly adopting policies that make it possible to self-archive publications in institutional repositories, all the work of raising awareness, not only for researchers but also for the institution and the whole society. The production of a set of recommendations, which go through the implementation of an institutional policy that encourages the self-archiving of the publications developed in the institutional scope in the repository, serves as a motto for a greater appreciation of the scientific production of INESC TEC

    Un marco para la definición y transformación de modelos en los sistemas multiagentes

    Get PDF
    El Desarrollo del Software Dirigido por Modelos (DSDM) es un paradigma de desarrollo en el que los modelos son el producto principal, y a partir de ellos se generan los sistemas de forma automática, total o parcialmente. Del tratamiento de los modelos, surge la necesidad de denirlos y transformarlos, que se aborda respectivamente con la denición de metamodelos y transformaciones. Uno de los principales beneciarios del DSDM es la Ingeniería del Software Orientada a Agentes (ISOA). En ésta, se construyen Sistemas Multi-agente (SMAs), que son sistemas distribuidos compuestos por agentes autónomos que interactúan dando lugar a comportamientos complejos. Si bien algunas caracter ísticas del DSDM se han incorporado plenamente en la ISOA como prácticas habituales, todavía dos factores dicultan su implantación completa. En primer lugar, la denición de metamodelos depende de la experiencia del diseñador y no existen guías que faciliten esta labor. Por otro lado, las herramientas y lenguajes existentes no permiten denir transformaciones de modelos con un esfuerzo razonable. Por ello, esta tesis propone una guía para denir metamodelos y un procedimiento para generar Transformaciones. La guía incluye un armazón para estructurar los metamodelos, recomendaciones para las decisiones principales, y una secuencia de pasos para denir los metamodelos. El armazón se estructura en tres capas que contienen respectivamente la información del lenguaje de modelado, los aspectos de presentación de los modelos y la información especíca de las herramientas. En la capa del lenguaje de modelado, se proponen ciertas representaciones de los elementos y se dan las pautas para asociar cada elemento con la representación más apropiada. Para esto se debe elegir entre una representación heterogénea, que minimiza el número de elementos de meta-modelado necesarios para representar los elementos del modelo, o una representación homogénea, con más elementos de meta-modelado pero más fácil de procesar automáticamente. También se debe elegir entre una representación redundante o no redundante de las referencias entre los elementos, dependiendo del nivel de navegabilidad que se desee, ya que dichas referencias son dirigidas. En los aspectos de presentación, se propone usar vistas que hagan referencia a diccionarios globales, facilitando el procesamiento de los modelos y evitando inconsistencias. En la tercera capa, se considera la información especíca de las herramientas, que no se había considerado en aproximaciones anteriores. Como marco de experimentación, con esta guía se ha denido el metamodelo de la herramienta INGENIAS Development Kit (IDK) con el lenguaje ECore, permitiendo incorporar las facilidades tecnológicas de la comunidad Eclipse en dicha herramienta. Además, se ha denido un metamodelo para la generación de un editor de procesos de ISOA, basado en el Software Process Engineering Metamodel (SPEM) del Object Management Group (OMG). En esta tesis, se considera la aproximación conocida como Generación de Transformaciones Basadas en Ejemplo (GTBE), donde se generan transformaciones a partir de parejas de modelos prototipo origen y destino. De esta forma, se evita que el diseñador tenga que conocer los lenguajes de transformación y tratar con detalles de bajo nivel de la especi�cación de los modelos, tales como las primitivas de meta-modelado involucradas en cada elemento del modelo. Las transformaciones generadas transforman los modelos que encajan en los modelos prototipo origen en los nuevos modelos que encajen en los modelos prototipo destino. Es habitual que exista un mecanismo de asociación de atributos para referenciar los modelos prototipo origen desde los modelos prototipo destino, indicando así la forma de transferir la información en las transformaciones generadas. En esta línea, esta tesis presenta un nuevo algoritmo y herramienta para la GTBE, que mejora a los trabajos existentes en varios aspectos. En primer lugar, se permite realizar el mecanismo de asociación de atributos desde varios elementos de cada modelo prototipo origen, mientras que las aproximaciones existentes sólo permiten esta asociación desde un elemento de cada modelo prototipo. Este avance permite combinar información de los atributos de diferentes elementos. Además, el algoritmo permite trabajar con grafos no conexos en los modelos prototipo origen y destino, característica no presente en los trabajos anteriores. Como experimentación, se han generado transformaciones con utilidad práctica en ciertos desarrollos de SMAs. En los ejemplos propuestos, se observa como ciertas transformaciones no podrían haber sido generadas por otras herramientas de GTBE. [ABSTRACT] The Model Driven Development (MDD) is a paradigm of development in which models are the main product and systems are totally or partially generated from these models. When processing models, it is necessary to de�ne and transform them, which is accomplished with the de�nition of metamodels and transformations respectively. One of the �elds that is most bene�tted from MDD is the Agent Oriented Software Engineering (AOSE). AOSE is concerned with the development of Multi-agent Systems (MASs), which are distributed systems made of autonomous agents that interact with each other producing emergent behaviors. Although some aspects of MDD are considered in AOSE, there are still two facts that prevent AOSE from fully incorporating MDD. First, the deinition of metamodels depends on the expertise of designers, and there are not guidelines that facilitate this task. Second, existent tools and languages do not allow practitioners to de�ne model transformations with a moderate effort. Thus, this thesis proposes a guideline for defining metamodels and a mechanism for generating transformations. The guideline includes a framework for structuring metamodels, recommendations for taking the main decisions, and a sequence of activities for defining metamodels. The framework is structured in three layers that respectively contain the information of a modeling language, the aspects for presenting its models, and the tool-specific information. In the modeling language layer, several representations of elements are proposed, and the guideline indicates the manner in which each element can be associated with the most appropriate representations. In this guideline, practitioners decide between a heterogenous representation, which minimizes the number of meta-modeling elements required to represent the modeling elements, and a homogenous representation, which uses more meta-modeling elements but is easier to be automatically processed. The guideline also includes the choice between a redundant and a non-redundant representation, regarding the degree of navigability that is desired. It is worth noticing that references between elements are directed, so the e�ective processing of certain operations over relationships requires redundant inverse references. Regarding the aspects for presenting models, the guideline proposes to use views that make references to global dictionaries, facilitating the processing of models and avoiding inconsistencies. The third layer considers the tool-speci�c information, which is not considered in the existent approaches. For experimentation, the metamodel of the INGENIAS Development Kit (IDK) has been de�ned following the guideline using the ECore language, allowing the incorporation of the technological facilities of the Eclipse community in the IDK. Furthermore, a metamodel is de�ned for the generation of an editor of processes in AOSE based on the Software Process Engineering Metamodel (SPEM) of the Object Management Group (OMG). The second issue considered in this thesis is the di�culties for a cost-efective de�nition of model transformations. For this problem, this research considers the approach known as Model Transformation By-Example (MTBE), which generates transformations from pairs of source and target model prototypes, avoiding that designers have to learn transformation languages and deal with low-level details of the metamodels of the involved modeling languages. The generated transformations transform models that match source prototype models into the new models that �t the target prototype models. These approaches usually include a mechanism for the mapping of attributes that refer to source prototype models from elements in the target prototype models, indicating the way of transferring information in the generated transformations. In this line of research, this thesis presents a new algorithm and tool for MTBE, which overcome some limitations of the existent approaches. First, the presented approach provides a mechanism for mapping attributes from several elements of each source prototype model, while existent approaches only provide this mapping from one element of each source prototype model. This improvement allows one to combine information from the attributes of diferent elements. Moreover, the presented algorithm can process non-connected graphs in the source and target model prototypes, which is not possible in other approaches. For experimentation, the tool has generated transformations with practical utility in certain MAS developments. In the proposed examples, one can observe that certain transformations cannot be generated by other MTBE tools

    An agent-based architecture for online dispute resolution services

    Get PDF
    Tese de doutoramento em "Philosophy in Informatics"Conflicts are a natural consequence of our daily social interactions and should be regarded as opportunities to improve some aspect, condition or flaw. In order for conflicts to have positive outcomes, not only from an economical view but also concerning the maintenance of good interpersonal-relationships, tools are needed that can explain to the parties the inner mechanisms of the conflict resolution process, its restrictions and its rules. Only well-informed parties can take good and realistic decisions and better understand the others’. In this thesis, the most important aspects in a conflict resolution process concerning the aforementioned are identified, with the objective of designing a tool that can effectively support the parties from the beginning to the end of the conflict. The resulting tool, UMCourt , has as main objective to support decisions by providing the right information in the right moment to the right stakeholders. Specifically, several problems are addressed that include the definition of a suitable agent-based architecture, the building of important knowledge and the support in the negotiation process, either by generating solutions or by analysing the behaviour of the parties. This last issue is addressed in more detail in this thesis. In fact, the most serious drawback that was identified in current conflict resolution methods is their complete disregard for contextual and subjective information about the parties: the trend has been, for many years, to focus on the objective aspects of the conflict. The main contribution of this thesis is a vision on conflict resolution that goes the other way around: asides from objective information, decisions should also be based on contextual features such as our level of stress, body language, attitudes or our conflict handling style. We rely on this information on a daily basis to communicate efficiently. It results only logical that it should be included in conflict resolution methods that rely so heavily on communication. The approach put forward relies on the analysis of the individual’s behaviour in order to infer such context information. Disputant parties and, in particular, mediators and negotiators, can better understand the state of the participants and take better decisions (e.g. make a pause, understand how a party is affected by an issue). This is particularly important when online dispute resolution methods that rely on cold and impersonal communication technologies (often constituting a barrier to efficient communication) are used.Os conflitos são uma consequência natural das nossas interações sociais e devem ser vistos como oportunidades para melhorar determinados aspetos, condições ou mesmo falhas. Para que tenham resultados positivos, não só do ponto de vista económico mas também do ponto de vista das relações interpessoais, são necessárias ferramentas que expliquem às partes as particularidades do processo, as suas restrições e as suas regras. Apenas partes bem informadas podem tomar decisões realísticas e melhor entender as decisões dos restantes. Nesta tese, os aspetos mais importantes num processo de resolução de conflitos são identificados, com o objetivo de definir uma ferramenta que possa, efetivamente, suportar as partes do início ao fim do conflito. A ferramenta resultante, designada UMCourt , tem como principal objetivo suportar decisões fornecendo a informação certa no momento certo às entidades certas. Especificamente, vários problemas são atacados que incluem a definição de uma arquitetura de software adequada, a construção de conhecimento e o suporte à negociação, quer através da geração de soluções quer através da análise comportamental das partes. Este último tópico é tratado em mais detalhe nesta tese. De facto, a limitação mais significante que foi identificada nos atuais métodos de resolução de conflitos é a negligência da importância dos fatores contextuais e da informação subjetiva acerca das partes: a tendência tem sido no sentido de se focarem apenas nos aspetos objetivos. A principal contribuição desta tese é a de uma visão do processo de resolução de conflitos que aponta no sentido oposto: para além da informação objetiva, as decisões devem também ser baseadas em aspetos contextuais tais como o nível de stress, a linguagem corporal ou o estilo de lidar com o conflito. Enquanto indivíduos, baseamonos nestes aspetos diariamente para comunicar de forma eficiente. É portanto lógico que tal informação seja incluída em métodos de resolução de conflitos que se baseiam de forma tão clara na comunicação. A abordagem proposta baseia-se na análise comportamental de cada indivíduo para aquisiçao da informação de contexto. As partes em conflito e, em particular, os mediadores e negociadores, podem entender melhor o estado de todos os participantes e tomar melhores decisões (e.g. fazer uma pausa, perceber como uma parte é afetada por uma questão). Isto é especialmente importante quando são usados métodos de resolução de conflitos em linha baseados no uso de tecnologias de comunicação frias e impessoais, que geralmente configuram elas próprias um obstáculo à eficiência da comunicação

    4th International Symposium on Ambient Intelligence (ISAmI 2013)

    Get PDF
    Ambient Intelligence (AmI) is a recent paradigm emerging from Artificial Intelligence (AI), where computers are used as proactive tools assisting people with their day-to-day activities, making everyone’s life more comfortable. Another main concern of AmI originates from the human computer interaction domain and focuses on offering ways to interact with systems in a more natural way by means user friendly interfaces. This field is evolving quickly as can be witnessed by the emerging natural language and gesture based types of interaction. The inclusion of computational power and communication technologies in everyday objects is growing and their embedding into our environments should be as invisible as possible. In order for AmI to be successful, human interaction with computing power and embedded systems in the surroundings should be smooth and happen without people actually noticing it. The only awareness people should have arises from AmI: more safety, comfort and wellbeing, emerging in a natural and inherent way. ISAmI is the International Symposium on Ambient Intelligence and aiming to bring together researchers from various disciplines that constitute the scientific field of Ambient Intelligence to present and discuss the latest results, new ideas, projects and lessons learned, namely in terms of software and applications, and aims to bring together researchers from various disciplines that are interested in all aspects of this area

    Propuesta de arquitectura distribuida de control inteligente basada en políticas de calidad de servicio

    Full text link
    La tesis se enmarca en el estudio de las arquitecturas inteligentes de control distribuido y de los sistemas de comunicaciones empleados, más concretamente el trabajo se centra en la optimización del sistema de control por medio de la evaluación del rendimiento en el middleware a través de los parámetros de calidad de servicio y de la optimización del control empleando políticas de calidad de servicio. El principal objetivo de este trabajo ha sido estudiar, diseñar, desarrollar y evaluar una arquitectura de control distribuido, basándose en el estándar de comunicaciones Data-Distribution Service for Real-Time Systems (DDS) propuesto por la organización Object Management Group (OMG). Como aportación principal de la tesis se propone el diseño de una arquitectura distribuida de control inteligente que de soporte a la QoS, tanto en la medición por medio de los parámetros, como en la gestión por medio de las políticas de QoS. Las políticas deben permitir la variación de las características de la comunicación en función de los requisitos de control, expresados estos últimos por medio de los parámetros de QoC. A la arquitectura desarrollada se le ha llamado FSACtrl. Para determinar los requisitos de la arquitectura FSACtrl, se han estudiado las revisiones de los autores más relevantes acerca de las características más destacadas de las arquitecturas distribuidas de sistemas de control. A partir de estas características se han diseñado los elementos de la arquitectura FSACtrl. Los elementos que dan soporte a las comunicaciones se han basado en los del estándar DDS de la OMG, mientras que los elementos de control se han basado en el estándar Sensor Web Enablement (SWE) del Open Geospatial Consortium (OGC). Para la validación de la arquitectura se ha implementado un entorno de diseño y simulación del control.Poza Luján, JL. (2012). Propuesta de arquitectura distribuida de control inteligente basada en políticas de calidad de servicio [Tesis doctoral]. Editorial Universitat Politècnica de València. https://doi.org/10.4995/Thesis/10251/14674Palanci
    corecore