110 research outputs found

    Expert systems in technical services and collection management

    Get PDF
    No embarg

    The 1988 Goddard Conference on Space Applications of Artificial Intelligence

    Get PDF
    This publication comprises the papers presented at the 1988 Goddard Conference on Space Applications of Artificial Intelligence held at the NASA/Goddard Space Flight Center, Greenbelt, Maryland on May 24, 1988. The purpose of this annual conference is to provide a forum in which current research and development directed at space applications of artificial intelligence can be presented and discussed. The papers in these proceedings fall into the following areas: mission operations support, planning and scheduling; fault isolation/diagnosis; image processing and machine vision; data management; modeling and simulation; and development tools/methodologies

    A Review on Expert System Applications in Power Plants

    Get PDF
    The control and monitoring of power generation plants is being complicated day by day, with the increase size and capacity of equipments involved in power generation process. This calls for the presence of experienced and well trained operators for decision making and management of various plant related activities. Scarcity of well trained and experienced plant operators is one of the major problems faced by modern power industry. Application of artificial intelligence techniques, especially expert systems whose main characteristics is to simulate expert plant operator’s actions is one of the actively researched areas in the field of plant automation. This paper presents an overview of various expert system applications in power generation plants. It points out technological advancement of expert system technology and its integration with various types of modern techniques such as fuzzy, neural network, machine vision and data acquisition systems. Expert system can significantly reduce the work load on plant operators and experts, and act as an expert for plant fault diagnosis and maintenance. Various other applications include data processing, alarm reduction, schedule optimisation, operator training and evaluation. The review point out that integration of modern techniques such as neural network, fuzzy, machine vision, data base, simulators etc. with conventional rule based methodologies have added greater dimensions to problem solving capabilities of an expert system.DOI:http://dx.doi.org/10.11591/ijece.v4i1.502

    A Quality-Driven Approach to Enable Decision-Making in Self-Adaptive Software

    Get PDF
    Self-adaptive software systems are increasingly in demand. The driving forces are changes in the software “self” and “context”, particularly in distributed and pervasive applications. These systems provide self-* properties in order to keep requirements satisfied in different situations. Engineering self-adaptive software normally involves building the adaptable software and the adaptation manager. This PhD thesis focuses on the latter, especially on the design and implementation of the deciding process in an adaptation manager. For this purpose, a Quality-driven Framework for Engineering an Adaptation Manager (QFeam) is proposed, in which quality requirements play a key role as adaptation goals. Two major phases of QFeam are building the runtime adaptation model and designing the adaptation mechanism. The modeling phase investigates eliciting and specifying key entities of the adaptation problem space including goals, attributes, and actions. Three composition patterns are discussed to link these entities to build the adaptation model, namely: goal-centric, attribute-action-coupling, and hybrid patterns. In the second phase, the adaptation mechanism is designed according to the adopted pattern in the model. Therefore, three categories of mechanisms are discussed, in which the novel goal-ensemble mechanism is introduced. A concrete model and mechanism, the Goal-Attribute-Action Model (GAAM), is proposed based on the goal-centric pattern and the goal-ensemble mechanism. GAAM is implemented based on the StarMX framework for Java-based systems. Several considerations are taken into account in QFeam: i) the separation of adaptation knowledge from application knowledge, ii) highlighting the role of adaptation goals, and iii) modularity and reusability. Among these, emphasizing goals is the tenet of QFeam, especially in order to address the challenge of addressing several self- * properties in the adaptation manager. Furthermore, QFeam aims at embedding a model in the adaptation manager, particularly in the goal-centric and hybrid patterns. The proposed framework focuses on mission-critical systems including enterprise and service-oriented applications. Several empirical studies were conducted to put QFeam into practice, and also evaluate GAAM in comparison with other adaptation models and mechanisms. Three case studies were selected for this purpose: the TPC-W bookstore application, a news application, and the CC2 VoIP call controller. Several research questions were set for each case study, and findings indicate that the goal-ensemble mechanism and GAAM can outperform or work as well as a common rule-based approach. The notable difference is that the effort of building an adaptation manager based on a goal-centric pattern is less than building it using an attribute-action-coupling pattern. Moreover, representing goals explicitly leads to better scalability and understandability of the adaptation manager. Overall, the experience of working on these three systems show that QFeam improves the design and development process of the adaptation manager, particularly by highlighting the role of adaptation goals

    PROLOG META-INTERPRETERS FOR RULE-BASED INFERENCE UNDER UNCERTAINTY

    Get PDF
    Uncertain facts and inexact rules can be represented and processed in standard Prolog through meta-interpretation. This requires the specification of appropriate parsers and belief calculi. We present a meta-interpreter that takes a rule-based belief calculus as an external variable. The certainty-factors calculus and a heuristic Bayesian belief-update model are then implemented as stand-alone Prolog predicates. These, in turn, are bound to the meta-interpreter environment through second-order programming. The resulting system is a powerful experimental tool which enables inquiry into the impact of various designs of belief calculi on the external validity of expert systems. The paper also demonstrates the (well-known) role of Prolog meta-interpreters in building expert system shells.Information Systems Working Papers Serie

    Research in constraint-based layout, visualization, CAD, and related topics : a bibliographical survey

    Get PDF
    The present work compiles numerous papers in the area of computer-aided design, graphics, layout configuration, and user interfaces in general. There is nearly no conference on graphics, multimedia, and user interfaces that does not include a section on constraint-based graphics; on the other hand most conferences on constraint processing favour applications in graphics. This work of bibliographical pointers may serve as a basis for a detailed and comprehensive survey of this important and challenging field in the intersection of constraint processing and graphics. In order to reach this ambitious aim, and also to keep this study up-to-date, the authors appreciate any comment and update information

    The 1995 Goddard Conference on Space Applications of Artificial Intelligence and Emerging Information Technologies

    Get PDF
    This publication comprises the papers presented at the 1995 Goddard Conference on Space Applications of Artificial Intelligence and Emerging Information Technologies held at the NASA/Goddard Space Flight Center, Greenbelt, Maryland, on May 9-11, 1995. The purpose of this annual conference is to provide a forum in which current research and development directed at space applications of artificial intelligence can be presented and discussed

    Imbalanced Deep Learning by Minority Class Incremental Rectification

    Get PDF
    Model learning from class imbalanced training data is a long-standing and significant challenge for machine learning. In particular, existing deep learning methods consider mostly either class balanced data or moderately imbalanced data in model training, and ignore the challenge of learning from significantly imbalanced training data. To address this problem, we formulate a class imbalanced deep learning model based on batch-wise incremental minority (sparsely sampled) class rectification by hard sample mining in majority (frequently sampled) classes during model training. This model is designed to minimise the dominant effect of majority classes by discovering sparsely sampled boundaries of minority classes in an iterative batch-wise learning process. To that end, we introduce a Class Rectification Loss (CRL) function that can be deployed readily in deep network architectures. Extensive experimental evaluations are conducted on three imbalanced person attribute benchmark datasets (CelebA, X-Domain, DeepFashion) and one balanced object category benchmark dataset (CIFAR-100). These experimental results demonstrate the performance advantages and model scalability of the proposed batch-wise incremental minority class rectification model over the existing state-of-the-art models for addressing the problem of imbalanced data learning.Comment: Accepted for IEEE Trans. Pattern Analysis and Machine Intelligenc

    Computational models of social and emotional turn-taking for embodied conversational agents: a review

    Get PDF
    The emotional involvement of participants in a conversation not only shows in the words they speak and in the way they speak and gesture but also in their turn-taking behavior. This paper reviews research into computational models of embodied conversational agents. We focus on models for turn-taking management and (social) emotions. We are particularly interested in how in these models emotions of the agent itself and those of the others in uence the agent's turn-taking behavior and vice versa how turn-taking behavior of the partner is perceived by the agent itself. The system of turn-taking rules presented by Sacks, Schegloff and Jefferson (1974) is often a starting point for computational turn-taking models of conversational agents. But emotions have their own rules besides the "one-at-a-time" paradigm of the SSJ system. It turns out that almost without exception computational models of turn-taking behavior that allow "continuous interaction" and "natural turntaking" do not model the underlying psychological, affective, attentional and cognitive processes. They are restricted to rules in terms of a number of supercially observable cues. On the other hand computational models for virtual humans that are based on a functional theory of social emotion do not contain explicit rules on how social emotions affect turn-taking behavior or how the emotional state of the agent is affected by turn-taking behavior of its interlocutors. We conclude with some preliminary ideas on what an architecture for emotional turn-taking should look like and we discuss the challenges in building believable emotional turn-taking agents

    Named Entities Recognition for Machine Translation: A Case Study on the Importance of Named Entities for Customer Support

    Get PDF
    The last two decades have been of significant change in the international panorama at all levels. The onset of the internet and content availability has propelled us to a new era: The Information Age. The staggering growth of new digital contents, either in the form of ebooks, on-demand TV shows, blogs or even e-commerce websites, has led to an increase in the need for translated material, influenced by people's demand for a quick access to this shared knowledge in their native languages and dialects. Fortunately, machine translation technologies (MT), which provide in many cases human-like translations, are now more widely available, enabling quicker translations for multiple languages at more affordable prices. This work describes the Natural Language Process (NLP) sub-task known as Named Entity Recognition (NER), performed by Unbabel, a Portuguese Machine-translation start-up that combines MT with human post-edition and focuses strictly on customer service content, to improve translation quality outputs. The main objective of this study is to contribute to furthering MT quality and good-practices by exposing the importance of having a continuously-in-development robust Named Entity Recognition system for generic and client-specific content in an MT pipeline and for General Data Protection Regulation (GDPR) compliance; moreover, having in mind future applications, we have tested strategies that support the creation of Multilingual Named Entities Recognition Systems. In the following work, we will first define the meaning of Named Entity, highlighting its importance in a Machine Translation scenario, followed by a brief historical overview of the subject. We will also provide a reasonable description of the most recent data-driven Machine Translation technologies. Concerning the main topic of this work, we will describe three experiments carried out jointly with Unbabel´s NLP team. The first experiment focuses on assisting the NLP team in the creation of a domain-specific Named Entity Recognition (NER) system. The second and third experiments explore the possibilities to create in a semi-automatically fashion multilingual NER gold standards, by resorting to aligners able to project Named Entities between a parallel corpus.As últimas duas décadas têm sido de grandes mudanças a todos os níveis. O início da internet e a disponibilidade de conteúdos veio impulsionar-nos para uma nova era: a Era da Informação. O impressionante aumento de novos conteúdos digitais, sejam eles em forma de ebooks, programas de televisão sempre disponíveis quando solicitados, blogs ou mesmo sites na internet de vendas ao público, levou a um aumento de material traduzido, influenciado em grande parte pelo facto de as pessoas exigirem um acesso rápido a estes conhecimentos partilhados nas suas línguas nativas ou dialetos. Felizmente, as novas tecnologias de tradução automática (TA), que em muitos casos apresentam uma qualidade que rivaliza com as traduções humanas, estão agora amplamente disponíveis, permitindo traduções para uma panóplia de diferentes línguas, em tempo recorde e a melhores preços do que os praticados por tradutores humanos. O presente trabalho dedica-se a descrever a sub-tarefa no campo de Processamento de Língua Natural (PLN) denominada de Reconhecimento de Entidades Mencionadas (REM), utilizada pela Unbabel, uma startup portuguesa que combina tradução automática com pós-edição humana, de forma a melhorar a qualidade das traduções automáticas, e que se foca principalmente em conteúdos provenientes da área do apoio ao cliente. O principal objetivo deste trabalho é contribuir para um crescente aumento da qualidade das traduções automáticas e para fomentar as boas práticas na área da tradução automática, expondo a importância de manter um sistema de Reconhecimento de Entidades Mencionadas robusto e em constante evolução no seu ciclo de tradução, capaz de articular diferentes tipos de conteúdo, do mais genérico ao mais específico, e para cumprir as disposições sobre a proteção de dados exigidas pelo Regulamento Geral sobre a Proteção de Dados (RGPD); adicionalmente, e tendo em conta possíveis aplicações futuras, foram testadas estratégias inovadoras que permitem e fomentam a criação de um sistema de Reconhecimento de Entidades Mencionadas multilíngue. No presente documento, iremos primeiro definir o significado de Entidade Mencionada, explicitando a sua importância num contexto de tradução automática. Num segundo momento, será dada uma panorâmica histórica sobre o tema. Adicionalmente, também iremos fazer um enquadramento histórico sobre os próprios sistemas de tradução automáticos, com um especial foco nas mais recentes tecnologias desenvolvidas com base em dados e sistemas de Inteligência Artificial. No que se refere ao tema principal do nosso trabalho, iremos descrever as três experiências levadas a cabo durante o estágio na Unbabel. Todas as experiências efetuadas tiveram como base os dados reais de clientes dos mais diversos domínios, com cada corpus utilizado nas experiências, sendo selecionados de acordo com os objetivos finais de cada experiência. A primeira experiência, que teve como objetivo auxiliar a equipa de Inteligência Artificial da Unbabel a desenvolver e testar um sistema automático de Reconhecimento de Entidades Mencionadas na área da entrega de comida ao domicílio, previu a possibilidade futura de se conseguir adaptar estes tipos de sistema a qualquer domínio ou clientes específicos. Com esta experiência foram dados os primeiros passos na Unbabel para a criação de um sistemas de Reconhecimento de Entidades de domínio específico. Em relação ao trabalho desenvolvido, começámos por apresentar e testar uma metodologia de identificação de tipos de Entidades Mencionadas comuns ao domínio acima mencionado. Neste sentido, um extenso corpus na área foi compilado e analisado, sendo possível identificar quatro tipos, e.g., categorias, de Entidades Mencionadas relevantes para o domínio, Restaurant Names; Restaurant Chains; Dish Names; Beverages. Posteriormente, foram criadas diretrizes de anotação para cada nova categoria, acabando estas por serem adicionadas à tipologia de anotação de Entidades Mencionadas já existente na Unbabel, incluindo 27 EM de foro mais genérico, tais como: Localização; Moedas; Medidas; Endereços; Produtos e Serviços e Cidades. Num segundo momento, foi feita uma tarefa de anotação sobre um novo corpus da mesma área composto por 14426 frases, com vista à construção de gold standards, a serem utilizados para a aprendizagem dos sistemas automáticos de Reconhecimento de Entidades Mencionadas e para testar os resultados dos mesmos. Para esta tarefa, fizemos uso das novas diretrizes, permitindo testá-las. Dois modelos foram treinados, um com apenas o gold standard do domínio específico, o outro com o gold standard do domínio específico e com todas as anotações de Entidades Mencionadas disponíveis. Desta forma, foi possível determinar qual dos dois obteve melhores resultados. No que se refere aos resultados obtidos, determinou-se que o gold standard do domínio específico não apresentava exemplos suficientes para treino e teste do novo Sistema de Reconhecimento de Entidades Mencionadas. Mesmo assim, foi possível obter resultados referentes à categoria Dish Names, que permitiram concluir que de ambos os modelos, aquele treinado com o gold standard do domínio específico conseguiu obter melhores resultados, identificando mais Dish Names de forma correta no corpus de teste. A segunda experiência focou-se em testar a estratégia de criação automática de gold standards multilíngues de Entidades Mencionadas para aprendizagem de sistemas automáticos, recorrendo a sistemas de alinhamentos de Entidades Mencionadas em bitextos (textos paralelos bilíngues). Para esta experiência foi usado um corpus em inglês (EN) traduzido para alemão (DE) na área do Turismo com 2500 frases e quatro sistemas de alinhamento de palavras de última geração. Em relação a esta experiência, começamos por submeter o corpus traduzido (DE) a um processo de anotação manual de Entidades Mencionadas, utilizando para tal as diretrizes de anotação de Entidades Mencionadas da Unbabel, sendo que para esta experiência não foram consideradas as novas Entidades da primeira experiência. Com a anotação do corpus traduzido feita, foi então possível enviá-lo para alinhamento de Entidades Mencionadas com o corpus homólogo (EN), que havia sido previamente anotado por outro anotator. Os resultados de alinhamento das entidades Mencionadas do bitexto permitiu avaliar o Named Entities inter-annotator agreement, ou seja o valor de acordo entre anotadores, no que se refere à seleção e categorização das diferentes Entidades, de forma a perceber que Entidades apresentam mais dificuldades de anotação. Adicionalmente, com os resultados de alinhamento foi possível determinar o sistema de alinhamento com melhores resultados de entre os quatro sistemas analisados (SimAlign; FastAlign; AwesomeAlign; eflomal). Os resultados de anotação mostraram uma elevada percentagem de inter-annotator agreement, com 87,97% de concordância para algumas categorias. . Adicionalmente, os resultados de alinhamento permitiram estabelecer o SimAlign como o sistema de alinhamento mais eficaz e preciso, suplantando o sistema utilizado pela Unbabel, FastAlign. A terceira experiência replicou o processo acima descrito, desta vez usando um bitexto (EN e PT-BR) composto por 360 frases na área da tecnologia Com esta nova experiência, pretendeu-se verificar se os resultados de alinhamento obtidos para o corpus de Turismo EN/DE são replicáveis quando se altera o domínio e os pares de língua. Esta experiência, à semelhança da anterior, previu uma tarefa de anotação de Entidades Mencionadas do corpus em questão (EN e PT-BR), sendo utilizadas as mesmas diretrizes de anotação da anterior experiência. Num segundo momento, o bitexto anotado foi então enviado para alinhamento, sendo utilizados os mesmos sistemas de alinhamento da segunda experiência. Com base nos resultados da experiência, foi possível determinar para cada Entidade Mencionada quais os sistema de alinhamento que obtiveram melhores resultados. Desta análise chegou-se à conclusão de que o sistema de alinhamento automático AwesomeAlign foi o que apresentou melhores resultados, seguido pelo SimAlign, que apresentou um desempenho de alinhamento mais baixo para a categoria de Entidade Mencionadas: Organizações. Em conclusão, com este trabalho pretendemos mostrar a complexidade e importância inerentes às Entidades Mencionadas num pipeline de tradução automática, assim como mostrar a importância de sistemas de reconhecimento de Entidades Mencionadas robusto e adaptável. É expectável que sistemas de Reconhecimento de Entidades Mencionadas treinados com foco em domínios particulares, consigam melhores resultados do que aqueles treinados com dados mais genéricos. De igual forma, salientamos a possibilidade e aplicabilidade de se poder usar diferentes recursos da área de Processamento de Língua Natural, como o uso de sistemas de alinhamento, no auxílio de Reconhecimento de Entidades Mencionadas, como nos casos acima descritos. De uma perspectiva mais linguística, atendemos a questões relacionadas com Entidades Mencionadas ambíguas. Neste ponto, estabeleceu-se quais as entidades que apresentam uma maior variabilidade de anotação entre anotadores, ou seja, aquelas em que houve um maior desacordo entre anotadores no que se refere às suas classificações, tentando encontrar justificações e soluções para este problema
    corecore