110 research outputs found
The 1988 Goddard Conference on Space Applications of Artificial Intelligence
This publication comprises the papers presented at the 1988 Goddard Conference on Space Applications of Artificial Intelligence held at the NASA/Goddard Space Flight Center, Greenbelt, Maryland on May 24, 1988. The purpose of this annual conference is to provide a forum in which current research and development directed at space applications of artificial intelligence can be presented and discussed. The papers in these proceedings fall into the following areas: mission operations support, planning and scheduling; fault isolation/diagnosis; image processing and machine vision; data management; modeling and simulation; and development tools/methodologies
A Review on Expert System Applications in Power Plants
The control and monitoring of power generation plants is being complicated day by day, with the increase size and capacity of equipments involved in power generation process. This calls for the presence of experienced and well trained operators for decision making and management of various plant related activities. Scarcity of well trained and experienced plant operators is one of the major problems faced by modern power industry. Application of artificial intelligence techniques, especially expert systems whose main characteristics is to simulate expert plant operator’s actions is one of the actively researched areas in the field of plant automation. This paper presents an overview of various expert system applications in power generation plants. It points out technological advancement of expert system technology and its integration with various types of modern techniques such as fuzzy, neural network, machine vision and data acquisition systems. Expert system can significantly reduce the work load on plant operators and experts, and act as an expert for plant fault diagnosis and maintenance. Various other applications include data processing, alarm reduction, schedule optimisation, operator training and evaluation. The review point out that integration of modern techniques such as neural network, fuzzy, machine vision, data base, simulators etc. with conventional rule based methodologies have added greater dimensions to problem solving capabilities of an expert system.DOI:http://dx.doi.org/10.11591/ijece.v4i1.502
A Quality-Driven Approach to Enable Decision-Making in Self-Adaptive Software
Self-adaptive software systems are increasingly in demand. The driving forces are changes in the software “self” and “context”, particularly in distributed and pervasive applications. These systems provide self-* properties in order to keep requirements satisfied in different situations. Engineering self-adaptive software normally involves building the adaptable software and the adaptation manager. This PhD thesis focuses on the latter, especially on the design and implementation of the deciding process in an adaptation manager.
For this purpose, a Quality-driven Framework for Engineering an Adaptation Manager
(QFeam) is proposed, in which quality requirements play a key role as adaptation goals. Two major phases of QFeam are building the runtime adaptation model and designing the adaptation mechanism. The modeling phase investigates eliciting and specifying key entities of the adaptation problem space including goals, attributes, and actions. Three composition patterns are discussed to link these entities to build the adaptation model, namely: goal-centric, attribute-action-coupling, and hybrid patterns. In the second phase, the adaptation mechanism is designed according to the adopted pattern in the model. Therefore, three categories of mechanisms are discussed, in which the novel goal-ensemble mechanism is introduced. A concrete model and mechanism, the Goal-Attribute-Action Model (GAAM), is proposed based on the goal-centric pattern and the goal-ensemble mechanism. GAAM is implemented based on the StarMX framework for Java-based systems.
Several considerations are taken into account in QFeam: i) the separation of adaptation knowledge from application knowledge, ii) highlighting the role of adaptation goals, and iii) modularity and reusability. Among these, emphasizing goals is the tenet of QFeam, especially in order to address the challenge of addressing several self- * properties in the adaptation manager. Furthermore, QFeam aims at embedding a model in the adaptation manager, particularly in the goal-centric and hybrid patterns.
The proposed framework focuses on mission-critical systems including enterprise and service-oriented applications. Several empirical studies were conducted to put QFeam into practice, and also evaluate GAAM in comparison with other adaptation models and mechanisms. Three case studies were selected for this purpose: the TPC-W bookstore application, a news application, and the CC2 VoIP call controller. Several research questions were set for each case study, and findings indicate that the goal-ensemble mechanism and GAAM can outperform or work as well as a common rule-based approach. The notable difference is that the effort of building an adaptation manager based on a goal-centric pattern is less than building it using an attribute-action-coupling pattern. Moreover, representing goals explicitly leads to better scalability and understandability of the adaptation manager. Overall, the experience of working on these three systems show that QFeam improves the design and development process of the adaptation manager, particularly by highlighting the role of adaptation goals
PROLOG META-INTERPRETERS FOR RULE-BASED INFERENCE UNDER UNCERTAINTY
Uncertain facts and inexact rules can be represented and
processed in standard Prolog through meta-interpretation. This
requires the specification of appropriate parsers and belief
calculi. We present a meta-interpreter that takes a rule-based
belief calculus as an external variable. The certainty-factors
calculus and a heuristic Bayesian belief-update model are then
implemented as stand-alone Prolog predicates. These, in turn,
are bound to the meta-interpreter environment through second-order
programming. The resulting system is a powerful
experimental tool which enables inquiry into the impact of
various designs of belief calculi on the external validity of
expert systems. The paper also demonstrates the (well-known)
role of Prolog meta-interpreters in building expert system
shells.Information Systems Working Papers Serie
Research in constraint-based layout, visualization, CAD, and related topics : a bibliographical survey
The present work compiles numerous papers in the area of computer-aided design, graphics, layout configuration, and user interfaces in general. There is nearly no conference on graphics, multimedia, and user interfaces that does not include a section on constraint-based graphics; on the other hand most conferences on constraint processing favour applications in graphics. This work of bibliographical pointers may serve as a basis for a detailed and comprehensive survey of this important and challenging field in the intersection of constraint processing and graphics. In order to reach this ambitious aim, and also to keep this study up-to-date, the authors appreciate any comment and update information
The 1995 Goddard Conference on Space Applications of Artificial Intelligence and Emerging Information Technologies
This publication comprises the papers presented at the 1995 Goddard Conference on Space Applications of Artificial Intelligence and Emerging Information Technologies held at the NASA/Goddard Space Flight Center, Greenbelt, Maryland, on May 9-11, 1995. The purpose of this annual conference is to provide a forum in which current research and development directed at space applications of artificial intelligence can be presented and discussed
Imbalanced Deep Learning by Minority Class Incremental Rectification
Model learning from class imbalanced training data is a long-standing and
significant challenge for machine learning. In particular, existing deep
learning methods consider mostly either class balanced data or moderately
imbalanced data in model training, and ignore the challenge of learning from
significantly imbalanced training data. To address this problem, we formulate a
class imbalanced deep learning model based on batch-wise incremental minority
(sparsely sampled) class rectification by hard sample mining in majority
(frequently sampled) classes during model training. This model is designed to
minimise the dominant effect of majority classes by discovering sparsely
sampled boundaries of minority classes in an iterative batch-wise learning
process. To that end, we introduce a Class Rectification Loss (CRL) function
that can be deployed readily in deep network architectures. Extensive
experimental evaluations are conducted on three imbalanced person attribute
benchmark datasets (CelebA, X-Domain, DeepFashion) and one balanced object
category benchmark dataset (CIFAR-100). These experimental results demonstrate
the performance advantages and model scalability of the proposed batch-wise
incremental minority class rectification model over the existing
state-of-the-art models for addressing the problem of imbalanced data learning.Comment: Accepted for IEEE Trans. Pattern Analysis and Machine Intelligenc
Computational models of social and emotional turn-taking for embodied conversational agents: a review
The emotional involvement of participants in a conversation not only shows in the words they speak and in the way they speak and gesture but also in their turn-taking behavior. This paper reviews research into computational models of embodied conversational agents. We focus on models for turn-taking management and (social) emotions. We are particularly interested in how in these models emotions of the agent itself and those of the others in uence the agent's turn-taking behavior and vice versa how turn-taking behavior of the partner is perceived by the agent itself. The system of turn-taking rules presented by Sacks, Schegloff and Jefferson (1974) is often a starting point for computational turn-taking models of conversational agents. But emotions have their own rules besides the "one-at-a-time" paradigm of the SSJ system. It turns out that almost without exception computational models of turn-taking behavior that allow "continuous interaction" and "natural turntaking" do not model the underlying psychological, affective, attentional and cognitive processes. They are restricted to rules in terms of a number of supercially observable cues. On the other hand computational models for virtual humans that are based on a functional theory of social emotion do not contain explicit rules on how social emotions affect turn-taking behavior or how the emotional state of the agent is affected by turn-taking behavior of its interlocutors. We conclude with some preliminary ideas on what an architecture for emotional turn-taking should look like and we discuss the challenges in building believable emotional turn-taking agents
Named Entities Recognition for Machine Translation: A Case Study on the Importance of Named Entities for Customer Support
The last two decades have been of significant change in the international
panorama at all levels. The onset of the internet and content availability has propelled
us to a new era: The Information Age.
The staggering growth of new digital contents, either in the form of ebooks,
on-demand TV shows, blogs or even e-commerce websites, has led to an increase in
the need for translated material, influenced by people's demand for a quick access to
this shared knowledge in their native languages and dialects. Fortunately, machine
translation technologies (MT), which provide in many cases human-like translations,
are now more widely available, enabling quicker translations for multiple languages at
more affordable prices.
This work describes the Natural Language Process (NLP) sub-task known as
Named Entity Recognition (NER), performed by Unbabel, a Portuguese
Machine-translation start-up that combines MT with human post-edition and focuses
strictly on customer service content, to improve translation quality outputs. The main
objective of this study is to contribute to furthering MT quality and good-practices by
exposing the importance of having a continuously-in-development robust Named
Entity Recognition system for generic and client-specific content in an MT pipeline
and for General Data Protection Regulation (GDPR) compliance; moreover, having in
mind future applications, we have tested strategies that support the creation of
Multilingual Named Entities Recognition Systems.
In the following work, we will first define the meaning of Named Entity,
highlighting its importance in a Machine Translation scenario, followed by a brief
historical overview of the subject. We will also provide a reasonable description of the
most recent data-driven Machine Translation technologies.
Concerning the main topic of this work, we will describe three experiments
carried out jointly with Unbabel´s NLP team. The first experiment focuses on assisting
the NLP team in the creation of a domain-specific Named Entity Recognition (NER)
system. The second and third experiments explore the possibilities to create in a
semi-automatically fashion multilingual NER gold standards, by resorting to aligners
able to project Named Entities between a parallel corpus.As últimas duas décadas têm sido de grandes mudanças a todos os níveis. O
início da internet e a disponibilidade de conteúdos veio impulsionar-nos para uma nova
era: a Era da Informação.
O impressionante aumento de novos conteúdos digitais, sejam eles em forma de
ebooks, programas de televisão sempre disponíveis quando solicitados, blogs ou
mesmo sites na internet de vendas ao público, levou a um aumento de material
traduzido, influenciado em grande parte pelo facto de as pessoas exigirem um acesso
rápido a estes conhecimentos partilhados nas suas línguas nativas ou dialetos.
Felizmente, as novas tecnologias de tradução automática (TA), que em muitos casos
apresentam uma qualidade que rivaliza com as traduções humanas, estão agora
amplamente disponíveis, permitindo traduções para uma panóplia de diferentes
línguas, em tempo recorde e a melhores preços do que os praticados por tradutores
humanos.
O presente trabalho dedica-se a descrever a sub-tarefa no campo de
Processamento de Língua Natural (PLN) denominada de Reconhecimento de Entidades
Mencionadas (REM), utilizada pela Unbabel, uma startup portuguesa que combina
tradução automática com pós-edição humana, de forma a melhorar a qualidade das
traduções automáticas, e que se foca principalmente em conteúdos provenientes da
área do apoio ao cliente. O principal objetivo deste trabalho é contribuir para um
crescente aumento da qualidade das traduções automáticas e para fomentar as boas
práticas na área da tradução automática, expondo a importância de manter um sistema
de Reconhecimento de Entidades Mencionadas robusto e em constante evolução no
seu ciclo de tradução, capaz de articular diferentes tipos de conteúdo, do mais genérico
ao mais específico, e para cumprir as disposições sobre a proteção de dados exigidas
pelo Regulamento Geral sobre a Proteção de Dados (RGPD); adicionalmente, e tendo
em conta possíveis aplicações futuras, foram testadas estratégias inovadoras que
permitem e fomentam a criação de um sistema de Reconhecimento de Entidades
Mencionadas multilíngue. No presente documento, iremos primeiro definir o significado de Entidade
Mencionada, explicitando a sua importância num contexto de tradução automática.
Num segundo momento, será dada uma panorâmica histórica sobre o tema.
Adicionalmente, também iremos fazer um enquadramento histórico sobre os próprios
sistemas de tradução automáticos, com um especial foco nas mais recentes tecnologias
desenvolvidas com base em dados e sistemas de Inteligência Artificial.
No que se refere ao tema principal do nosso trabalho, iremos descrever as três
experiências levadas a cabo durante o estágio na Unbabel. Todas as experiências
efetuadas tiveram como base os dados reais de clientes dos mais diversos domínios,
com cada corpus utilizado nas experiências, sendo selecionados de acordo com os
objetivos finais de cada experiência.
A primeira experiência, que teve como objetivo auxiliar a equipa de
Inteligência Artificial da Unbabel a desenvolver e testar um sistema automático de
Reconhecimento de Entidades Mencionadas na área da entrega de comida ao
domicílio, previu a possibilidade futura de se conseguir adaptar estes tipos de sistema a
qualquer domínio ou clientes específicos. Com esta experiência foram dados os
primeiros passos na Unbabel para a criação de um sistemas de Reconhecimento de
Entidades de domínio específico.
Em relação ao trabalho desenvolvido, começámos por apresentar e testar uma
metodologia de identificação de tipos de Entidades Mencionadas comuns ao domínio
acima mencionado. Neste sentido, um extenso corpus na área foi compilado e
analisado, sendo possível identificar quatro tipos, e.g., categorias, de Entidades
Mencionadas relevantes para o domínio, Restaurant Names; Restaurant Chains; Dish
Names; Beverages. Posteriormente, foram criadas diretrizes de anotação para cada
nova categoria, acabando estas por serem adicionadas à tipologia de anotação de
Entidades Mencionadas já existente na Unbabel, incluindo 27 EM de foro mais
genérico, tais como: Localização; Moedas; Medidas; Endereços; Produtos e Serviços e
Cidades. Num segundo momento, foi feita uma tarefa de anotação sobre um novo
corpus da mesma área composto por 14426 frases, com vista à construção de gold
standards, a serem utilizados para a aprendizagem dos sistemas automáticos de
Reconhecimento de Entidades Mencionadas e para testar os resultados dos mesmos.
Para esta tarefa, fizemos uso das novas diretrizes, permitindo testá-las.
Dois modelos foram treinados, um com apenas o gold standard do domínio
específico, o outro com o gold standard do domínio específico e com todas as
anotações de Entidades Mencionadas disponíveis. Desta forma, foi possível determinar
qual dos dois obteve melhores resultados.
No que se refere aos resultados obtidos, determinou-se que o gold standard do
domínio específico não apresentava exemplos suficientes para treino e teste do novo
Sistema de Reconhecimento de Entidades Mencionadas. Mesmo assim, foi possível
obter resultados referentes à categoria Dish Names, que permitiram concluir que de
ambos os modelos, aquele treinado com o gold standard do domínio específico
conseguiu obter melhores resultados, identificando mais Dish Names de forma correta
no corpus de teste.
A segunda experiência focou-se em testar a estratégia de criação automática de
gold standards multilíngues de Entidades Mencionadas para aprendizagem de sistemas
automáticos, recorrendo a sistemas de alinhamentos de Entidades Mencionadas em
bitextos (textos paralelos bilíngues). Para esta experiência foi usado um corpus em
inglês (EN) traduzido para alemão (DE) na área do Turismo com 2500 frases e quatro
sistemas de alinhamento de palavras de última geração.
Em relação a esta experiência, começamos por submeter o corpus traduzido
(DE) a um processo de anotação manual de Entidades Mencionadas, utilizando para tal
as diretrizes de anotação de Entidades Mencionadas da Unbabel, sendo que para esta
experiência não foram consideradas as novas Entidades da primeira experiência. Com
a anotação do corpus traduzido feita, foi então possível enviá-lo para alinhamento de
Entidades Mencionadas com o corpus homólogo (EN), que havia sido previamente
anotado por outro anotator. Os resultados de alinhamento das entidades Mencionadas do bitexto permitiu
avaliar o Named Entities inter-annotator agreement, ou seja o valor de acordo entre
anotadores, no que se refere à seleção e categorização das diferentes Entidades, de
forma a perceber que Entidades apresentam mais dificuldades de anotação.
Adicionalmente, com os resultados de alinhamento foi possível determinar o sistema
de alinhamento com melhores resultados de entre os quatro sistemas analisados
(SimAlign; FastAlign; AwesomeAlign; eflomal).
Os resultados de anotação mostraram uma elevada percentagem de
inter-annotator agreement, com 87,97% de concordância para algumas categorias. .
Adicionalmente, os resultados de alinhamento permitiram estabelecer o SimAlign como
o sistema de alinhamento mais eficaz e preciso, suplantando o sistema utilizado pela
Unbabel, FastAlign.
A terceira experiência replicou o processo acima descrito, desta vez usando um
bitexto (EN e PT-BR) composto por 360 frases na área da tecnologia Com esta nova
experiência, pretendeu-se verificar se os resultados de alinhamento obtidos para o
corpus de Turismo EN/DE são replicáveis quando se altera o domínio e os pares de
língua. Esta experiência, à semelhança da anterior, previu uma tarefa de anotação de
Entidades Mencionadas do corpus em questão (EN e PT-BR), sendo utilizadas as
mesmas diretrizes de anotação da anterior experiência. Num segundo momento, o
bitexto anotado foi então enviado para alinhamento, sendo utilizados os mesmos
sistemas de alinhamento da segunda experiência.
Com base nos resultados da experiência, foi possível determinar para cada
Entidade Mencionada quais os sistema de alinhamento que obtiveram melhores
resultados. Desta análise chegou-se à conclusão de que o sistema de alinhamento
automático AwesomeAlign foi o que apresentou melhores resultados, seguido pelo
SimAlign, que apresentou um desempenho de alinhamento mais baixo para a categoria
de Entidade Mencionadas: Organizações. Em conclusão, com este trabalho pretendemos mostrar a complexidade e
importância inerentes às Entidades Mencionadas num pipeline de tradução automática,
assim como mostrar a importância de sistemas de reconhecimento de Entidades
Mencionadas robusto e adaptável. É expectável que sistemas de Reconhecimento de
Entidades Mencionadas treinados com foco em domínios particulares, consigam
melhores resultados do que aqueles treinados com dados mais genéricos.
De igual forma, salientamos a possibilidade e aplicabilidade de se poder usar
diferentes recursos da área de Processamento de Língua Natural, como o uso de
sistemas de alinhamento, no auxílio de Reconhecimento de Entidades Mencionadas,
como nos casos acima descritos.
De uma perspectiva mais linguística, atendemos a questões relacionadas com
Entidades Mencionadas ambíguas. Neste ponto, estabeleceu-se quais as entidades que
apresentam uma maior variabilidade de anotação entre anotadores, ou seja, aquelas em
que houve um maior desacordo entre anotadores no que se refere às suas
classificações, tentando encontrar justificações e soluções para este problema
- …