11 research outputs found

    Acquiring Guideline-enabled data driven clinical knowledge model using formally verified refined knowledge acquisition method

    Get PDF
    Background and Objective: Validation and verification are the critical requirements for the knowledge acquisition method of the clinical decision support system (CDSS). After acquiring the medical knowledge from diverse sources, the rigorous validation and formal verification process are required before creating the final knowledge model. Previously, we have proposed a hybrid knowledge acquisition method with the support of a rigorous validation process for acquiring medical knowledge from clinical practice guidelines (CPGs) and patient data for the treatment of oral cavity cancer. However, due to lack of formal verification process, it involves various inconsistencies in knowledge relevant to the formalism of knowledge, conformance to CPGs, quality of knowledge, and complexities of knowledge acquisition artifacts.Methods: This paper presents the refined knowledge acquisition (ReKA) method, which uses the Z formal verification process. The ReKA method adopts the verification method and explores the mechanism of theorem proving using the Z notation. It enhances a hybrid knowledge acquisition method to thwart the inconsistencies using formal verification.Results: ReKA adds a set of nine additional criteria to be used to have a final valid refined clinical knowledge model. These criteria ensure the validity of the final knowledge model concerning formalism of knowledge, conformance to GPGs, quality of the knowledge, usage of stringent conditions and treatment plans, and inconsistencies possibly resulting from the complexities. Evaluation, using four medical knowledge acquisition scenarios, shows that newly added knowledge in CDSS due to the additional criteria by the ReKA method always produces a valid knowledge model. The final knowledge model was also evaluated with 1229 oral cavity patient cases, which outperformed with an accuracy of 72.57% compared to a similar approach with an accuracy of 69.7%. Furthermore, the ReKA method identified a set of decision paths (about 47.8%) in the existing approach, which results in a final knowledge model with low quality, non-conformed from standard CPGs.Conclusion: ReKA refined the hybrid knowledge acquisition method by discovering the missing steps in the current validation process at the acquisition stage. As a formally proven method, it always yields a valid knowledge model having high quality, supporting local practices, and influenced by standard CPGs. Furthermore, the final knowledge model obtained from ReKA also preserves the performance such as the accuracy of the individual source knowledge models.N/

    A Survey of Neural Trees

    Full text link
    Neural networks (NNs) and decision trees (DTs) are both popular models of machine learning, yet coming with mutually exclusive advantages and limitations. To bring the best of the two worlds, a variety of approaches are proposed to integrate NNs and DTs explicitly or implicitly. In this survey, these approaches are organized in a school which we term as neural trees (NTs). This survey aims to present a comprehensive review of NTs and attempts to identify how they enhance the model interpretability. We first propose a thorough taxonomy of NTs that expresses the gradual integration and co-evolution of NNs and DTs. Afterward, we analyze NTs in terms of their interpretability and performance, and suggest possible solutions to the remaining challenges. Finally, this survey concludes with a discussion about other considerations like conditional computation and promising directions towards this field. A list of papers reviewed in this survey, along with their corresponding codes, is available at: https://github.com/zju-vipa/awesome-neural-treesComment: 35 pages, 7 figures and 1 tabl

    Chinese noun phrase parsing with a hybrid approach.

    Get PDF
    by Angel Suet Yi Tse.Thesis (M.Phil.)--Chinese University of Hong Kong, 1996.Includes bibliographical references (leaves 126-130).AbstractAcknowledgementsTable of ContentsList of TablesList of FiguresPlagiarism DeclarationChapter Chapter 1 --- Introduction --- p.1Chapter 1.1 --- Overview --- p.1Chapter 1.2 --- Motivation --- p.2Chapter 1.3 --- Applications of NP parsing --- p.4Chapter 1.4 --- The Hybrid Approach of NP Partial Parsing with Rule Set Derived from de NPs --- p.5Chapter 1.5 --- Organization of the Thesis --- p.7Chapter Chapter 2 --- Related Work --- p.9Chapter 2.1 --- Overview --- p.9Chapter 2.2 --- Chinese Versus English Languages --- p.10Chapter 2.3 --- Traditional Versus Contemporary Parsing Approaches --- p.15Chapter 2.3.1 --- Linguistics-based and Corpus-based Knowledge Acquisition --- p.15Chapter 2.3.2 --- Basic Processing Unit --- p.16Chapter 2.3.3 --- Related Literature --- p.17Chapter 2.4 --- Sentence / Free Text Parsing --- p.18Chapter 2.4.1 --- Linguistics-based --- p.18Chapter 2.4.2 --- Corpus-based --- p.21Chapter 2.5 --- NP Processing --- p.22Chapter 2.5.1 --- NP Detection --- p.22Chapter 2.5.2 --- NP Partial Parsing --- p.26Chapter 2.6 --- Summary --- p.27Chapter Chapter 3 --- Knowledge Elicitation for General NP Partial Parsing from De NPs --- p.28Chapter 3.1 --- Overview --- p.28Chapter 3.2 --- Background --- p.29Chapter 3.3 --- Research in De Phrases --- p.33Chapter 3.3.1 --- Research of de Phrases in Pure Linguistics --- p.33Chapter 3.3.2 --- Research in de Phrases in Computational Linguistics --- p.36Chapter 3.4 --- Significance of De Phrases --- p.37Chapter 3.4.1 --- Implication to General NP Parsing --- p.37Chapter 3.4.2 --- Embedded Knowledge for General NP Parsing --- p.37Chapter 3.5 --- Summary --- p.39Chapter Chapter 4 --- Knowledge Acquisition Approaches for General NP Partial Parsing --- p.40Chapter 4.1 --- Overview --- p.40Chapter 4.2 --- Linguistic-based Approach --- p.41Chapter 4.3 --- Corpus-based Approach --- p.43Chapter 4.3.1 --- Generalization of NP Grammatical Patterns --- p.44Chapter 4.3.2 --- Pitfall of Generalization --- p.47Chapter 4.4 --- The Hybrid Approach --- p.47Chapter 4.4.1 --- Combining Strategies --- p.50Chapter 4.4.2 --- Merging Techniques --- p.53Chapter 4.5 --- CNP3- The Chinese NP Partial Parser --- p.55Chapter 4.5.1 --- The NP Detection and Extraction Unit (DEU) --- p.56Chapter 4.5.2 --- The Knowledge Acquisition Unit (KAU) --- p.56Chapter 4.5.3 --- The Parsing Unit (PU) --- p.57Chapter 4.5.4 --- Internal Representation of Chinese NPs and Grammar Rules --- p.57Chapter 4.6 --- Summary --- p.58Chapter Chapter 5 --- "Experiments on Linguistics-, Corpus-based and the Hybrid Approaches" --- p.60Chapter 5.1 --- Overview --- p.60Chapter 5.2 --- Objective of Experiments --- p.61Chapter 5.3 --- Experimental Setup --- p.62Chapter 5.3.1 --- The Corpora --- p.62Chapter 5.3.2 --- The Standard and Extended Tag Sets --- p.64Chapter 5.4 --- Overview of Experiments --- p.67Chapter 5.5 --- Evaluation of Linguistic De NP Rules (Experiment 1 A) --- p.70Chapter 5.5.1 --- Method --- p.71Chapter 5.5.2 --- Results --- p.72Chapter 5.5.3 --- Analysis --- p.72Chapter 5.6 --- Evaluation of Corpus-based Approach (Experiment IB) --- p.74Chapter 5.6.1 --- Method --- p.74Chapter 5.6.2 --- Results --- p.75Chapter 5.6.3 --- Analysis --- p.76Chapter 5.6.4 --- Generalization of NP Grammatical Patterns (Experiment 1B') --- p.76Chapter 5.6.5 --- Results after Merging of Rule Sets (Experiment 1C) --- p.77Chapter 5.6.6 --- Error Analysis --- p.79Chapter 5.7 --- Phase II Evaluation: Test on General NP Parsing (Experiment 2) --- p.82Chapter 5.7.1 --- Method --- p.83Chapter 5.7.2 --- Results --- p.85Chapter 5.7.3 --- Error Analysis --- p.86Chapter 5.8 --- Summary --- p.92Chapter Chapter 6 --- Reliability Evaluation of the Hybrid Approach --- p.94Chapter 6.1 --- Overview --- p.94Chapter 6.2 --- Objective --- p.95Chapter 6.3 --- The Training and Test Corpora --- p.96Chapter 6.4 --- The Knowledge Base --- p.98Chapter 6.5 --- Convergence Sequence Tests --- p.99Chapter 6.5.1 --- Results of Close Convergence Tests --- p.100Chapter 6.5.2 --- Results of Open Convergence Tests --- p.104Chapter 6.5.3 --- Conclusions with Convergence Tests --- p.106Chapter 6.6 --- Cross Evaluation Tests --- p.106Chapter 6.6.1 --- Results --- p.109Chapter 6.6.2 --- Conclusions with Cross Evaluation Tests --- p.112Chapter 6.7 --- Summary --- p.113Chapter Chapter 7 --- Discussion and Conclusions --- p.115Chapter 7.1 --- Overview --- p.115Chapter 7.2 --- Difficulties Encountered --- p.116Chapter 7.2.1 --- Lack of Standard in Part-of-speech Categorization in Chinese Language --- p.116Chapter 7.2.2 --- Under or Over-specification of Tag Class in Tag Set --- p.118Chapter 7.2.3 --- Difficulty in Nominal Compound NP Analysis --- p.119Chapter 7.3 --- Conclusions --- p.120Chapter 7.4 --- Future Work --- p.122Chapter 7.4.1 --- Full Automation of NP Pattern Generalization --- p.122Chapter 7.4.2 --- Incorporation of Semantic Constraints --- p.123Chapter 7.4.3 --- Computational Structural Analysis of Nominal Compound NP --- p.124References --- p.126Appendix A The Extended Tag Set --- p.131Appendix B Linguistic Grammar Rules --- p.135Appendix C Generalized Grammar Rules --- p.13

    Data Analytics and Knowledge Discovery for Root Cause Analysis in LTE Self-Organizing Networks.

    Get PDF
    En las últimas décadas, las redes móviles han cobrado cada vez más importancia en el mundo de las telecomunicaciones. Lo que empezó con el objetivo de dar un servicio de voz a nivel global, ha tomado recientemente la direcci\'on de convertirse en un servicio casi exclusivo de datos en banda ancha, dando lugar a la red LTE. Como consecuencia de la continua aparición de nuevos servicios, los usuarios demandan cada vez redes con mayor capacidad, mejor calidad de servicio y a precios menores. Esto provoca una dura competición entre los operadores, que necesitan reducir costes y cortes en el servicio causados por trabajos de mejora o problemas. Para este fin, las redes autoorganizadas SON (Self-Organizing Network) proporcionan herramientas para la automatización de las tareas de operación y mantenimiento, haciéndolas más rápidas y mantenibles por pequeños equipos de expertos. Las funcionalidades SON se dividen en tres grupos principales: autoconfiguración (Self-configuration, los elementos nuevos se configuran de forma automática), autooptimización (Self-optimization, los parámetros de la red se actualizan de forma automática para dar el mejor servicio posible) y autocuración (Self-healing, la red se recupera automáticamente de problemas). En el ambiente competitivo de las redes móviles, los cortes de servicio provocados por problemas en la red causan un gran coste de oportunidad, dado que afectan a la experiencia de usuario. Self-healing es la función SON que se encarga de la automatización de la resolución de problemas. El objetivo principal de Self-healing es reducir el tiempo que dura la resolución de un problema y liberar a los expertos de tareas repetitivas. Self-healing tiene cuatro procesos principales: detección (identificar que los usuarios tienen problemas en una celda), compensación (redirigir los recursos de la red para cubrir a los usuarios afectados), diagnosis (encontrar la causa de dichos problemas) y recuperación (realizar las acciones necesarias para devolver los elementos afectados a su operación normal). De todas las funcionalidades SON, Self-healing (especialmente la función de diagnosis) es la que constituye el mayor desafío, dada su complejidad, y por tanto, es la que menos se ha desarrollado. No hay sistemas comerciales que hagan una diagnosis automática con la suficiente fiabilidad para convencer a los operadores de red. Esta falta de desarrollo se debe a la ausencia de información necesaria para el diseño de sistemas de diagnosis automática. No hay bases de datos que recojan datos de rendimiento de la red en casos problemáticos y los etiqueten con la causa del problema que puedan ser estudiados para encontrar los mejores algoritmos de tratamiento de datos. A pesar de esto, se han propuesto soluciones basadas en la Inteligencia Artificial (IA) para la diagnosis, tomando como punto de partida la limitada información disponible. Estos algoritmos a su vez necesitan ser entrenados con datos realistas. Nuevamente, dado que no hay bases de datos de problemas reales, los datos de entrenamiento suelen ser extraídos de simulaciones, lo cual les quita realismo. La causa de la falta de datos es que los expertos en resolución de problemas no registran los casos conforme los van solucionando. En el ambiente competitivo en el que trabajan, su tiempo es un recurso limitado que debe ser utilizado para resolver problemas y no para registrarlos. En el caso en que tales bases de datos fueran recogidas, un aspecto importante a tener en cuenta es que el volumen, variabilidad y velocidad de generación de los datos hacen que éste sea considerado un problema Big Data. El problema principal de los sistemas de diagnosis automática es la falta de conocimiento experto. Para resolver esto, el conocimiento experto debe convertirse a un formato utilizable. Este proceso se conoce como adquisición del conocimiento. Hay dos aproximaciones a la adquisición del conocimiento: manual(a través de entrevistas o con la implicación de los expertos en el desarrollo) o a través de la analítica de datos (minería de datos en bases de datos que contienen el resultado del trabajo de los expertos). Esta tesis estudia la aproximación de la analítica de datos, utilizando las técnicas KDD (Knowledge Discovery and Datamining). Para que esta aproximación pueda ser utilizada, se requiere la existencia de una base de datos de casos reales de fallo, lo cual es un gran desafío. La visión general de esta tesis es una plataforma en la que cada vez que un experto diagnostica un problema en la red, éste puede reportarlo con un esfuerzo mínimo y almacenarlo en el sistema. La parte central de este sistema es un algoritmo de diagnosis (en esta tesis un controlador de lógica borrosa) que evoluciona y mejora aprendiendo de cada nuevo ejemplo, hasta llegar al punto en el que los expertos pueden confiar en su precisión para los problemas más comunes. Cada vez que surja un nuevo problema, se añadirá a la base de datos del sistema, incrementando así aún más su potencia. El fin es liberar a los expertos de tareas repetitivas, de modo que puedan dedicar su tiempo a desafíos cuya resolución sea más gratificante. Por tanto, el primer objetivo de esta tesis es la colección de una base de datos de casos reales de fallos. Para ello, se diseña una interfaz de usuario para la recolección de datos teniendo en cuenta como requisito prioritario la facilidad de uso. Una vez que se dispone de datos recogidos, se analizarán para comprender mejor sus propiedades y obtener la información necesaria para el diseño de los algoritmos de analítica de datos. Otro objetivo de esta tesis es la creación de un modelo de fallos de LTE, encontrando las relaciones entre el rendimiento de la red y la ocurrencia de los problemas. La adquisición del conocimiento se realiza mediante la aplicación de algoritmos de analítica sobre los datos recogidos. Se diseña un proceso KDD que extrae los parámetros de un controlador de lógica borrosa y se aplica sobre la base de datos recogida. Finalmente, esta tesis también tiene como objetivo realizar un análisis de los aspectos Big Data de las funciones Self-healing, y tenerlos en cuenta a la hora de diseñar los algoritmos

    Méthode d'Evaluation des Risques Agrégés : application au choix des investissements de renouvellement d'installations

    Get PDF
    Pour répondre aux exigences et aux sensibilités sans cesse croissantes des acteurs de la vie économique et sociale, les organisations sont amenées à faire évoluer leurs outils de maîtrise des risques. Ainsi assiste-t-on au développement de systèmes de management intégré, favorisant le rapprochement des aspects qualité, sécurité, santé et protection de l'environnement. Ces développements touchent les domaines des sciences du danger et de la gestion des risques qui sont un axe de recherche important. Aujourd'hui, la gestion des risques doit être ancrée dans la politique générale de l'entreprise. De plus, la complexité croissante des entités "à risque" impose un regard multiple combinant démarche pluridisciplinaire et gestion rationnelle des différentes formes de ressources. Ce contexte montre la limite des méthodes traditionnelles d'analyse des risques qui, pour la plupart, reposent sur une prise en compte individuelle des risques. En réponse à ce problème, nous avons défini une méthodologie de modélisation et d'évaluation des risques permettant d'estimer l'importance relative de risques de natures différentes et de les agréger sous la forme d'un risque unique, de synthèse. Nous proposons une méthode d'Evaluation des Risques Agrégés, ou ERA. Cette méthode permet d'associer les points de vue technique, économique, réglementaire et social, pour une gestion intégrée des risques opérationnels et des risques stratégiques. Notre démarche s'appuie sur l'approche opérationnelle du critère unique de synthèse (procédure d'analyse hiérarchique ou AHP, de l'anglais Analytic Hierarchy Process) pour la construction d'un modèle des risques agrégés. Nous présentons la formalisation de la méthode ERA ainsi que son application industrielle dans le cadre de l'élaboration du plan d'investissement des schémas directeurs d'évolution des réseaux de distribution de gaz naturel

    Logical-algebraic methods in constructing cognitive sensors

    No full text
    Основная идея настоящей статьи заключается в демонстрации возможностей и развитии открытых прагматических технологий проектирования интеллектуальных систем. Исследована комплексная проблема мониторинга состояния объектов железнодорожной инфраструктуры. Отмечено, что центральным компонентом интеллектуальной системы мониторинга является гибридная систем приобретения/ обнаружения знаний, включающая модули формирования знаний на основе измерений, извлечения знаний из эксперта и онтологического инжиниринга. Показана ключевая роль измерений в решении задач мониторинга. Рассмотрены особенности измерений как познавательного процесса, находящегося в тесном единстве с оценками и рассуждениями. Описана предложенная ранее авторами концепция когнитивных измерений как иерархического процесса грануляции информации, осуществляемого с помощью когнитивных сенсоров. Когнитивный сенсор представляет собой не только информационно-измерительное устройство, познающее объект мониторинга и обеспечивающее получение знаний на базе измерений, но и «понимающую» искусственную систему, способную формировать оценки результатов измерений и проводить рассуждения в интересах текущей диагностики объекта и прогнозирования его будущего состояния. Функционирование когнитивного сенсора опирается на логическую прагматику измерений. В этом контексте проведено обсуждение ряда определений, концепций и формальных моделей понимания. Предложен общий логико- алгебраический подход к построению моделей понимания на базе логических (истинностных) оценок и норм. В рамках этого подхода различные логические системы представляютcя в виде алгебраических структур, в частности, цепей, решеток, полурешеток и произведений решеток, причем эти структуры порождаются с помощью различных отношений порядка. Центральное место в работе занимает формальное описание и графическая иллюстрация понятия логического мира. Для этого введены наглядные представления прагматики логических значений, опирающиеся на «метафору цвета» и «метафору геометрического узора». Эти представления, реализующие подходы иллюстративной и когнитивной графики в многозначных логиках, лежат в основе конкретных когнитивных сенсоров – сенсора Васильева, сенсора Клини и сенсора Белнапа, а также когнитивных сенсорных сетей, основанных на бирешетках и мультирешетках. В результате разработана методика логико-алгебраического синтеза когнитивных сенсоров и представлена блок-схема соответствующего алгоритма.The main goal of the paper is the development of open pragmatic technologies for intelligent systems. To show some basic ideas of this approach a compex problem of monitoring railway infrastructure objects is faced. A core component of intelligent monitoring system is a hybrid knowledge acquisition/ discovery subsystem that includes sensor minind facilities, expert knowledge elicitation and ontological engineering tools

    Logical-algebraic methods in constructing cognitive sensors

    No full text
    Основная идея настоящей статьи заключается в демонстрации возможностей и развитии открытых прагматических технологий проектирования интеллектуальных систем. Исследована комплексная проблема мониторинга состояния объектов железнодорожной инфраструктуры. Отмечено, что центральным компонентом интеллектуальной системы мониторинга является гибридная систем приобретения/ обнаружения знаний, включающая модули формирования знаний на основе измерений, извлечения знаний из эксперта и онтологического инжиниринга. Показана ключевая роль измерений в решении задач мониторинга. Рассмотрены особенности измерений как познавательного процесса, находящегося в тесном единстве с оценками и рассуждениями. Описана предложенная ранее авторами концепция когнитивных измерений как иерархического процесса грануляции информации, осуществляемого с помощью когнитивных сенсоров. Когнитивный сенсор представляет собой не только информационно-измерительное устройство, познающее объект мониторинга и обеспечивающее получение знаний на базе измерений, но и «понимающую» искусственную систему, способную формировать оценки результатов измерений и проводить рассуждения в интересах текущей диагностики объекта и прогнозирования его будущего состояния. Функционирование когнитивного сенсора опирается на логическую прагматику измерений. В этом контексте проведено обсуждение ряда определений, концепций и формальных моделей понимания. Предложен общий логико- алгебраический подход к построению моделей понимания на базе логических (истинностных) оценок и норм. В рамках этого подхода различные логические системы представляютcя в виде алгебраических структур, в частности, цепей, решеток, полурешеток и произведений решеток, причем эти структуры порождаются с помощью различных отношений порядка. Центральное место в работе занимает формальное описание и графическая иллюстрация понятия логического мира. Для этого введены наглядные представления прагматики логических значений, опирающиеся на «метафору цвета» и «метафору геометрического узора». Эти представления, реализующие подходы иллюстративной и когнитивной графики в многозначных логиках, лежат в основе конкретных когнитивных сенсоров – сенсора Васильева, сенсора Клини и сенсора Белнапа, а также когнитивных сенсорных сетей, основанных на бирешетках и мультирешетках. В результате разработана методика логико-алгебраического синтеза когнитивных сенсоров и представлена блок-схема соответствующего алгоритма.The main goal of the paper is the development of open pragmatic technologies for intelligent systems. To show some basic ideas of this approach a compex problem of monitoring railway infrastructure objects is faced. A core component of intelligent monitoring system is a hybrid knowledge acquisition/ discovery subsystem that includes sensor minind facilities, expert knowledge elicitation and ontological engineering tools
    corecore