13 research outputs found

    Creative Robotics Theatre: Designing Creative Interactions with Tangible and Embodied Interfaces

    Get PDF
    Creative robotics theatre allows us to explore contemporary problems and societal issues, pushing artistic frontiers and technological boundaries, enhancing storytelling opportunities, interdisciplinary collaborations, and pedagogical innovation [28]. With the above issues in mind, we aim to explore new technologies by co-designing with the community in participatory approaches that stem from posthumanism and new materialism philosophies

    The novel Artificial Neural Network assisted models: A review

    Get PDF
    Neural networks are one of the methods of artificial intelligence. It is founded on an existing knowledge and capacity to learn by illustration of the biological nervous system. Neural networks are used to solve problems that could not be modeled with conventional techniques. A neural structure can be learned, adapted, predicted, and graded. The potential of neural network parameters is very strong prediction. The findings are more reliable than standard mathematical estimation models. Therefore, it has been used in different fields. This research reviews the most recent advancement in utilizing the Artificial neural networks. The reviewed studies have been extracted from Web of Science maintained by Clarivate Analytics in 2021. We find that among the other applications of ANN, the applications on Covid-19 are on the rise

    A New Approach to Solve N-Queen Problem with Parallel Genetic Algorithm

    Get PDF
    Over the past few decades great efforts were made to solve uncertain hybrid optimization problems. The n-Queen problem is one of such problems that many solutions have been proposed for. The traditional methods to solve this problem are exponential in terms of runtime and are not acceptable in terms of space and memory complexity. In this study, parallel genetic algorithms are proposed to solve the n-Queen problem. Parallelizing island genetic algorithm and Cellular genetic algorithm was implemented and run. The results show that these algorithms have the ability to find related solutions to this problem. The algorithms are not only faster but also they lead to better performance even without the use of parallel hardware and just running on one core processor. Good comparisons were made between the proposed method and serial genetic algorithms in order to measure the performance of the proposed method. The experimental results show that the algorithm has high efficiency for large-size problems in comparison with genetic algorithms, and in some cases it can achieve super linear speedup. The proposed method in the present study can be easily developed to solve other optimization problems

    COMBINED APPROACH FOR SENTIMENT ANALYSIS IN SLOVAK USING A DICTIONARY ANNOTATED BY PARTICLE SWARM OPTIMIZATION

    Get PDF
    Sentiment analysis in the minor languages, such as Slovak, using dictionary approach is a difficult task. It requires a lot of human effort and it is time-consuming to prepare a reliable source of information, especially good dictionary. We propose an approach which uses a biologically inspired algorithm to find optimal polarity values for sentimental words. It applies a swarm intelligence algorithms, standard Particle Swarm Optimization (PSO) and Bare-bones Particle Swarm Optimization (BBPSO), to replace a human annotator at the moment of dictionary creation. We created two dictionaries, which were annotated by the human annotator, PSO and BBPSO. These dictionaries were compared with the result that the versions annotated by PSO and BBPSO outperformed a human annotator. Then a combined approach was used to classify reviews that do not contain words from the dictionary. These reviews decrease the classification performance significantly. The combined approach implements machine learning method to build a model based on the reviews classified by the dictionary approach. The combined approach finally reduced a number of unclassified reviews from 18% and 40.2% to 0.3% and increased the macro-F1 measure from 0.694 and 0.495 to 0.865 and 0.841

    Методи оптимізації зберігання та обробки даних вебзастосунків

    Get PDF
    Дана магістерська дисертація присвячена аналізу методів керування станом вебзастосунку та реалізації оптимізованого методу для керування станом вебзастосунку на базі проведеного дослідження. В дисертації проаналізовано існуючі методи керування станом вебзастосунку, визначені їх переваги, недоліки та призначення. Для детального порівняння методів на предмет швидкодії та складності коду було розроблене програмне забезпечення. Таке програмне забезпечення дозволяє заміряти час роботи методів при виконанні різного роду операцій. Використовуючи дане програмне забезпечення, було виконане порівняння існуючих рішень, та зроблено висновок про ефективність кожного з них і різних ситуаціях. Програмний код методів, що був використаний для оцінки швидкодії, був використаний у якості тестового, для оцінки складності коду. Проведене дослідження виявило певні недоліки в існуючих методах, що були визначені, як задачі на оптимізацію, під час розробки власного методу. Використовуючи результати дослідження, у даній магістерській дисертації розроблено оптимізований метод для керування станом вебзастосунків. Основними положеннями методу є атомарний підхід до стану та обгортка застосунку за допомогою контекста, для передачі даних у всі компоненти застосунку. Даний метод був проаналізований на предмет швидкодії та складності коду та порівняний з аналогами. За результатами порівняння був зроблений висновок про ефективність оптимізованого методу у порівнянні з аналогами.This master's thesis is devoted to the analysis of web application management methods and the implementation of an optimized method for web application management based on the research. The dissertation analyzes the existing methods of managing the state of the web application, identifies their advantages, disadvantages and purposes. Software has been developed to compare methods in detail in terms of code speed and complexity. This software allows you to measure the running time of methods when performing various operations. Using this software, a comparison of existing solutions was performed, and a conclusion was made about the effectiveness of each of them and different situations. The thesis revealed some drawbacks in existing methods, which were identified as optimization tasks during the development of own method. Using the results of the research, in this master's dissertation an optimized method for managing the state of web applications has been developed. The main provisions of the method are the atomic approach to the state and the wrapper of the application using context, to transfer data to all components of the application. This method was analyzed for speed and complexity of the code and compared with analogues. Based on the results of the comparison, a conclusion was made about the effectiveness of the optimized method in comparison with analogues

    Nuevos retos en clasificación asociativa: Big Data y aplicaciones

    Get PDF
    La clasificación asociativa surge como resultado de la unión de dos importantes ámbitos del aprendizaje automático. Por un lado la tarea descriptiva de extracción de reglas de asociación, como mecanismo para obtener información previamente desconocida e interesante de un conjunto de datos, combinado con una tarea predictiva, como es la clasificación, que permite en base a un conjunto de variables explicativas y previamente conocidas realizar una predicción sobre una variable de interés o predictiva. Los objetivos de esta tesis doctoral son los siguientes: 1) El estudio y el análisis del estado del arte de tanto la extracción de reglas de asociación como de la clasificación asociativa; 2) La propuesta de nuevos modelos de clasificación asociativa así como de extracción de reglas de asociación teniendo en cuenta la obtención de modelos que sean precisos, interpretables, eficientes así como flexibles para poder introducir conocimiento subjetivo en éstos. 3) Adicionalmente, y dado la gran cantidad de datos que cada día se genera en las últimas décadas, se prestará especial atención al tratamiento de grandes cantidades datos, también conocido como Big Data. En primer lugar, se ha analizado el estado del arte tanto de clasificación asociativa como de la extracción de reglas de asociación. En este sentido, se ha realizado un estudio y análisis exhaustivo de la bibliografía de los trabajos relacionados para poder conocer con gran nivel de detalle el estado del arte. Como resultado, se ha permitido sentar las bases para la consecución de los demás objetivos así como detectar que dentro de la clasificación asociativa se requería de algún mecanismo que facilitara la unificación de comparativas así como que fueran lo más completas posibles. Para tal fin, se ha propuesto una herramienta de software que cuenta con al menos un algoritmo de todas las categorías que componen la taxonomía actual. Esto permitirá dentro de las investigaciones del área, realizar comparaciones más diversas y completas que hasta el momento se consideraba una tarea en el mejor de los casos muy ardua, al no estar disponibles muchos de los algoritmos en un formato ejecutable ni mucho menos como código abierto. Además, esta herramienta también dispone de un conjunto muy diverso de métricas que permite cuantificar la calidad de los resultados desde diferentes perspectivas. Esto permite conseguir clasificadores lo más completos posibles, así como para unificar futuras comparaciones con otras propuestas. En segundo lugar, y como resultado del análisis previo, se ha detectado que las propuestas actuales no permiten escalar, ni horizontalmente, ni verticalmente, las metodologías sobre conjuntos de datos relativamente grandes. Dado el creciente interés, tanto del mundo académico como del industrial, de aumentar la capacidad de cómputo a ingentes cantidades de datos, se ha considerado interesante continuar esta tesis doctoral realizando un análisis de diferentes propuestas sobre Big Data. Para tal fin, se ha comenzado realizando un análisis pormenorizado de los últimos avances para el tratamiento de tal cantidad de datos. En este respecto, se ha prestado especial atención a la computación distribuida ya que ha demostrado ser el único procedimiento que permite el tratamiento de grandes cantidades de datos sin la realización de técnicas de muestreo. En concreto, se ha prestado especial atención a las metodologías basadas en MapReduce que permite la descomposición de problemas complejos en fracciones divisibles y paralelizables, que posteriormente pueden ser agrupadas para obtener el resultado final. Como resultado de este objetivo se han propuesto diferentes algoritmos que permiten el tratamiento de grandes cantidades de datos, sin la pérdida de precisión ni interpretabilidad. Todos los algoritmos propuestos se han diseñado para que puedan funcionar sobre las implementaciones de código abierto más conocidas de MapReduce. En tercer y último lugar, se ha considerado interesante realizar una propuesta que mejore el estado del arte de la clasificación asociativa. Para tal fin, y dado que las reglas de asociación son la base y factores determinantes para los clasificadores asociativos, se ha comenzado realizando una nueva propuesta para la extracción de reglas de asociación. En este aspecto, se ha combinado el uso de los últimos avances en computación distribuida, como MapReduce, con los algoritmos evolutivos que han demostrado obtener excelentes resultados en el área. En particular, se ha hecho uso de programación genética gramatical por su flexibilidad para codificar las soluciones, así como introducir conocimiento subjetivo en el proceso de búsqueda a la vez que permiten aliviar los requisitos computacionales y de memoria. Este nuevo algoritmo, supone una mejora significativa de la extracción de reglas de asociación ya que ha demostrado obtener mejores resultados que las propuestas existentes sobre diferentes tipos de datos así como sobre diferentes métricas de interés, es decir, no sólo obtiene mejores resultados sobre Big Data, sino que se ha comparado en su versión secuencial con los algoritmos existentes. Una vez que se ha conseguido este algoritmo que permite extraer excelentes reglas de asociación, se ha adaptado para la obtención de reglas de asociación de clase así como para obtener un clasificador a partir de tales reglas. De nuevo, se ha hecho uso de programación genética gramatical para la obtención del clasificador de forma que se permite al usuario no sólo introducir conocimiento subjetivo en las propias formas de las reglas, sino también en la forma final del clasificador. Esta nueva propuesta también se ha comparado con los algoritmos existentes de clasificación asociativa forma secuencial para garantizar que consigue diferencias significativas respecto a éstos en términos de exactitud, interpretabilidad y eficiencia. Adicionalmente, también se ha comparado con otras propuestas específicas de Big Data demostrado obtener excelentes resultados a la vez que mantiene un compromiso entre los objetivos conflictivos de interpretabilidad, exactitud y eficiencia. Esta tesis doctoral se ha desarrollado bajo un entorno experimental apropiado, haciendo uso de diversos conjunto de datos incluyendo tanto datos de pequeña dimensionalidad como Big Data. Además, todos los conjuntos de datos usados están publicados libremente y conforman un conglomerado de diversas dimensionalidades, número de instancias y de clases. Todos los resultados obtenidos se han comparado con el estado de arte correspondiente, y se ha hecho uso de tests estadísticos no paramétricos para comprobar que las diferencias encontradas son significativas desde un punto de vista estadístico, y no son fruto del azar. Adicionalmente, todas las comparaciones realizadas consideran diferentes perspectivas, es decir, se ha analizado rendimiento, eficiencia, precisión así como interpretabilidad en cada uno de los estudios.This Doctoral Thesis aims at solving the challenging problem of associative classification and its application on very large datasets. First, associative classification state-of-art has been studied and analyzed, and a new tool covering the whole taxonomy of algorithms as well as providing many different measures has been proposed. The goal of this tool is two-fold: 1) unification of comparisons, since existing works compare with very different measures; 2) providing a unique tool which has at least one algorithm of each category forming the taxonomy. This tool is a very important advancement in the field, since until the moment the whole taxonomy has not been covered due to that many algorithms have not been released as open source nor they were available to be run. Second, AC has been analyzed on very large quantities of data. In this regard, many different platforms for distributed computing have been studied and different proposals have been developed on them. These proposals enable to deal with very large data in a efficient way scaling up the load on very different compute nodes. Third, as one of the most important part of the associative classification is to extract high quality rules, it has been proposed a novel grammar-guided genetic programming algorithm which enables to obtain interesting association rules with regard to different metrics and in different kinds of data, including truly Big Data datasets. This proposal has proved to obtain very good results in terms of both quality and interpretability, at the same time of providing a very flexible way of representing the solutions and enabling to introduce subjective knowledge in the search process. Then, a novel algorithm has been proposed for associative classification using a non-trivial adaptation of the aforementioned algorithm to obtain the rules forming the classifier. This methodology is also based on grammar-guided genetic programming enabling user not only to constrain the form of the rules, but the final form of the classifier. Results have proved that this algorithm obtains very accurate classifiers at the same time of maintaining a good level of interpretability. All the methodologies proposed along this Thesis has been evaluated using a proper experimental framework, using a varied set of datasets including both classical and Big Data dataset, and analyzing different metrics to quantify the quality of the algorithms with regard to different perspectives. Results have been compared with state-of-the-art and they have been verified by means of non-parametric statistical tests proving that the proposed methods overcome to existing approaches

    Explainable Artificial Intelligence (XAI): What we know and what is left to attain Trustworthy Artificial Intelligence

    Get PDF
    This work was supported by the National Research Foundation of Korea (NRF) grant funded by the Korea government (MSIT) (No. 2021R1A2C1011198) , (Institute for Information & communications Technology Planning & Evaluation) (IITP) grant funded by the Korea government (MSIT) under the ICT Creative Consilience Program (IITP-2021-2020-0-01821) , and AI Platform to Fully Adapt and Reflect Privacy-Policy Changes (No. 2022-0-00688).Artificial intelligence (AI) is currently being utilized in a wide range of sophisticated applications, but the outcomes of many AI models are challenging to comprehend and trust due to their black-box nature. Usually, it is essential to understand the reasoning behind an AI mode ľs decision-making. Thus, the need for eXplainable AI (XAI) methods for improving trust in AI models has arisen. XAI has become a popular research subject within the AI field in recent years. Existing survey papers have tackled the concepts of XAI, its general terms, and post-hoc explainability methods but there have not been any reviews that have looked at the assessment methods, available tools, XAI datasets, and other related aspects. Therefore, in this comprehensive study, we provide readers with an overview of the current research and trends in this rapidly emerging area with a case study example. The study starts by explaining the background of XAI, common definitions, and summarizing recently proposed techniques in XAI for supervised machine learning. The review divides XAI techniques into four axes using a hierarchical categorization system: (i) data explainability, (ii) model explainability, (iii) post-hoc explainability, and (iv) assessment of explanations. We also introduce available evaluation metrics as well as open-source packages and datasets with future research directions. Then, the significance of explainability in terms of legal demands, user viewpoints, and application orientation is outlined, termed as XAI concerns. This paper advocates for tailoring explanation content to specific user types. An examination of XAI techniques and evaluation was conducted by looking at 410 critical articles, published between January 2016 and October 2022, in reputed journals and using a wide range of research databases as a source of information. The article is aimed at XAI researchers who are interested in making their AI models more trustworthy, as well as towards researchers from other disciplines who are looking for effective XAI methods to complete tasks with confidence while communicating meaning from data.National Research Foundation of Korea Ministry of Science, ICT & Future Planning, Republic of Korea Ministry of Science & ICT (MSIT), Republic of Korea 2021R1A2C1011198Institute for Information amp; communications Technology Planning amp; Evaluation) (IITP) - Korea government (MSIT) under the ICT Creative Consilience Program IITP-2021-2020-0-01821AI Platform to Fully Adapt and Reflect Privacy-Policy Changes2022-0-0068

    Адаптивні методи навчання нейромереж за наявності обмежених обчислювальних ресурсів

    Get PDF
    Дана магістерська дисертація присвячена розробленню та реалізації методів адаптивного навчання нейронних мереж за наявності обмежених обчислювальних ресурсів на базі розробленого програмного забезпечення. В дисертації проаналізовано існуючі методи навчання нейронних мереж із використанням підходу навчання зі вчителем та існуючі методи верифікації нейронних мереж, визначено вимоги до розроблюваних методів, обґрунтовано підібрано найбільш доцільні для використання композиційні архітектури та на їх основі розроблено методи адаптивного навчання нейронних мереж. Розроблені методи полягають у використанні композиційної архітектури, в рамках якої загальна мережа поділяється на підмережі, кожна з яких вирішує відповідну підзадачу. Сукупність вирішених підзадач відповідає рішенню загальної задачі. Практична цінність отриманих в роботі результатів полягає в тому, що запропоновані методи дозволяють зменшити кількість обчислювальних операцій, необхідних для виконання прямого поширення, що дозволяє їм бути реалізованими в системах із обчислювальними ресурсами. У даній магістерській дисертації розроблено програмну систему, що реалізовує як адаптивні методи навчання нейронних мереж, так і класичний метод навчання зі вчителем, інструменти порівняння результатів, критерій навченості нейронних мереж.This master's thesis is devoted to developing and implementing methods of adaptive learning of neural networks in the presence of limited computing resources using the developed software. The dissertation analyzes the existing methods of teaching neural networks using the teaching approach with a teacher and existing methods of verification of neural networks, defines the requirements for the developed methods, substantiates the most appropriate compositional architecture, and develops a method of adaptive learning of neural networks. The developed method uses a composite architecture, in which the common network is divided into subnets, each of which solves the corresponding subtask. The set of solved subtasks corresponds to the solution of the general problem. The practical value of the results obtained in this work is that the proposed methods reduce the number of computational operations required to perform direct propagation, which allows them to be implemented in systems with computational resources. In the given master's thesis, the software system implements both adaptive methods of training of neural networks and a classical method of training with the teacher, tools of comparison of results, the criterion of training of neural networks is developed

    On the Runtime Dynamics of the Univariate Marginal Distribution Algorithm on Jump Functions

    Get PDF
    University of Minnesota M.S. thesis. May 2018. Major: Computer Science. Advisor: Andrew Sutton. 1 computer file (PDF); vi, 79 pages.Solving jump functions by using traditional evolutionary algorithms (EAs) seems to be a challenging task. Mutation only EAs have a hard time flipping the right number of bits to generate the optimum. To optimize a jump function, an algorithm must be able to execute an initial hill-climbing phase, after which a point across a large gap must be generated. We study a family of EAs called estimation of distribution algorithms (EDAs) which works differently than standard EAs. In EDAs, we do not store the actual bitstrings, but rather a probability distribution that is initially uniform and should evolve to a model that always generates the global optimum. We study an EDA called Univariate Marginal Distribution Algorithm (UMDA) and analyze it on jump functions with gap k. We show experimental work on runtimes and probability of succeeding to solve the jump function for different values of k. We take an innovative approach and modify the UMDA by turning off selection. For this new algorithm we present a formal analyses in which, if certain conditions are met, we prove an upper bound on generating the optimum all 1s bistring. Lastly, we compare our results with a different EDA called the compact Genetic Algorithm (cGA) analyzing the jump function. We mention pros and cons of both algorithms under different scenarios
    corecore