6 research outputs found

    Combining motion planning with social reward sources for collaborative human-robot navigation task design

    Get PDF
    Across the human history, teamwork is one of the main pillars sustaining civilizations and technology development. In consequence, as the world embraces omatization, human-robot collaboration arises naturally as a cornerstone. This applies to a huge spectrum of tasks, most of them involving navigation. As a result, tackling pure collaborative navigation tasks can be a good first foothold for roboticists in this enterprise. In this thesis, we define a useful framework for knowledge representation in human-robot collaborative navigation tasks and propose a first solution to the human-robot collaborative search task. After validating the model, two derived projects tackling its main weakness are introduced: the compilation of a human search dataset and the implementation of a multi-agent planner for human-robot navigatio

    Methods and Metrics for Evaluating Explainable Artificial Intelligence in Healthcare Domain

    Get PDF
    Sometimes hard-to-interpret black-box artificial intelligence models might not induce trust in their users, particularly in the healthcare domain. Explainable artificial intelligence has been developed as a solution to this mistrust so that the specialists of different fields could better understand the processes that have led to the solutions offered them by the artificial intelligence model. Explainability is thought to give the specialists chance to evaluate feasibility of the algorithms and to encourage them to use AI in the decision-making process. Importance of explainability is particularly evident in the healthcare domain where the applications of artificial intelligence are used for example for treatment decisions of patients and for large-scale decisions about healthcare infrastructure. These decisions impact not only the health and welfare of a single patient but even larger communities. Decisions in healthcare domain require preciseness from the tools and responsibility from the decision makers. When the European regulations about the patients’ rights for explanation about the decisions considering them, it becomes clear that explainability is needed from artificial intelligence. To promote trust in specialists by using explanations we must be able to evaluate and validate the explanations with accurate metrics. At the moment, there are no standardised metrics or methods for evaluating explainable artificial intelligence and the field consensus is that rigorous study is needed to construct some. This thesis aims to find the state-of-art methods and metrics used for evaluating explainable artificial intelligence models, discuss their feasibility for healthcare and give basis for further studies to build unified set of metrics that can be used for validating new models. Overall, 54 metrics and methods were found and summarised in tables.Perinteiset vaikeasti tulkittavat tekoälymallit eivät aina herätä luottamusta käyttäjissään, varsinkaan terveydenhuollon alalla. Ratkaisuksi tähän on kehitetty selitettävä tekoäly, jotta eri alojen ammattilaiset voisivat paremmin ymmärtää prosesseja, jotka ovat johtaneet tekoälyn heille tarjoamiin ratkaisuihin. Selitettävyyden tarkoitus on antaa tekoälymallien käyttäjille mahdollisuus algoritmien ja niiden tuottamien ratkaisujen arviointiin ja niiden oikeellisuuden varmistamiseen rohkaisten heitä käyttämään tekoälyä päätöksenteossa. Selitettävyyden tärkeys korostuu terveydenhuollossa, sillä tekoälyä hyödyntäviä työkaluja käytetään esimerkiksi potilaiden hoitoa tai yleisesti sosiaali- ja terveydenhuoltoa koskeviin kysymyksiin, jolloin tarjotulla ratkaisulla voi olla suuri merkitys niin yksittäisen potilaan kuin kokonaisten ihmisryhmien terveyteen ja hyvinvointiin. Terveydenhuollossa päätökset vaativat tarkkuutta työkaluilta sekä vastuuta päättäjiltä, kuten lääkäreiltä. Kun huomioidaan myös Euroopan unionin asettama potilaan oikeus selitykseen häntä koskevaan päätökseen johtaneista tekijöistä, on ilmeistä, että terveydenhuollossa käytettävän tekoälyn on oltava selitettävää. Jotta luottamusta tekoälyyn voitaisiin tehokkaasti parantaa selitettävyyden avulla, on oltava keinoja arvioida selitysten paikkansapitävyyttä ja ymmärrettävyyttä objektiivisesti. Tällä hetkellä erilaisia mittareita ja metodeja on paljon, mutta yhtenäisiä käytänteitä tai standardeja selitettävyyden arviointiin ei ole. Tässä työssä kerätään yhteen ja esitellään nämä mittarit ja metodit. Arviointimenetelmät myös kerätään tiivistävin taulukoihin jaoteltuna sen mukaan, mitä mittaavat ja niiden soveltuvuutta terveydenhuollon työkalujen arviointiin arvioidaan. Tämän työn tarkoituksena on koota ajantasainen tieto selitettävän tekoälyn arviointimenetelmistä, jotta myöhemmät tutkimukset voisivat kehittää päteviä selitettävän tekoälyn arviointiprosesseja. Jatkotutkimusten pitäisi olla mahdollisia, sillä erilaisia mittareita ja metodeja esitellään 54 kappaletta ja useimmat niistä ovat hyvin käyttökelpoisia
    corecore