4 research outputs found

    The Duality of Autonomy on Continuous Usage of Intelligent Personal Assistants (IPAs): From Agency Perspective

    Get PDF
    Based on the contradictory phenomenon of rapid development of Intelligent Personal Assistants (IPAs) embedded in smart IoT devices, this study examines the dual role of IPAs Autonomy (in terms of decision-making autonomy, scheduling autonomy and methods autonomy) in influencing users’ IPAs usage through users’ experience of agency. Drawing on agency theories, we identify two different types of experience of agency — perceived competence and perceived uncertainty. We hypothesize that these two contradictory aspects of experiences of agency would well explain the complex relationship between IPAs autonomy and IPAs usage. Scale development and data collection would be conducted for the future work. It is expected that the findings of this study could contribute to theoretical and practical implications for the design of IPAs

    From model of trust dynamics for short-term human-robot interaction

    Get PDF
    Rapid advance of robotic technologies in the last years have opened numerous venues and great challenges in the field of robotics technology. Interacting with those advanced technologies has carried huge debates on how such interactions can be instigated to create fluent interaction between humans and robots that can last for long time (human-robot interaction). One of the crucial factors that majorly influence the level of interaction between human and robot is the level of trust. Trust is the feeling of confidence that the reliance on other partner will not yield negative or dangerous consequences. In computational psychology domains, formal models (computational models) were used to acquire deep insights of human cognitive functions and behavior patterns. Therefore, this study implements formal model of trust in human robot interaction to answer how trust can be a reason to initiate interaction between human and robot. From related literature, eighteen basic factors have been established that include; personality, physical appearances, believable behavior, behavior cues, level of automation, positive experiences, transparency, perception, long term perceive risk, short term perceive risk, reliable behavior, perceive competency, positive deception, long term positive experiences, short term trust, short term distrust, long term trust, long term distrust. Those factors provide the fundamental knowledge of developing trust in robot. A formal model was developed based on a set of differential equations. Next, Five different cases were implemented to simulate various scenarios that explain the development of trust in HRI; namely, 1) high level of trust, 2) moderate high level of trust, 3) moderate level of trust, 4) moderate low level of trust, and 5) low level of trust. The developed model was verified by using mathematical analysis (stability analysis) and automated verification (temporal trace language

    Persoonallisuuspiirteet ja luottamus robotteihin ja tekoälyyn

    Get PDF
    Robottien ja tekoälyn käyttö on lisääntynyt merkittävästi viimeisten vuosikymmenten aikana eri aloilla. Niitä käytetään yhä enemmän tilanteissa, jotka ovat vaarallisia tai jostain muusta syystä ihmisten ulottumattomissa. Erilaiset pelastustehtävät, lääketieteelliset operaatiot, puolustusvoimat tai avaruuden tutkimus ovat vain pieni osa siitä, mihin kaikkeen robottien ja tekoälyn käyttö mahdollistaa. Tilanteissa, joissa ihmiset joutuvat tekemään yhteistyötä robottien kanssa, on luottamus keskeistä ja sekä liian korkea että liian matala luottamus voivat olla kohtalokkaita. Yksi luottamukseen vaikuttavista tekijöistä on ihmisten persoonallisuuspiirteet. Vaikka niiden merkitys luottamukseen vaikuttaa olevan kiistaton, yksittäisten piirteiden vaikutuksesta on aiemmissa tutkimuksissa saatu ristiriitaisia tuloksia. Tämän tutkimuksen tavoitteena oli tutkia persoonallisuuspiirteiden yhteyttä robotteja sekä tekoälyä kohtaan tunnettuun luottamukseen. Samalla tutkittiin iän, sukupuolen, työn ja koulutuksen yhteyttä robotteja ja tekoälyä kohtaan tunnettuun luottamukseen sekä sitä, miten luottamus robotteihin eroaa luottamuksesta tekoälyyn. Tutkimus toteutettiin osana Tampereen yliopiston monitieteistä Robotit ja me: vuorovaikutuksen fysiologinen, psykologinen ja sosiaalinen ulottuvuus -hanketta. Luottamusta tutkittiin luottamuspelin avulla ja yhdysvaltalaisista koostuva aineisto (n = 969) kerättiin verkkokyselynä. Analyysiin käytettiin kuvailevia analyysejä ja lineaarista regressioanalyysiä. Tekoälyryhmässä avoimuuden ja iän havaittiin ennustavan positiivisesti ja tunnollisuuden negatiivisesti luottamusta. Robottiryhmässä ainoastaan avoimuus oli tilastollisesti merkitsevästi yhteydessä luottamuksen kanssa. Havaitut yhteydet eivät olleet voimakkaita, mutta ne olivat tilastollisesti merkitseviä. Osallistujien luottamus ei vaihdellut robottien ja tekoälyn välillä, ja molemmille annettiin suunnilleen yhtä paljon rahaa. Tässä tutkimuksessa saadut tulokset vastaavat osittain aiemmin tehtyjä tutkimuksia. Kirjallisuudessa tulokset ovat kuitenkin paikoin hyvinkin ristiriitaisia ja lisää tutkimuksia tarvitaan etenkin persoonallisuuspiirteiden ja luottamuksen välillä, jotta saataisiin kehitettyä luotettavampia robotteja ja tekoälyä, jotka olisi helpompi hyväksyä

    A Model for Investigating the Effects of Machine Autonomy on Human Behavior

    No full text
    As autonomous machines become more pervasive, situations will arise when human decision-makers will receive advice from both machines and other humans. When these instructions conflict, a new social situation is defined for which we have little precedent. The authors propose a model for investigating these situations. The model synthesizes research from several different fields, including machine autonomy, affect, initial trust, individual differences, and training. The model is explained, and a set of propositions is described. The model is used to analyze the case of an air collision in which machines and humans provided conflicting advice. The model is also applied to situations in which unmanned aerial vehicles and piloted aircraft seek to avoid collisions with each other. Ways of testing the model through human subject experiments are discussed
    corecore