您現在的位置是:首頁 >要聞 > 2020-12-16 17:17:15 來源:
用于建模人機信任的概念框架
賓夕法尼亞州立大學,麻省理工學院和佐治亞理工學院的研究人員最近開發了一個概念框架來對人機信任現象建模。在ACM數字圖書館上發表的一篇論文中概述了他們的框架,該框架使用受博弈論啟發的計算表示來表示信任,信任是使用社會心理學理論定義的概念。
在專業和個人環境中,信任在人際互動中起著關鍵作用。當一個人信任另一個人時,他們可能會決定做某事,使他們面臨相當大的風險,并相信另一個人的行為會在某種程度上減輕這種風險。
在定義信任時,許多研究人員都認為這意味著一個人處于脆弱狀態,而這種脆弱性取決于他人的行動,動機或行為。最近這項研究的三位研究人員Alan R. Wagner,Paul Robinette和Ayanna Howard希望創建一個可用于模擬人與機器人之間人際信任的框架。
Robinette解釋說:“我們對開發知道何時信任人類,了解什么情況需要信任并吸引人類適當信任的機器人感興趣。” “最初,我們受到研究的鼓舞,這些研究表明,有時人們會在機器人要求他們做些奇怪的事情時,例如扔掉昂貴的教科書,或將橙汁倒在盆栽植物上。在越來越多的情況下,人類會陷入困境。因此,我們希望開發一個框架,使機器人能夠理解與人類之間的信任關系。”“機器人的風險(例如自動駕駛汽車,無人駕駛的無人機,飛過機器人的保安人員等)。
瓦格納及其同事開發的概念框架產生了一些與人機信任相關的可檢驗的假設。在他們的研究中,研究人員檢查了這些生成的假設并進行了一系列實驗,收集了支持其框架并與之沖突的證據。
Robinette說:“信任框架始于Alan的研究,該定義以計算機以及機器人可以利用的方式定義信任。”
瓦格納(Wagner)在先前的工作中將情境信任定義為“由信任者持有的一種信念,即在信任者將其結果置于風險之中的情況下,受托人將以減輕信任者風險的方式行事”。他的定義主要集中在給定情況下涉及的風險,也強調了一個人/機器人將采取行動降低其他人/機器人的風險的信念。