您現在的位置是:首頁 >要聞 > 2020-12-03 12:42:57 來源:
使用線索和行動來幫助人們與人工智能相處
佩恩表示,了解人們如何與支持人工智能的機器進行交互,并利用這些知識來增進人們對人工智能的信任,可以幫助我們與越來越多的機器人,聊天機器人和其他智能機器和諧相處。國家研究員。在本期《計算機媒介傳播雜志》上發表的一篇論文中,S。Shyam Sundar,唐納德·貝利薩里奧大學傳播學院的媒體效應教授James P. Jimirro以及媒體效應研究實驗室的聯合主任提出了一種研究AI的方法或框架,可以幫助研究人員更好地研究人們如何與人工智能或人與AI交互(HAII)進行交互。
“這是試圖系統地研究人工智能可能在心理上影響用戶的所有方式,尤其是在信任方面,” Sundar說,他也是賓州州立計算與數據科學研究所(ICDS)的子公司。“希望本文先進的理論模型將為研究人員提供一個框架和一個詞匯,以研究AI的社會心理影響。”
Sundar說,該框架確定了AI開發人員可以專注于獲得信任和改善用戶體驗的兩條路徑(線索和操作)。提示是可以觸發人們一系列精神和情感反應的信號。
他解釋說:“提示路線是基于關于AI外觀或表面效果的表面指標。”
Sundar補充說,有幾個線索會影響用戶是否信任AI。提示可以像使用類似人類的功能一樣明顯,例如某些機器人擁有的人臉,或者像Siri和Alexa這樣的虛擬助手使用的類似于人類的聲音。
其他提示可能更微妙,例如界面上的說明解釋了設備的工作方式,例如Netflix解釋了為什么向觀眾推薦某部電影時。
但是,根據Sundar的說法,這些提示中的每一個都可以觸發不同的思維捷徑或啟發式方法。
“當人工智能被用戶識別為機器而不是人類時,就像在現代聊天機器人中經常發生的那樣,它會觸發“機器啟發式”,或者一種思維捷徑,使我們自動應用對機器的所有刻板印象Sundar說:“我們可能認為機器是精確的,但我們也可能認為計算機和機器冷酷無情。”這些刻板印象反過來決定了我們對AI系統的信任程度。
Sundar建議飛機上的自動駕駛系統是AI過度信任會導致負面影響的一個例子。飛行員可能會自動信任自動駕駛系統,以至于他們放松了警惕,沒有為飛機性能突然變化或需要他們干預的故障做好準備。他引用了這種“自動化偏差”來表明我們對機器性能的高度信任。
另一方面,人工智能也可能對某些人產生負面偏見。
Sundar說:“自動化偏差的反面是算法厭惡。” “有些人之所以討厭,是因為他們過去可能被算法燒死,現在對AI深信不疑。他們可能被'deepfake'愚弄了,這些東西是使用AI技術制作的虛構視頻,或者弄錯了或從電子商務網站推薦產品,或者感到AI窺探到他們先前的搜索和購買中而侵犯了他們的隱私。”
Sundar建議開發人員特別注意他們可能為用戶提供的提示。
“如果您在界面上提供清晰的提示,則可以幫助塑造用戶的響應方式,但是如果您提供的提示不明確,則可以讓用戶的先前經驗以及有關算法的傳統理論或幼稚的概念接手,桑達爾說。
Sundar表示,除了提供提示之外,AI與人互動的能力還可以塑造用戶體驗。他稱這為“行動路線”。