• 您現在的位置是:首頁 >要聞 > 2020-12-01 16:22:45 來源:

    研究人員檢查AI是否有自己的想法

    導讀 大多數人在個人和職業生活中每天都會遇到人工智能(AI)。人們不假思索,就要求Alexa將蘇打水添加到購物清單中,使用Google Maps駕駛,并在S

    大多數人在個人和職業生活中每天都會遇到人工智能(AI)。人們不假思索,就要求Alexa將蘇打水添加到購物清單中,使用Google Maps駕駛,并在Snapchat中添加過濾器-所有AI使用示例。但是,密蘇里州科技大學的研究人員正在研究所謂的AI具有“思想”的證據,這將顯示一個人何時將AI行為視為道德上的錯誤。

    密蘇里州科學與技術學院心理學科學助理教授丹尼爾·尚克(Daniel Shank)博士建立在一種理論上,即如果人們認為實體具有思想,那么這種觀點將決定他們賦予它什么精神權利和責任。他的研究將顯示一個人何時將AI行為視為道德上的錯誤,并可能有助于減少智能設備的拒絕并改善設備。

    尚克說:“我想了解人們認為機器擁有思想的社會互動以及他們認為機器是道德主體或受害者的情況。”

    Shank的行為科學工作將這一理論應用于AI代理和機器人等先進機器。

    “當我們確實意識到機器背后的思想時,就會告訴我們有關技術,其功能和行為的一些信息,但最終它們會揭示出更多有關人類的信息,” Shank解釋說。“在這些相遇中,我們從情感上處理了非人類技術與有思想之間的鴻溝,從本質上感覺到了我們機器思維的方式。”

    尚克(Shank)正在進行一項為期三年的項目,該項目由美國陸軍研究辦公室(ARO)資助,旨在更好地理解人們對AI的看法。ARO是美國陸軍作戰能力發展司令部陸軍研究實驗室的組成部分。

    在研究的第一年,他定性描述了人們與AI之間的個人互動,這些互動涉及道德上的錯誤或涉及認為AI有“很多頭腦”的人。Shank的研究發現,有31%的受訪者報告了個人信息泄露事件,而20%的受訪者報告了不良內容暴露事件; Shank認為,這兩者都是由于頻繁在個人和家用設備上發生而被報告的。

    ARO社會與行為科學項目經理Lisa Troyer博士說:“尚克博士的工作通過將長期的認知和情感社會心理學理論與人與人互動研究相結合,從而產生了對人與人團隊合作的新認識。” 。“他的研究已經產生了關于自主代理人的道德觀念的作用以及這些觀念如何影響有效的人與代理團隊的科學見解。”

    目前在研究的第二年,他正在進行受控實驗,在該實驗中,人工智能的思維水平發生了變化,然后人工智能成為了道德行為的實施者或受害者。Shank希望這將使他能夠在AI與人類之間進行更直接的比較。到目前為止,他的研究發現,盡管諸如社交機器人之類的某些AI可以承擔更大的社會角色,但人們對AI在這些角色中的接受程度增強了人們對思維和情緒反應的感知。

    他的研究的最后階段將使用調查和模擬來了解道德水平是否可以通過人們對AI的印象來預測。

    尚克說:“與網絡連接的技術,經過大數據培訓并在各種社交網絡平臺上運行的技術現在在我們的文化中很普遍。” “這些技術,無論它們是否是適當的人工智能,在人們的個人生活中都是例行的,但并不是對這些技術的每次使用都會使我們將其視為有思想的人。”

    美德或罪惡是否可以歸因于AI的問題仍然取決于人類是否愿意將機器判斷為具有道德品格。隨著對AI倫理學和心理學的研究不斷發展,正在考慮諸如AI權利和AI道德之類的新主題。

  • 成人app