• 您現在的位置是:首頁 >動態 > 2020-12-10 10:36:10 來源:

    假裝成人類的機器人似乎更具說服力

    導讀 人工智能領域的最新技術突破使機器或機器人可以像人類一樣通過。紐約大學阿布扎比分校計算機科學副教授塔拉爾·拉萬(Talal Rahwan)領導的

    人工智能領域的最新技術突破使機器或機器人可以像人類一樣通過。紐約大學阿布扎比分校計算機科學副教授塔拉爾·拉萬(Talal Rahwan)領導的一組研究人員進行了一項實驗,研究人們如何與自己認為是人類的機器人進行交互,以及一旦機器人揭示了自己的身份,這種交互將如何受到影響。研究人員發現,在某些人機交互中,機器人的效率要比人類高,但前提是必須允許它們隱藏非人類的本性。

    在發表于《自然機器智能》上的題為“人機合作中的透明度-效率權衡的行為證據”的論文中,研究人員介紹了他們的實驗,參與者被要求與人類同伴或機器人同伴一起玩合作游戲。該游戲稱為“囚徒困境困境”,旨在捕捉各種情況,在這種情況下,每個交互方都可以自私地采取行動以試圖剝削對方,或者合作進行以實現互惠互利的結果。

    至關重要的是,研究人員向一些參與者提供了有關其同事身份的錯誤信息。一些與人類互動的參與者被告知他們正在與機器人互動,反之亦然。通過該實驗,研究人員能夠確定人們是否對他們認為是機器人的社會伙伴有偏見,并評估這種偏見(如果存在)在多大程度上影響了對非人性透明的機器人的效率。

    結果表明,冒充機器人的機器人更有效地說服合作伙伴在游戲中進行合作。但是,一旦揭示了它們的真正本性,合作率就會下降,而僵尸程序的優勢就會被否定。

    拉赫萬說:“盡管人們普遍認為機器應該對決策方式保持透明,但不清楚它們是否應該對自己是誰透明。”

    “例如,考慮一下Google Duplex,它是一種自動語音助手,能夠生成類似于人的語音來代表其用戶撥打電話和進行預約。GoogleDuplex的語音是如此逼真,以至于電話另一側的人可能會甚至沒有意識到他們正在與機器人對話。開發這樣的系統是否合乎道德?我們應該禁止機器人像人類一樣通過,并強迫他們對自己是誰保持透明嗎?如果答案是“是”,那么我們調查結果突出表明,有必要為我們愿意為提高這種透明度而付出的效率成本設定標準。”

  • 成人app