• 您現在的位置是:首頁 >互聯網 > 2020-10-22 11:10:51 來源:

    如果您的自動駕駛汽車必須選擇擊中誰倫理學質疑人工智能

    導讀 公眾陷入與大數據和人工智能的混亂,愛恨交織的關系。新聞中令人興奮的新技術和數據輕重磅秤在兩個方面都很沉重。隨著有關道德和軟件自主性

    公眾陷入與大數據和人工智能的混亂,愛恨交織的關系。新聞中令人興奮的新技術和數據輕重磅秤在兩個方面都很沉重。隨著有關道德和軟件自主性的難題日益迫切,共識仍然難以捉摸。

    麻省理工學院工程系統教授斯圖爾特·馬德尼克(Stuart Madnick)(如圖)說:“道德問題的麻煩在于,他們往往沒有一個很好的明確答案 。” 那是因為幾乎沒有玫瑰在AI中沒有刺,沒有潛在的陷阱也沒有回報。我們都喜歡預期下一個問題的應用程序中的智能算法。他們需要大量的數據集進行訓練。普通消費者認為,這對我來說很好,只要它不是我的數據即可。

    Madnick采訪過 戴夫Vellante表示 和保羅·吉林,theCUBE,SiliconANGLE Media的移動即時串流工作室共同主辦的MIT CDOIQ研討會在劍橋期間。他們討論了AI的制造者和消費者所面臨的嚴峻的道德問題(請參閱完整的訪談記錄,點擊此處)。

    最糟糕的人工智能

    事實是,根據Madnick的說法,沒有大數據或AI不會損害數據隱私或主權。我們仍然沒有經驗來判斷可接受的成本效益比。

    麥德尼克說:“幾乎我們所做的每項研究都涉及到此類[道德]問題,而且人們都在投票,幾乎總是將其分散在各個方面,因為其中任何一個都是錯誤的決定。” “那么哪個錯誤的決定最不糟糕?”

    Madnick指出,除了隱私問題之外,有關自動駕駛人工智能的問題也越來越多地涉及自動駕駛汽車的方法。在麻省理工學院,Madnick向學生講授技術倫理學。自動駕駛的主題提出了一些難題。

    例如,效用理論指出,如果汽車必須撞到一個人或多個人,則最好撞到最少的人。以自動駕駛汽車中的駕駛員面對可能發生的碰撞為例。可以對汽車進行編程,使其撞到墻上,可能會殺死駕駛員,一名帶嬰兒車過馬路的婦女或成群的三名男子。第一個選擇是殺死汽車駕駛員,第二個選擇是女人和嬰兒,最后一個是三個男人。

    Madnick解釋說,班上的學生通常對這種安排并不滿意。顯然,在AI中仍有許多道德方面的問題需要解決。

  • 成人app