您現在的位置是:首頁 >綜合 > 2020-11-24 08:38:03 來源:
一種思考機器學習的新方法
深度神經網絡,通過使用數學模型來處理圖像和其他數據而構建的多層系統,是人工智能的基石。它們具有看似復雜的結果,但也有可能被愚弄,范圍從相對無害(將一種動物誤識別為另一種動物)到如果引導自動駕駛汽車的網絡將停車標志誤解為表明安全的停車標志,則可能致命。繼續。
休斯頓大學的一位哲學家在發表于《自然機器智能》上的一篇論文中暗示,關于這些假定故障背后原因的普遍假設可能是錯誤的,這些信息對于評估這些網絡的可靠性至關重要。
隨著機器學習和其他形式的人工智能越來越深入地融入社會,自動柜員機的一切應用大學網絡哲學副教授卡梅倫·巴克納(Cameron Buckner)說,對于網絡安全系統,當深度神經網絡系統在面對信息時會誤判圖像或其他數據時,了解由研究人員稱為“對抗性例子”而造成的明顯故障的根源至關重要。在用于構建網絡的培訓輸入之外。它們很少見,因此被稱為“對抗性”,因為它們通常是由另一個機器學習網絡創建或發現的-機器學習領域中的一種邊緣技術,介于創建對抗性示例的更復雜方法與檢測和避免它們之間的更復雜方法之間。
巴克納說:“這些對抗性事件中的一些反而可能是人工產物,為了更好地了解這些網絡的可靠性,我們需要更好地了解它們是什么。”
換句話說,不發火可能是由網絡需要處理的內容和所涉及的實際模式之間的相互作用引起的。這與完全被誤解不是完全一樣的。
巴克納寫道:“理解對抗性例子的含義需要探索第三種可能性:至少其中一些模式是人工制品。” “……因此,目前簡單地丟棄這些模式既有代價,也有天真地使用它們的危險。”
導致這些機器學習系統犯錯誤的對抗事件不一定是故意的瀆職造成的,但這是最高的風險所在。
巴克納說:“這意味著惡意行為者可能欺騙依賴于本來可靠的網絡的系統。” “那有安全應用程序。”
例如,基于面部識別技術的安全系統可能會被黑客入侵,以允許違規行為發生,或者在交通標志上貼上貼花紙,以使自動駕駛汽車誤解該標志,即使這些標志對觀察者無害。
先前的研究發現,與先前的假設相反,存在一些自然發生的對抗性示例-機器學習系統通過意外交互而不是通過數據錯誤來誤解數據的時間。它們很少見,只有通過使用人工智能才能發現。
但是它們是真實的,巴克納說這表明需要重新考慮研究人員如何處理異常或偽像。
這些工件還沒有被很好地理解。Buckner提供了照片中鏡頭眩光的類比-這種現象不是由相機鏡頭的缺陷引起的,而是由光線與相機的相互作用產生的。
如果您知道如何解釋,鏡頭光暈可能會提供有用的信息,例如太陽的位置。他說,這提出了一個問題,即由人工制品引起的機器學習中的不良事件是否也提供有用的信息。
同樣重要的是,巴克納說,這種新的思考方式會影響工件影響深度神經網絡的方式,這表明不應將網絡誤讀自動視為深度學習無效的證據。
他說:“其中一些對抗性事件可能是人工產物。” “我們必須知道這些工件是什么,這樣我們才能知道網絡的可靠性。”