• 您現在的位置是:首頁 >財經 > 2020-12-11 09:13:29 來源:

    保護智能機免受智能攻擊

    導讀 機器通過處理從傳感器收集的數據來學習的能力,是自動駕駛汽車,醫療設備和許多其他新興技術的基礎。普林斯頓大學的研究人員發現,這種學習

    機器通過處理從傳感器收集的數據來學習的能力,是自動駕駛汽車,醫療設備和許多其他新興技術的基礎。普林斯頓大學的研究人員發現,這種學習能力使系統容易受到黑客的攻擊。

    在最近的一系列論文中,一個研究團隊研究了應用于人工智能(AI)的對抗策略如何例如欺騙交通效率系統導致僵局或操縱與健康相關的AI應用程序以揭示患者的私人醫療保健。歷史。作為這種攻擊的一個例子,該團隊將駕駛機器人對道路標志的感知從限速更改為“停止”標志,這可能導致車輛以高速公路速度危險地剎車。在其他示例中,他們將停車標志更改為多種其他交通指示。

    普林斯頓大學電氣工程系的首席研究員兼副教授Prateek Mittal說:“如果機器學習是未來的軟件,那么我們將成為確保它安全的非常基本的起點。” “要使機器學習技術發揮其全部潛能,我們必須了解機器學習如何在對手面前出現。這是我們面臨的巨大挑戰。

    就像軟件容易被計算機病毒或通過詐騙者通過網絡釣魚和其他違反安全性的手段成為目標的用戶被黑客和感染一樣,基于AI的應用程序也有自己的漏洞。然而,適當保障措施的部署滯后。到目前為止,大多數機器學習開發都發生在良性,封閉的環境中,這與現實世界截然不同。

    Mittal是了解新興對抗性機器學習漏洞的先驅。從本質上講,這種攻擊會導致AI系統破壞學習過程,從而產生意想不到的,可能是危險的結果。米塔爾(Mittal)的小組在最近的一系列論文中描述并演示了三種廣泛的對抗性機器學習攻擊。

    很好地毒化數據

    第一次攻擊涉及惡意代理將偽造的信息插入AI系統正在學習的數據流中,這種方法稱為數據中毒。一個常見的例子是大量用戶的電話報告交通狀況。這樣的眾包數據可用于訓練AI系統以開發模型,以更好地集合自動駕駛汽車路線,減少擁堵和燃油浪費。

  • 成人app