您現在的位置是:首頁 >市場 > 2021-04-23 09:28:07 來源:
谷歌正在讓人工智能開發人員更容易將用戶數據保密
谷歌已經宣布了一個新的模塊,用于其機器學習框架TensorFlow,它允許開發人員只需幾行額外代碼即可改善其AI模型的隱私。TensorFlow是用于構建機器學習應用程序的最流行的工具之一,它被世界各地的開發人員用于創建文本,音頻和圖像識別算法等程序。隨著TensorFlow Privacy的引入,這些開發人員將能夠使用稱為“差異隱私”的統計技術來保護用戶的數據。
谷歌產品經理Carey Radebaugh告訴The Verge,推出這款工具符合谷歌負責人工智能開發的原則。“如果我們沒有將差異隱私納入TensorFlow,那么我們就知道,對于Google內外的團隊來說,使用它并不容易,”Radebaugh說。“因此,對我們來說,重要的是將其納入TensorFlow,開源,并開始圍繞它創建這個社區。”
差異隱私的機制有點復雜,但它本質上是一種數學方法,這意味著在用戶數據上訓練的AI模型不能編碼個人可識別信息。這是保護在AI模型中創建所需個人信息的常用方法:Apple將其用于iOS 10中的自有AI服務,Google將其用于許多自己的AI功能,如Gmail的智能回復。
要了解這些服務對隱私構成的危害,請考慮智能回復如何依賴從超過10億Gmail用戶收集的數據來做出建議的回復。這些數據顯然包括非常個人的信息(基本上是你曾經放在電子郵件中的任何信息),如果智能回復出現這種情況,例如,通過建議回復另一個用戶所寫的電子郵件,這將是災難性的。
差異隱私以“數學確定性”消除了這種可能性,谷歌的研究科學家ÚlfarErlingsson說,他已經在數據隱私領域工作了20年。Erlingsson告訴The Verge,這是一種從數據集中刪除可識別的異常值而不改變數據的聚合含義的技術。“你的結果獨立于任何一個人的[數據],但這仍然是一個很好的結果。”
但是,使用差異隱私有一些缺點。“通過屏蔽異常值,它有時可以刪除相關或有趣的數據,尤其是在各種數據集中,例如涉及語言的數據集,”Erlingsson說。“差異隱私字面意思是系統不可能了解在數據集中只發生過一次的任何事情,因此你就有這種緊張感。你需要獲得更多某種類型的數據嗎?數據集中的這些獨特屬性有多相關或有用?“
但谷歌希望通過發布TensorFlow Privacy,全球更多的AI開發人員將開始使用這種技術,這些問題可以得到改善。“有一些工作要做,以便更容易找出這種權衡,”拉德博說。
最終,谷歌表示,最好讓更多的大腦參與進來,發布新的開源工具可以增加可用人才庫。Erlingsson說,此外,只需使用“四到五行[代碼]和一些超參數調整”就可以為AI模型添加差異隱私,這本身就是一大進步。“就像幾個月前我們所處的世界一樣,這是一個非常不同的世界,所以我們為此感到非常自豪。”