您現在的位置是:首頁 >互聯網 > 2020-10-14 11:35:43 來源:
IBM捐贈機器學習工具以實現負責任的AI
IBM Corp. 向LF AI捐贈了三個開源人工智能開發工具包,這是Linux基金會內部維護開源機器學習工具的組織。
LF AI技術咨詢委員會于本月初正式批準了此舉。IBM當前正在將項目轉移到組織中。
這三個工具箱各自具有不同的用途。一種旨在幫助開發人員消除AI項目中的偏見,而另一種則專注于保護神經網絡并使其輸出可解釋,以便可以驗證計算。
所述AI公平360工具包包括用于在機器學習項目的不同成分而減輕偏壓近十算法。這些算法可以幫助修復AI模型處理的數據,模型本身以及作為輸出提供的預測中的偏差。IBM還添加了一組評估指標,用于評估訓練數據集,在開發過程中利用該訓練數據集完善了神經網絡的功能。
IBM委托給Linux Foundation的第二個項目稱為Adversarial Robustness 360 Toolbox。它使開發人員能夠使自己的AI模型更具彈性,以抵抗所謂的對抗攻擊。在這種網絡攻擊中,黑客將惡意輸入注入神經網絡以觸發錯誤。該項目包括用于強化模式的算法和開發人員可以用來測試其彈性的預打包攻擊。
第三個工具包是AI Explainability 360 Toolkit,其目的是解決以下事實:由于神經網絡固有的復雜性,解釋AI為什么做出給定決策通常很困難。按照其他兩個項目的模式,它包括用于將可解釋性構建到模型中的預打包算法。也有代碼示例,指南和文檔。
解釋AI如何得出特定結論的能力對于確保公平和驗證模型的安全性都是非常重要的。對于在這兩個領域工作的開發人員,AI Explainability 360 Toolkit可以幫助補充IBM捐贈給Linux基金會的其他項目。
IBM高管Todd Moore,Sriram Raghavan和Aleksandra Mojsilovic表示:“向LFAI捐贈這些項目將進一步推動創建負責任的AI技術的使命,并使更大的社區能夠挺身而出并在Linux Foundation的治理下共同創建這些工具。在博客文章中寫道。
IBM內部研究AI小組負責人Raghavan于5月出現在SiliconANGLE Media的視頻工作室theCUBE中。他討論了公司的機器學習策略以及公司如何將AI可解釋性作為其工作的重點。
“我們將AI議程分為三部分:推進,信任和擴展AI,” Raghavan說道。“信任正在建立值得信賴的AI,這是可以解釋的。您可以控制和了解它的行為,理解它以及它所伴隨的所有技術。”