您現在的位置是:首頁 >要聞 > 2021-01-14 08:31:22 來源:
人工智能可以加深社會不平等這是防止這種情況的5種方法
導讀 從Google搜索和約會網站到檢測信用卡欺詐,人工智能(AI)一直在尋找進入我們生活的新方法。但是我們可以相信驅動它的算法嗎?作為人類,我們
從Google搜索和約會網站到檢測信用卡欺詐,人工智能(AI)一直在尋找進入我們生活的新方法。但是我們可以相信驅動它的算法嗎?
作為人類,我們會犯錯誤。我們可能會引起注意失誤并曲解信息。但是,當我們重新評估時,我們可以找出并糾正錯誤。
但是,當AI系統出錯時,無論在相同情況下查看相同數據有多少次,都將一次又一次重復。
使用不可避免地反映過去的數據來訓練AI系統。如果訓練數據集包含過去人類決策的內在偏見,則這些偏見將由系統進行整理和放大。
或者,如果它包含的有關特定少數群體的數據較少,那么對該群體的預測將趨于惡化。這稱為“算法偏差”。
Gradient Institute共同撰寫了一篇論文,展示了企業如何識別AI系統中的算法偏差,以及如何減輕它。
該作品是與澳大利亞人權委員會,消費者政策研究中心,CSIRO的Data61和CHOICE倡導小組合作制作的。
算法偏差如何產生?
缺乏合適的訓練數據或不適當的系統設計或配置可能會導致算法偏差。
例如,通常使用銀行以前的貸款決定的大數據集(以及銀行可以訪問的其他相關數據)來訓練幫助銀行決定是否授予貸款的系統。
該系統可以將新貸款申請人的財務歷史,工作歷史和人口統計信息與先前申請人的相應信息進行比較。據此,它試圖預測新申請人是否將能夠償還貸款。
但是這種方法可能會出現問題。在這種情況下可能出現算法偏差的一種方式是通過貸款管理者的無意識偏差,他們過去對抵押貸款申請做出了決定。
如果過去少數族裔的客戶被不公平地拒絕了貸款,則認可機構將認為這些族群的一般還款能力低于實際水平。