您現在的位置是:首頁 >綜合 > 2020-12-11 09:05:15 來源:
人工智能可能成為積極的社會變革的力量
人工智能(AI)已經以引人注目的方式重新構造了世界。數據驅動著我們的全球數字生態系統,人工智能技術揭示了數據的模式。智能手機,智能家居和智能城市會影響我們的生活和互動方式,人工智能系統越來越多地參與招聘決策,醫療診斷和司法判決。此方案是烏托邦式還是反烏托邦式取決于您的觀點。
反復列舉了AI的潛在風險。殺手機器人和大規模失業是人們普遍關心的問題,而有些人甚至擔心人類的滅絕。更樂觀的預測認為,到2030年,人工智能將為世界經濟增加15萬億美元,并最終使我們走向某種社會的必殺技。
我們當然需要考慮這些技術對我們社會的影響。一個重要的問題是,人工智能系統會加劇現有的社會偏見,從而造成破壞性影響。這種現象的幾個臭名昭著的例子受到了廣泛的關注:產生性別歧視輸出的最先進的自動機器翻譯系統,以及將黑人分類為大猩猩的圖像識別系統。
之所以出現這些問題,是因為此類系統使用數學模型(例如神經網絡)來識別大量訓練數據中的模式。如果該數據以各種方式嚴重歪斜,那么受過訓練的系統將不可避免地學習和再現其固有偏差。偏向自主的技術存在問題,因為它們可能使諸如婦女,少數民族或老年人等群體邊緣化,從而加劇了現有的社會失衡。
例如,如果對AI系統進行了關于警察逮捕數據的培訓,那么現有逮捕模式中出現的任何有意識或無意識的偏見都將通過在該數據上受過訓練的“預測性警務” AI系統進行復制。認識到這一點的嚴重影響,各種權威組織最近建議,所有AI系統都應接受無偏數據的培訓。歐盟委員會在2019年初發布的道德準則提出了以下建議:“收集數據時,可能包含社會構造的偏見,不準確性,錯誤和錯誤。在使用任何給定數據集進行培訓之前,必須解決這些問題。”
處理偏差數據
這一切聽起來都足夠明智。但不幸的是,有時根本不可能在訓練之前確保某些數據集沒有偏見。一個具體的例子應該澄清這一點。
所有最新的機器翻譯系統(例如Google Translate)都經過句子對訓練。英語-法語系統使用將英語句子(“她很高”)與等效的法語句子(“ elle est grande ”)相關聯的數據。在給定的一組訓練數據中,可能有5億個這樣的配對,因此總共有10億個單獨的句子。如果我們想防止所得的系統產生如下性別歧視輸出,則需要從此類數據集中消除所有與性別相關的偏見:
輸入:婦女開始開會。他們有效地工作。
輸出:萊斯FEMMES ONT開始留尼汪島。它可以改善身體狀況。
法語翻譯是使用Google翻譯于2019年10月11日生成的,并且是錯誤的:“ Ils ”是法語中的男性復數主語代詞,盡管上下文明確表明正在提及女性,但它還是出現在此處。這是經典的例子,由于訓練數據存在偏差,自動化系統會優先使用男性默認值。
通常,翻譯數據集中有70%的性別代詞是男性的,而30%是女性的。這是因為用于此目的的文本所指的是男性而不是女性。為了防止翻譯系統復制這些現有的偏見,必須從數據中刪除特定的句子對,以使英語和法語雙方出現男性和女性代詞的比例分別為50%/ 50%。這將防止系統為男性代詞分配更高的概率。