您現在的位置是:首頁 >互聯網 > 2020-10-28 14:00:24 來源:
與迎接AI道德責任時代的社會科學家見面
推動數字化轉型時代的呼聲是以快速進步的名義“快速行動并打破事物”。但是破壞事物會帶來后果,并且往往會超出范圍,尤其是在自動化機器快速移動的情況下。
人工智能已經成為超越人類工作能力的技術未來必不可少的東西。但是,盡管假設非人類工人可以提供更高水平的公正性,但新興的現實是,由技術行業開發的具有已知多樣性問題的AI工具可能充滿有害偏見。
隨著行業開始看到其機器學習試驗期的結果越來越好,人工智能責任倡導者呼吁在創新中優先考慮倫理學。
“當我們考慮道德和人工智能時,這不僅是在改進技術上,還在于 埃森哲應用智能全球負責人AI負責人Rumman Chowdhury博士(如圖)說。
在最近的舊金山埃森哲技術愿景2019活動中,喬杜里與SiliconANGLE Media的移動直播工作室CUBE的主持人杰夫·弗里克(Jeff Frick)進行了交談。
本周,CUBE在Rumman Chowdhury博士的“科技女性”專欄中聚焦。
編纂不公平
喬杜里(Chowdhury)通過社會科學來從事人工智能工作,這一背景導致了人類與技術相交的精神。數據科學家主要關注的是為AI提供信息的人性,這是在不斷創新的目標推動下的行業中罕見的觀點。
喬杜里說:“當我想到人工智能或數據科學時,我實際上將其視為關于人們的信息,旨在理解人類行為的趨勢。”
隨著AI利用越來越多的敏感數據來為企業和消費者每天使用的技術提供支持,圍繞其潛在內在偏見的討論日益受到關注。面部識別系統無法識別膚色較深的人。由于系統性種族不平等而導致的預測性警務技術通過對“未來”的算法預測來加強量刑判決。全世界都認為微軟是陰謀論的種族主義者之后,微軟被迫關閉了它的AI聊天機器人。
盡管并非所有機器學習工具的智能都被互聯網巨魔所眾包,但潛在的隱性偏見卻很明顯。人們擔心由一個人口統計學差異很大的行業開發的產品和服務是有效的,而且內置的偏見也從硅谷外部滲入。
紐約州眾議員亞歷山大·奧卡西奧·科爾特斯(Alexandria Ocasio-Cortez)最近呼吁人們注意AI可能造成的意外歧視。她說:“算法仍然是人類制定的,那些算法仍然與人類的基本假設掛鉤。” “如果不糾正偏差,那么您就是在自動實現偏差。” 盡管她的評論被許多人嘲笑為妄想癥,但AI偏見的例子已經在日用技術中激增。
據喬杜里(Chowdhury)所說,真正負責任的AI不僅將解決其技術中內置的問題,還將解決這些監督背后的社會問題。 “您可以擁有出色的數據和完美的模型,但我們來自不完善的世界。世界不是一個公平的地方。我們不想將其編入我們的系統和流程中。”她說。
剎車有助于汽車更快行駛
隨著機器學習機會隨著越來越復雜的數據涌入而擴大,可能限制AI影響的法規在企業中變得更難賣。單一聲音不會產生影響的感覺很容易使AI技術可能在沒有道德考慮的情況下運作,從而使內置偏見成倍增加。
“通常,我們感覺就像機器中的齒輪。Chowdhury說:“通常沒有足夠的責任感,因為每個人都認為他們為這臺更大的機器做出了貢獻:'無論如何,該系統會壓垮我。”
喬杜里(Chowdhury)將此概念稱為“道德外包”,這種現象使社區中的每個人都能將責任推卸到整體上。但是,與AI不同,人類不僅僅是機器中的齒輪,而且具有獨立思考和行動的能力。數據科學家認為,人工智能的責任不僅應該承擔整個行業的責任,還應該承擔每個參與者的責任。
喬杜里說:“我們需要使人們有能力說出自己的想法并有道德上的良心。”
在一個癡迷于創新的市場中,將社會責任納入發展似乎聽起來是對某些人的限制。喬杜里說,盡管有意識的人工智能在倫理上的重要性可以說是足夠合理的,但監管對商業創新和整個社區都有好處。
她說:“剎車有助于使汽車行駛得更快。” “如果我們有合適的護欄來告訴我們是否會失控,我們冒險會更自在。聽起來很矛盾,但是如果我知道我的安全空間在哪里,我就更有能力做出真正的創新。”
解決大規模偏差
在AI的當前規模上,似乎對偏見的廣泛后果的警告并沒有產生足夠的影響來激發人們轉向AI所需的社會意識。Chowdhury指出,負責任的AI戰略始于一種基本符合道德的商業文化和更全面的見解,這些見解可以識別技術的潛在意外后果。
擴大公司視野的有效方法是包含多種跨學科的聲音。她說:“技術人員經常會說,這是正確的,'我怎么應該知道X會發生什么?'。” “這是特定于鄰里,國家或社會經濟團體的東西。您應該做的是引入當地社區ACLU和某種區域專家。”
在埃森哲公司,喬杜里及其團隊已將AI公平工具的使用作為公司機器學習透明性計劃的一部分。該工具通過識別敏感變量(例如年齡,性別和種族),并在指導AI技術的統計模型中對其進行調整,從而解決了可量化的AI偏差問題。
偏差是一個敏感問題,公平工具負責客觀地引起人們對潛在不平等現象的關注。喬杜里說:“我們的思考方式不是作為決策者,而是決策者……解釋潛在的缺陷和問題,然后采取集體行動。” “它有助于平滑對話,并指出算法中可能存在不公平之處。”
事實證明,具有道德包容性的企業擁有更成功的團隊,他們可以創造更好的產品,并在整個市場上排名更高。盡管AI可能使組織有權追求無限的創新,但要使企業和社區在AI方面取得成功,就需要長期的戰略,該戰略必須建立在社會責任之上。
她說:“如果我們建立的東西從根本上講是不道德的,我們就必須停止并說:'只是因為我們不能意味著我們應該這樣做。'