您現在的位置是:首頁 >人工智能 > 2022-03-17 15:15:29 來源:
審計高風險人工智能的有意義的標準
針對在招聘、大學招生、預測性警務、健康干預等方面使用的工具存在不公平和偏見的說法,明尼蘇達大學最近制定了一套新的人工智能工具審計指南。
審計指南發表在AmericanPsychologist上,由明尼蘇達大學心理學副教授RichardLanders和普渡大學TaraBehrend共同制定。他們應用一個世紀的研究和專業標準來衡量心理學和教育研究人員的個人特征,以確保人工智能的公平性。
研究人員首先通過三個主要關注點考慮公平和偏見的想法,從而制定了人工智能審計指南:
使用這些鏡頭,研究人員將心理審計作為一種標準化方法來評估人工智能系統的公平性和偏見,這些系統在招聘和大學錄取等高風險應用領域對人類進行預測。
審計框架有十二個組成部分,分為三個類別,包括:
與AI的創建、處理和預測相關的組件
與AI的使用方式、其決策影響的對象以及原因相關的組件
與總體挑戰相關的組成部分:使用人工智能的文化背景、對受其影響的人的尊重以及人工智能提供者用來支持其主張的研究的科學完整性
“人工智能的使用,尤其是在招聘方面,是一種已有數十年歷史的做法,但人工智能技術的最新進展為人工智能開發人員創造了一種‘狂野西部’的感覺,”蘭德斯說。“現在有大量的初創公司不熟悉現有的使用算法雇用人員的道德和法律標準,而且由于不了解既定做法,他們有時會傷害人們。我們開發了這個框架來幫助通知這些公司和相關監管機構。”
研究人員建議內部審計師在開發高風險預測性人工智能技術期間以及之后由獨立的外部審計師遵循他們制定的標準。任何聲稱就應該如何對待人們提出有意義的建議的系統都應該在這個框架內進行評估。
“工業心理學家在評估高風險評估方面擁有獨特的專業知識,”貝倫德說。“我們的目標是讓基于人工智能的評估的開發人員和用戶了解現有的公平和有效性要求,并指導未來制定保護工人和申請人的政策。”
人工智能模型發展如此迅速,很難跟上審計特定類型人工智能系統的最合適方式。研究人員希望為特定用例制定更精確的標準,與全球其他有興趣將審計作為這些情況下的默認方法的組織合作,并努力在更廣泛的范圍內與人工智能一起創造更美好的未來。