• 您現在的位置是:首頁 >人工智能 > 2021-11-26 15:33:00 來源:

    未來的人工智能系統將如何為我們所有人做出最合乎道德的選擇

    導讀 人工智能(AI)已經在商業、醫療保健和制造領域做出決策。但人工智能算法通常仍會從申請檢查和做出最終決定的人那里得到幫助。如果人工智能系

    人工智能(AI)已經在商業、醫療保健和制造領域做出決策。但人工智能算法通常仍會從申請檢查和做出最終決定的人那里得到幫助。如果人工智能系統必須做出獨立的決定,而那些決定對人類來說可能意味著生死,會發生什么?

    長期以來,流行文化描繪了我們對人工智能的普遍不信任。在2004年的科幻電影《我,機器人》中,德爾·斯普納(威爾·史密斯飾演)在一場車禍中被一個人救起后對機器人產生了懷疑,而一名12歲的女孩則被淹死。他說:“我是合乎邏輯的選擇。它計算出我有45%的生存機會。莎拉只有11%的機會。那是某人的孩子——11%綽綽有余。一個人會知道的.”

    與人類不同,機器人缺乏道德良知,并遵循編入其中的“道德”。同時,人類的道德是高度可變的。在任何情況下做的“正確”的事情都取決于你問的是誰。

    為了讓機器能夠幫助我們充分發揮其潛力,我們需要確保它們的行為符合道德規范。那么問題就變成了:AI開發人員和工程師的道德規范如何影響AI的決策?

    自動駕駛的未來

    想象一下完全自主的自動駕駛汽車的未來。如果一切按預期進行,早上通勤將是準備一天的會議、了解新聞或坐下來放松的機會。

    但是如果出現問題怎么辦?汽車接近紅綠燈,但突然剎車失靈,計算機不得不在瞬間做出決定。它可以突然轉向附近的桿子并殺死乘客,或者繼續前進并殺死前方的行人。

    控制汽車的計算機只能訪問通過汽車傳感器收集的有限信息,并且必須基于此做出決定。盡管這看起來很戲劇化,但我們距離可能面臨這樣的困境只有幾年的時間。

    自動駕駛汽車通常會提供更安全的駕駛,但事故將不可避免——尤其是在可預見的未來,當這些汽車將與人類駕駛員和其他道路使用者共享道路時。

    特斯拉還沒有生產全自動汽車,盡管它計劃這樣做。在碰撞情況下,如果人類駕駛員處于控制之中,特斯拉汽車不會自動操作或停用自動緊急制動(AEB)系統。

    換句話說,駕駛員的行為不會受到干擾——即使是他們自己造成了碰撞。相反,如果汽車檢測到潛在碰撞,它會向駕駛員發送警報以采取行動。

    然而,在“自動駕駛”模式下,汽車應該為行人自動剎車。有人爭辯說,如果汽車可以防止碰撞,那么它就有道德義務在每種情況下超越駕駛員的行為。但是我們會希望自動駕駛汽車做出這個決定嗎?

    人生有什么價值?

    如果汽車的計算機可以評估車內乘客和行人的相對“價值”會怎樣?如果它的決定考慮了這個值,從技術上講,它只是進行成本效益分析。

    這聽起來可能令人震驚,但已經有一些技術可以讓這種情況發生。例如,最近重新命名的Meta(前身為Facebook)具有高度進化的面部識別功能,可以輕松識別場景中的個人。

    如果將這些數據整合到自動駕駛汽車的人工智能系統中,該算法就可以為每條生命賦予美元價值。麻省理工學院的專家及其同事在2018年進行的一項廣泛的研究中描述了這種可能性。

    通過道德機器實驗,研究人員提出了各種自動駕駛汽車場景,迫使參與者決定是殺死無家可歸的行人還是行人。

    結果顯示,參與者的選擇取決于他們所在國家/地區的經濟不平等程度,其中經濟不平等程度越高,他們就越有可能犧牲無家可歸的人。

    雖然沒有完全進化,但這種數據聚合已經在中國的社會信用體系中使用,它決定了人們擁有哪些社會權利。

    醫療保健行業是我們將看到人工智能做出可能拯救或傷害人類的決策的另一個領域。專家們越來越多地開發人工智能,以發現醫學成像中的異常情況,并幫助醫生確定醫療保健的優先級。

    目前,醫生說了算,但隨著這些技術越來越先進,如果醫生和人工智能算法不做同樣的診斷,會發生什么?

    另一個例子是自動用藥提醒系統。如果患者拒絕服藥,系統應該如何反應?這如何影響患者的自主權以及系統的整體問責制?

    人工智能驅動的無人機和武器在道德上也令人擔憂,因為它們可以做出殺人的決定。對于是否應該完全禁止或管制此類技術,存在著相互矛盾的觀點。例如,自主無人機的使用可能僅限于監視。

    一些人呼吁對軍用機器人進行道德編程。但這引發了關于程序員在無人機誤殺平民的情況下的責任問題。

    哲學困境

    關于人工智能必須做出的道德決定,存在許多哲學辯論。典型的例子是電車問題。

    人們常常難以做出可能改變生活結果的決定。在評估我們對此類情況的反應時,一項研究報告稱,選擇可能因一系列因素而異,包括受訪者的年齡、性別和文化。

    對于AI系統,算法訓練過程對于它們在現實世界中的工作方式至關重要。一個國家開發的系統可能會受到該國觀點、政治、倫理和道德的影響,使其不適合在另一個地方和時間使用。

    如果系統正在控制飛機或引導導彈,您需要高度自信它是用代表其使用環境的數據進行訓練的。

    技術實施中的失敗和偏見的例子包括種族主義皂液器和不適當的自動圖像標簽。

    人工智能不是“好”或“壞”。它對人們的影響將取決于其開發人員的道德規范。因此,為了充分利用它,我們需要就我們認為的“道德”達成共識。

    雖然私營公司、公共組織和研究機構都有自己的人工智能道德準則,但聯合國建議制定他們所謂的“全面的全球標準制定工具”,以提供全球道德人工智能框架——并確保人權得到保護。

  • 成人app