您現在的位置是:首頁 >財經 > 2020-11-09 09:09:23 來源:
使用AI檢測看似完美的深層視頻
一年前,斯坦福大學的Maneesh Agrawala幫助開發了口型同步技術,該技術使視頻編輯人員幾乎無法察覺地修改說話者的單詞。該工具可以無縫地插入一個人從未說過的單詞,甚至是句子中間,也可以消除她曾經說過的單詞。在肉眼上,甚至對許多基于計算機的系統,看起來都沒有錯。
使用該工具可以更輕松地修復故障,而無需重新拍攝整個場景,以及為不同地方的不同觀眾量身定制電視節目或電影。
但是,這項技術還為難以發現的深造視頻創造了令人擔憂的新機會,這些深造視頻的創建是為了歪曲事實。一個最近的共和黨的視頻,例如,使用較粗略的技術,醫生與副總統拜登的采訪。
今年夏天,斯坦福大學和加州大學伯克利分校的Agrawala及其同事推出了一種基于AI的方法來檢測口形同步技術。通過識別人們發出的聲音與嘴巴形狀之間的微小不匹配,新程序可以準確發現80%以上的假貨。
但是斯坦福大學布朗媒體創新研究所所長,森林籃科學計算機科學教授,也隸屬于斯坦福大學以人類為中心的人工智能研究所的阿格拉瓦拉警告說,對于深層假貨沒有長期的技術解決方案。
他說,真正的任務是提高媒體素養,使人們在故意制造和傳播錯誤信息時承擔更多責任。
他說:“隨著操縱視頻的技術越來越好,探測操縱技術的能力將越來越差。” “我們需要專注于非技術方法,以識別和減少虛假信息和虛假信息。”
例如,拜登操縱的錄像不是通過技術曝光的,而是因為采訪副總統的人意識到他自己的問題已經改變。
深度假貨的工作原理
操縱視頻是有正當理由的。例如,制作虛構電視節目,電影或商業廣告的任何人都可以使用數字工具清理錯誤或調整腳本來節省時間和金錢。
問題是當有意使用這些工具傳播虛假信息時出現的。并且許多技術對于普通觀眾是不可見的。
許多假冒的視頻都依賴于換臉,實際上是將一個人的臉疊加到另一個人的視頻上。但是,盡管換臉工具令人信服,但它們相對粗糙,通常會留下計算機可以檢測到的數字或視覺偽像。
另一方面,口型同步技術則比較細微,因此很難發現。他們操縱圖像的一小部分,然后合成與一個人的嘴巴真正吻合的嘴唇移動方式(如果他或她說了某些特定的單詞)。Agrawala說,只要有足夠的人的圖像和聲音樣本,虛假的制作人就可以使人“說”任何話。