Categories
創造力

明年1月1日起,AI造假視頻不得隨意發布


明年1月1日起,AI造假視頻不得隨意發布 1

  歡迎關注“創事記”微信訂閱號:sinachuangshiji

  文/問耕

  來源:量子位(ID:QbitAI)

  新規來了。

明年1月1日起,AI造假視頻不得隨意發布 2

  在這份剛剛印發的《網絡音視頻信息服務管理規定》中,四次直接提及深度學習,基本可以看做是針對AI造假視頻的一次針對性管控。

  2017年底,deepfake換臉技術出現以來,各種使用AI技術造假的視頻層出不窮。而且隨著技術的進步,造假視頻已經變得越來越真假難辨,也引發了全球範圍內的擔憂。

  現在,不能使用AI技術亂來了。

  國內的各位朋友,再搞AI換臉的視頻等操作,請注意這些新規定。

  對普通用戶:

  發布非真實AI音視頻時,要以顯著方式標識出來。

  不得使用AI技術製作假新聞。

  對於服務商,除了上述要求還有:

  上線AI音視頻服務,應展開安全評估。

  部署非真實音視頻鑑別技術。

  及時停止傳播未顯著標識的非真實AI音視頻內容。

  建立健全闢謠機制。

  相關規定條款,我們截圖如下。

明年1月1日起,AI造假視頻不得隨意發布 3

  新規定將於明年1月1日起施行。

  《網絡音視頻信息服務管理規定》的詳細內容,可以訪問這個頁面查看:http://www.cac.gov.cn/2019-11/29/c_1576561820967678.htm

  deepfake“改變”世界

  對於deepfake等基於深度學習的AI技術,全球都在想辦法應對。

  畢竟這種技術,可以用來換臉:

明年1月1日起,AI造假視頻不得隨意發布 4

  還能用來給身體造假:

明年1月1日起,AI造假視頻不得隨意發布 5

  當然動物也不再話下:

明年1月1日起,AI造假視頻不得隨意發布 6

  本月,推特發布了首個反deepfake策略草案,並徵集公眾意見。根據這個草案,如果一份deepfake偽造的內容威脅到某人的人身安全或可能造成嚴重傷害,將會被刪除。

  包括微軟、Google等國外公司也在研究如何自動鑑別換臉視頻。

  AI造假視頻,也是最近幾個月美國國會中最有爭議的話題之一。此前,美國國際戰略研究中心(CSIS)發布報告稱,偽造信息正在通過互聯網迅速傳播,破壞了民主進程。

  來自人民看點的報導中寫道:

  Deepfake被認為是一種破壞民主的工具。美國情報界發布的2019年全球威脅評估(Worldwide Threat Assessment)中就警告稱,惡意攻擊者或戰略競爭對手可能會使用deepfake技術或類似的機器學習技術來創建看似逼真但其實是偽造的圖片、音頻和視頻文件來加大針對美國和其盟友的活動的影響。

  CNBC網站在其報導中稱,“deepfake”將成為“2020年美國總統選舉中的大事件”。就像2016年的“虛假新聞”一樣,“deepfake”視頻將在2020年的美國大選中,掀起更強大的血雨腥風。

明年1月1日起,AI造假視頻不得隨意發布 7

  2019年10月,美國加州州長Gavin Newsom簽署AB-730法令,明確指出,如果散佈偽造的信息使公眾對政治人物的言論、行動產生錯誤或有害的印象,將是犯罪行為。

  7月,美國弗吉尼亞州也發布了禁止deepfake濫用的禁令:未經當事人允許分享他人的裸露視頻、照片屬於違法行為,無論該照片或視頻是真實的還是偽造的。

  今年6月,斯坦福、普林斯頓等大學發布了一項最新研究:給定任意文本,就能隨意改變一段視頻里人物說的話。並且,改動關鍵詞後人物口型還能對得奇準無比,絲毫看不出篡改的痕跡。

明年1月1日起,AI造假視頻不得隨意發布 8

  除了視頻造假,AI在音頻造假方面也不在話下。

  來看一個真實的案例。

  有人用AI技術偽造老闆的聲音,打電話要求轉賬,結果一家公司上當了,損失了173萬元。這家公司,是總部位於英國的一家能源公司。

  要不是因為騙了一次還想立刻騙第二次,這個騙局可能也不會馬上曝光。

  毫無破綻的變臉

  如果你還沒見識過deepfake的威力,以下是一些網友的大作。

  此前,有一個名為“換臉哥”的B站用戶將《射雕英雄傳》中朱茵飾演的黃蓉換成了楊冪的臉,並且把處理過的視頻發在了B站。

明年1月1日起,AI造假視頻不得隨意發布 9
明年1月1日起,AI造假視頻不得隨意發布 10

  類似的還有,徐錦江換臉海王。

明年1月1日起,AI造假視頻不得隨意發布 11

  “吃屎吧,梁非凡”場景中的兩位主角換臉:

明年1月1日起,AI造假視頻不得隨意發布 12

  把《回家的誘惑》裡男主的臉換到了“穿著品如衣服”的女性角色艾莉臉上:

明年1月1日起,AI造假視頻不得隨意發布 13

  更多例子就先不舉了。

  如果你想試試AI模仿聲音的感覺,可以試試搜狗輸入法裡的“變聲”功能。

明年1月1日起,AI造假視頻不得隨意發布 14

  如果你想試試AI換臉的感覺,可以試試此前曾在國內外掀起一陣旋風、繼而引發廣泛爭議的App:ZAO。

明年1月1日起,AI造假視頻不得隨意發布 15

  One More Thing

  北京下雪了,今天一早,量子位有個小姐姐跑去故宮看雪景。

  這張是她發回的現場報導:

明年1月1日起,AI造假視頻不得隨意發布 16
明年1月1日起,AI造假視頻不得隨意發布 17

(聲明:本文僅代表作者觀點,不代表新浪網立場。)