红包麻将下载安装

“李鬼變李逵”!“深度造假”威脅逐漸加劇

2019-10-24 09:57:43 來源:科技日報
相機應用變得越來越復雜。用戶可以拉長腿部,去除臉上的粉刺,加上動物的耳朵,等等。現在有些人甚至可以制作出看起來非常逼真的虛假視頻。用來創造這類數字內容的技術已經飛入尋常百姓家,并被稱為“深度造假”。

美國消費者新聞與商業頻道網站(CNBC)在10月14日的報道中指出,隨著技術的不斷進步,“李鬼變李逵”!“深度造假”的威脅日益加劇,正帶來一系列具有挑戰性的政策、技術和法律問題。

9213b07eca806538135631119c733f41ac3482a3.jpeg

臉書首席執行官馬克·扎克伯格的原始視頻和“深度造假”視頻對比。圖片來源:CNBC官網

“深度學習”+“造假”

“深度造假”是指經過處理的視頻、或者通過尖端的人工智能技術生成的其他數字內容,它們會產生看似真實的虛假圖像和聲音。

“深度造假”這個詞結合了“深度學習”和“造假”,是一種人工智能形式。深度學習是“人工智能的一個子集”,指的是能夠學習和自行做決定的一些算法。

美國紐約大學法學兼職教授保羅·巴雷特說,簡單來講,“深度造假”就是借助深度學習手段制作的虛假視頻。深度學習系統可以從多個角度研究目標人物的照片和視頻,然后模仿其行為和說話模式,從而制造出具有說服力的虛假內容。

0b7b02087bf40ad1b9c36d7a5b828fdaa8eccebc.jpeg

巴雷特解釋說:“一旦制造出了初步的假象,就可以通過名為‘生成式對抗網絡’(GAN)的方法讓它看起來更加可信。GAN可發現偽造過程中的瑕疵,從而改進這些瑕疵。經過多輪檢查和改進后,‘深度造假’視頻就完成了。”

在公共政策機構布魯金斯學會下設的技術革新中心從事治理研究的非常駐高級研究員、加利福尼亞大學洛杉磯分校電子工程系教授約翰·維拉塞納寫道,事實上,從技術的角度來說,任何人只要擁有電腦并且能夠上網,就可以制造“深度造假”的內容。

“李鬼變李逵”

智庫新美國(New America)關注網絡安全與防御的戰略家、高級研究員彼得·辛格指出,“深度造假”的危險在于“這種技術可以用來讓人相信原本并不真實存在的東西是真實的。”

辛格不是唯一一個提醒“深度造假”所帶來的危險的人。

維拉塞納表示,這類視頻“變得越來越復雜、越來越容易制作,‘深度造假’正帶來一系列具有挑戰性的政策、技術和法律問題。”

維拉塞納繼續補充道,這項技術“可以通過讓政治候選人看上去像是說了或做了什么從未真正說過的話或做過的事,以此來破壞他們的聲譽。”

麻省理工學院的一項技術報告表示,可以進行“深度造假”的設備可能成為“偽造虛假新聞者的理想武器,他們希望影響從股票價格到選舉的一切。”

CNBC網站也在10月15日的報道中指出,“深度造假”將成為“2020年美國總統選舉中的大事件”。就像2016年的“虛假新聞”一樣,“深度造假”視頻將在2020年的美國大選中,掀起更強大的血雨腥風。當然,為了未雨綢繆,包括加州和德州在內的不少州都已經制定法律,當這些“深度造假”視頻用于2020年的選舉中時,會被認為不合法。

《麻省理工學院技術評論》雜志舊金山分支機構負責人馬丁·賈爾斯在一份報告中寫道,事實上,“人工智能工具已經被用于把其他人的面部照片安在色情明星的身上,讓其他人說的話從政客們的口中說出。”

他說,這個問題并非由GAN制造,但GAN會讓問題變得更糟糕。

成也蕭何敗也蕭何

正所謂成也蕭何敗也蕭何!維拉塞納今年二月份曾撰文指出,雖然人工智能可以用來生成“深度造假”視頻;但也可以用來檢測它們。隨著任何計算機用戶都可以使用該技術,越來越多的研究人員將注意力集中在“深度造假”視頻的檢測上,并且正在殫精竭慮地尋求管控這些“深度造假”視頻的方法。

臉書和微軟等大公司已經采取行動,旨在發現并刪除“深度造假”視頻。據路透社報道,這兩家公司于今年早些時候宣布,他們將與美國頂級大學合作,建立一個龐大的假視頻數據庫進行深入的分析研究。

辛格指出,功夫不負有心人,普通用戶也可以用自己的雙眼來觀測并檢測出“深度造假”視頻。他說:“目前,如果你近距離觀察,會出現一些輕微的突兀之處,比如耳朵或眼睛不匹配;臉部輪廓模糊;皮膚太光滑等等。”

但是,他也強調說,隨著“深度造假”技術日益精進,視頻會看起來越來越真實,人們要分辨也變得越來越困難。

維拉塞納也提醒說,在技術不斷發展演進的同時,用來發現造假的檢測技術“往往落后于最先進的生成造假的手法。”因此,更值得深思的一個問題是:“人們更有可能相信‘深度造假’視頻還是將視頻標記為‘深度造假’的檢測算法?”

 

本文鏈接:http://www.globalview.cn/html/global/info_34589.html

文章僅代表作者觀點,不代表本站立場。轉載請注明出處和本文鏈接

版權聲明:

1、凡本網注明"來源:海東時報 版權均屬海東時報所有,任何媒體、網站或單位和個人未經本網書面授權不得轉載、鏈接、轉貼或以其他方式復制發表。

  

2、已經本網書面授權使用作品的媒體、網站,應在授權范圍內使用,并注明“來源及作者”。違反上述聲明者,本網將依法追究其相關法律責任。

相關新聞

“李鬼變李逵”!“深度造假”威脅逐漸加劇

相機應用變得越來越復雜。用戶可以拉長腿部,去除臉上的粉刺,加上動物的耳朵,等等。現在有些人甚至可以制作出看起來非常逼真的虛假視頻。用來創造這類數字內容的技術已經飛入尋常百姓家,并被稱為“深度造假”。

美國消費者新聞與商業頻道網站(CNBC)在10月14日的報道中指出,隨著技術的不斷進步,“李鬼變李逵”!“深度造假”的威脅日益加劇,正帶來一系列具有挑戰性的政策、技術和法律問題。

9213b07eca806538135631119c733f41ac3482a3.jpeg

臉書首席執行官馬克·扎克伯格的原始視頻和“深度造假”視頻對比。圖片來源:CNBC官網

“深度學習”+“造假”

“深度造假”是指經過處理的視頻、或者通過尖端的人工智能技術生成的其他數字內容,它們會產生看似真實的虛假圖像和聲音。

“深度造假”這個詞結合了“深度學習”和“造假”,是一種人工智能形式。深度學習是“人工智能的一個子集”,指的是能夠學習和自行做決定的一些算法。

美國紐約大學法學兼職教授保羅·巴雷特說,簡單來講,“深度造假”就是借助深度學習手段制作的虛假視頻。深度學習系統可以從多個角度研究目標人物的照片和視頻,然后模仿其行為和說話模式,從而制造出具有說服力的虛假內容。

0b7b02087bf40ad1b9c36d7a5b828fdaa8eccebc.jpeg

巴雷特解釋說:“一旦制造出了初步的假象,就可以通過名為‘生成式對抗網絡’(GAN)的方法讓它看起來更加可信。GAN可發現偽造過程中的瑕疵,從而改進這些瑕疵。經過多輪檢查和改進后,‘深度造假’視頻就完成了。”

在公共政策機構布魯金斯學會下設的技術革新中心從事治理研究的非常駐高級研究員、加利福尼亞大學洛杉磯分校電子工程系教授約翰·維拉塞納寫道,事實上,從技術的角度來說,任何人只要擁有電腦并且能夠上網,就可以制造“深度造假”的內容。

“李鬼變李逵”

智庫新美國(New America)關注網絡安全與防御的戰略家、高級研究員彼得·辛格指出,“深度造假”的危險在于“這種技術可以用來讓人相信原本并不真實存在的東西是真實的。”

辛格不是唯一一個提醒“深度造假”所帶來的危險的人。

維拉塞納表示,這類視頻“變得越來越復雜、越來越容易制作,‘深度造假’正帶來一系列具有挑戰性的政策、技術和法律問題。”

維拉塞納繼續補充道,這項技術“可以通過讓政治候選人看上去像是說了或做了什么從未真正說過的話或做過的事,以此來破壞他們的聲譽。”

麻省理工學院的一項技術報告表示,可以進行“深度造假”的設備可能成為“偽造虛假新聞者的理想武器,他們希望影響從股票價格到選舉的一切。”

CNBC網站也在10月15日的報道中指出,“深度造假”將成為“2020年美國總統選舉中的大事件”。就像2016年的“虛假新聞”一樣,“深度造假”視頻將在2020年的美國大選中,掀起更強大的血雨腥風。當然,為了未雨綢繆,包括加州和德州在內的不少州都已經制定法律,當這些“深度造假”視頻用于2020年的選舉中時,會被認為不合法。

《麻省理工學院技術評論》雜志舊金山分支機構負責人馬丁·賈爾斯在一份報告中寫道,事實上,“人工智能工具已經被用于把其他人的面部照片安在色情明星的身上,讓其他人說的話從政客們的口中說出。”

他說,這個問題并非由GAN制造,但GAN會讓問題變得更糟糕。

成也蕭何敗也蕭何

正所謂成也蕭何敗也蕭何!維拉塞納今年二月份曾撰文指出,雖然人工智能可以用來生成“深度造假”視頻;但也可以用來檢測它們。隨著任何計算機用戶都可以使用該技術,越來越多的研究人員將注意力集中在“深度造假”視頻的檢測上,并且正在殫精竭慮地尋求管控這些“深度造假”視頻的方法。

臉書和微軟等大公司已經采取行動,旨在發現并刪除“深度造假”視頻。據路透社報道,這兩家公司于今年早些時候宣布,他們將與美國頂級大學合作,建立一個龐大的假視頻數據庫進行深入的分析研究。

辛格指出,功夫不負有心人,普通用戶也可以用自己的雙眼來觀測并檢測出“深度造假”視頻。他說:“目前,如果你近距離觀察,會出現一些輕微的突兀之處,比如耳朵或眼睛不匹配;臉部輪廓模糊;皮膚太光滑等等。”

但是,他也強調說,隨著“深度造假”技術日益精進,視頻會看起來越來越真實,人們要分辨也變得越來越困難。

維拉塞納也提醒說,在技術不斷發展演進的同時,用來發現造假的檢測技術“往往落后于最先進的生成造假的手法。”因此,更值得深思的一個問題是:“人們更有可能相信‘深度造假’視頻還是將視頻標記為‘深度造假’的檢測算法?”

 

本文鏈接:http://www.globalview.cn/html/global/info_34589.html

文章僅代表作者觀點,不代表本站立場。轉載請注明出處和本文鏈接

精彩推薦

红包麻将下载安装 内蒙古快3 天弘增利宝货币基金 北单 球探网足球比分直播 内蒙古快三 股巢网 激情成人日本黄色片 重庆快乐十分 亚马逊股票行情实时查询 金景配资 成熟妇女色惰片 3D 短线股票推荐网 融胜配资 天赐配资 美国牲交视频