精品无码免费专区午夜_中文字幕人妻被公上司喝醉_中文字幕av无码专区第一页_免费无遮挡Av网站

首頁 > 淘吧 > 正文

李鬼變李逵!“深度造假”視頻危害日益加劇

核心提示: 用來創(chuàng)造這類數(shù)字內(nèi)容的技術(shù)已經(jīng)“飛入尋常百姓家”,被稱為“深度造假”。

相機應(yīng)用變得越來越復(fù)雜。用戶可以拉長腿部,去除臉上的粉刺,加上動物耳朵等等?,F(xiàn)在,有些人甚至可以制作出看起來非常逼真的虛假視頻。用來創(chuàng)造這類數(shù)字內(nèi)容的技術(shù)已經(jīng)“飛入尋常百姓家”,被稱為“深度造假”。

美國消費者新聞與商業(yè)頻道網(wǎng)站(CNBC)在近日的報道中指出,隨著技術(shù)的不斷進步,“李鬼變李逵”!“深度造假”的危害日益加劇,正帶來一系列具有挑戰(zhàn)性的政策、技術(shù)和法律問題。

深度學習+造假=深度造假

“深度造假”是指經(jīng)過處理的視頻,或者通過尖端的人工智能技術(shù)生成的其他數(shù)字內(nèi)容,它們會產(chǎn)生看似真實的虛假圖像和聲音。

“深度造假”這個詞結(jié)合了“深度學習”和“造假”,是一種人工智能形式。深度學習是人工智能的一個子集,指的是能夠?qū)W習和自行做決定的一些算法。

美國紐約大學法學兼職教授保羅·巴雷特說,簡單來講,“深度造假”就是借助深度學習手段制作的虛假視頻。深度學習系統(tǒng)可以從多個角度研究目標人物的照片和視頻,然后模仿其行為和說話模式,從而制造出具有說服力的虛假內(nèi)容。

巴雷特解釋說:“一旦制造出了初步的假象,就可以通過名為‘生成式對抗網(wǎng)絡(luò)’(GAN)的方法讓它看起來更加可信。GAN可發(fā)現(xiàn)偽造過程中的瑕疵,從而改進這些瑕疵。經(jīng)過多輪檢查和改進后,‘深度造假’視頻就完成了。”

在公共政策機構(gòu)布魯金斯學會下設(shè)的技術(shù)革新中心從事治理研究的非常駐高級研究員、加利福尼亞大學洛杉磯分校電子工程系教授約翰·維拉塞納認為,從技術(shù)的角度來說,任何人只要擁有電腦并且能夠上網(wǎng),就可以制造“深度造假”的內(nèi)容。

“李鬼變李逵”

智庫新美國(New America)關(guān)注網(wǎng)絡(luò)安全與防御的戰(zhàn)略家、高級研究員彼得·辛格指出,“深度造假”的危險在于,這種技術(shù)可以讓人相信原本并不真實存在的東西是真實的。

辛格不是唯一一個提醒“深度造假”所帶來的危險的人。

維拉塞納也表示,這類視頻“變得越來越復(fù)雜、越來越容易制作,‘深度造假’正帶來一系列具有挑戰(zhàn)性的政策、技術(shù)和法律問題”。這項技術(shù)“可以讓政治候選人看上去像是說了或做了什么從未真正說過的話或做過的事,以此來破壞他們的聲譽”。

麻省理工學院的一項技術(shù)報告指出,可以進行“深度造假”的設(shè)備可能成為“偽造虛假新聞?wù)叩睦硐胛淦鳎麄兿M绊憦墓善眱r格到選舉的一切”。

CNBC網(wǎng)站在其報道中稱,“深度造假”將成為“2020年美國總統(tǒng)選舉中的大事件”。就像2016年的“虛假新聞”一樣,“深度造假”視頻將在2020年的美國大選中,掀起更強大的血雨腥風。當然,為了未雨綢繆,包括加州和德州在內(nèi)的不少州都已經(jīng)制定法律,當這些“深度造假”視頻用于2020年的選舉中時,將被認為不合法。

《麻省理工學院技術(shù)評論》雜志舊金山分支機構(gòu)負責人馬丁·賈爾斯在一份報告中寫道,事實上,“人工智能工具已被用于把其他人的面部照片安在色情明星身上,讓其他人說的話從政客們的口中說出。”他說,這個問題并非由GAN制造,但GAN會讓問題變得更糟糕。

成也蕭何敗也蕭何

正所謂成也蕭何敗也蕭何!維拉塞納今年2月份曾撰文指出,雖然人工智能可以用來生成“深度造假”視頻,但也可以用來檢測它們。由于任何計算機用戶都可以使用該技術(shù),越來越多的研究人員將注意力集中在“深度造假”視頻的檢測上,并且正在殫精竭慮地尋求管控這些“深度造假”視頻的方法。

臉書和微軟等大公司已經(jīng)采取行動,旨在發(fā)現(xiàn)并刪除“深度造假”視頻。據(jù)路透社報道,這兩家公司于今年早些時候宣布,他們將與美國頂級大學合作,建立一個龐大的假視頻數(shù)據(jù)庫,以進行深入的分析研究。

辛格指出,普通用戶也可以用自己的雙眼來觀測并檢查出“深度造假”視頻。他說:“目前,如果你近距離觀察,會出現(xiàn)一些輕微的突兀之處,比如耳朵或眼睛不匹配、臉部輪廓模糊、皮膚太光滑等等。”

但是他也強調(diào),隨著“深度造假”技術(shù)日益精進,視頻會看起來越來越真實,人們要分辨也變得越來越困難。

維拉塞納也提醒人們,在技術(shù)不斷發(fā)展演進的同時,用來發(fā)現(xiàn)造假的檢測技術(shù)“往往落后于最先進的生成造假的手法”。因此,更值得深思的一個問題是:人們更有可能相信“深度造假”視頻,還是將這類視頻作為“深度造假”的檢測算法?

  • 微笑
  • 流汗
  • 難過
  • 羨慕
  • 憤怒
  • 流淚
責任編輯:趙文源
0