(原標(biāo)題:Deepfakes are getting easier than ever to make, new research paper shows)
網(wǎng)易科技訊 5月24日消息,據(jù)國外媒體報(bào)道,通常制作出令人信服的Deepfakes音視頻剪輯需要大量的數(shù)據(jù)集對模型進(jìn)行反復(fù)訓(xùn)練。目前三星人工智能中心的研究人員已經(jīng)設(shè)計(jì)出一種方法,在有限訓(xùn)練數(shù)據(jù)集的情況下就能制作出栩栩如生的假視頻,有時(shí)只需要一張?zhí)囟ǖ恼掌憧芍谱鞒鲆约賮y真的Deepfakes效果。
研究人員從YouTube上收集的7000張名人照片中提取出“標(biāo)志性”面部特征(臉部、眼睛、嘴巴等的一般形狀),然后用于訓(xùn)練算法,從而實(shí)現(xiàn)了這一效果。
算法可以將這些特征映射到一張照片上,使其栩栩如生。正如該團(tuán)隊(duì)所證明的,這種模型甚至適用于《蒙娜麗莎》和其他單幅靜止畫像。在研究人員發(fā)布的一段視頻中,阿爾伯特·愛因斯坦、費(fèi)奧多爾·陀思妥耶夫斯基和瑪麗蓮·夢露的著名肖像栩栩如生,就像你用相機(jī)拍攝的真實(shí)照片一樣。
就像大多數(shù)Deepfakes應(yīng)用一樣,在這種狀態(tài)下很容易看到接縫。大部分的臉都被人為的視覺效果所包圍。不過,與巧妙地把蒙娜麗莎偽裝成一個(gè)會(huì)呼吸的人相比,修復(fù)解封問題可能會(huì)更容易。
盡管存在一些缺陷,但虛假音視頻正變得越來越真實(shí)。隨著研究人員不斷開發(fā)出制作高質(zhì)量Deepfakes應(yīng)用的簡易方法,人們擔(dān)心這些方法會(huì)產(chǎn)生負(fù)面影響。當(dāng)然,Deepfakes的潛在危險(xiǎn)是真實(shí)存在的,但目前的擔(dān)憂言過其實(shí)。(辰辰)
(原標(biāo)題:Apple invites press to WWDC 2019 keynote...
(原標(biāo)題:華為遭遇“封鎖令”,美國在懼怕什么?) ...
附:任正非:我流淚了! 150分鐘采訪完整實(shí)錄解密美國禁令下的任正非作者 | 崔...
(原標(biāo)題:快訊!ARM回應(yīng)“暫停與華為業(yè)務(wù)”報(bào)道:不便評(píng)...
網(wǎng)易科技訊5月21日消息,今日據(jù)《財(cái)經(jīng)》報(bào)道,百度無人車正在尋找外部投資機(jī)構(gòu)...
(原標(biāo)題:華為渡“安卓劫”:四個(gè)選項(xiàng)一個(gè)比一個(gè)激進(jìn)) ...