你尚未認(rèn)證為創(chuàng)作人或影視公司,認(rèn)證即可享有:
決定一樣事物的好與壞,往往在于使用它的人。在一項(xiàng)技術(shù)的研究和發(fā)展過程中,許多人可能都沒想過未來將如何利用它,以及會(huì)帶來怎樣的結(jié)果。
上月,三星AI研究室創(chuàng)建了新的工具,通過機(jī)器學(xué)習(xí),只要有幾張圖片,就可以合成為虛擬的視頻。
通常,要做出以假亂真的視頻需要大量數(shù)據(jù)支持。但這項(xiàng)新的deepfake技術(shù)不再需要大量數(shù)據(jù),新的神經(jīng)網(wǎng)絡(luò)只需要少量數(shù)據(jù)就能生成新的人臉信息甚至是視頻,也就是說一張普通照片就能偽造一段視頻。
不只是面部表情,口型和聲音也可以造假。
此前,一批來自斯坦福大學(xué)、馬克斯普朗克信息學(xué)研究所、普林斯頓大學(xué)和Adobe Research的研究人員組織了一個(gè)團(tuán)隊(duì),他們創(chuàng)建了一種算法,能編輯頭部特寫的對話視頻。
這種應(yīng)用從各種視頻片段中提取講話時(shí)的唇部動(dòng)作,并采用機(jī)器學(xué)習(xí)將它“移植”到目標(biāo)視頻中,讓觀眾看起來更自然。
耳聽為虛,連眼見也是假的。而有關(guān)“變聲”的技術(shù)更是已經(jīng)非常常見了,拿出你的手機(jī),只要一個(gè)輸入法就能實(shí)現(xiàn)。
同樣的,我們之前介紹過的手機(jī)應(yīng)用,已經(jīng)可以做出非常逼真的性別轉(zhuǎn)換照片、視頻。還有什么是可以相信的?
可能不久的將來,當(dāng)別人從你的社交網(wǎng)絡(luò)上抓取一張照片,只需要一部手機(jī)就能給你做出一段連你自己都從未見過的“真實(shí)視頻”了。
AI技術(shù)在圖像領(lǐng)域的飛速進(jìn)步,已經(jīng)到了不得不警覺的地步。蘋果CEO蒂姆·庫克上周日在斯坦福大學(xué)畢業(yè)演講上提到,“如果你建了一個(gè)制造混亂的工廠,你就不能逃避你對這些混亂的責(zé)任?!?/p>
Adobe瘋起來,連自己都打
最近,Adobe和加州大學(xué)伯克利分校的研究人員做了一套工具,不僅可識別出人像照片中被修改過的部分,還能預(yù)估原圖的模樣。
為了制造這個(gè)工具,研究人員首先寫了個(gè)腳本,自動(dòng)用液化工具修了一大把人像圖片,用作神經(jīng)網(wǎng)絡(luò)的訓(xùn)練數(shù)據(jù)。結(jié)果令人驚喜,測試數(shù)據(jù)顯示,人類志愿者識別出圖片真?zhèn)蔚恼_率只有53%,算法的正確率卻高達(dá)99%。
更難得的是,算法不僅可辨別圖片是否有經(jīng)過修改,落實(shí)修改過的地方,更能夠恢復(fù)出一個(gè)大概的原圖。
目前,該算法只能識別經(jīng)Photoshop液化工具處理的照片,無法應(yīng)用于其它工具修出的效果,也只能應(yīng)用于人臉,不過,團(tuán)隊(duì)接下來會(huì)繼續(xù)將“還原按鈕”研究拓展到更多領(lǐng)域,譬如修身和磨皮。
為什么要研發(fā)這類工具?Adobe在官方博客中寫道:“我們對于Photoshop和其它Adobe創(chuàng)意工具在世界上的影響力感到很自豪,但同時(shí)也意識到我們科技潛在的道德延伸影響。虛假內(nèi)容已成為了一項(xiàng)日益緊迫的嚴(yán)重問題?!?/p>
雖然這一工具還有諸多限制性,但每一個(gè)進(jìn)步都有意義。
內(nèi)容由作者原創(chuàng),轉(zhuǎn)載請注明來源,附以原文鏈接
http://www.beism.cn/news/3663.html全部評論
分享到微信朋友圈
表情
添加圖片
發(fā)表評論