當我看到這個消息的時候,內心是崩潰的:AI可以剪視頻了。這意味著也許一小部分電影從業(yè)者,包括我們在內的新聞視頻工作者,未來可能更難找工作了。(掩面痛哭)
正如李開復近在哥大畢業(yè)典禮上發(fā)表的演講所提到的,未來十年也許真的是人工智能的時代。
但是,當許多人處于AI即將取代大部分簡單重復工種的不安中,尚且還有一群人偷偷地吁了口氣,比如藝術從業(yè)人員,因為那時我們并不認為AI可以在近期內勝任兼具創(chuàng)造性與藝術性的工作。
……直到我們看到斯坦福與Adobe的這項研究。
這個新的算法可以根據導演要求,對視頻原始材料進行編輯,不論是papi醬那種精分風格的視頻,還是經典的電影風格視頻,它都可以在極短的時間內完成工作。
首先我們要跟大家簡單科普一下視頻剪輯師的工作流程。比如說我們要制作一個有情節(jié)的微電影,首先我們會根據寫好的劇本進行拍攝,同一個場景和鏡頭一般要從不同的角度、機位拍上好幾次,這樣才能獲取不同角度、不同景別的視頻材料。
在后期剪輯的時候,則可以把同一場景的多個片段放在一起剪輯,這樣就可以運用鏡頭語言表達不同的情緒、傳遞多樣的信息,也避免觀眾因為鏡頭過于重復和單一而感到無聊。
它也可以通過聲音、面部和情感識別對鏡頭類型、演員的感情強度、畫面構圖等進行編碼。由于導演對于一個場景可以拍攝多達10場鏡頭,光對應劇本這一個功能就可以節(jié)省數小時。
然而,這個系統(tǒng)的“精華”之處在于根據電影鏡頭語言的規(guī)則進行“慣用”編輯。
例如,許多故事都是從一個廣角的“建立場景”鏡頭開始,這樣觀眾就會對故事發(fā)生的地點具備基本的了解。有些時候,導演還會使用慢放或快進的方式,強調某個人物,強化情緒或保持鏡頭類型(如廣角或特寫鏡頭)一致。
根據導演或者故事本身的不同風格,導演運用這些鏡頭語言去達到的講述故事的效果。而這個系統(tǒng)操作起來非常簡單。
研究人員已經預設了許多鏡頭語言的設定,編輯們只需要把他們想要的鏡頭語言輸入到系統(tǒng)中,這個系統(tǒng)就會自動將劇本與場景匹配。
在斯坦福研究團隊制作的說明視頻中,他們給出了一個具體的例子。比如,他們想要制作一個傳統(tǒng)電影風格(在對話雙方之間進行切換,敘述節(jié)奏不緊不慢等)的視頻,編輯就會選擇“用廣角鏡頭開始”這個鏡頭語言來建立故事發(fā)生的場景,然后選用“避免跳躍性的剪輯“來適用于經典的電影風格,同時選擇“強調某個角色”等電影語言。
這個系統(tǒng)在幾秒之內迅速制作了一個喜劇電影風格、嚴格遵守劇本的電影片段??赐曛笪业南掳投家舻厣狭恕@簡直與人工剪輯無異??!
然后,測試人員用同一個劇本和拍攝材料,選擇了“跳躍性剪輯”等典型的youtube網紅視頻的鏡頭語言,于是另一個youtube風格的視頻又在幾秒鐘被制作出來了。
整個過程中,令人瞠目結舌的是,這個算法能夠在2-3秒內根據特定要求生成一個71秒的視頻,并且可以在幾秒內生成另一個完全不同風格的視頻。
研究團隊非常殘忍地請了一位具有25年編輯經驗的剪輯師來完成相同的工作,這位剪輯師一動不動盯著電腦屏幕看了三個小時,才能完成從瀏覽所有視頻材料到手動進行剪輯的所有過程——而且只剪輯出了一種風格的視頻。
據他估計,如果要制作出另一個完全不同風格的視頻,需要另外花上一個半小時。
更重要的是,它可以減少許多重復細碎的工作,并讓編輯在短時間內看到基于不同風格的視頻樣品。這將使他們擁有更多的時間進行微調,并且在其它方面發(fā)揮他們的技能和藝術才能。
此外,它也無法判斷表演的好壞和拍攝的質量。有時候不同場次的拍攝材料中會出現(xiàn)不一致(也包括觀眾們喜歡看的穿幫),目前這個系統(tǒng)也沒有辦法識別這些錯誤,編輯、制片人和導演仍然需要親自檢查所有拍攝的視頻。
未來,研究人員將會努力擴大它的使用場景,比如剪輯動作片,這也就需要研究人員輸入更多針對動作片的鏡頭語言設定,
當然啦,從目前來看,這個AI也只夠格做個編輯助手,在短時間內不會完全取代視頻編輯師。那么看完此文有些焦灼的你該如何提升自己而不被AI取代呢?
我們覺得,保持你的創(chuàng)造力和獨特性,努力打破常規(guī),去深切地體會人性和美,也許就是我們戰(zhàn)勝機器的重要砝碼。
內容由作者原創(chuàng),轉載請注明來源,附以原文鏈接
http://www.beism.cn/news/989.html全部評論
分享到微信朋友圈
表情
添加圖片
發(fā)表評論