你尚未認證為創(chuàng)作人或影視公司,認證即可享有:
決定一樣事物的好與壞,往往在于使用它的人。在一項技術(shù)的研究和發(fā)展過程中,許多人可能都沒想過未來將如何利用它,以及會帶來怎樣的結(jié)果。
上月,三星AI研究室創(chuàng)建了新的工具,通過機器學習,只要有幾張圖片,就可以合成為虛擬的視頻。
通常,要做出以假亂真的視頻需要大量數(shù)據(jù)支持。但這項新的deepfake技術(shù)不再需要大量數(shù)據(jù),新的神經(jīng)網(wǎng)絡(luò)只需要少量數(shù)據(jù)就能生成新的人臉信息甚至是視頻,也就是說一張普通照片就能偽造一段視頻。
不只是面部表情,口型和聲音也可以造假。
此前,一批來自斯坦福大學、馬克斯普朗克信息學研究所、普林斯頓大學和Adobe Research的研究人員組織了一個團隊,他們創(chuàng)建了一種算法,能編輯頭部特寫的對話視頻。
這種應(yīng)用從各種視頻片段中提取講話時的唇部動作,并采用機器學習將它“移植”到目標視頻中,讓觀眾看起來更自然。
耳聽為虛,連眼見也是假的。而有關(guān)“變聲”的技術(shù)更是已經(jīng)非常常見了,拿出你的手機,只要一個輸入法就能實現(xiàn)。
同樣的,我們之前介紹過的手機應(yīng)用,已經(jīng)可以做出非常逼真的性別轉(zhuǎn)換照片、視頻。還有什么是可以相信的?
可能不久的將來,當別人從你的社交網(wǎng)絡(luò)上抓取一張照片,只需要一部手機就能給你做出一段連你自己都從未見過的“真實視頻”了。
AI技術(shù)在圖像領(lǐng)域的飛速進步,已經(jīng)到了不得不警覺的地步。蘋果CEO蒂姆·庫克上周日在斯坦福大學畢業(yè)演講上提到,“如果你建了一個制造混亂的工廠,你就不能逃避你對這些混亂的責任?!?/p>
Adobe瘋起來,連自己都打
最近,Adobe和加州大學伯克利分校的研究人員做了一套工具,不僅可識別出人像照片中被修改過的部分,還能預(yù)估原圖的模樣。
為了制造這個工具,研究人員首先寫了個腳本,自動用液化工具修了一大把人像圖片,用作神經(jīng)網(wǎng)絡(luò)的訓(xùn)練數(shù)據(jù)。結(jié)果令人驚喜,測試數(shù)據(jù)顯示,人類志愿者識別出圖片真?zhèn)蔚恼_率只有53%,算法的正確率卻高達99%。
更難得的是,算法不僅可辨別圖片是否有經(jīng)過修改,落實修改過的地方,更能夠恢復(fù)出一個大概的原圖。
目前,該算法只能識別經(jīng)Photoshop液化工具處理的照片,無法應(yīng)用于其它工具修出的效果,也只能應(yīng)用于人臉,不過,團隊接下來會繼續(xù)將“還原按鈕”研究拓展到更多領(lǐng)域,譬如修身和磨皮。
為什么要研發(fā)這類工具?Adobe在官方博客中寫道:“我們對于Photoshop和其它Adobe創(chuàng)意工具在世界上的影響力感到很自豪,但同時也意識到我們科技潛在的道德延伸影響。虛假內(nèi)容已成為了一項日益緊迫的嚴重問題。”
雖然這一工具還有諸多限制性,但每一個進步都有意義。
內(nèi)容由作者原創(chuàng),轉(zhuǎn)載請注明來源,附以原文鏈接
http://www.zuisun.cn/news/3663.html全部評論
分享到微信朋友圈
表情
添加圖片
發(fā)表評論