摘要:2020年12月21日,騰訊研究院和騰訊新聞共同推出的“騰訊對話·TencentDialogue:始于2020”舉行了第五期線上對談。此次騰訊對話著重探討AI深度學習為基礎(chǔ)的深度合成技術(shù)(DeepSynthesis)的發(fā)展與應用。
2020年12月21日,騰訊研究院和騰訊新聞共同推出的“騰訊對話·Tencent Dialogue:始于2020”舉行了第五期線上對談。此次騰訊對話著重探討AI深度學習為基礎(chǔ)的深度合成技術(shù)(Deep Synthesis)的發(fā)展與應用。騰訊玄武實驗室負責人于旸、騰訊AI Lab視覺首席科學家劉威博士、中科院自動化研究所副總工程師張文生教授、電影《大圣歸來》出品人路偉圍繞深度合成技術(shù)展開了深入討論,此次對話由騰訊研究院院長司曉主持。
2014年,對抗生成網(wǎng)絡(luò)(GAN)被發(fā)明,由AI打造的虛擬世界大門初現(xiàn)。此后,“AI深度合成”(Deep Synthesis)逐漸從實驗室飛入尋常百姓家,成為普通人數(shù)字生活體驗的一部分。朋友圈中刷屏的換臉軍裝照、以假亂真的虛擬主播以及導航軟件中響起的明星語音都是這項技術(shù)的應用形式。AI深度合成帶來新奇體驗的同時也激起了眾多疑慮,“深度偽造”(Deepfake)的陰云揮之不去。有了“Deepfake”,“眼見為實”成為過時的經(jīng)驗,人們擔心這項技術(shù)會帶我們進入一個“真假混淆”的世界,其中個體安全感和社會信任都岌岌可危。
我們?nèi)绾卫斫膺@項技術(shù)的現(xiàn)在和未來?深度偽造之憂如何破解?深度合成技術(shù)如何向善發(fā)展?以下是對話實錄摘要:
合成=偽造or合成=創(chuàng)造力?
司曉:深度合成技術(shù)在我們身邊有哪些應用?
劉威:在很多人的印象里,合成和偽造是天然聯(lián)系在一起的,但實際不是這樣的。我們有很多積極的應用形式。譬如圖像修復,也是一種合成。騰訊AI Lab也與敦煌、故宮都在討論,怎么去用人工智能的技術(shù),確切來說用對抗生成網(wǎng)絡(luò)的技術(shù),去還原一幅古畫,用AI的想象修補殘缺。
路偉:深度合成在電影里面的應用是越來越多了。以《大圣歸來》為例,其中有一百多個角色,很多故事情節(jié),我們要讓它們在虛擬場景里影像化呈現(xiàn)。我們還用到了AI音效,建立角色的虛擬人格。老片《上甘嶺》的重映用到了AI去做色彩還原,效果還不錯。像中國電影資料博物館有非常多老片資源,今后都可以通過技術(shù)還原手段重獲新生,能達到2K、甚至4K的清晰度。
張文生:現(xiàn)在大家重視的都是一些語音和圖像的深度合成,實際上能合成的東西還有很多。比如一個城市系統(tǒng)的智能交通,本身也是在做合成,它是我們物理空間和數(shù)字空間的合成。
司曉:埃隆·馬斯克在一段訪談里面講,按現(xiàn)在通過技術(shù)去仿真的能力的提升速度,我們總有一天能夠去用完全數(shù)字化的方式去還原或者模擬一個對人類來說真假難辨的世界。大家來開一下腦洞,大膽預測一下深度合成的未來?
路偉:現(xiàn)在的電影仿真技術(shù)已經(jīng)能以假亂真。我們現(xiàn)在做電影,也在用一切辦法讓觀眾進入一個虛擬的真實世界,從環(huán)境、燈光、空氣密度、照度、色溫,然后角色的運動、擁抱、談笑,全部都要讓觀眾覺得它是真的。虛擬主播也開始出現(xiàn),比如洛天依和初音未來是虛擬角色1.0版本,接下來肯定會有2.0、3.0版本。在未來的五到十年,我認為虛擬明星的市場要遠遠大于真實世界的市場。
我認為未來會出現(xiàn)“無邊界”的概念。特別是在AI和VR的時代,觀眾感受到的不只是感官的視覺、聽覺、味覺,還有情感的感受,它應該是更加真實的、更加入心的,有時候我是認為在未來的真實的虛擬世界里,虛擬和真實和邊界會慢慢模糊。我覺得現(xiàn)在的CG(計算機圖形)技術(shù)和計算能力,在不斷拓寬我們對世界的認知。
張文生:我們對深度合成的“深度”要求是與審美水平提高同步的。比如我們看到的AI主播,一開始是二維的,然后語音和圖像結(jié)合了,慢慢地把口型什么都做得很好了。我想未來的三年,它有可能變成三維的、立體的一個場景。
只要有需求,有應用場景,這項技術(shù)就有市場。以電影制作為例,當我們拍一些危險場景,就可以使用深度合成來完成,減少演員受傷。或者一些“大場面”,用實拍成本非常高,有時根本實現(xiàn)不了,比如想展現(xiàn)成千上萬只羊在山上跑,但是用深度合成就可以連羊胡須這樣的細節(jié)都展顯出來。另外,一些想象層面的內(nèi)容,比如把動物的動作附加到人身上,也可以通過技術(shù)實現(xiàn)。只要這些需求存在,技術(shù)一定會有大的突破。十年前,我們就在做裸眼3D,現(xiàn)在看,裸眼3D技術(shù)如果與深度合成技術(shù)結(jié)合,我相信那市場會更大。
司曉:我們看到的這些合成動作離真人的動作差距點還在哪?目前存在哪些瓶頸?
劉威:我們目前稱之為“深度合成”的技術(shù)使用的是深度神經(jīng)網(wǎng)絡(luò),在此之前的合成用的是統(tǒng)計的方法,嚴格意義上不能叫做“深度合成”。統(tǒng)計的方法就是說我們想合成什么東西,我會收集跟它很像的一些樣本,然后用統(tǒng)計手段去“猜”一下,把這個樣本拼在一起。2014年對抗生成網(wǎng)(GAN)被發(fā)明,自此以后,相關(guān)應用的發(fā)展突飛猛進。
但是,就拿產(chǎn)生圖像來說,雖然這六年技術(shù)發(fā)生了巨大的進展,但是仍然離我們想象的那種高度自動化、高度自由度有很大的距離。何為高度自動化呢?舉例來說,我們要產(chǎn)生一個非常逼真的人臉圖,當然需要這個人臉圖像分辨率越高越好。但是分辨率一大,你需要的算力就會很大,大到在手機上是完成不了的,必須在云上做,用若干塊GPU才能做出來。
同樣,對于自由度來說,我們現(xiàn)在的合成技術(shù)也有很大局限。通俗地說,自由度就是我想讓它產(chǎn)生什么樣,就產(chǎn)生什么樣,這個仍然很難。在對抗生成網(wǎng)絡(luò)發(fā)展的早期,我們是用一個噪音來產(chǎn)生一張人臉,最后產(chǎn)出的結(jié)果是無法把控的。直到今年,我們才能對生成的人臉的屬性有要求。背后我們要訓練的神經(jīng)網(wǎng)絡(luò)模型參數(shù)是海量的,訓練方式也是非常復雜的。
盡管我們會遇到各種技術(shù)難點,我堅信未來用人工智能技術(shù)去自動產(chǎn)生的影像,會越做越好,日臻完美。
于旸:我想到的最重要的其實是感情。大家看一些電影,或者電視劇,有時會有這種情節(jié):角色的親人故去之后,他可能去找一個巫婆、法師,把親人的魂魄招回來,讓我能再看他一眼,再跟他說一句話。現(xiàn)在,技術(shù)讓我們可能擁有了種魔法。未來肯定會有人有這種想法,有這種需求,這對技術(shù)提出了新的要求。
“深度合成本身應該是賦能的技術(shù)”
司曉:目前深度合成技術(shù)面臨污名化,“深度偽造”問題突出,我們怎么樣保障我們這個技術(shù)不被用在造假、詐騙上?
劉威:在國內(nèi),騰訊在數(shù)字鑒偽——或者稍微學術(shù)一點,叫信息辯論術(shù)上取得了不小的突破。我們對語音、圖像、視頻鑒定的準確率比較可觀。當然,道高一尺魔高一丈,合成的技術(shù)變強,我們的防御能力也得增長,這就像雙手互搏。
以目前的圖像鑒偽技術(shù)為例,我們有一個步驟,先用對抗生成技術(shù)去制造高逼真的樣本,再把數(shù)據(jù)給計算機去判定,讓它多輪反復學習。我對鑒偽技術(shù)的發(fā)展保持樂觀。可以看到,即使在國際上的數(shù)字鑒偽比賽中,面對非常復雜的數(shù)據(jù)集、測試集,大家最后奪冠那些方法也不外如此。而造假的成本遠遠比鑒偽要高,也就是說,有人挖空心思造了假,我們一下就解決了。
于旸:假的影像或者聲音,能不能騙過人?能不能騙過機器?這其實是兩個話題。有些場景下人比機器好騙。比如,騙子給你打電話冒充你的同學,你一聽口音,我這個山東同學怎么是福建口音?但可能未來就不一樣了,騙子先打給你這個同學,錄一段你那個同學的聲音,根據(jù)那個聲音合成一下。你一聽,十幾年沒見,這好像就是我老同學的聲音,你就信了。
關(guān)于能不能騙過機器,在技術(shù)維度上,就是單純的機器造假和機器鑒別的較量。可能攻守雙方誰都不會特別確信能取得百分之百的優(yōu)勢,但落地到具體的業(yè)務里面的時候會發(fā)現(xiàn),有時候會需要讓步。這個其實會給造假者提供便利。
張文生:這個可能還關(guān)乎商業(yè)模式,就是如何從經(jīng)濟上激勵“打假”相關(guān)技術(shù)的開發(fā)。此外,從打假的思路來說,如果我們要加上語義識別,可能會更容易,成本也更低。比如在電話詐騙這個場景下,騙子用了合成的語音,我馬上問一個涉及隱私的問題,對方就答不上來了,這就是語義。
司曉:我們這個行業(yè)還需要做哪些事情,真正保障深度合成這個技術(shù)是在一個向善軌道上快速運行?
劉威:我個人希望從政策上鼓勵人工智能技術(shù)創(chuàng)新,尤其是影視內(nèi)容層面應用的創(chuàng)新,來提高效率,降低制作流程的成本。同時我希望要能有一些文教方面的創(chuàng)新,包括老照片、老電影的上色、復原,在線教育領(lǐng)域的應用等等。這些都是正確的引導。在立法和技術(shù)鑒別手段逐漸完善的情況下,我覺得技術(shù)造假應該是小概率事件,整體上深度合成技術(shù)還是應該向善。
于旸:我們看整個人類發(fā)展歷史,其實就是個體所擁有的力量,不管是建設(shè)力也好,破壞力也好,力量越來越大的過程,這是不可避免的。任何情況下,冒然抑制技術(shù)發(fā)展我認為都是不對的。法律不是禁止發(fā)展技術(shù),而是規(guī)范如何把技術(shù)用在好的方面。我覺得這個是最關(guān)鍵的。
張文生:人工智能本身是賦能的技術(shù)。我們做技術(shù)實際上是圍繞人們的生活、社會的進步。深度合成會發(fā)展成一個新業(yè)態(tài),全世界技術(shù)人員都會為它貢獻自己的力量。同時,我們也需要相關(guān)的規(guī)范來約束違法的、不利于社會發(fā)展的技術(shù)使用方式。做技術(shù)的人,怎么樣在這個“魔高一尺,道高一丈”的情況下更新技術(shù),幫助政府和公民,用技術(shù)來解決問題。
路偉:對影視業(yè)來講,有關(guān)深度合成的核心關(guān)切是版權(quán)保護,虛擬資產(chǎn)、虛擬人物的版權(quán)歸屬都需要法律來界定。在科技發(fā)展之外,加上對版權(quán)的管理和尊重,這個行當會越來越健康。
“用人性的溫度推動AI持續(xù)向善”
司曉:各位對深度合成的發(fā)展還有哪些期待?
劉威:我期待深度合成技術(shù)能夠便利于文教、文創(chuàng)事業(yè),孕育出更好的數(shù)字鑒別技術(shù)。我們今天談到的所有的一切,無論是合成、鑒偽,最后驅(qū)動的都是人腦,人的創(chuàng)意。我希望AI里面會有越來越多的有溫度的東西,這樣我們才能讓AI持續(xù)向善。
于旸:在有現(xiàn)代科技之前,大部分人類生活的世界其實很小。但是以互聯(lián)網(wǎng)為代表的現(xiàn)代科技讓我們每個人都能夠和全世界發(fā)生聯(lián)系。再往后發(fā)展,類似深度合成這樣的技術(shù),可以在我們已有的這種基礎(chǔ)上,再更進一步。這種技術(shù)可以把物理世界中不存在的美好創(chuàng)造出來,讓我們?nèi)ジ惺埽?strong>它必然會把人類生活的美好推到下一個境界。
張文生:我希望科技企業(yè)能夠把深度合成技術(shù)推動變成一個商業(yè)模式,來吸引更多的做技術(shù)的人為之服務,做出來更好的產(chǎn)品。科技企業(yè)也有責任和政府一起關(guān)注深度合成技術(shù)的發(fā)展,保障它在正確的、向善的軌道上。
路偉:我希望通過深度合成,通過計算機網(wǎng)絡(luò),能夠讓我們未來做電影、影視、虛擬世界越來越簡單,讓我們的作品越來越有溫度,讓更多的人能夠把自己掃描進虛擬世界。我希望在這個世界里,人性的光輝照到更多角落里面。
12月26日11:30,由北京大興飛往佛山的中聯(lián)航千里江山系列第二架“攜程號”彩繪飛機KN5867平...
近日,在中國人民銀行公布的2023年度金融科技發(fā)展獎獲獎名單中,中國光大銀行信用卡中心(以下簡稱“光...
近日,亞洲領(lǐng)先的數(shù)字娛樂平臺九游娛樂與西甲勁旅赫塔菲足球俱樂部正式宣布達成戰(zhàn)略合作協(xié)議。
近日,低空基礎(chǔ)設(shè)施——eVTOL飛行汽車數(shù)字化起降站設(shè)備提供商睿安飛科技(Run and Fly)完...
近年來,國際橡膠市場價格波動和自然災害頻發(fā),給膠農(nóng)們帶來嚴峻挑戰(zhàn),如何保障膠農(nóng)收益便成為亟待解決的重...
作為全球數(shù)字銀行的先行者,微眾銀行長期深耕數(shù)字化企業(yè)金融服務發(fā)展,12月26日,微眾銀行企業(yè)金融Ap...
健康城市建設(shè)是促進人民健康協(xié)調(diào)發(fā)展的必然要求,而健康行為則是人民健康最重要的基礎(chǔ)和影響因素。
很多數(shù)字化產(chǎn)品,在企業(yè)中往往會遇到用不起來的困境。數(shù)勢深刻認識到這一點,所以產(chǎn)品設(shè)計的初衷就是能讓業(yè)...
投資家網(wǎng)(m.51baobao.cn)是國內(nèi)領(lǐng)先的資本與產(chǎn)業(yè)創(chuàng)新綜合服務平臺。為活躍于中國市場的VC/PE、上市公司、創(chuàng)業(yè)企業(yè)、地方政府等提供專業(yè)的第三方信息服務,包括行業(yè)媒體、智庫服務、會議服務及生態(tài)服務。長按右側(cè)二維碼添加"投資哥"可與小編深入交流,并可加入微信群參與官方活動,趕快行動吧。