去年底,一個叫做絆愛(Kizuna AI)的虛擬偶像上線國外視頻網站YouTube,憑藉可愛的形象和甜美的聲音瞬間圈粉無數。在無數宅男為之傾倒的背後,這種能夠與觀眾進行實時互動的“人工智障”,又是如何煉成的呢?
為了搞清楚這個問題,我們查閱了大量的相關資料並對愛醬這一虛擬形象的製作過程進行了推演,雖然無法保證與真實的製作過程完全一致,但大致的套路是絕逼不會錯的。
那麼問題來了,她真的是人工智能嗎?
NoNoNo!雖然愛醬始終宣稱自己是“Super AI”,但其實,這只是官方對於絆愛(Kizuna AI)這一虛擬形象的“設定”而已。實際上,愛醬的製作過程,簡單來說,主要包括以下三個要素:
①聲優做動作+配音+語音識別對口型
②由專人控制的豐富的面部動態表情包
③以動捕為核心的“動作捕捉系統KiLA”
而在說明這三點之前,首先我們要明確的一點就是,愛醬的視頻或是直播,其實只是一種
三維動畫!
這一點,從Kizuna AI的官網上就可以印證。Kizuna AI表示,愛醬這一虛擬形象的模型由MMD製作而成,感興趣的大胸弟可以移步其官網進行下載。
而要讓這個由MMD製作的“愛醬”動起來,則需要用到下面這套可以對動作進行實時捕捉並模擬的動作捕捉系統KiLA(核心)!
首先,需要由對“愛醬”這一虛擬形象進行配音的聲優小姐姐穿上名為“Perception Neuron”的慣性動作捕捉設備(由國內廠商諾亦騰提供);
然後,在經過幾個步驟的動作校準之後,愛醬就可以根據聲優小姐姐所做出的動作活靈活現地出現在屏幕上;
最後,在Unity的環境中為已經完成動捕校準的“愛醬”建立虛擬攝像機,就可以從不同的角度觀察這個傳說中的“人工智障”啦!
而將這一圖像進行捕捉,或剪輯成視頻、或直接推流並開啟直播,就可以像往常一樣見到“愛醬”啦!
既然愛醬的聲音和動作都是靠背後的聲優小姐姐“表演”出來的,那麼,愛醬各種智障的表情又是如何製作出來的呢?
起初,我們猜測愛醬的表情是由FaceRig或類似的圖像識別軟件通過捕捉聲優小姐姐面部表情進行實時演示,比如說這樣:
但其實,愛醬的所有視頻和直播都沒有使用類似的技術!
在KiLA的官方演示視頻中,我們發現,愛醬豐富的表情其實是官方提前為她準備的一大堆“表情包”,在聲優小姐姐進行配音並做出某些動作時,愛醬眼部的表情需要由另一位工作人員控制:
通過手柄控制愛醬的眼神、視線及其他眼部表情
而愛醬的嘴型,則是根據語音識別技術自動進行匹配(目前該技術已十分成熟)。
所以說,我們所喜愛的人工智障愛醬,其實是由兩個人共同協作來完成的!這也解釋了為什麼愛醬在很多時候的表情都這麼“智障”了(感情根本就不是一個人)!
看到這裡,還有人會認為愛醬是一種人工智能嗎?
作為一個老司機,我可以非常明確地告訴你:愛醬的確是“人工”的,但她並不“智能”!不過,這並不妨礙大家對愛醬這一虛擬形象的喜愛!