在虛擬現實中,化身的面部表情往往是溝通的關鍵。然而,當化身的嘴部動作過於僵硬、不自然時,使用者的沉浸感可能受到影響,甚至削弱了社交互動的真實性。這一問題在過去的技術中尤為明顯,尤其是當耳機僅支援基本的嘴部動畫,缺乏先進的基於音訊或視覺的臉部追蹤功能時。
Meta 最新的 Movement SDK 透過支持臉部追蹤技術,為此類問題提供了解決方案。而在 Meta Horizon OS v71 中,推出的全新功能 Audio To Expression 更進一步,讓即使沒有視覺追蹤硬體的裝置也能呈現自然、逼真的面部表情。透過音訊串流的應用,此技術可以根據使用者的聲音動態生成臉部表情,使化身的表現更具說服力與情感張力。
Audio To Expression 的開發目標始終聚焦於促進用戶之間的連接,讓社交互動更具沉浸感。傳統的面部動畫通常僅捕捉嘴部動作,忽略了臉頰、眉毛及鼻子等細微表情,而這些微妙的動作對於傳遞情感至關重要。Audio To Expression 透過 AI 分析與音訊串流技術,模擬完整的臉部表情,使得用戶的語言表達更為生動。
該功能適用於各類社交互動場景,無論是競技遊戲、協作平台,還是休閒娛樂,皆能提升用戶的體驗。例如,在與 Arthur Technologies 的合作中,Meta 發現該技術能顯著增強虛擬會議中的臨場感,透過可視化表情來促進用戶間的信任與同理心。這對於需要跨地域溝通的商業場景尤為重要,亦可應用於娛樂領域,讓玩家在競技遊戲中更直觀地感受到隊友的情感反應。
技術上,Audio To Expression 利用耳機的麥克風音訊輸入,結合 Meta 的臉部追蹤混合形狀技術,生成流暢的全臉動畫。與過往技術相比,它對裝置資源的需求更低,既減少了記憶體佔用,也降低了應用的運行成本。此功能可在 Meta Quest 系列的所有耳機上使用,包括最新的 Quest 3s、Quest Pro 及 Quest 2。
對於開發者而言,實現此功能的步驟相對簡單。設計角色時,只需確保模型支持臉部混合形狀,並將技術整合到應用程式中即可。從第一人稱射擊遊戲到商務協作平台,Audio To Expression 為虛擬互動帶來了更多可能性。
當虛擬現實技術持續進步時,像 Audio To Expression 這樣的創新功能正不斷拉近人與人之間的距離。無論是在遊戲中傳遞情感,還是在虛擬會議中表達意圖,這項技術都為 Meta Horizon OS 的應用場景開創了新的應用。
Unity 運動臉部追蹤 SDK、Movement SDK for Unreal、OpenXR 運動 SDK 中的臉部跟踪
