Meta 近日為 Quest 系列頭顯推出 微手勢 (microgestures)支援,該功能利用現有的手部追蹤技術,讓用戶能透過拇指在食指側面進行滑動或點擊操作,作為簡單的輸入方式。這項更新適用於 Quest 3、Quest 3S、Quest 2 以及 Quest Pro,並且可透過 Quest Link 延伸至 PC VR 應用。
微手勢主要透過拇指與食指的互動來執行基本指令,食指側面相當於一個方向鍵,使用者可透過拇指滑動來進行左滑、右滑、前滑或後滑,並以點擊食指側面來確認輸入。這項設計旨在提供一種低負擔、直覺性的輸入方式,適合用於重複性的操作,例如瀏覽器滾動、應用程式導航或在虛擬環境中進行瞬移(teleportation)。
這種輸入方式的導入,也可能成為未來神經輸入(neural input)技術的前置階段,進一步減少對傳統控制器的依賴。微手勢不僅簡化了操作,也能在某些情境下減少手部移動需求,提高長時間使用的舒適度。
微手勢功能已作為 OpenXR 擴展的一部分,並且可供開發者在 Unity 和其他遊戲引擎中整合。對於 Unity 開發者,微手勢需要透過 Meta XR Core SDK 來實現,而使用其他遊戲引擎的開發者則可透過 OpenXR 擴展來進行支援。
此外,Audio To Expressions(Movement SDK)引入了一個改進的模型,相較於早期版本,大幅提升了所有方面的表現,包括情感表達、嘴部運動的精準度,以及非語音發聲(Non-Speech Vocalizations)的準確性。Audio To Expressions 透過使用者的語音來推測面部動作,並動畫化整個臉部的 Blendshapes,以提供更自然的表情反應。
除了手勢輸入的強化,Meta 這次更新還提供了更多輔助工具,例如增強的穿透視圖(Passthrough)相機訪問功能。這讓開發者能夠存取頭顯的前置彩色相機,獲取鏡頭內參數與頭顯位置資訊,從而運行自訂的電腦視覺模型。
微手勢的推出,代表 Meta 在免控制器輸入方面的進一步探索。這種輸入方式能否成為主流,仍然取決於其實際準確度與可靠性。目前,開發者需要主動將微手勢整合至 VR 或 MR 應用中,這將影響該功能的普及程度。
此外,微手勢的應用範圍可能不限於 VR 環境。未來,這項技術或可延伸至 AR 或混合實境應用,並與其他輸入技術結合,例如眼動追蹤或肌電訊號(EMG)感測技術,進一步擴展自然輸入的可能性。
目前,這項更新已正式納入 Meta Quest SDK,並開放給開發者使用。隨著更多應用支援微手勢功能,其在 VR 互動中的實際影響將逐漸顯現。
