分類彙整: 虛擬實境資訊

Horizon Worlds 編輯器重磅更新:七大 AI 功能與創作助手正式上線,支援全球創作者

廣告

Meta 今日宣布,Horizon Worlds 桌面編輯器已正式整合多項 AI 功能,透過生成式人工智慧(GenAI)全面提升創作者在 VR 與行動平台世界構建上的效率與品質。這波更新不僅涵蓋創作流程的各個面向,也標誌著 Horizon 平台進入智慧創作新時代。

本次推出的核心工具包含「Creator Assistant」與「Style Reference」,分別對應創作流程的協作與視覺一致性。

Creator Assistant 是 Horizon 編輯器中的 AI 助手,能與創作者協作規劃世界架構、自動設定工具、並透過自然語言互動設計遊戲規則與核心迴圈。它可產出互動腳本、指導操作介面、協助快速完成功能原型,讓整個世界構建流程更加流暢。無論你是獨立創作者還是團隊成員,這位助手都能大幅縮短從概念到實作的時間,幫助你更快將作品發佈至 VR 與手機端平台。

Style Reference 則為視覺美術設計提供強大支援,讓創作者能快速生成、保存並套用特定風格。無論是場景色調、建築樣式、角色風格還是音效氛圍,只需建立一次風格範本,就能反覆應用於整個專案或多個作品中。這不僅大幅節省設定時間,也確保整體創作在視覺與風格上的一致性。

除了上述兩大工具外,Meta 同步公布更多 GenAI 功能,涵蓋 3D 模型、音效、環境構建與程式碼自動生成等面向:

  • Mesh Generation:AI 輔助 3D 網格物件生成,快速建構建築、場景或道具的基礎模型。
  • Texture Generation:可為現有模型重繪貼圖或創造全新表面材質,節省手動繪製時間。
  • SFX Audio Generation:自動生成擬真音效,適用於動作觸發、互動回饋等用途。
  • Ambient Audio Generation:一鍵建立環境氛圍聲,強化沉浸感,如風聲、水滴聲、森林背景音等。
  • Typescript Generation:透過自然語言指令生成完整 TypeScript 程式碼,適用於物件互動邏輯、遊戲規則等腳本開發。
  • Sky Generation:讓 AI 為你的世界生成獨特的天空場景,涵蓋光照、雲層與時間變化等參數,迅速塑造環境氛圍。

這些工具皆整合於 Horizon Worlds 桌面編輯器中,無須外掛額外軟體,創作者即可在一站式環境中操作、測試並發佈作品。更重要的是,這套 GenAI 工具組現已向更多地區開放,包括印度、新加坡、越南、巴西、阿根廷、墨西哥與歐盟大多數國家。Meta 表示未來將持續擴展支援範圍,讓更多創作者受益於這套完整的 AI 創作解決方案。

隨著 Horizon 生態系的逐步完善,Meta 鼓勵全球創作者立即加入 Horizon Creator Program,不僅能解鎖完整創作功能,還能進一步參與內容變現計畫,讓創作轉化為實際收益。

這波更新不只是技術層面的升級,更是創作體驗的根本改變。從視覺一致性、素材生成到互動邏輯的編寫,AI 工具已成為 Horizon 創作流程中的重要夥伴,幫助更多人突破創意與技術的瓶頸,快速實現他們心中的虛擬世界。

Oasis:非官方 SteamVR 驅動即將上線,為 Windows Mixed Reality 裝置帶來重生機會

廣告

在 Microsoft 終止對 Windows Mixed Reality(WMR)平台的官方支援後,多數 WMR 頭顯面臨被遺忘的命運。然而,由開發者 Matthieu Bucchianeri 所打造的非官方驅動程式《Oasis》,正為這些裝置開啟新的可能性。預計將於 2025 年 8 月 29 日登上 Steam 平台(待 Valve 審核通過),Oasis 將成為 WMR 裝置在 SteamVR 環境中的獨立橋接方案,不再依賴 Mixed Reality Portal。

Oasis 採用 Direct Mode 架構,支援完整 6DoF 追蹤與控制器輸入,並已針對 HP Reverb G2 與 Samsung Odyssey 等頭顯進行優化。相較於 Monado 等開源方案,Oasis 為全新自建,不共享底層代碼,其設計專為與 SteamVR 原生整合,實現更低延遲的即時追蹤與畫面輸出。

Bucchianeri 在 8 月 2 日的更新中指出,多項關鍵問題已獲解決,包括頭部與控制器追蹤偏移、畫面變形錯誤、控制器觸覺回饋與 IPD 滑桿支援。驅動目前僅限於支援 NVIDIA 顯示卡,原因在於 SteamVR 與 GPU 驅動之間的底層介接方式尚未獲得 AMD 合作。儘管 Bucchianeri 已向 AMD 提出修改建議,自 6 月底以來仍未獲回應,並坦言「此事已無望」。

除了修復與優化,Oasis 還引入了幾項新功能。例如,目前已具備初步的「手電筒式」單眼 Passthrough(透視)視角,並支援掃描 QR 碼作為虛擬 Vive Tracker 進行定位追蹤。這對開發者而言不僅是除錯工具,也可能為未來的外部擴充打下基礎。

然而,Oasis 仍存在部分限制。最大問題為缺乏空間錨點(room anchors),導致每次啟動 SteamVR 後需手動重新校正使用空間,對站立或房間級體驗而言略顯不便。此外,Passthrough 的「房間視圖」功能仍與頭顯攝影機對位不精準,目前仍無法取代原生的 Room View。

Oasis 的出現代表著社群開發者在 XR 領域內對於硬體延壽的努力,也再次突顯開放平台對用戶的重要性。儘管 Microsoft 已正式放棄 WMR 平台,Bucchianeri 的個人專案卻讓原本被遺忘的裝置有機會再次登上舞台,特別是對仍持有 WMR 頭顯的用戶而言,Oasis 提供了一條繞過官方終止支援的可行通路。

目前,Oasis 驅動已提交至 Valve 進行審核,一旦通過,將開啟兩週的「Coming Soon」預覽期,預計最快 8 月 29 日全球上架。這對數以萬計 WMR 使用者來說,不僅是一項實用工具,更是一項令人振奮的社群創舉。

2025 年 8 月 Meta VR 遊戲週收入榜揭曉:免費制遊戲主導,Animal Company 登頂,Beat Saber 居次

廣告

根據最新公開的 2025 年 8 月 7 日 Meta 全球 VR 遊戲週收入排名,《Animal Company》奪下排行榜冠軍,成為本週收入最高的 VR 遊戲。這款 2024 年推出的免費遊玩(F2P)多人合作遊戲,自上線以來迅速累積 13.6 萬條評論,展現驚人的用戶活躍度與留存率。

緊追在後的是經典音樂節奏遊戲《Beat Saber》,儘管於 2019 年推出、定價 29.99 美元,但依然穩居高收入行列,顯示其 DLC 生態與長期支持策略仍具強大吸引力。排名第三的新進遊戲《Boxing Underdog》為 2025 年新作,雖評論數尚少(611 則),但憑藉話題性與潛在成長力成功打入前三。

排行榜亦顯示「免費制 + 內購」模式依然是 VR 平台的主流商業策略。在前 10 名中,F2P 遊戲佔據半數以上席位,包括《Gorilla Tag》、《Scary Baboon》、《PokerStars: Vegas Infinite》、《VRChat》與《Yeeps: Hide and Seek》等。這類遊戲雖本體免費,卻能透過虛擬物品、外觀與功能解鎖等方式創造穩定營收。

值得注意的是,幾款新興遊戲呈現快速上升趨勢。《GOLF+》本週上升 10 位,排名第 10;而具備 AI 對戰元素的《Orion Drift》更一舉上升 27 位,顯示高互動性與競技導向設計仍深受玩家青睞。另一方面,老牌作品如《Rec Room》、《SUPERHOT VR》與《Job Simulator》仍穩定維持在榜單中,證明優質體驗與社群基礎能支撐長期生命週期。

此外,本週榜單中至少有 11 款作品標記為支援 DLC,顯示內容擴充仍是 VR 遊戲營收的核心驅動之一。透過穩定的內容更新與模組擴展,這些遊戲不僅提升使用者留存,也創造額外消費誘因。

綜觀本週榜單趨勢,F2P 模型與 AI 驅動遊戲正在成為新焦點,結合高度互動與社群導向的玩法正在形塑新一代 VR 體驗。同時,老牌遊戲透過穩定內容更新與品牌力維持收入,展現出市場中「持續經營」與「爆發成長」兩種成功路線並存的生態樣貌。

Tim Cook:Apple 在 2025 年持續專注於 visionOS,推動 Vision Pro 與空間運算的未來

廣告

在 2025 年第三季財報電話會議上,蘋果執行長 Tim Cook 與財務長 Kevan Parekh 分享了公司在 Vision Pro 與空間運算領域的最新進展。雖然本季蘋果的整體收入創下 940 億美元的紀錄,但更引人注目的是公司在空間運算領域的持續投資與技術更新。

Kevan Parekh 提到,CAE一家專注於飛行員培訓和模擬技術的全球領導者,已經在利用 Vision Pro 幫助飛行員熟悉飛行程序,進而提升實際飛行模擬訓練的效率。這不僅展現了 Vision Pro 的專業應用價值,也印證了蘋果推動企業場景落地的方向。

Tim Cook 則特別強調,visionOS 26 是 Vision Pro 迄今為止規模最大的更新。他表示,這次更新包含了空間小部件(Spatial Widgets),讓用戶能自由自訂數位空間;更加逼真的虛擬人物角色(Personas),提升沉浸式互動體驗;以及全新的企業 API,讓企業能夠打造專屬的空間應用。庫克指出,這些功能已經獲得包括 CAE 在內的企業用戶熱烈迴響,顯示 Vision Pro 正逐漸建立獨特的專業生態。

事實上,visionOS 的發展一直在穩步推進。自 2024 年 9 月推出的 visionOS 2 以來,蘋果已為 Vision Pro 帶來多項重要更新,包括手勢操作主選單、將 2D 照片轉換為空間照片、改進手部追蹤、Safari 中的 WebXR 支援,以及 AirPlay 投放功能。隨後,visionOS 2.2 引入 10K 超寬虛擬螢幕模式,讓 Mac 使用者能在沉浸式的超高解析度環境下工作。2025 年 3 月發布的 visionOS 2.4,則結合了 Apple Intelligence、Spatial Gallery 應用程式與全新跨裝置訪客流程,進一步強化 Vision Pro 的專業與日常應用。

未來幾個月,visionOS 26 將正式登場,並支援 PlayStation VR2 Sense 控制器、Logitech Muse 手寫筆、90Hz 手部追蹤、體積式空間場景、本機 SharePlay、Safari 空間瀏覽、原生 180° 和 360° 視訊播放等多項新功能。據彭博社記者 Mark Gurman 報導,蘋果也計畫在今年稍後為 Vision Pro 升級 M4 晶片,並搭配更舒適的頭帶設計。M4 的 CPU 效能相較 M2 提升 50%,GPU 效能更是提升 4 倍,神經引擎效能也翻倍,將為 Vision Pro 帶來顯著的 AI 運算與圖形渲染能力提升。

同時,市場也關注蘋果正在開發代號「Apple Vision Air」的輕量化版本。據分析師郭明錤指出,這款產品預計將比 Vision Pro 減輕超過 40% 的重量,並採用 A 系列晶片、塑膠鏡片與鎂合金材質,降低成本並進一步擴展潛在用戶群。雖然這些資訊尚未獲得官方證實,但若成真,將有助於 Vision 生態系快速擴張。

Tim Cook 在會議中再次重申,Vision Pro 目前仍是一款針對早期採用者的產品,目標是那些「希望今天就能體驗未來科技」的使用者。他強調,蘋果的策略並非急於擴大銷售規模,而是透過技術更新、專業應用案例、AI 整合與持續投資,逐步建立空間運算生態系的長期基礎。

從這次的財報內容來看,Apple Vision Pro 不僅僅是一款頭顯裝置,而是蘋果推動未來運算型態轉變的重要核心。隨著 visionOS 26 的到來、M4 晶片的加持,以及企業應用的逐步落地,Vision Pro 正逐漸從概念走向實際,為整個 VR/AR 產業注入新的發展動能。

蘋果 2025 年第三季財務電話會議的完整記錄

Eclipso 在塞維亞開設全新沉浸式場館:VIVE 技術支援重現鐵達尼號歷史體驗

廣告

Eclipso 近日在西班牙塞維亞開設全新沉浸式 VR 體驗場館,採用 VIVE Focus 系列頭顯與 VIVE Location-Based Software Suite(LBSS),讓參與者能透過穩定的高品質 VR 環境,體驗兼具教育性與情感的歷史旅程。

新場館的核心內容為《Titanic: Echoes of The Past》,這是一段 35 分鐘的沉浸式冒險,讓使用者深入 3,800 公尺的北大西洋海底,探索鐵達尼號殘骸,並透過革命性的技術回到 1912 年的首航現場。玩家將跟隨鐵達尼號官方攝影師 William Harbeck,見證船上的日常、乘客的故事,並親歷那個注定改變歷史的夜晚。

這項體驗由 Eclipso 與 Small Creative 聯合製作,並在法國瑟堡的 Cité de la Mer 以及美國國家海洋暨大氣總署(NOAA)的檔案資料基礎上,進行了兩年的考據與重建工作,確保船隻、場景與角色的真實性。從甲板到艙房,每一個細節都經過嚴謹的比對與還原,讓參與者能夠更真實地「走進歷史」。

VIVE Focus 系列頭顯與 LBSS 技術在這個體驗中扮演關鍵角色。Focus 系列提供高解析度影像與低延遲追蹤,讓使用者能專注於體驗內容,而 LBSS 則協助場館管理大量的頭顯裝置,確保多人體驗能順暢同步,無需複雜的手動操作。這讓 Eclipso 能更專注於內容呈現,確保每一位參與者都能獲得穩定一致的體驗品質。

Eclipso 的這次擴展不僅是場館數量的增加,更展示了 VR 在文化、教育與歷史重現領域的潛力。透過 VIVE 的技術支援,Eclipso 能夠在塞維亞提供一個結合科技、歷史與情感的空間,讓參與者不僅是觀看歷史,而是以沉浸式的方式「親身經歷」歷史。

Eclipso 計畫未來將持續在歐洲更多城市建立這類場館,將像《Titanic: Echoes of The Past》這樣的沉浸式內容帶給更廣大的觀眾,並進一步推動 VR 作為文化與教育工具的發展。

Meta 與史丹佛提出「合成孔徑波導全像顯示」:AI 驅動的超薄 MR 顯示技術,實現大視域與高擬真 3D 體驗

廣告

Meta Reality Labs Research史丹佛大學的研究團隊 近日發表了一項結合先進光學與 AI 演算法的新技術——「合成孔徑波導全像顯示」(Synthetic Aperture Waveguide Holography)。這項技術的目標,是解決目前混合實境(MR)顯示器在外型、影像品質與視域等方面的限制,並為未來真正輕量化、全天候可穿戴的 MR 顯示設備奠定基礎。

目前的 MR 顯示裝置往往面臨兩大挑戰:其一是體積龐大、外型笨重,不適合長時間使用;其二是顯示內容多半缺乏足夠的 3D 深度資訊,難以提供接近現實的立體感。這不僅限制了沉浸式體驗的真實性,也容易造成長時間使用的視覺不適。Meta 與史丹佛的研究則提供了一條突破路徑,他們設計出一種僅有數毫米厚度的超薄光學波導,結合 MEMS 掃描鏡與特殊的消色差全像透鏡,能在極小的體積下實現更寬廣的視域與清晰穩定的 3D 顯示效果。

這項技術的核心概念是「合成孔徑」。簡單來說,它利用多個小型光學孔徑的光線掃描,將其在數位上整合成一個「大型的合成光學孔徑」。這種設計能有效擴大瞳距範圍(eyebox),讓不同使用者、甚至在佩戴裝置時有些微偏移的情況下,依然能獲得完整、清晰的 3D 畫面。對於日常使用來說,這解決了過去 MR 裝置「必須固定在準確位置」才能觀看的問題,讓佩戴體驗更加自然。

除了光學架構,AI 演算法在這項技術中也扮演了關鍵角色。傳統的全像顯示需要高度精準的光波模擬,但波導結構內的光線傳播極為複雜,單純依靠傳統計算方式不僅耗時,準確度也不足。研究團隊引入了一種基於「部分相干理論」的 AI 模型,能有效學習光在波導內的傳播行為,並在減少資料需求與計算成本的情況下,生成高品質的全像影像。這讓顯示的 3D 影像不僅畫質更清晰,也能自然呈現視差與遮擋等關鍵的深度線索,讓使用者能像觀看現實世界一樣自由移動視線。

在實驗結果中,這項系統能在僅 3 毫米厚的光學堆疊下,實現 38° 對角視場的全彩 3D 顯示,並提供比傳統波導更大的有效瞳距範圍,讓影像在不同觀看角度下依然保持穩定。透過 AI 演算法與光場導向的電腦生成全像(CGH)框架,系統能即時渲染對應不同眼位的畫面,提供自然的立體視覺體驗。

這項技術的潛力不僅限於顯示效果。由於波導結構輕薄且高度整合,未來的 MR 眼鏡有望縮小至接近一般眼鏡的尺寸,同時維持高效能與全天候的可穿戴性。這不僅能改變 MR 裝置的設計,也將擴展其應用場景,例如教育、培訓、設計、醫療模擬,甚至娛樂與社交。

Meta 表示,這項「合成孔徑波導全像顯示」展示了 AI 與光學設計結合的巨大潛力。隨著研究持續推進,未來的 MR 顯示不僅將變得更小、更輕,還能提供與現實世界幾乎無縫銜接的沉浸式體驗,為下一代混合實境設備鋪平道路。這可能是 MR 從實驗室原型走向日常生活的關鍵轉捩點。

Meta Avatar 夏季更新:新增身體類型、AI 造型工具、服裝與表情,全面強化自訂功能

廣告

Meta 宣布為 Meta Avatars 帶來全新更新,讓用戶能以更細緻的方式展現個人風格,並進一步強化跨平台的沉浸式社交體驗。這次的更新不僅增加了多樣的身體類型,還引入更多服裝、表情、動作以及 AI 輔助造型工具,為使用者提供更完整的自訂化功能。

針對身形部分,Meta 推出了十多種預設身體類型,並允許使用者微調臀部、肩膀、手臂等部位,以更貼近個人需求。新增的「身體預覽模式」則可在換裝前快速切換服裝顯示,確保外觀與身形搭配自然。這種靈活的調整方式,讓虛擬化身更能呈現使用者的真實比例與偏好。

除了外觀,Meta 也擴展了動作與互動的表現力。新的「姿勢」選項提供 18 種可自訂的站姿,用戶能在 Horizon 個人檔案中展現獨特的肢體語言。同時新增 50 多種全新表情動作與可解鎖的貼圖,讓互動不再只停留於文字與語音,還能透過肢體語言更自然地傳遞情緒。此外,服裝內容也進一步擴展,數十套全新服裝能更貼合不同身形,提供更多元的搭配可能。

另一個值得關注的功能是 AI 造型輔助工具。這項功能現已於 Horizon 行動應用中上線,使用者可透過簡單的文字提示快速生成新造型,甚至能隨機嘗試不同風格。若偏好自行設計,也能隨時切換回傳統手動編輯模式。AI 造型工具目前僅在美國與加拿大開放,並將持續擴展至更多地區,同時提供更多樣的風格選項。

此外,Meta 也優化了面部自訂的參數控制,使用者可微調下顎、臉頰、面部深度等特徵,並搭配髮型、鬍鬚、妝容、雀斑、面紋及各類裝飾,創造數十億種組合,讓化身不再侷限於單一模板,而是真正反映個人特色。

透過這次更新,Meta Avatars 進一步成為跨平台社交的重要工具,無論是在 Facebook、Instagram、Messenger、WhatsApp,或是 Horizon 的 VR 與行動版本,使用者都能以更貼近真實的虛擬化身與朋友互動。這次的改進不僅豐富了外觀調整功能,更強化了化身在沉浸式社交場景中的表達力,為未來的虛擬社交體驗鋪平了道路。

VIVERSE Create 入圍 2025 Auggie Awards,推動無程式碼 XR 創作工具發展

廣告

2025 年的 Auggie Awards 再次成為 XR 產業的重要焦點,今年對 VIVERSE 團隊來說更是特別的一年。VIVERSE 的瀏覽器式無程式碼 XR 創作工具「VIVERSE Create」入圍「最佳創作者與製作工具」獎項,與業界最具代表性的 XR 平台一同角逐。此外,VIVERSE 團隊中的兩位成員也因其在沉浸式敘事與數位表演上的傑出貢獻獲得肯定,使今年的 AWE USA 成為屬於 VIVERSE 平台與其創作者的雙重里程碑。

Auggie Awards 今年邁入第 16 屆,是 XR 領域最受矚目的獎項之一,表彰涵蓋沉浸式敘事、企業應用、創作工具到社會影響等 19 個類別。與許多獎項不同,Auggie Awards 的決選結合了社群投票與專家評審,既反映了業界專業標準,也代表了 XR 創作者社群的認可。頒獎典禮於 AWE USA 舉行,除了有史以來最多的參賽作品,也展示了 XR 創作的快速成長與多元化。

「VIVERSE Create」作為決選入圍工具,展現了其在 XR 創作領域的重要性。這款工具讓獨立創作者、教育者與開發者能在瀏覽器中直接設計並發布沉浸式體驗,無需下載額外軟體。它提供拖曳式設計、跨平台發布、多人模式、3D 資源整合與即時部署等功能,大幅降低了 XR 創作的門檻,並為更多創作者提供了將想法轉化為可體驗內容的機會。

除了平台獲得肯定,VIVERSE 團隊的兩位成員也在 2025 年 Auggie Awards 中脫穎而出。James C. Kane 的沉浸式體驗《In Tirol》同時入圍「最佳藝術或電影」與「最佳獨立創作者」,這是一款透過瀏覽器即可體驗的單人敘事作品,背景設定在 1914 年的奧地利薩爾茨堡郊區,以獨特的視覺風格與氛圍探索藝術家在動盪世界中的掙扎與避難之旅。Michael Morran 也因參與互動音樂劇《Non-Player Character》而獲得「最佳藝術或電影」獎。這部作品融合了虛擬實境與現場表演,挑戰了傳統的表演形式,為 XR 帶來全新的藝術表現。

James C. Kane 《In Tirol》
Non-Player Character

2025 年的 Auggie Awards 是一場獎項競爭,更反映了 XR 創作生態的成熟。從《In Tirol》充滿藝術氛圍的敘事,到《Non-Player Character》將劇場與虛擬結合的實驗形式,XR 正從專業技術領域,逐漸走向能夠匯集創作者、開發者、表演者與教育者的開放平台。VIVERSE 在其中扮演的角色,是提供讓創作者能專注於內容本身的工具與環境,協助更多人參與這場沉浸式內容的革新。

隨著 XR 產業持續成長,VIVERSE 不僅以「VIVERSE Create」等工具支持創作者,還透過社群、教育與合作推動 XR 生態系的發展。2025 年的 Auggie Awards 對 VIVERSE 而言,是一個展現技術實力與創意能量的時刻, XR 創作邁向更廣泛、更具影響力的新階段。

Meta 發表 HairCUP 技術,支援高保真臉部與髮型交換的 3D Gaussian Avatar

廣告

Meta Codec Avatars Lab 與首爾大學研究團隊在 ICCV 2025 發表了一項名為 HairCUP(Hair Compositional Universal Prior)的新技術,為 3D 虛擬頭像生成帶來新的突破。HairCUP 的核心理念是將臉部與頭髮分開建模,解決過去虛擬頭像技術中臉與頭髮無法獨立調整的問題,讓頭像生成變得更靈活,也更容易針對個人需求進行客製化。

傳統的 3D 頭像生成系統,通常會將臉部與頭髮視為一個整體來訓練,這種方式雖然能快速生成頭像,但存在幾個限制。首先,髮型無法自由替換,想要換一個全新造型往往需要重新訓練模型。其次,這類方法難以應用於資料有限的情況,也不適合針對新用戶進行少量樣本的快速調整。HairCUP 則打破了這些限制,透過「組合式建模」的概念,將臉與頭髮各自建立專屬的潛在表示,並在生成階段自然融合,從而達成可自由搭配臉部與髮型的效果。

為了實現這項技術,研究團隊設計了一個「無頭髮資料生成流程」。他們利用擴散模型,將收集到的多視角頭像資料中的頭髮移除,產生乾淨的臉部資料,再與原始的有頭髮資料配對。這種方法幫助模型清楚理解臉部和頭髮的獨立特徵,避免傳統模型中兩者混淆的問題。透過這個流程,HairCUP 不僅能準確建模臉與髮,還能靈活地將不同來源的臉與髮型進行自由組合,並確保結果看起來自然且一致。

HairCUP 採用了 3D Gaussian Avatar 技術,能在確保高品質的同時提升生成效率。該模型透過臉部與頭髮的獨立編碼,支援臉部表情、頭髮動態與髮型更換等多種操作。實驗顯示,HairCUP 在臉與髮型的融合品質、自然度,以及少量樣本學習的能力上,都優於現有方法。研究團隊展示的結果中,用戶能夠只利用少量的單目影像,快速生成擬真度高、能夠靈活調整髮型的 3D 頭像。

這項技術的應用前景十分廣泛。在 VR 社交平台上,用戶能透過 HairCUP 生成更真實、可自訂的虛擬化身,並自由切換不同的髮型,展現個人特色。在虛擬會議中,HairCUP 可用來建立更符合專業需求的 3D 頭像,讓使用者在虛擬工作環境中保有高度識別度。此外,HairCUP 也能支援娛樂、內容創作與遊戲產業,例如幫助玩家快速建立專屬角色,或協助創作者生成可客製的數位角色模型。

HairCUP 不僅是單純的技術進步,也標誌著 3D 虛擬頭像發展的下一步。從臉與頭髮的獨立建模到自由組合,這項技術讓個人化的虛擬呈現變得更靈活且易於擴展。未來,這種方法甚至有可能與即時渲染技術結合,讓使用者在 VR 中實時更換髮型,或者針對不同場合快速調整造型,進一步縮短虛擬與現實之間的距離。

隨著 HairCUP 的出現,虛擬化身技術不再侷限於單一的「固定頭像」,而是向著模組化、個性化和高度可控的方向前進。這不僅對 Meta 的 Codec Avatars 研究計畫具有重要意義,也為整個 XR 產業提供了更多可能性,讓虛擬世界中的每個人都能以更自然、更真實的方式展現自我。

*如需了解更多,請閱讀PDF檔*

Meta Reality Labs 徵集「運動學習與神經運動倫理」研究提案,最高資助150,00美元

廣告

Meta 旗下 Reality Labs 近日宣布,將針對「Motor Learning & Neuromotor Ethics」(運動學習與神經運動倫理)領域公開徵集研究提案,目標是推動基於表面肌電圖(sEMG)技術的人機互動研究,並確保相關技術的發展能兼顧學術創新與倫理責任。此計畫由 Reality Labs 的 EMG Foundational Research 團隊主導,專為學術界研究人員提供資助與合作機會。

這次徵集的研究重點分為兩大主題。第一是「EMG 控制的運動學習方法」,Meta 期望探索如何幫助使用者更高效地學習高頻寬、可表達性強且可個人化的 EMG 控制方式。提案可包括被動學習、遊戲化訓練、使用者與系統共同適應的互動方式,以及針對不同學習者的回饋優化策略。Meta 也鼓勵研究深入探討不同的神經運動層級(如運動單元、神經驅動、肌肉、動作協同)並設計對應的學習模型。

第二個重點是「神經運動倫理」。Meta 強調,長期的運動學習研究可能需要大量且具縱向性的數據收集,這也涉及隱私、使用者自主權與資料安全等議題。所有提案必須納入倫理合作模型,明確說明研究團隊將如何與倫理學者協作,確保資料使用負責且具包容性,並且能讓學習方法適用於不同背景的使用者。

提案的預算與條件方面,Meta 將提供最多 6 項獎助(其中至少 4 項位於美國),每項最高資助金額為 15 萬美元,資金將作為無限制用途的學術贈款,並計畫於 2026 年 1 月啟動專案。獲選的團隊需提交研究計畫摘要(250 字以內)、研究說明(2 頁以內)、預算說明(1 頁以內)、主要人員履歷,以及機構稅務與行政聯絡資料。Meta 也鼓勵研究成果選擇開放存取的學術期刊發表。

申請資格要求申請人須為授予博士學位的學術機構現任教職,並以專案主持人(PI)的身份參與。組織必須是非營利或具合法地位的非政府單位。所有問題與提案需於 2025 年 9 月 1 日前寄至 neurotech@meta.com,Meta 將於 10 月回覆申請結果。

這項計畫除了推動 EMG 技術在未來人機互動中的實際應用外,也將確保研究的倫理性與使用者價值,並為學界與產業建立更緊密的合作橋樑。

Meta 推出全新開發者支援入口,簡化問題單管理流程,提升處理效率

廣告

為協助 Meta Horizon OS 開發者更高效地管理技術協助請求,Meta 近期正式推出全新 Developer Support Portal(開發者支援入口),將過往分散的提問與回覆流程整合為單一平台。這項更新不僅提升回應效率,也讓開發者更清楚掌握所有問題單的進度與狀態。

新的系統已整合進 Developer Dashboard,點選左側選單中的「Organization」,即可進入「Contact Us」分頁。開發者也可以從原本的 developers.meta.com/horizon/support 頁面點選「Submit a request」,系統將自動導引至新平台,所有未來的新問題單都將在此集中處理。

提交問題單的流程經過簡化,開發者只需點選「New」按鈕,填寫主旨、描述、App 名稱與 ID,並選擇最相關的主題分類,即可完成提交。也可上傳截圖或影片等補充資料,以利技術人員更快理解與處理問題。Meta 建議盡可能提供完整資訊並選擇正確分類,以確保問題能被正確分派。

針對目前已經開啟的舊案件問題單,Meta 表示將照常處理並完成,不會轉移至新系統,也不需要開發者重新填寫。新的系統只影響日後提交的案件,現有處理流程將不受影響。

整體使用體驗上,Meta 表示這項更新不會對開發流程造成中斷,新的 Contact Us 頁面設計簡潔,操作邏輯直覺,並加入案件回覆後的意見回饋表單(CSAT),協助團隊持續改善技術支援品質。

對於經常需提交問題單、反映錯誤或諮詢 SDK 的開發者來說,這樣的整合有助於集中管理提問內容,避免分散溝通,也代表 Meta 開始重視後台服務體驗的優化。即日起,開發者可登入 Dashboard 使用新系統,體驗更流暢的問題處理流程。

VR Games Showcase 將於 8 月 12 日舉行,預計公開多款新作與更新

廣告

VR Games Showcase 將於 2025 年 8 月 12 日(星期二)舉行,並透過 YouTube 和 TikTok Live 進行同步直播。根據官方公布的資訊,本次展會將延續以往的三段式形式,包括預先節目、主秀以及開發者直面會,預計介紹多款 VR 新作與現有遊戲的最新進度,涵蓋商業作品與獨立開發者的內容。

整場活動將從美國西岸時間上午 8:40 開始,由「XR Indies and Friends」預秀揭開序幕,聚焦於來自中小型開發團隊的作品。這個環節主要提供平台給創新實驗性較強的開發者,讓他們有機會展示目前正在開發中的遊戲內容或測試版本。接著在 9:00 正式進入主秀(VRGS),將展示即將推出的主要新作、發布首支預告片,並針對一些已推出的 VR 遊戲提供後續開發更新或版本進度報告。

從預告片來看,主秀部分將涵蓋數個重要作品的展示,其中包括 Triangle Factory 所開發的《Forefront》。這是一款以多人連線射擊為核心的遊戲,預告中提及其為一款試圖在 VR 中重建戰術合作體驗的射擊遊戲,主打沉浸式的動作操作。另一款即將曝光的作品是由 Endreams Elevation 開發的《Reach》,據稱是一款大型動作冒險類型的作品,延續該團隊在敘事與互動設計上的特色。此外,Flat to VR Studios 也將在活動中揭露新內容,雖然目前尚未公布細節,但預計仍將延續其將傳統 2D 遊戲轉換為 VR 體驗的方向。

除了新作發表之外,展會也會提供對既有遊戲的內容更新。例如,過去的 VR Games Showcase 曾介紹過《Trombone Champ Unflattered》、《Arizona Sunshine Remake》與《Hitman: World of Assassination VR》等作品,這些遊戲是否將有進一步的更新或拓展內容,也將在本次活動中確認。

在主秀結束後,官方將接續播放開發者直面會(Developer Direct),由開發團隊 Polyarch 帶來新作《Glass Breakers: Champions of Moss》的專題報導。這款遊戲設定於《Moss》的世界觀中,但類型為多人競技遊戲。活動將帶觀眾深入開發現場,由開發者介紹設計理念、遊戲機制與目前的開發狀況,並可能會展示部分實機遊玩畫面。

這次的 VR Games Showcase 結構與過往類似,但預計內容更加集中於 2025 年下半年即將發行的遊戲項目,並嘗試透過直面會形式補充更多開發者視角與製作資訊。