分類彙整: 虛擬實境資訊

Spotify App 登陸 Meta Quest,支援音樂與 Podcast 背景播放

廣告

在虛擬實境逐漸成為日常運算平台之一的今天,內容整合與多工體驗的流暢性也成為用戶關注的焦點。Spotify 日前正式於 Meta Quest 平台推出專屬應用程式,為使用者提供一種更靈活的音訊使用方式。這項更新不以花哨的功能吸引目光,而是強調實用性與平台整合,讓音樂與播客自然融入虛擬實境的生活節奏中。

透過 Spotify for Quest,使用者可以一邊使用其他應用,一邊播放音樂或 Podcast,並在不中斷主要體驗的情況下控制播放內容,例如跳過歌曲、調整音量、或選擇下一個節目。應用支援多工操作與視窗縮放,使用者可自由決定播放器的顯示方式,例如將其設為懸浮視窗或背景播放,以便與遊戲、健身或創作應用搭配使用。

Spotify 提供的內容涵蓋超過 1 億首音樂、近 700 萬個 Podcast 節目與超過 35 萬部有聲書,這些內容均可透過 Meta Quest 中的專屬應用無縫串流播放。登入後,用戶可直接讀取既有帳號資料,延續播放清單、喜好項目與建議內容,無需額外設定。

Spotify 在 Quest 上支援兩種使用模式:免費帳號與 Premium 訂閱。免費用戶可以播放音樂與 Podcast、建立與收藏播放清單,也能存取每週個人化推薦內容。Premium 用戶則可進一步享受無廣告、高音質與可點播曲目等功能。無論是哪一種帳號類型,Spotify 都允許用戶在最小化播放器或切換應用時維持音訊播放不中斷,這點對於 VR 使用者來說相當實用。

與手機、平板或電腦不同,VR 是一個視覺與互動主導的沉浸式平台。許多用戶會在遊戲過程中播放音樂、在健身應用中搭配節奏音樂,或在創作工具中邊畫邊聽播客。Spotify 在這樣的情境中,成為一種不打擾主體活動的內容輔助,其特點並不在於創新,而是在於順暢、可靠與熟悉。這對於希望維持聆聽習慣的 VR 使用者而言,降低了學習門檻與轉換成本。

Spotify 也支援影片 Podcast 的觀看功能,用戶可根據需求將畫面全螢幕播放或縮小為懸浮窗。在某些使用情境下,這也讓 Quest 成為一個更具彈性的媒體設備,尤其對於追求沉浸式觀影與被動聆聽並存的使用者來說,是一種便利。

Spotify for Meta Quest 已可在 Meta Horizen Store 免費下載。這項更新雖然功能性為主、變動不大,但對於希望在 VR 中保有音樂陪伴的使用者來說,提供了一個更簡潔的解決方案。

Meta 宣布終止 Meta Quest TV 上傳功能,UGC 影片將於 9 月全面下架

廣告

Meta 近日透過 Meta Horizon 團隊發佈公告,預告將自 2025 年 9 月 22 日起,全面終止對 Meta Quest TV 與 Quest Media Studio 的 UGC(使用者產生內容)影片支援。此變動意味著,使用者未來將無法再透過 Quest Media Studio 上傳影片內容至平台,也將無法透過 Meta Quest TV 存取既有的上傳影片。Meta 同時表示,所有相關影片與分析數據將於該日後永久刪除且無法復原。

這項政策調整將直接影響許多依賴 Meta Quest 生態系發表 VR 錄製內容的創作者與開發者,特別是那些曾在 Quest 平台建立影音頻道、定期發佈自製錄像、互動教學或 VR 創作展示的用戶群體。自 Quest 產品問世以來,Meta Quest TV 一直是用戶在頭戴裝置中直接瀏覽原生內容的核心管道。如今,此功能即將關閉,對內容分發與社群營運策略將造成不小變動。

不過,Meta 也在公告中特別強調,此次刪除僅限於一般 UGC 影片內容,並不影響 Quill 與 VR 動畫類型的內容存取。Quill 是 Meta 早期推出的 VR 動畫與繪圖工具,後來由社群繼續維護,現今依然受到部分沉浸式創作者喜愛。這意味著純動畫創作者仍可繼續透過 Quest 體驗與展示其內容。

根據公告內容,創作者目前仍可在 9 月 22 日之前存取自己上傳影片的分析數據與管理頁面。Meta 建議創作者應盡快將內容備份並遷移至其他平台,例如 YouTube 或 Vimeo,以避免內容永久遺失。對於尚未轉移資料的用戶來說,這項公告可說是一次時間緊迫的提醒。

這項決策背後的具體原因並未在公開信中明示。不過,從近年 Meta 對於其內容生態系的重整趨勢來看,此舉可能是為了簡化平台架構、減少內容儲存與管理成本,並將創作者生態導向其他平台或應用(如 Horizon Worlds、Reels、YouTube XR 等)作為未來的主要發佈通道。

對於 VR 創作者社群而言,這代表一段歷史的結束,也是一次重新佈局的開始。在短短幾年內,Meta Quest 已從單純硬體設備,逐漸發展成一個自有媒體與創作平台。但此次功能關閉也再次提醒內容創作者:在平台規則快速變動的環境中,儲存備份、跨平台經營、以及避免依賴單一渠道,是建立穩定創作生態不可忽視的一環。

未來仍待觀察 Meta 是否會推出新的影片內容支援方式,或將更多資源導向 Horizon 平台與 YouTube 整合。對創作者而言,現在最重要的,就是盡快整理並轉移自己的影片內容與數據,以確保創作成果能持續被觀看與保存。

PICO 攜手 Blender 基金會,推動 OpenXR 3D 創作新時代

廣告

PICO 宣布與開源 3D 軟體領導者 Blender 基金會展開合作,將共同推動虛擬實境(VR)與混合實境(MR)環境中的 3D 創作體驗升級。此次合作將聚焦於強化 Blender 對 OpenXR 標準的支援,並結合 PICO 在 XR 硬體與系統軟體的深厚技術優勢,讓全球創作者在沉浸式空間中享有更高效、更直覺的建模與創作流程。

這是 Blender 首度與 XR 平台業者建立深度合作關係,也是 PICO 成為第一個與 Blender 共同優化虛擬實境 3D 創作流程的 XR 品牌。雙方將透過此計畫為藝術家與開發者開啟全新創作方式,不再受限於傳統的滑鼠與鍵盤操作,而是透過自然互動、手部控制與空間感知等 XR 功能,直接在虛擬世界中建構與雕塑 3D 模型。

合作的核心目標之一,是推動 OpenXR 的普及。作為由 Khronos Group 主導的跨平台開放標準,OpenXR 能實現不同 XR 裝置與軟體間的兼容性,使創作者與開發者得以在多種設備上部署一致的內容體驗。PICO 與 Blender 的攜手合作不僅有助於 OpenXR 的技術實踐,也為全球 3D 社群提供了穩定且前瞻的發展平台。

PICO XR 合作夥伴關係負責人 Jessie Zhang 表示:「我們致力於支持 Blender 的全球開源社群,並持續擴展 3D 創作生態系。這項合作讓我們能共同強化創作工具,鼓勵藝術家與開發者以更自然的方式在虛擬空間中實現創意,同時透過 OpenXR 將這些內容帶給全球觀眾。」

這項合作將具體落實在提升 Blender 在 VR 內使用的工作流程。預期未來將釋出一系列整合 PICO XR 裝置的功能,包括頭部與手部追蹤的支援、虛擬工具介面優化,以及針對 PICO 裝置操作邏輯的定制互動模組。對於 3D 動畫師、遊戲開發者、建模師與 XR 應用設計師而言,這代表不再需要離開沉浸環境就能完成創作、測試與調整,大幅提升效率與沉浸感。

此次攜手也象徵 XR 與開源運動間的首次深度融合。作為最受歡迎的開源 3D 建模與動畫軟體,Blender 長年致力於以社群驅動的模式推動創新。而 PICO 作為快速成長的 XR 平台,則持續以創作者為中心打造工具與生態系。雙方理念的契合,正是此合作長期推進的關鍵基礎。

在全球 3D 與 XR 產業快速交集的時代,PICO 與 Blender 的合作不僅展現了技術整合的實力,也將為空間運算與沉浸式內容創作奠定新標準。未來的 3D 工具不再侷限於桌面,而是在立體的空間中被建構、雕琢與即時體驗。對開發者而言,這是一項實用的技術進展;對內容創作者而言,這是一道通往下一個創作維度的大門。

Reality Labs 發表突破性 sEMG 手腕神經介面研究,登上《Nature》期刊:一種直覺、無須校準的人機互動未來

廣告

Meta 旗下的 Reality Labs 團隊近日在國際權威期刊《Nature》發表了一項具指標性的 研究成果,展示一種基於手腕表面肌電圖(surface electromyography, sEMG)的非侵入式神經介面技術,為人機互動領域開闢了新的可能性。這項研究的核心,是透過配戴於手腕的可穿戴設備擷取微弱的神經肌肉訊號,並運用深度學習模型將這些訊號即時轉譯為用戶的操作意圖,讓人們僅以手腕與手指的輕微肌肉活動,即可完成輸入、滑動、點選、手寫等日常數位操作。與以往仰賴鍵盤、滑鼠、觸控或語音控制的方式相比,sEMG 所提供的是一種更自然、更安靜、更即時的人機互動體驗,特別適合於行動中或不便發聲的使用情境。

這款研究中開發的 sEMG 手環裝置由 48 個乾電極組成,環繞使用者手腕至前臂部位,並透過藍牙即時串流高密度肌電數據至外部運算系統。為了解碼這些複雜且個體差異極大的生理訊號,團隊設計了一套以 Conformer 架構為基礎的深度神經網路,這種網路原本用於語音辨識,能有效處理時間序列資料並保留訊號中的語意順序。在此系統中,它被改造為能即時處理手勢與手寫的肌電資料,進而轉化為精確的輸入指令。此外,為克服使用者間的差異性,研究團隊特別強化模型的泛化能力,使其能「即插即用」,不需每位使用者額外進行校準,就能立即使用。

根據實驗結果,該系統能以平均每秒 0.88 次的速率辨識手勢指令,並達成超過 92% 的準確率,在手寫任務中也能以每分鐘 20.9 字的速度輸入文字,而不須任何鍵盤或螢幕輔助。更令人關注的是,即便僅加入極少量的個人化資料(例如使用者自行書寫幾分鐘樣本),其輸入精度仍可提升約 10% 至 16%。這意味著該技術不僅具備廣泛適用性,也能隨著使用時間逐漸適應與優化每位使用者的個別操作習慣。

這項 sEMG 技術的實用性不僅體現在效率上,更在於其對不同身體條件使用者的包容能力。由於該介面不需明顯的手部移動即可感知神經訊號,即使是肢體活動能力受限者,也能透過細微肌肉意圖操作設備。研究團隊也在多位不同性別、年齡與前臂尺寸的參與者身上進行測試,證實系統對不同生理特徵具備穩定解碼效果,這使它具備成為通用輸入方式的潛力。

控制轉移:新現實實驗室關於表面肌電圖的研究發表在《Nature》

這項技術已在 Reality Labs 的 AR 原型裝置「Orion」眼鏡上實測搭配使用,並配合先進機器學習模型將肌肉訊號準確解碼為輸入指令。根據實驗,系統不僅能即時辨識標準手勢,還能支援手寫辨識——用戶可直接在桌面、腿部或其他硬表面快速書寫訊息。

  • 它完全是非侵入性的,開闢了使用肌肉訊號與電腦互動的新方法,同時解決了其他形式的 HCI 面臨的許多問題。
  • 它使用起來方便、簡單、自然,並且在語音互動等替代方案可能不切實際或不受歡迎的情況下(例如在公共場合發送私人訊息)也能發揮作用。
  • 它始終可用,並且無需笨重的配件,讓您脫離當下並分散您對最重要的人事物的注意力。

Reality Labs 亦公開了完整的資料集與訓練流程,包含超過 300 名參與者所產出的三種任務數據(連續控制、手勢與手寫),累計超過 100 小時的高密度肌電資料。研究團隊希望透過此舉加速學術界與開發者在神經介面領域的創新進展,並鼓勵社群針對硬體設計、訊號處理與機器學習模型進行更深入的探索與應用。

Reality Labs 發表的這項研究不只是工程技術的進步,更是一種對人與科技互動關係的重新思考。相較於人類過去不斷適應各種輸入工具,如打字、滑鼠點擊、觸控滑動,sEMG 所提供的是一種由人出發、機器主動理解的控制方式。當科技真正理解「意圖」本身,並能將其自然轉化為互動回饋,人機介面便不再只是效率問題,而將成為一種更加人性化的存在形式。這不僅將提升主流使用者的操作體驗,更為行動能力受限者與語言障礙者開啟嶄新溝通途徑,也可能成為未來 XR 與 AR 裝置最關鍵的核心輸入方案之一。

隨著這類非侵入式神經輸入技術日漸成熟,一種更安靜、更無感、更貼近人類本能的數位互動模式正悄然成形。Reality Labs 所提出的 sEMG 手環研究,不僅為這個可能性提供了堅實技術基礎,也讓外界對人機介面的下一個演化階段,有了更加具體的想像。

*如果想要更深入了解研究,建議一定要看nature期刊上的 文章PDF *

VIVE Arts 推出《Playing with Fire》XR 沉浸式音樂體驗,與鋼琴家王羽佳共赴感官之旅

廣告

2025 年秋季,HTC 旗下的文化藝術推廣計畫 VIVE Arts 將正式推出一項跨界融合的沉浸式 XR 藝術體驗——《Playing with Fire: An Immersive Odyssey with Yuja Wang》。本作由 VIVE Arts 聯合法國 XR 製作公司 Atlas V、創新空間 Lightroom,以及巴黎音樂博物館(Musée de la musique – Philharmonie de Paris)共同策劃。

《Playing with Fire》以當代古典樂界最具代表性的鋼琴家王羽佳(Yuja Wang)為主角,邀請觀眾踏入她內在創作世界的深處。展覽將於 2025 年 11 月 14 日在巴黎音樂博物館正式揭幕,並展出至 2026 年 5 月 4 日,預計成為歐洲藝術與科技界的一大焦點。

這並非一般的音樂會,也不只是表演紀錄。《Playing with Fire》讓參與者不再是坐在座位上被動觀賞的觀眾,而是成為故事與聲音的一部分。透過高度整合的視覺敘事與空間化音效,觀眾得以在無束縛的虛擬空間中漫步,自由探索王羽佳的情感表達與音樂語彙。猶如走進音樂的內部,觀察音符如何成形、如何在情緒與記憶中產生共振。

這場體驗由屢獲殊榮的法國導演 Pierre-Alain Giraud 擔任導演,他曾獲得坎城影展 Cannes Immersive 單元的肯定。視覺由冰島知名藝術家 Gabríela Friðriksdóttir 設計,其作品融合神秘主義與人類心理,為體驗注入詩意與象徵。聲音設計則由奧斯卡得獎設計師 Nicolas Becker 操刀,他曾參與《異星入境》(Arrival)與《聲命線索》(Sound of Metal)等電影,擅長將微觀聲響轉化為深層情緒體驗。

在技術層面上,《Playing with Fire》運用了 HTC 最新一代 XR 裝置 VIVE Focus Vision,並搭配 VIVE Location-Based Software Suite 進行場域定位與內容同步,實現多人共享的無線沉浸式互動空間。觀眾無需配戴背包電腦,也不受纜線限制,可自由在展場中移動,讓身體動作與虛擬內容同步聯動,產生高度真實的參與感。

展場中央設置一架 Steinway Spirio 自動演奏型三角鋼琴,不僅作為現場藝術裝置,更透過高精度 MIDI 同步技術與虛擬影像中的王羽佳表演互動。當觀眾接近鋼琴時,將可感受到虛實之間的流動邊界:耳邊傳來真實鋼琴聲,眼前則是 volumetric 拍攝的王羽佳身影正在演奏,一種跨越實體與數位、過去與當下的交錯經驗油然而生。

此外,體驗過程中亦將穿插混合實境與全虛擬場景的切換,隨著觀眾的移動與視角變化而自動調整。這種動態式的展演設計不僅提供戲劇張力,也讓每位參與者的旅程成為獨一無二的個人體驗。

王羽佳作為當代鋼琴界的傳奇人物,以超凡技巧與個性鮮明的舞台風格聞名。她在《Playing with Fire》中不僅是一位演奏者,更是一位敘述者與引導者。觀眾將隨著她的節奏進入創作空間,從排練片段、情緒流動到音樂與個人記憶的連結,拼湊出她藝術語言的脈絡與深度。

體驗中的一大亮點,是觀眾可以參與一場虛擬排練,彷彿坐在鋼琴旁邊,近距離感受她對每個音符的詮釋過程。聲音不再只是背景,而是與空間互動的主體——像是躍動的氣流,環繞在觀眾耳邊與身邊流動。視覺方面則充滿象徵意象與感官刺激,透過超現實手法呈現鋼琴家的情緒內風景。

這場展覽也延續了 VIVE Arts 過去與全球博物館、藝術家合作的傳統,包含與英國泰特美術館(Tate Modern)、羅浮宮(Louvre)、佛羅倫斯烏菲茲美術館(Uffizi Gallery)等機構推動的多項虛擬策展項目。此次與巴黎音樂博物館的合作,則是音樂領域的一大拓展,也象徵 XR 作為當代表演藝術平台的成熟與可行性。

《Playing with Fire》將於 2025 年 11 月 14 日至 2026 年 5 月 4 日在巴黎音樂博物館展出,觀眾可透過現場預約方式參與,每場體驗為多用戶自由移動形式。

Meta Reality Labs 新一代超廣視角 VR/MR 頭顯原型,FOV 達 180 度

廣告

Meta Reality Labs 展示了兩款具備廣視角的新型原型頭戴式裝置,分別針對虛擬實境(VR)與混合實境(MR)應用設計,並透過影片形式對外說明其關鍵技術進展。這些原型裝置的最大特色,是在維持現有消費級裝置體積與解析度水準的前提下,將水平視野(Field of View, FOV)大幅擴展至 180 度,接近人眼自然視覺的 200 度範圍,明確回應了當前主流 VR 裝置普遍僅提供約 110 度視野的限制。

這項研究背後的關鍵技術,來自於 Meta 專為虛擬實境所開發的高曲率反射偏光鏡光學系統。該光學設計讓第一款原型裝置在保持相對緊湊機身的情況下,實現更寬廣的沉浸視角。第二款原型則進一步結合客製化相機模組,支援高達 8000 萬像素與每秒 60 張的拍攝性能,使其具備混合實境所需的環境感知與實時運算能力。透過這兩項原型裝置,Meta 展現了在廣視角沉浸式體驗上的技術前沿,也為未來虛擬與混合實境應用的互動方式提供了新的可能性。

廣視角一直是虛擬實境領域的技術挑戰之一。儘管部分高階頭顯曾嘗試擴展視野,但多半以體積龐大、佩戴不適作為代價,不易進入主流市場。Meta 此次展示的裝置則試圖平衡視野寬度與外型實用性,突顯其在光學整合與影像處理方面的研發進展。從技術層面來看,180 度水平視野若能穩定實現,對於娛樂、模擬訓練、遠距協作與臨場通訊等應用場景,都將明顯提升沉浸感與可用性。

雖然目前仍屬原型階段,尚無商業化時間表,但 Meta Reality Labs 的這項研究在業界投下一顆訊號:未來的虛擬與混合實境裝置不只會看得更清楚,也將看得更多、更接近人類真實視覺經驗。這不僅對消費市場具有吸引力,也可能對專業領域如設計、醫療與教育等產生深遠影響。隨著硬體技術與光學設計持續進化,廣視角裝置是否能真正落地消費市場,將是值得關注的下一步。

Horizon Feed 設計更新:Meta 測試提升 VR 使用體驗的全新介面

廣告

Meta 正在為其 Horizon 平台進行一系列設計上的更新測試,目的是提升使用者在虛擬實境(VR)與行動裝置上的整體體驗。根據 Meta 公告,這些改版的核心在於改善內容的探索與推薦機制,讓使用者能更有效率地接觸到感興趣的應用、虛擬世界與社交互動。Meta Horizon Feed 的新介面現已在部分用戶中展開測試,這波調整也象徵著 Meta 對於平台導覽邏輯與視覺呈現的重新思考,尤其是在 VR 裝置與手機應用程式上的整合設計上格外明顯。

此次更新首先體現在 Meta Horizon App 中。開啟應用後,使用者將會看到 Feed 被移到了首頁位置,取代了原先以虛擬化身為主的入口頁面。這個改動背後的設計邏輯,在於將平台核心內容更直接地展示給用戶,減少操作步驟,提高內容被點擊與使用的機率。此外,主導航列也被移至畫面底部,以符合多數智慧型手機的操作習慣,同時新增一個「Quest」專區,集中管理 Meta Horizon 商店與裝置設定,強化了平台功能的統整性。

在 VR 環境中,Meta Horizon Feed 的設計也經歷了顯著變化。更新版本將使用者帶入一個更加聚焦的單一視圖中,讓人們一進入就能快速找到朋友、再次進入先前的體驗,或發現新的應用與世界。這樣的改動不僅提升了資訊密度,也改善了畫面空間的使用效率。新版 Feed 的上方設置了一個大型輪播區,展示五個推薦重點體驗,這些內容會自動輪換並定期更新。與此同時,個人化推薦項目也被上移至版面較前的位置,使得演算法產出的推薦內容能有更高的曝光率。這對於正在開發或經營應用與虛擬世界的創作者而言,是一次拓展觸及面的機會。

Meta 並未選擇在使用高峰期推出這些改動,而是選在每年較為低迷的夏季階段進行測試。這樣的時間安排,讓團隊能在使用者活動相對減少的情況下收集數據,進行微調與修正,以便在年底假期旺季前穩定推廣。對平台營運來說,這是一種策略性的試水溫;對使用者而言,則是有機會率先體驗新的使用邏輯與推薦流程。

從整體上看,這次設計更新並非僅止於視覺層面,而是針對 Horizon Feed 的功能性與內容發現效率進行深度優化。無論是在 VR 還是行動端,Meta 顯然希望打造出一種更順暢的內容接觸路徑,減少用戶在搜尋與選擇上的摩擦,進一步拉高平台的活躍度。對開發者與內容創作者來說,這也是一次重新思考如何呈現與推廣自身內容的契機,特別是在推薦系統演算法與社交互動權重提高的情況下,內容的可視性與點擊率很可能將迎來顯著改變。

目前這項更新尚處於測試階段,僅有部分使用者能看到新的 Feed 設計。Meta 表示,未來是否全面推出將取決於這次測試的使用成效與回饋表現。這也意味著,接下來幾週至幾個月內,Meta Horizon 的介面可能還會持續調整與進化。

ImmersiX 正式登上 Steam:一款融合藝術與技術的虛擬實境沉浸式體驗平台

廣告

隨著沉浸式內容在全球逐步擴展,虛擬實境(VR)技術已不再侷限於遊戲與模擬訓練,逐漸成為新型態的視覺敘事媒介。近期由 V-Nova 團隊開發的 XR 平台 ImmersiX 正式從 Steam Early Access 階段結束並公開發布,為廣大使用者與創作者提供一個全新的 6DoF 沉浸式內容入口。ImmersiX 是一款結合科技、藝術與開放架構的多內容 XR 平台,支援各種 Open XR 頭戴式裝置,強調可擴展性與技術表現,並以真實的空間互動感作為核心設計理念。

ImmersiX 不同於傳統的 VR 應用,它並非單一體驗,而是一個內容容器(content container)與展示舞台,使用者可在其中體驗由 V-Nova Studios 創作的原創內容,也能接觸來自第三方創作者貢獻的沉浸式作品。這種「平台即載體」的架構,為內容創作者提供了更多實驗空間,也讓觀眾能夠在統一的介面中探索各種風格與形式的 XR 敘事,從沉浸式短片到互動式模擬皆涵蓋其中。

在技術層面,ImmersiX 的最大亮點是採用了 V-Nova PresenZ 格式。這是一種針對 6DoF VR 設計的空間視覺格式,能以接近實拍電影的質感呈現完整的三維畫面,且保有觀看者的自由移動與視角變換。不同於全景影片或傳統的立體 VR 視訊,PresenZ 支援在虛擬空間中以自然方式移動觀看,讓使用者真正「走入」內容中,獲得近乎現實的存在感與沉浸感。此外,結合空間音效與高幀率渲染,整體體驗接近電影級別的技術水準,在目前 VR 敘事領域中屬於少見的高完成度範例。

作為該平台內容首發的《Sharkarma》Part 1,為一部專為 6DoF 打造的 CG 動畫短片,呈現虛構水下場景與敘事節奏,觀眾可自由於空間中移動、觀察劇情場景細節。V-Nova 團隊表示,《Sharkarma》是其敘事技術驗證的重要實例,Part 2 也正在製作中,未來將補足整體故事線並持續優化互動與視覺細節。此外,團隊也將開放更多第三方內容上架機制,逐步擴大 ImmersiX 作為開放式 XR 平台的角色。

在 Early Access 階段結束前,V-Nova 針對使用者社群提出的問題進行多項優化,包括整體效能調校、更廣泛的硬體支援(如 AMD 顯示卡平台),以及在中階規格裝置上的穩定性提升。這些更新使得 ImmersiX 更具可及性,並促使其不再僅為高端用戶所享,而是成為更大眾化的虛擬實境內容入口。

對於 VR 生態系而言,ImmersiX 的出現具有指標性意義。一方面,它證明沉浸式敘事可以超越單一作品形式,朝向內容整合與平台化邁進;另一方面,透過 PresenZ 的空間媒體能力,讓傳統影像創作者能夠延伸他們的表現形式,並為沉浸式電影敘事開啟更多創作可能。這與目前產業對於「沉浸媒體規模化」與「技術落地」的雙重需求相互呼應。

V-Nova 也強調 ImmersiX 將持續更新與擴展,未來將支援更多互動功能與開發者工具,並強化第三方內容商的參與機制。平台定位不僅是展示端,更是創作端、分發端與觀賞端整合的技術解決方案,旨在促進虛擬實境敘事產業的健康發展。

在這個技術與敘事快速交錯演變的時代,ImmersiX 並非意圖取代既有 VR 應用,而是試圖在沉浸體驗的質感、自由度與內容生態之間找到新的平衡點。它代表了一種不依賴遊戲邏輯、不強調競技互動,卻同樣具備深度與表現力的虛擬實境內容思路,對於希望了解沉浸媒體未來走向的產業觀察者與創作者而言,無疑是一項值得深入體驗與關注的案例。

什麼是 V-Nova PresenZ ?

  • 技術類型:沉浸式影像格式/Volumetric Free Viewpoint Video
  • 關鍵特性
    • 支援 自由視點移動(可在影像中前後傾身、左右移動)
    • 提供 電影級畫質真實深度感
    • 與標準電影製作流程兼容(支援現有 3D 渲染工具)
    • 高效壓縮與串流(採用先進的視訊編碼技術)
  • 主要應用
    • 虛擬實境(VR)電影與體驗
    • 沉浸式故事敘事
    • 虛擬製作(Virtual Production)
    • 培訓模擬與數位文化保存
  • 優勢
    • 相較傳統 360° 或立體影片,PresenZ 可提供 空間感更強的臨場體驗
    • 為沉浸式內容創作提供 未來標準格式
1 / 7

科技未來的交會點:Meta Connect 2025 9/17–18 盛大登場|AI × XR × 開發者生態全面進化

廣告

Meta Connect 2025 即將於 9 月 17 至 18 日盛大舉行。這場年度盛會由 Meta 主辦,集結來自世界各地的開發者、創作者與科技愛好者,一同深入探索人工智慧、虛擬實境(VR)、混合實境(MR)與元宇宙的未來走向。

今年的活動不僅採用線上直播,還將在虛擬平台 Meta Horizon 中舉辦 Connect Keynote,帶來全新的沉浸式參與方式。參與者不只是觀眾,更將身歷其境,親身感受科技與虛擬空間的交會魅力。

9 月 17 日的開幕主題演講(Connect Keynote),由 Meta 執行長 Mark Zuckerberg 親自登場。他將分享 AI 智慧眼鏡的最新進展,並揭示 Meta 對人工智慧與元宇宙的整體願景。這場演講預計將揭示下一波社交與互動技術的關鍵方向。

緊接著在 9 月 18 日登場的 Developer Keynote,則由 Meta 各部門高層輪番上陣,介紹最新的平台技術與創作工具,說明這些技術如何幫助開發者打造出全新體驗。對於 XR 與 AI 應用的開發者來說,這是一場不容錯過的創作契機。

此外,今年還將推出一系列「Developer Sessions」開發者專場講座,深入探討 VR、AI、混合實境等技術細節。這些講座由來自 Meta 及業界的領先技術人員主講,協助開發者掌握第一手工具與知識,進一步加速創新與應用落地。

從主視覺設計到活動安排,Meta Connect 2025 充滿未來感與科技動能。預期除了產品與平台更新,Meta 也可能公開 AI 助理、混合實境應用與跨裝置整合的新突破。這場活動不僅是 Meta 的年度發表,更是整個科技產業對未來互動模式的一次深度對話。

對於關注 XR 技術、AI 發展與數位內容創作的群體而言,Meta Connect 2025 將是一場資訊量與靈感兼具的盛會。

📅 活動日期:2025 年 9 月 17~18 日
📍 活動平台:Meta Horizon 虛擬世界全球同步線上直播

科技的未來,即將揭曉。現在就把日期記下來,一起見證科技如何再次突破人類互動的界線。

Apple Vision Pro 迎來首度硬體升級:M4 晶片與全新頭帶將於今年內登場

廣告

蘋果正積極準備為旗下的高階頭戴式裝置 Apple Vision Pro 推出首度硬體更新。根據 Bloomberg 記者 Mark Gurman 的報導,新版 Vision Pro 將於今年稍晚推出,針對效能與佩戴舒適性進行優化。雖然整體設計不會有大幅度的改動,但此次升級仍被視為蘋果維持在 MR 領域競爭力的重要舉措。

升級重點:M4 晶片與新設計頭帶

根據報導,新版 Vision Pro 將搭載 M4 晶片,取代目前的 M2 晶片。M4 晶片已應用於最新的 iPad Pro、MacBook Pro 和 iMac,能提供更強大的計算效能,並為人工智慧處理任務帶來更高的即時反應能力。此舉也顯示蘋果試圖藉由現代化的硬體配置,改善 Vision Pro 在開發者與專業使用者之間的實用性。

此外,蘋果也針對長時間配戴所引發的頭部與頸部不適問題進行改善,推出新設計的頭帶。根據內部測試與使用者反饋,原版 Vision Pro 的重量(約 1.4 磅)為主要抱怨來源之一。儘管此次改版並未顯著減輕裝置重量,但新的頭帶設計預計將分散壓力點,改善配戴體驗。目前 Vision Pro 標配 Solo Knit 與 Dual Loop 兩種頭帶,新設計可能融合兩者優勢,提升穩定性與舒適度。

軟體搭配:visionOS 26 將於今年同步推出

除了硬體更新,蘋果也將在今年推出 visionOS 26 作業系統,為 Vision Pro 帶來更多互動功能。預期更新內容包括虛擬小工具(Virtual Widgets)、視線捲動功能(Eye-scrolling)等。這些更新將進一步強化 Vision Pro 作為沉浸式運算平台的能力,提升混合實境中的互動性與效率。

下一步:輕量平價版本 Vision Air 預計 2027 年登場

根據 Gurman 與分析師郭明錤(Ming-Chi Kuo)指出,蘋果的下一階段重點將放在開發代號為 N100 的全新機型上,該裝置定位為 Vision Pro 的平價版本,預計於 2027 年正式上市。此機型預計重量將減少 40%,機身材料將採用塑膠與鎂合金,取代目前的玻璃與鈦合金設計,以降低製造成本。功能方面則可能刪除 EyeSight 正面顯示螢幕與部分感測器,以達到更具吸引力的售價。

Kuo 預測這款「Apple Vision Air」將使用 iPhone 同等等級的晶片,並具備有限但關鍵的空間運算功能。此產品的最終規格仍在評估階段,預計設計定稿時間為 2026 年。

Vision 系列產品藍圖:2025 至 2028 將陸續推出七款頭戴裝置

蘋果長期布局空間運算與智慧眼鏡市場,目前已有至少七款頭戴式裝置正在開發中,分為 Vision 系列與智慧眼鏡兩大產品線。根據郭明錤的最新預測,蘋果的發展藍圖如下:

  • 2025 年:Vision Pro M5 晶片版本問世,外觀與功能基本相同,但效能升級,預估年出貨量 15 至 20 萬台。
  • 2027 年:Vision Air(代號 N100)推出,重量更輕、價格更親民,主攻一般消費市場。
  • 2028 年:第二代 Vision Pro 上市,配備 Mac 級處理器、重新設計外觀與重量分布,預期會有更明顯的輕量化與成本優化。
  • 2027 年起:首款 Apple Glasses(智慧眼鏡)進入量產階段,具備語音控制、手勢識別、環境感測、拍照錄影等功能,預估出貨量為 300 至 500 萬台。
  • 2028 年以後:具備內建顯示器的 XR 智慧眼鏡將進入市場,採用 Liquid Crystal on Silicon 與 waveguide 顯示技術。

此次 Vision Pro 的升級版本雖未大幅改動外型或價格,但透過效能與配戴體驗的雙重優化,有助於蘋果穩定在空間運算市場的佈局。2027 年將是蘋果進軍主流 XR 市場的重要節點,屆時是否能以輕量化與高性價比吸引大眾消費者,值得持續關注。

Meta 宣布 XR Audio SDK 外掛上架 Wwise,支援建構高臨場感混合實境音效體驗

廣告

Meta 宣布,其 XR Audio SDK 外掛現已正式登上 Wwise 平台,為開發者提供建構沉浸式虛擬與混合實境音效的新工具。該外掛為行動裝置優化,支援 Meta Quest 系列頭戴裝置,並整合空間音訊與聲學模擬功能,旨在提升用戶在虛擬場景中的聽覺臨場感與真實互動性。

Meta XR Audio SDK 的核心特色是使用自家研發的 Universal HRTF(頭部相關傳輸函數)模型,這是一種針對聲音方向性與頻譜透明度高度優化的演算法,經過多年研究與內部測試,據稱可提供優於公開資料集所訓練模型的定位準確度。開發者可以利用這套模型,讓使用者在 3D 空間中精準辨識聲音的來源方向、距離與高度,有助於打造更真實的音場體驗。

除了基本的空間定位功能,SDK 亦支援 Ambisonics 音訊格式,用於構建沉浸式環繞聲場,並提供簡易的房間聲學模擬系統。開發者可依據虛擬場景的空間大小、形狀與表面材質,加入反射與混響效果,使音效更符合場景特性。例如,石造地下室的聲音將呈現強烈的低頻回響,而開放式木造建築則產生溫暖且吸音的聲響特質,強化使用者的環境感知。

Meta XR Audio SDK 也相容於 Unity 與 Unreal Engine 的 Meta SDK 系統,可整合最近推出的 Acoustic Ray Tracing(聲波追蹤)功能。該功能已率先應用於《Batman: Arkham Shadow》等獲獎 VR 遊戲中,支援包含遮蔽、繞射與聲音阻擋的模擬,提升聲音在複雜環境中的表現真實度。透過這些整合技術,開發者能構建出更加真實的 MR 聲學場景。

根據 Meta 提供的資料,該 SDK 已在 Meta Horizon Store 上的數百款應用中驗證其穩定性與效能,涵蓋遊戲、教育與沉浸式敘事等多種領域。開發者可至 Audiokinetic 官網免費下載該 Wwise 外掛,並參考官方提供的 Unity 與 Unreal Engine 教學文件快速開始整合。

此次 XR Audio SDK 外掛的推出,代表 Meta 在聲學技術研發上的持續投入,也強化了 Quest 裝置在混合實境領域中的應用潛力。隨著音訊沉浸感日益成為空間運算體驗的關鍵要素,這類工具的普及有望推動未來虛擬內容的整體品質與使用者黏著度。

Zoom Workplace 登陸 Meta Quest:虛擬實境工作環境再進化

廣告

隨著遠距辦公與混合工作模式逐漸普及,Zoom 正式將其辦公平台擴展至虛擬實境領域,推出適用於 Meta Quest 的全新應用程式「Zoom Workplace」,為用戶帶來沉浸式的會議與協作體驗。這項發展不僅提升了 VR 裝置在專業工作場景中的應用價值,也顯示出虛擬實境不再只是娛樂工具,而是可支援日常辦公的多功能平台。

Zoom Workplace for Meta Quest 支援免費與付費帳戶,用戶可以如同在桌機或手機上操作 Zoom 一樣,輕鬆安排或加入視訊會議、即時傳訊、分享簡報與內容。整體介面設計延續原有使用習慣,降低學習門檻,使原本的商務流程能無縫轉移至 VR 空間中。應用程式也結合了 Passthrough 模式與全沉浸視圖,讓用戶可以依據情境選擇是否觀看周圍實體環境,進一步提升使用的彈性與舒適度。

會議期間,Meta Quest 使用者將以虛擬化身出現於會議畫面中,而非傳統的鏡頭視訊,同時仍可看到其他從電腦、手機或網頁版加入的使用者。這種跨平台的整合,使得團隊協作更加靈活,無論身處何地、使用何種設備都能輕鬆加入會議。

若升級為 Zoom Workplace Pro,則能解鎖多項進階功能,包括最長 30 小時的會議時間限制解除、雲端錄影(最高 5GB 空間)、AI 助理(AI Companion)、以及會議主持與排程管理權限等,全面支援更高強度的專案協作需求。

Zoom 與 Meta 的這次合作,是推進 VR 工作場景化的重要一步。Meta 近年積極拓展其裝置在生產力工具方面的應用,包括支援 Adobe Acrobat、Microsoft Word、Excel 與 PowerPoint,並推廣如 Immersed、Gravity Sketch 與 Arkio 等專為創作與設計打造的 VR 工具。對於經常需要在移動中工作的使用者來說,搭配 Remote Desktop 使用,還能打造一個隨時隨地的虛擬多螢幕工作空間。

Zoom Workplace 現已正式登陸 Meta Horizon Store,開啟虛擬辦公的新選擇。用戶只需下載應用,登入原有 Zoom 帳號,即可開始使用,無需重新註冊或轉移資料。這項工具為遠距團隊、創意工作者與全球企業提供了另一種溝通與協作的方式,也進一步實踐了虛擬實境在現代工作模式中的實用性與可行性。