分類彙整: 本週精選

MixRift 創辦人 Bobby Voicu:眼鏡+雲端串流,將成為 2026 年最被低估的 XR 突破

廣告

當多數 XR 裝置仍試圖把運算能力塞進更小的硬體中,MixRift 執行長暨創辦人 Bobby Voicu 則認為,真正的轉折點來自雲端。根據他與《VR NEWS TODAY》分享的觀點,下一波 XR 將跳過「運算 puck」,走向以雲端串流為核心的智慧眼鏡時代。


根據 MixRift 執行長暨創辦人 Bobby Voicu 與 VR NEWS TODAY 分享的觀點,Bobby Voicu 認為,下一波 XR 發展將直接跳過「運算 puck」階段,邁向以雲端串流為核心的智慧眼鏡。在這樣的架構下,裝置本身的角色將更接近顯示終端,而非一台完整的運算設備。這樣的轉變不僅會影響遊戲體驗,也可能重新定義 XR 產業的商業模式,從硬體銷售逐步轉向訂閱制與雲端服務,並進一步縮小消費型科技與企業應用之間的落差。

Bobby Voicu 指出,當前 XR 產業仍高度聚焦於「將更多運算能力塞進更小的裝置」,但真正具顛覆性的變化,其實正在另一個方向快速成熟,雲端渲染與即時串流。隨著雲端基礎建設與串流技術的進步,高階內容已能在一般網路環境下,以極低延遲穩定運行。當完整的 PC 級遊戲與應用都能可靠地從雲端串流到手持裝置時,將混合實境的視覺疊加與互動式空間內容即時帶入超薄眼鏡中,也就不再只是概念展示,而是具備實際可行性的產品方向。

這樣的轉變,將徹底顛覆 XR 的硬體競賽邏輯。與其在眼鏡內追求更高密度的晶片、更大的電池與更複雜的散熱結構,下一波 XR 裝置可能會選擇回歸輕量化設計,專注於顯示品質、佩戴舒適度與續航效率。更低的發熱、更省電的特性,以及更具彈性的製造成本結構,反而更有機會推動 XR 進入真正的大眾市場。Bobby Voicu 認為,2026 年不會是本地運算全面被取代的一年,但很可能是以串流為優先思維的 XR 產品開始進入市場,並釋放產業策略轉向的重要時間點。

在內容創作層面,AI 的角色同樣正在快速擴大。未來一年,生成式 AI 在遊戲環境製作、敘事生成與 NPC 行為上的應用,預期將顯著加速。動態任務設計、即時回應的對話系統,以及可依玩家行為調整的環境敘事,正逐步成為提升沉浸感的重要工具,特別是在即時營運型(Live-service)的 XR 世界中,AI 能有效降低內容更新的門檻與成本。

不過,Bobby Voicu 也強調,對 AI 在 XR 領域的期待仍必須保持務實。現階段的大型語言模型,仍缺乏足夠關於頭顯操作、空間互動、手部追蹤與混合實境設計原則的訓練資料,使其難以在沒有大量人類介入的情況下,直接生成成熟、可靠的空間互動系統。與其取代 XR 設計師,AI 更適合扮演原型加速器與內容倍增器的角色,協助開發者更快測試與驗證想法,而真正定義體驗品質與邊界的,仍是人類對硬體與空間行為的理解。

這樣的技術環境,也進一步鞏固了獨立開發者在 XR 生態中的關鍵地位。Bobby Voicu 指出,認為 2026 年才是獨立開發者「開始主導」XR,其實忽略了一個事實,他們早已在主導。當今許多最具影響力的 XR 作品,往往來自小型團隊,這些團隊具備高度敏捷性,並能快速回應社群回饋。《Gorilla Tag》便是其中的代表案例,從單人開發起步,透過簡單直覺的機制與持續迭代,最終成為現象級 VR 作品。

此外,隨著智慧眼鏡逐漸朝向僅顯示或低運算能力的方向發展,XR 的使用情境也開始產生轉變。體驗不再是刻意進入某個「XR 模式」,而是以更輕量、環境式的方式融入日常生活。受限於電池續航與佩戴需求,2026 年最有機會成功的 XR 內容,可能並非長時間、重度的沉浸式遊戲,而是短時間、低強度的 MR 互動,例如遊戲化工具、輕娛樂、趣味疊加內容與地點式體驗。

在 Bobby Voicu 看來,智慧眼鏡推動 XR 普及的關鍵,不在於技術規格的堆疊或視覺震撼,而在於熟悉感。當混合實境不再需要被刻意學習,而是自然存在於日常行為之中,XR 才真正邁向下一個成長階段。


VR NEWS TODAY 編輯觀察

從 Bobby Voicu 的觀點可以看出,XR 的下一個關鍵轉折,或許不在於硬體效能的極限競賽,而在於運算位置的重新分配。當雲端逐步承接運算核心,裝置回歸顯示與互動介面,XR 也將更有機會走出「科技展示品」的階段,成為真正融入生活與工作的日常工具。

英文原文:

VR NEWS TODAY 專訪|JollyCo LLC 從 Match-3 到 Mixed Reality:JollyCo 如何把拼圖遊戲帶進你的房間

廣告

JollyCo LLC 是一間專注於 VR 與 Mixed Reality 體驗的獨立工作室,致力於打造直覺、輕鬆且具創意的互動遊戲。目前團隊主力作品是 Jolly Match: First MR Match-3 Puzzles ,遊戲將經典 Match-3 拼圖玩法帶入混合實境,讓玩家能直接在自己的生活空間中進行互動。

團隊於 2023 年正式加入 Meta Quest 平台,並隨著手部追蹤與空間理解技術成熟,開始積極探索 MR 的可能性。對 JollyCo 而言,Mixed Reality 不只是技術展示,而是讓遊戲「自然存在於房間中」的關鍵。

在本次專訪中,JollyCo 分享了他們從傳統遊戲設計轉向 MR 開發的歷程、在不同實體空間中面臨的互動設計挑戰,以及他們對未來 VR/MR 發展的觀察。

VR NEWS TODAY 與 JollyCo LLC 的完整採訪 (原文)|中文圖卡在最下方

Could you introduce JollyCo LLC and share what products or projects you are currently developing or operating?
JollyCo is a passionate studio focused on creating joyful, accessible, and innovative interactive experiences for VR and mobile platforms. We’re currently operating Jolly Match: First MR Match-3 Puzzles, our free-to-play puzzle game for mixed reality, alongside several upcoming projects exploring the latest VR/MR features, different settings and mechanics for various audiences.

How did JollyCo first enter the VR/MR space? Was there a specific turning point or inspiration behind the decision?
Our entry into VR happened naturally – we’ve always been keen on following the latest technologies in gamedev, and when VR appeared among the trends of the gaming industry we shifted to it very quickly. The first VR title was released on Meta Quest back in 2023.

As for MR, the turning point came when we thought how naturally match-3 mechanics would be implemented in mixed reality with hand interactions. That inspired us to build a game where players could literally touch the game board and elements and see them come to life in their real space.

Could you share the main concept and development vision behind your latest project?
With Jolly Match 3 MR, we intended to merge classic match-3 mechanics and interaction in one’s own room. The vision was to create a cheerful “playground” experience – something intuitive enough for anyone to enjoy, but polished and dynamic enough to feel magical in MR.

What were the biggest challenges you faced during development — whether technical, artistic, or design-related — and how did you overcome them?
MR itself was the biggest challenge. Every room is different, so we had to design adaptive layouts, reliable spatial anchors, and responsive interaction systems that feel good in any environment. Artistically, keeping our characters expressive while optimizing performance was a balancing act. Prototyping, player testing, and a lot of iterations helped shape the final experience.

How do you plan your interaction design and control logic? What specific interaction details does your team prioritize?
We prioritize comfort, clarity, and flow. Interactions must feel natural even for first-time MR/VR users. We focus on precise hand tracking, readable gestures, and fast, reliable feedback so players always understand the result of their actions.

How did you establish the visual and audio direction for your product? What were your key inspirations?
We wanted the world to feel warm, colorful, and uplifting – something joyful, not overwhelming. Our inspirations ranged from classic animated films to cozy mobile puzzle games. Sound-wise, we leaned into playful effects and cheerful melodies that support the game’s pace without distracting from it.

What role does Mixed Reality (MR) play in your product, and do you plan to expand its features in the future?
MR is at the heart of the experience. It’s what makes the game feel alive in your home. Yes – we plan to expand MR with deeper spatial features and new mini-games in future updates.

Throughout your development journey, has there been a moment that particularly moved or inspired your team?
Watching families play together – especially parents and kids discovering MR for the first time – has been incredibly inspiring. Seeing players laugh and shout “It’s in my room!” reminded us why we built this in the first place.

How do you collect and analyze player feedback? In what ways has community input influenced your product’s direction?
We listen everywhere: Discord, Meta reviews, social media, in-game analytics and playtests. Community feedback directly shapes our updates – from adjusting difficulty and pacing to refining the UI and adding accessibility options.

What is your perspective on the future of VR/MR? Which emerging trends excite you the most?
We see VR/MR becoming more natural, accessible, and integrated into everyday play. The trends that excite us most are advanced hand-tracking, spatial understanding, and mixed-reality games that blend seamlessly with real environments. These innovations open the door to more intuitive, playful, and deeply immersive experiences.

What is your favorite VR or MR game, and what makes it special to you?
We love games that fully embrace spatial design – titles that make you move naturally and play with depth. Anything that transforms your room into something magical instantly earns my respect.

Could you share any upcoming features, new projects, or future plans — within what can be publicly revealed?
We’re working on new MR content, additional modes for Jolly Match 3 MR, and a few early prototypes exploring fresh ways to use spatial computing. While it’s too early for details, our focus remains on fun, comfort, and charm.

Lastly, is there a message you’d like to leave with our readers — VR players, the community, or other developers who follow your work?
Thank you for supporting small studios and embracing new ideas in VR/MR. Your excitement fuels ours, and we’re committed to bringing even more joy into your play space. Stay curious and keep having fun in MR!

META HORIZON 商店:https://www.meta.com/experiences/jolly-match-first-mr-match-3-puzzles/9978591555503079/


以下為編輯補充|活動與社群資訊

為迎接年末假期,《Jolly Match: First MR Match-3 Puzzles》同步於 Meta Store 推出季節性活動與優惠內容。即日起至 1 月 5 日,玩家可於 Meta Store 享有最高 45% 折扣的精選遊戲內禮包。同時,冬季活動「Saving Sweetmas」將持續至 1 月 18 日,帶來節慶挑戰與拉普蘭主題關卡。

中譯:

2 / 14

Hypervision 超廣視角 VR/MR 顯示架構,專利技術瞄準完整人類視野模擬

廣告

Hypervision 其 VR/MR 顯示架構與相關研發進度,目標在於解決長期困擾 XR 領域的「視野受限」問題,並透過模組化顯示引擎,逐步實現更接近人類自然視野的沉浸體驗。相關核心技術已獲得美國專利核准,顯示該架構正朝向實際應用階段推進。

根據 Hypervision 說明,其顯示引擎主打超廣視角與高畫質結合,單一視覺模組即可提供最高約 130° 的單眼視野,並在雙眼配置下支援從 140° 到 180° 不同水平視角組合,同時保留大幅度的垂直視野。這樣的設計回應了 VR 社群長期回饋,相比極端的水平視角,垂直視野對於臨場感與空間判斷的重要性往往更高。

在架構層面,Hypervision 提出名為 VRDOM 的顯示系統,透過多個視覺引擎組合,最高可支援達 270° × 130°、並保有高比例立體重疊的全視野刺激。該系統被定位為企業級解決方案,作為傳統圓頂投影室或多面 CAVE 系統的低成本替代方案,主要應用於飛行與駕駛模擬、遠端機器人監控,以及需要高度環境感知的定位式娛樂場域。

目前展示的 PanoVR1.RDK 開發套件,則被視為過渡至完整全視野 XR 的關鍵產品。該套件基於 HO140.Rev2 視覺引擎設計,可在不同立體重疊比例下,彈性調整水平與垂直視角配置,並支援旋轉顯示模組以進一步擴展可視範圍。Hypervision 表示,該系統在兼顧視野、畫質與體積的前提下,嘗試降低高階 XR 顯示的導入門檻。

在實際部署規劃上,PanoVR1.RDK 預計於 2026 年上半年進入量產階段,初期將以 PC 連接形式提供,支援 3DoF,並可透過市售追蹤器延伸至 6DoF。針對混合實境應用,Hypervision 也規劃於 2026 年下半年加入高解析度、廣視角的 MR 透視功能。此外,更進階的 PanoVR1.X.RDK 擴充版本,將進一步把整體視角推進至約 240° × 120° 的規模。

Hypervision 的技術路線並非直接鎖定消費級市場,而是優先聚焦對「完整視野感知」有明確需求的專業應用場景。隨著相關顯示引擎與製程逐步成熟,這類超廣視角 XR 架構是否能在成本、體積與實用性之間取得平衡,將成為未來幾年 XR 產業值得關注的發展方向之一。

X:@ASychov

Hypervision XR 顯示架構|規格與應用對照表

項目PanoVR1.RDKVRDOM Architecture備註說明
目標定位高沉浸 PC VR / MR 原型套件企業級超廣視角 XR 系統明確鎖定專業與模擬市場
顯示架構單組 HO140.Rev2 視覺引擎多視覺引擎拼接架構VRDOM 可擴充周邊視野
最大水平 FoV160°–180°(可調)最多 240°接近人類水平視野
最大垂直 FoV120°–130°120°–130°強調垂直 FoV 的重要性
立體重疊(Stereo Overlap)60%–100%(可調)約 90%高重疊有助深度判斷
最高 FoV 組合示例180° × 130° @ 80% overlap240° × 120° @ 90% overlap依使用情境調整
顯示面板2.56 吋 Fast LCD(BOE / TCL)多組 Fast LCD強調成本可控與量產性
連接方式PC tethered(Thunderbolt 4)PC / 企業系統非獨立式頭顯
追蹤自由度預設 3DOF,可擴充 6DOF依系統配置支援外接追蹤器
MR 穿透顯示H2 2026 預計導入規劃中高 PPD 超廣 FoV passthrough
預計推出時間H1 2026H2 2026(擴充版)已對應量產規劃
主要應用場景飛行 / 駕駛模擬、研發測試模擬訓練、遠端操控、LBE非主流消費娛樂取向
取代目標高階頭顯圓頂投影、CAVE 系統降低建置成本與空間

專利重點懶人包|Hypervision

這項專利在做什麼?

這項由 Hypervision 提出的美國專利(US12411342B2),核心目標是讓 VR / MR 顯示裝置能更接近人類的自然視野範圍,同時避免傳統超廣視角系統常見的畫面變形、體積過大與成本過高問題。

與其說這是一顆單一鏡頭或螢幕的創新,這份專利更像是一套「超廣視角顯示架構設計方法」。

為什麼這個問題重要?

目前市面多數 VR 頭顯的水平視野大約落在 90°–110°,即使是高階裝置,也很少超過 120°。
但人類的實際水平視野可接近 200° 以上,垂直視野也遠高於現行 XR 裝置。

這種差距會直接影響:

  • 空間感與速度感
  • 周邊視覺警覺(situational awareness)
  • 飛行、駕駛、遠端操控等專業應用的真實度

專利的關鍵技術重點

1️⃣ 多視覺引擎拼接的超廣視角架構
專利描述了一種可將多個「視覺引擎(Visual Engines)」組合的系統設計,用來覆蓋人類更完整的水平與垂直視野,而不是依賴單一巨大顯示模組。

這種方式可以:

  • 保持畫面清晰度與邊緣一致性
  • 避免極端鏡頭帶來的畸變
  • 彈性調整視角配置

2️⃣ 高立體重疊(Stereo Overlap)的設計理念
即使在超廣視角下,該架構仍強調維持高比例的雙眼重疊視野,確保立體深度感不被犧牲。
這點對於精準距離判斷、操作模擬與訓練應用尤其關鍵。

3️⃣ 視野可調的模組化配置
專利中提出可依需求在不同設定間切換,例如:

  • 較高立體重疊、較窄水平視角
  • 或更寬水平視角、較低立體重疊

讓系統能依應用場景(模擬、娛樂、遠端操作)進行最佳化,而非一體適用。

4️⃣ 對企業級 XR 與模擬應用的明確指向
專利內容多次提及:

  • 飛行與駕駛模擬
  • 遠端機器人/車輛監控
  • 定位式娛樂與大型沉浸空間

顯示這項技術並非優先針對消費市場,而是鎖定「需要完整視野感知的專業場景」。

與市面 XR 技術的差異是什麼?

現行主流 XRHypervision 專利方向
單一顯示模組多視覺引擎架構
視野受限接近完整人類視野
側重解析度視野 × 立體感並重
消費導向專業模擬與工業應用

這代表什麼?

這項專利顯示 Hypervision 正嘗試解決 XR 長期未被真正突破的「視野天花板」,並以工程化、可量產的方式切入,而非僅停留在實驗室展示。

若未來能在成本、體積與量產穩定度上達標,這類架構有機會重新定義「高沉浸 XR」在專業市場中的標準。