標籤彙整: 虛擬實境資訊

Meta 推出 AI Glasses v21 更新:Conversation Focus 與多項 AI、音樂功能同步上線

廣告

Meta 近期釋出 AI Glasses v21 軟體更新,為旗下 Ray-Ban MetaOakley Meta 系列智慧眼鏡帶來多項功能調整,進一步強化 AI 眼鏡在日常生活中的實用性與即時互動能力。本次更新也被視為 Meta 在 AI 穿戴裝置發展路線中的一個階段性總結,為 2025 年畫下句點。

v21 更新的重點之一是 Conversation Focus 功能,該功能可在嘈雜環境中即時放大使用者正在對話對象的聲音,並抑制周遭背景噪音。透過開放式喇叭、波束成形技術與即時空間音訊處理,AI 眼鏡能讓對話聲音更清晰可辨,適用於餐廳、通勤途中或人多的公共場所。使用者可透過語音指令、鏡腳觸控或系統設定調整放大強度,目前已於北美地區開放 Early Access 測試。

在娛樂應用方面,Meta 也與 Spotify 合作推出結合視覺辨識的音樂體驗。使用者可根據眼前所見的場景或物件,直接透過語音請求播放相符情境的音樂內容。該功能結合電腦視覺與音樂推薦系統,讓 AI 眼鏡不再只是播放工具,而是能即時回應環境的聲音介面,目前已在多個歐洲市場與北美地區支援英文語音操作。

此外,v21 更新也擴充了音樂相關的多語系語音指令支援,新增法文、德文、義大利文、葡萄牙文與西班牙文,讓更多使用者可透過語音控制音樂播放、辨識歌曲或建立個人化播放清單。這項調整顯示 Meta 正持續擴大 AI 眼鏡在非英語市場的可用性。

針對運動與戶外使用情境,Oakley Meta Vanguard 也在此次更新中加入更快速的語音捷徑操作,使用者可省略喚醒詞直接下達拍照、錄影或播放音樂等指令。同時,AI 眼鏡也支援與相容的 Garmin 裝置整合,允許使用者建立跑步或騎乘訓練計畫,進一步將 AI 眼鏡定位為運動輔助裝置的一環。

Meta 表示,v21 更新將採分階段方式推送,以確保穩定性與使用體驗。整體來看,此次更新顯示 AI 眼鏡正逐步從「新奇裝置」轉向具備實際價值的日常工具,並持續朝向更自然、低干擾的人機互動模式發展。

《Vandalizer》登陸 Meta Quest:免費 VR 塗鴉遊戲,讓創作回歸純粹的自由感

廣告

由比利時獨立團隊 Oisoi Studio 推出的 VR 塗鴉遊戲《Vandalizer》,已於 Meta Quest 平台免費推出。本作主打以真實噴漆手感為核心的創作體驗,玩家可使用不同噴頭、顏色與噴漆技巧,在各種誇張又荒謬的 3D 物件上盡情創作,從牆面、卡車到巨大骷髏、恐龍,幾乎所有「不該被塗鴉的東西」都成為畫布的一部分。

《Vandalizer》並非強調規則或競技,而是鼓勵玩家自由揮灑。遊戲中每完成一件作品即可獲得點數,逐步解鎖更多可噴塗物件與主題卡片,形成一種以創作驅動進度的玩法循環。玩家可以攀爬、懸浮或飛行,從各種角度進行噴漆,完整呈現街頭藝術中「身體參與創作」的感受。

在操作與回饋上,《Vandalizer》刻意模擬真實噴漆體驗,包括顏料漸層、線條控制,以及搖晃噴罐時的金屬聲響,讓整體創作過程更具臨場感。遊戲同時提供模板與顏色選擇工具,讓玩家能在即興與細節之間取得平衡,但並未設定任何「正確畫法」。

Oisoi Studio 表示,《Vandalizer》的核心理念是讓玩家「打破規則而不需承擔現實後果」,回到純粹的創作樂趣。團隊過去曾推出《PaintingVR》等創作導向作品,累積超過 15 萬名玩家,而《Vandalizer》則進一步將塗鴉文化的自由與混亂感,轉化為更具動態與空間感的 VR 體驗。

《Vandalizer》現已於 Meta Quest 平台免費提供,無廣告、無內購,專注於創作本身。

Disney+ 正式登陸 Meta Quest,美國用戶可在虛擬巨幕上觀看迪士尼全系列內容

廣告

Disney+ 今日正式在美國地區登陸 Meta Quest 平台,為 VR 使用者帶來龐大的串流影音內容庫。透過 Quest 頭顯,訂閱用戶可在虛擬巨幕上觀看來自 DisneyPixarMarvelStar WarsNational Geographic 等品牌的作品,同時也包含部分 HuluESPN 的內容,讓 Quest 成為一個可隨時攜帶的個人影院。

在 Meta Quest 上,使用者可欣賞最新電影、原創影集與經典作品,從《小鬼當家》等節慶電影,到《辛普森家庭》與漫威系列皆可在虛擬空間中播放。由於 Quest 支援 Dolby 技術,Disney+ 美國用戶可在頭顯內觀看部分支援 Dolby Vision 的 4K HDR 影片;升級至 Disney+ Premium 方案後,還可啟用 Dolby Atmos 音效,進一步提升沉浸式觀影體驗。

Disney+ 也同步主打《波西傑克森:神火之賊》第二季的播出。該季改編自原著小說《海妖之海》,故事延續第一季劇情,描繪波西重返混血營後所面臨的全新變化與威脅。透過 Meta Quest,觀眾可在私人虛擬劇院中完整體驗這段神話冒險旅程,無論身處家中、宿舍或旅途中,都能享受大尺寸畫面所帶來的臨場感。

隨著 Disney+ 正式支援 Meta Quest,串流影音服務進一步擴展至 VR 平台,也顯示主流影音內容正逐步將沉浸式觀看體驗納入核心策略之一。

《Demeo x Dungeons & Dragons: Battlemarked》推出節慶限定 Holiday Side Quest 更新,重製隨從系統並預告多語系支援

廣告

Resolution Games 宣布,《Demeo x Dungeons & Dragons: Battlemarked》迎來全新 Holiday Side Quest 節慶更新,為遊戲加入期間限定的支線任務內容,同時帶來多項系統調整與效能優化。本次更新延續桌上角色扮演的核心體驗,並進一步強化單人與多人遊玩時的彈性與策略深度。

在本次節慶活動中,玩家可於 Crown of Frost 戰役的 Ramshackle Inn 與角色 Dwelf Jollykeg 相遇,協助完成節日期間的特殊運送任務。該支線任務僅於限定時間內開放,完成後可獲得專屬的節慶骰子造型作為獎勵,為冒險增添收藏要素。

更新的另一項重點是隨從(Hirelings)系統的第一階段重製。單人模式現已支援由玩家自訂的完整英雄隊伍,角色可正常獲得經驗值成長,同時也改善多人遊戲中隨從分配的彈性。玩家現在可以重新指派隨從歸屬,並在地圖中調整行動回合順序,讓戰術組合與協作更加直覺。

此外,開發團隊也確認《Demeo x Dungeons & Dragons: Battlemarked》將於未來加入巴西葡萄牙文、義大利文與簡體中文語系支援,以回應全球玩家社群的回饋需求。本次更新同時包含多項錯誤修正、效能最佳化與穩定性提升,進一步完善整體遊戲體驗。

《Demeo x Dungeons & Dragons: Battlemarked》持續透過內容更新與系統調整,強化其作為 VR 桌上角色扮演遊戲的長期可玩性,並在假期期間為玩家帶來更完整且具節慶氛圍的冒險體驗,遊戲現已於Steam(PCVR)Meta QuestPlayStation 販售。

VR NEWS TODAY 專訪|JollyCo LLC 從 Match-3 到 Mixed Reality:JollyCo 如何把拼圖遊戲帶進你的房間

廣告

JollyCo LLC 是一間專注於 VR 與 Mixed Reality 體驗的獨立工作室,致力於打造直覺、輕鬆且具創意的互動遊戲。目前團隊主力作品是 Jolly Match: First MR Match-3 Puzzles ,遊戲將經典 Match-3 拼圖玩法帶入混合實境,讓玩家能直接在自己的生活空間中進行互動。

團隊於 2023 年正式加入 Meta Quest 平台,並隨著手部追蹤與空間理解技術成熟,開始積極探索 MR 的可能性。對 JollyCo 而言,Mixed Reality 不只是技術展示,而是讓遊戲「自然存在於房間中」的關鍵。

在本次專訪中,JollyCo 分享了他們從傳統遊戲設計轉向 MR 開發的歷程、在不同實體空間中面臨的互動設計挑戰,以及他們對未來 VR/MR 發展的觀察。

VR NEWS TODAY 與 JollyCo LLC 的完整採訪 (原文)|中文圖卡在最下方

Could you introduce JollyCo LLC and share what products or projects you are currently developing or operating?
JollyCo is a passionate studio focused on creating joyful, accessible, and innovative interactive experiences for VR and mobile platforms. We’re currently operating Jolly Match: First MR Match-3 Puzzles, our free-to-play puzzle game for mixed reality, alongside several upcoming projects exploring the latest VR/MR features, different settings and mechanics for various audiences.

How did JollyCo first enter the VR/MR space? Was there a specific turning point or inspiration behind the decision?
Our entry into VR happened naturally – we’ve always been keen on following the latest technologies in gamedev, and when VR appeared among the trends of the gaming industry we shifted to it very quickly. The first VR title was released on Meta Quest back in 2023.

As for MR, the turning point came when we thought how naturally match-3 mechanics would be implemented in mixed reality with hand interactions. That inspired us to build a game where players could literally touch the game board and elements and see them come to life in their real space.

Could you share the main concept and development vision behind your latest project?
With Jolly Match 3 MR, we intended to merge classic match-3 mechanics and interaction in one’s own room. The vision was to create a cheerful “playground” experience – something intuitive enough for anyone to enjoy, but polished and dynamic enough to feel magical in MR.

What were the biggest challenges you faced during development — whether technical, artistic, or design-related — and how did you overcome them?
MR itself was the biggest challenge. Every room is different, so we had to design adaptive layouts, reliable spatial anchors, and responsive interaction systems that feel good in any environment. Artistically, keeping our characters expressive while optimizing performance was a balancing act. Prototyping, player testing, and a lot of iterations helped shape the final experience.

How do you plan your interaction design and control logic? What specific interaction details does your team prioritize?
We prioritize comfort, clarity, and flow. Interactions must feel natural even for first-time MR/VR users. We focus on precise hand tracking, readable gestures, and fast, reliable feedback so players always understand the result of their actions.

How did you establish the visual and audio direction for your product? What were your key inspirations?
We wanted the world to feel warm, colorful, and uplifting – something joyful, not overwhelming. Our inspirations ranged from classic animated films to cozy mobile puzzle games. Sound-wise, we leaned into playful effects and cheerful melodies that support the game’s pace without distracting from it.

What role does Mixed Reality (MR) play in your product, and do you plan to expand its features in the future?
MR is at the heart of the experience. It’s what makes the game feel alive in your home. Yes – we plan to expand MR with deeper spatial features and new mini-games in future updates.

Throughout your development journey, has there been a moment that particularly moved or inspired your team?
Watching families play together – especially parents and kids discovering MR for the first time – has been incredibly inspiring. Seeing players laugh and shout “It’s in my room!” reminded us why we built this in the first place.

How do you collect and analyze player feedback? In what ways has community input influenced your product’s direction?
We listen everywhere: Discord, Meta reviews, social media, in-game analytics and playtests. Community feedback directly shapes our updates – from adjusting difficulty and pacing to refining the UI and adding accessibility options.

What is your perspective on the future of VR/MR? Which emerging trends excite you the most?
We see VR/MR becoming more natural, accessible, and integrated into everyday play. The trends that excite us most are advanced hand-tracking, spatial understanding, and mixed-reality games that blend seamlessly with real environments. These innovations open the door to more intuitive, playful, and deeply immersive experiences.

What is your favorite VR or MR game, and what makes it special to you?
We love games that fully embrace spatial design – titles that make you move naturally and play with depth. Anything that transforms your room into something magical instantly earns my respect.

Could you share any upcoming features, new projects, or future plans — within what can be publicly revealed?
We’re working on new MR content, additional modes for Jolly Match 3 MR, and a few early prototypes exploring fresh ways to use spatial computing. While it’s too early for details, our focus remains on fun, comfort, and charm.

Lastly, is there a message you’d like to leave with our readers — VR players, the community, or other developers who follow your work?
Thank you for supporting small studios and embracing new ideas in VR/MR. Your excitement fuels ours, and we’re committed to bringing even more joy into your play space. Stay curious and keep having fun in MR!

META HORIZON 商店:https://www.meta.com/experiences/jolly-match-first-mr-match-3-puzzles/9978591555503079/


以下為編輯補充|活動與社群資訊

為迎接年末假期,《Jolly Match: First MR Match-3 Puzzles》同步於 Meta Store 推出季節性活動與優惠內容。即日起至 1 月 5 日,玩家可於 Meta Store 享有最高 45% 折扣的精選遊戲內禮包。同時,冬季活動「Saving Sweetmas」將持續至 1 月 18 日,帶來節慶挑戰與拉普蘭主題關卡。

中譯:

3 / 14

Hypervision 超廣視角 VR/MR 顯示架構,專利技術瞄準完整人類視野模擬

廣告

Hypervision 其 VR/MR 顯示架構與相關研發進度,目標在於解決長期困擾 XR 領域的「視野受限」問題,並透過模組化顯示引擎,逐步實現更接近人類自然視野的沉浸體驗。相關核心技術已獲得美國專利核准,顯示該架構正朝向實際應用階段推進。

根據 Hypervision 說明,其顯示引擎主打超廣視角與高畫質結合,單一視覺模組即可提供最高約 130° 的單眼視野,並在雙眼配置下支援從 140° 到 180° 不同水平視角組合,同時保留大幅度的垂直視野。這樣的設計回應了 VR 社群長期回饋,相比極端的水平視角,垂直視野對於臨場感與空間判斷的重要性往往更高。

在架構層面,Hypervision 提出名為 VRDOM 的顯示系統,透過多個視覺引擎組合,最高可支援達 270° × 130°、並保有高比例立體重疊的全視野刺激。該系統被定位為企業級解決方案,作為傳統圓頂投影室或多面 CAVE 系統的低成本替代方案,主要應用於飛行與駕駛模擬、遠端機器人監控,以及需要高度環境感知的定位式娛樂場域。

目前展示的 PanoVR1.RDK 開發套件,則被視為過渡至完整全視野 XR 的關鍵產品。該套件基於 HO140.Rev2 視覺引擎設計,可在不同立體重疊比例下,彈性調整水平與垂直視角配置,並支援旋轉顯示模組以進一步擴展可視範圍。Hypervision 表示,該系統在兼顧視野、畫質與體積的前提下,嘗試降低高階 XR 顯示的導入門檻。

在實際部署規劃上,PanoVR1.RDK 預計於 2026 年上半年進入量產階段,初期將以 PC 連接形式提供,支援 3DoF,並可透過市售追蹤器延伸至 6DoF。針對混合實境應用,Hypervision 也規劃於 2026 年下半年加入高解析度、廣視角的 MR 透視功能。此外,更進階的 PanoVR1.X.RDK 擴充版本,將進一步把整體視角推進至約 240° × 120° 的規模。

Hypervision 的技術路線並非直接鎖定消費級市場,而是優先聚焦對「完整視野感知」有明確需求的專業應用場景。隨著相關顯示引擎與製程逐步成熟,這類超廣視角 XR 架構是否能在成本、體積與實用性之間取得平衡,將成為未來幾年 XR 產業值得關注的發展方向之一。

X:@ASychov

Hypervision XR 顯示架構|規格與應用對照表

項目PanoVR1.RDKVRDOM Architecture備註說明
目標定位高沉浸 PC VR / MR 原型套件企業級超廣視角 XR 系統明確鎖定專業與模擬市場
顯示架構單組 HO140.Rev2 視覺引擎多視覺引擎拼接架構VRDOM 可擴充周邊視野
最大水平 FoV160°–180°(可調)最多 240°接近人類水平視野
最大垂直 FoV120°–130°120°–130°強調垂直 FoV 的重要性
立體重疊(Stereo Overlap)60%–100%(可調)約 90%高重疊有助深度判斷
最高 FoV 組合示例180° × 130° @ 80% overlap240° × 120° @ 90% overlap依使用情境調整
顯示面板2.56 吋 Fast LCD(BOE / TCL)多組 Fast LCD強調成本可控與量產性
連接方式PC tethered(Thunderbolt 4)PC / 企業系統非獨立式頭顯
追蹤自由度預設 3DOF,可擴充 6DOF依系統配置支援外接追蹤器
MR 穿透顯示H2 2026 預計導入規劃中高 PPD 超廣 FoV passthrough
預計推出時間H1 2026H2 2026(擴充版)已對應量產規劃
主要應用場景飛行 / 駕駛模擬、研發測試模擬訓練、遠端操控、LBE非主流消費娛樂取向
取代目標高階頭顯圓頂投影、CAVE 系統降低建置成本與空間

專利重點懶人包|Hypervision

這項專利在做什麼?

這項由 Hypervision 提出的美國專利(US12411342B2),核心目標是讓 VR / MR 顯示裝置能更接近人類的自然視野範圍,同時避免傳統超廣視角系統常見的畫面變形、體積過大與成本過高問題。

與其說這是一顆單一鏡頭或螢幕的創新,這份專利更像是一套「超廣視角顯示架構設計方法」。

為什麼這個問題重要?

目前市面多數 VR 頭顯的水平視野大約落在 90°–110°,即使是高階裝置,也很少超過 120°。
但人類的實際水平視野可接近 200° 以上,垂直視野也遠高於現行 XR 裝置。

這種差距會直接影響:

  • 空間感與速度感
  • 周邊視覺警覺(situational awareness)
  • 飛行、駕駛、遠端操控等專業應用的真實度

專利的關鍵技術重點

1️⃣ 多視覺引擎拼接的超廣視角架構
專利描述了一種可將多個「視覺引擎(Visual Engines)」組合的系統設計,用來覆蓋人類更完整的水平與垂直視野,而不是依賴單一巨大顯示模組。

這種方式可以:

  • 保持畫面清晰度與邊緣一致性
  • 避免極端鏡頭帶來的畸變
  • 彈性調整視角配置

2️⃣ 高立體重疊(Stereo Overlap)的設計理念
即使在超廣視角下,該架構仍強調維持高比例的雙眼重疊視野,確保立體深度感不被犧牲。
這點對於精準距離判斷、操作模擬與訓練應用尤其關鍵。

3️⃣ 視野可調的模組化配置
專利中提出可依需求在不同設定間切換,例如:

  • 較高立體重疊、較窄水平視角
  • 或更寬水平視角、較低立體重疊

讓系統能依應用場景(模擬、娛樂、遠端操作)進行最佳化,而非一體適用。

4️⃣ 對企業級 XR 與模擬應用的明確指向
專利內容多次提及:

  • 飛行與駕駛模擬
  • 遠端機器人/車輛監控
  • 定位式娛樂與大型沉浸空間

顯示這項技術並非優先針對消費市場,而是鎖定「需要完整視野感知的專業場景」。

與市面 XR 技術的差異是什麼?

現行主流 XRHypervision 專利方向
單一顯示模組多視覺引擎架構
視野受限接近完整人類視野
側重解析度視野 × 立體感並重
消費導向專業模擬與工業應用

這代表什麼?

這項專利顯示 Hypervision 正嘗試解決 XR 長期未被真正突破的「視野天花板」,並以工程化、可量產的方式切入,而非僅停留在實驗室展示。

若未來能在成本、體積與量產穩定度上達標,這類架構有機會重新定義「高沉浸 XR」在專業市場中的標準。

《BlackGate》:零重力非對稱多人恐怖 VR 現已於 Meta Quest 開放體驗

廣告

BlackGate》是一款主打零重力環境的多人非對稱恐怖 VR 遊戲,目前已於 Meta Quest 平台以 免費搶先體驗(Early Access) 形式推出。遊戲由 Megaverse LLC 開發、Fun Train Inc. 發行,設定在一座名為 BlackGate 的太空站中,將工程師與外星生物分為對立陣營,讓玩家在失重空間中展開緊張對抗。

在《BlackGate》中,最多四名玩家將扮演工程師,被派往太空站修復關鍵系統。他們需要分工合作、解鎖武器庫,同時設法在逐漸升高的威脅中存活下來。由於遊戲採用零重力移動設計,玩家必須透過推拉環境物件與推進器在狹窄空間中移動,這也讓探索與逃生本身成為一項風險極高的挑戰。

與工程師對立的另一名玩家,則將操控外星生物。外星體最初以脆弱的幼體形態出現,隨著時間推進與行動累積,逐步進化並解鎖更具攻擊性的能力。進化後的外星生物不僅能正面迎戰工程師,也能設置陷阱,迫使對手在有限空間中犯錯。整體節奏圍繞「時間壓力」展開,一旦工程師成功武裝自己,局勢就可能出現反轉。

《BlackGate》的概念最早來自獨立團隊 Imperial Dragons,在遊戲開發活動中展示原型後,獲得 Fun Train 的關注並促成合作。後續由 VR Monkey 接手實際開發,該團隊曾參與《Vampire: The Masquerade – Justice》、《Wraith: The Oblivion – Afterlife》等 VR 作品。Fun Train 也確認,《BlackGate》將作為旗下 Megaverse Originals 的一部分。

除了遊戲本身,Fun Train 也持續邀請玩家參與社群測試,開放 Discord 中的 #blackgate 頻道,讓有興趣的玩家能提前體驗並提供回饋。對於近年持續尋找差異化玩法的 VR 多人遊戲市場而言,《BlackGate》以零重力移動與非對稱恐怖為核心,提供了一種與傳統地面射擊或追逐類型截然不同的嘗試。

Meta 的下一代平台藍圖:VR × AI × Wearables × Robotics 的整合方向

廣告

在長達十多年的探索之後,Meta 正逐步勾勒出一個比單一裝置更大的未來平台藍圖。這個方向不再只是 VR、智慧眼鏡或 AI 各自發展,而是試圖將 VR、AI、穿戴式裝置與機器人技術整合為同一條技術路線,形成一個以「人為核心」的新一代運算平台。

Meta 認為,AI 是這條路線的關鍵催化劑。隨著 AI 能力快速提升,系統不再只是被動回應指令,而是能理解環境、預測需求,並主動協助使用者完成事情。這樣的能力,讓穿戴式裝置特別是 AI 眼鏡,成為承載下一代運算體驗的重要載體。眼鏡不需要佔據雙手或視線,卻能持續理解使用者的處境,成為隱身於日常生活中的運算介面。

在 VR 領域,Meta 持續強化其作為「模擬現實」的平台角色。透過新一代渲染技術與 AI 工具,虛擬世界不再只是遊戲場景,而是可以重建真實空間、承載社交互動,甚至成為創作者快速生成與分享世界的工具。VR 被視為一個能將數位體驗轉化為「空間存在感」的關鍵媒介。

這些技術的交集,也逐步延伸至機器人研究。Meta 在 2025 年成立新的機器人研究實驗室,目標並非單純打造硬體,而是讓機器人也能理解物理世界,並共享來自 VR、AI 與穿戴式裝置所累積的感知與互動經驗。這代表著,未來人類與機器之間的互動方式,可能建立在相同的感知與理解模型之上。

整體來看,Meta 描述的並不是單一產品的升級,而是一個跨裝置、跨場景的整合平台。VR 提供沉浸式空間,AI 負責理解與決策,穿戴式裝置成為日常入口,而機器人則把這些能力延伸到實體世界。最終,這些元素將匯聚成一個更貼近人類行為、也更自然融入生活的運算環境。

Meta 將這條路線視為「後智慧型手機時代」的基礎架構。技術不再只是佔據注意力的螢幕,而是逐漸退居背景,在使用者幾乎無感的狀態下運作。這樣的平台是否能真正成形,仍有許多挑戰,但從目前揭示的方向來看,Meta 正嘗試將過去十多年在 VR、AI 與穿戴式裝置的累積,整合為一個長期且系統性的未來布局。

AI 眼鏡正式進入主流:Ray-Ban Meta 與新一代「日常式運算」的成形

廣告

近十年來,Meta 不斷尋找「智慧手機之後」的下一個運算平台。這段過程中,它建立了 VR、手部追蹤、空間理解與各式可穿戴設備,但真正產生突破性變化的,是最新一代的 AI 技術 , 尤其是當 AI 與眼鏡結合的那一刻,未來的輪廓終於變得清晰。

Ray-Ban Meta 成為這個轉折的象徵。上市後已累積數百萬用戶,成為近期成長速度最快、也最具普及潛力的消費型可穿戴設備之一。與傳統 AR 眼鏡不同,它並非以「AR 特效」作為主軸,而是以更自然的方式把 AI 放在使用者的生活周圍,像一副能看、能聽、能理解你當下處境的「第二雙眼睛與耳朵」。

Meta 也展示了更進階的能力,例如 Conversation Focus,利用 AI 增強聽覺,只放大你正在交流的那個聲音,在擁擠的公共場合中特別實用。這項功能展示了 AI 如何讓「人體感知」與「個人技術代理人」結合得更加緊密,讓未來的智慧設備不只是工具,而是能真正理解情境的協作夥伴。

Meta Reality Labs Research 早在 2020 年便開始致力於打造 AR 與 VR 的未來,並因此匯聚一支由研究科學家、工程師與設計師組成的跨領域音訊團隊,共同推動突破性的聲音技術。團隊的使命是創造在感知上與現實無法區分的虛擬聲音,同時重新定義人類聽覺。他們專注於兩項關鍵能力:其一是讓虛擬聲音具備真實般的音頻臨場感,使聲音彷彿來自同一空間;其二是透過技術賦予人類「感知超能力」,讓使用者在嘈雜環境中仍能清晰聆聽,例如自動提升對話對象的聲音並降低背景雜訊,使未來的 AR/VR 體驗不只看起來真實,也能自然地「聽起來」像真實世界。

在相機方面,Ray-Ban Meta 透過 AI 不僅能協助拍攝,也逐漸學習「什麼時刻值得被拍下」。像是在騎乘自行車或跑步時,它能學習你的節奏,自動捕捉你可能想保留的最佳瞬間。這類的功能為 AI 眼鏡奠定了「主動式助理」的基礎 , 未來,它能越來越理解情境,直接幫你完成許多日常任務。

這些趨勢也透露出一個重要訊號:AI 眼鏡不會只是手機的附屬品,而是逐步成為下一代個人電腦的雛形。它們能理解你的環境、你的需求與你的意圖,並透過語音、視覺與手勢,在你不需要盯著螢幕的情況下完成事情。與 VR 等裝置一起,它們構成了 Meta 所期待的更自然、更低摩擦、更貼近人類感知的運算平台。

AI 正在讓運算不再「發生在手機裡」,而是發生在現實世界裡。Ray-Ban Meta 只是起點,未來會有更多類型、更輕量化、更具情境理解能力的 AI 眼鏡持續擴展這個新興品類。對整個科技而言,這是一個已被啟動、且無法逆轉的新 S 曲線。

Meta 與 iHeartMedia 攜手:Coldplay《Music of the Spheres》世界巡演將以沈浸式形式登上 Meta Horizon

廣告

Meta 今年宣布與 iHeartMedia 合作,把 Coldplay 破紀錄的《Music of the Spheres》世界巡演帶進 Meta Horizon,讓全球粉絲能以全新方式體驗這場被形容為「史上最震撼的現場演出」的巡演。Coldplay 表示,看到家鄉倫敦溫布利的演出能以 VR 形式共享給全球觀眾,是一件非常特別的事,也象徵著這場巡演意義的延伸。

12 月 30 日起,粉絲可透過 Meta Horizon 全新的 Arena 參加免費線上活動《Coldplay Music of the Spheres World Tour: An Immersive Experience》,使用 Quest 頭顯或行動裝置 App 便能進入現場,以前所未有的視角欣賞〈Yellow〉、〈Fix You〉、〈Viva La Vida〉、〈A Sky Full of Stars〉等經典曲目。這次的拍攝在倫敦溫布利體育館進行,採用 15 部同步攝影機與 VR180 立體影像打造,從高空軌道到近距離舞台邊角皆有收錄,呈現更貼近舞台的臨場感。

粉絲亦可在活動頁面免費領取 Coldplay 主題 Avatar 裝備,透過造型表達個人風格,並在 Horizon 內與來自世界各地的樂迷互動。為迎接這波內容更新,Beat Saber 也宣布推出 Coldplay Music Pack,收錄 12 首跨專輯的代表曲目,提供玩家以節奏遊戲方式重新感受 Coldplay 的旋律。

此外,美國與加拿大的 Quest 用戶可在 Supernatural 體驗 Coldplay 主題運動課程,由教練 Leanne Pedante 與 Dwana Olsen 帶來多強度拳擊與 Flow 訓練,搭配〈Fix You〉、〈Viva La Vida〉等舊作與最新單曲。使用者亦能在庫存中找到更多 Coldplay 音樂搭配的系列課程,持續擴展沉浸式運動的體驗。

Coldplay 在今年成為史上觀眾人數最多的巡演之一,而這次的合作讓巡演能以全新的方式走進粉絲生活。在今年的假期季節,無論是老粉、新粉,或只是想體驗沉浸式音樂演出的使用者,都能在 Meta Horizon 找到屬於自己的音樂時刻。

《Teenage Mutant Ninja Turtles: Empire City》釋出首支 VR 遊玩影片:經典風格、潛行動作與全新視覺理念正式曝光

廣告

Cortopia Studios 與 Beyond Frames Entertainment 近日公開《Teenage Mutant Ninja Turtles: Empire City》的首支遊玩預告,這也是繼紐約動漫展限定展示後,粉絲首次能完整看到遊戲內實際戰鬥、潛行與角色風格呈現。作為 2026 年即將推出的 VR 獨佔作品,本作重新詮釋龐大的 TMNT 世界觀,在動作體驗、敘事風格與美術方向上都展現出明顯的 VR 專屬設計。

遊戲故事背景設定在施瑞德(Shredder)消失後的城市。Foot Clan 反而擴大勢力,使街道比以往更危險。四位忍者龜必須重新理解這座逐漸陌生的城市,並面對許多熟悉又神秘的反派。團隊強調,他們希望延續 TMNT 一貫的幽默與情感,同時也呈現城市的危機感,使作品兼具風格化與角色魅力。

在 VR 操作上,玩家將直接以雙手揮舞各角色的代表性武器:李奧納多的雙刀、拉斐爾的雙叉、米開朗基羅的雙截棍、與多納太羅的長棍。戰鬥需要真實揮擊、格擋與時機判斷,同時透過攻擊累積能量以施放強化招式。玩家也能選擇更潛行導向的玩法,利用陰影、聲音與移動節奏躲避敵人,形成物理、策略混合的忍者體驗。

與許多動作 RPG 不同,《Empire City》並未採用傳統升級樹,而是透過道具、裝備與多納太羅工作台製作的新工具來推進角色成長。團隊希望讓玩家根據自身風格改變行動方式,而非被固定能力路線限制。

在美術方面,開發團隊與美術總監 Marcus Fritze 分享了相當完整的過程。雖然參考了過往 TMNT 作品,但靈感主要來自 IDW Comics 與《The Last Ronin》的視覺語氣,並在 VR 中追求「重量感」與「光影的敘事能力」。團隊最初嘗試漫畫式描邊,但在動態中效果不佳,最終選擇以清晰的材質搭配強烈的光影來定調氣氛,也讓「亮處危險、暗處安全」的潛行系統更自然融入場景。

城市設計則融合真實紐約的元素,例如曼哈頓大橋、Confucius Plaza 等場景,以壓縮後的方式呈現在 VR 空間中,既保留真實氣息,又維持遊戲節奏。角色方面,經典反派以全新視角重塑,並加入在 TMNT 世界觀中資料稀少的角色,由團隊自行推演補完,使設定更統一。某些敵人如可飛行的 Mousers、巨大化版本等,都為 VR 動作體驗提供更具戲劇性的對抗感。

團隊表示,VR 的限制反而讓設計更專注:「所有元素都必須有意義,若無助於敘事、氣氛或玩法,就不應該存在。」同時在場景中加入許多細節、塗鴉、與呼應紐約街頭的符號,讓城市更具生命力。

《Teenage Mutant Ninja Turtles: Empire City》預計於 2026 年在 VR 平台獨佔推出,目前已可於 Meta QuestSteamVR 加入願望清單。

4 / 16

Android XR SDK Developer Preview 3 全面開放:Google 讓 XR 開發變得更容易、更統一

廣告

Google 於 The Android Show | XR Edition 正式推出 Android XR SDK Developer Preview 3,意味著 Android XR 正邁入一個更成熟、可跨裝置應用的開發時代。無論是頭顯、AI 眼鏡或有線 XR glasses,Google 正試圖讓開發者用「同一套 Android 工具」打造下一代空間運算體驗。

這次更新的核心亮點,就是 全面開放 AI 眼鏡的應用開發能力。Google 為此推出 Jetpack Compose Glimmer,一款專為透明顯示打造的 UI 工具,讓資訊可自然地浮現在眼鏡鏡片中,不會阻礙視野,也不需額外學習複雜框架。同時,Jetpack Projected 讓開發者能將既有 Android 手機 App 的介面延伸到眼鏡顯示,大幅降低新裝置的內容門檻。這象徵著未來的 AI 眼鏡能更快速擴充生態系,不需要等待大量原生 App 重做介面。

在混合實境能力上,Developer Preview 3 亦深化了 ARCore for Jetpack XR,加入更智慧的 地理定位功能 ,使 XR 裝置能更準確理解使用者的所在位置與周遭環境。這讓導航、戶外資訊疊加與情境式提示等體驗更實用,也加速 XR 與真實世界的融合。

針對 Galaxy XR 這類頭顯,以及像 XREAL Project Aura 這類有線 XR glasses,Google 則加入了新的 FOV(視場角)偵測 API。不同 XR 裝置的視野範圍差異極大,這項能力讓 App 能依據裝置自動調整 UI 與顯示方式,保持一致且舒適的體驗。對希望跨裝置發行內容的團隊而言,是一個重要的步驟。

Google 也同步擴大與第三方引擎的合作。Unreal Engine 已能透過內建 OpenXR 支援 Android XR,並將推出整合 Google XR 能力的 vendor plug-in;Godot 亦正式加入 Android XR 支援,使團隊能直接將既有內容移植到 Galaxy XR 等裝置。Google 的目標是在 XR 生態系中打造一個更開放、熟悉、具可擴展性的跨平台環境。

Developer Preview 3 的亮相,彰顯 Google 對 XR 生態的長期投入:從 AI 眼鏡、輕量空間裝置到旗艦級頭顯,Android 正逐步形成一個橫跨多種形態的 XR 平台。對開發者而言,更新後的工具不只帶來更多裝置支援,也讓 XR 開發與傳統 Android 開發更接近,使 XR 應用的進入門檻比以往更低。

在 XR 正迎來多樣化裝置時代的此刻,Android XR SDK Developer Preview 3 是 Google 為下一代空間運算體驗奠定基礎的一次關鍵更新。