分類彙整: 虛擬實境資訊

VIVERSE 攜手 KIRI Engine:用手機掃描真實物件,快速打造可分享的 3D 世界

廣告

VIVERSE 宣布與行動 3D 掃描工具 KIRI Engine 展開合作,為創作者帶來更直覺、快速的 3D 建模與發佈流程。透過 KIRI Engine,使用者只需以手機拍攝照片或影片,即可生成高品質 3D 模型,並能直接匯入 VIVERSE Worlds,建立可透過連結分享的互動空間,無需安裝應用程式或使用傳統遊戲引擎。

KIRI Engine 提供多種 3D 重建技術,包括攝影測量(Photogrammetry)、Featureless Mode 與 3D Gaussian Splatting,可在行動裝置上快速完成細節豐富的模型建構。這些模型可直接應用於 VIVERSE 的瀏覽器型 3D 世界中,讓創作者能將現實物件轉化為展覽品、場景道具,甚至是完整的互動空間。

此外,針對高解析度或大型模型,創作者也能利用 VIVERSE 的 Polygon Streaming 技術進行最佳化,在保留細節的同時確保載入效能,讓多物件或複雜場景依然維持流暢體驗。這項整合被視為降低 3D 創作門檻、加速 WebXR 內容普及的重要一步。

VIVERSE 則扮演了展示與體驗平台的角色,讓掃描完成的模型不只是檔案,而是能被他人自由探索的空間內容。創作者可以將模型放入虛擬藝廊、屋頂聚會場景,或圍繞個人物件打造微型世界,並透過連結快速分享給他人。

VIVERSE 成長負責人 Andranik Aslanyan 表示,創作者需要的是快速且準確的工具,能夠無縫地將真實世界帶入沉浸式體驗。透過與 KIRI Engine 的合作,整個流程被大幅簡化,只需一支手機與一個連結,即可完成從掃描到發佈的創作。

Photogrammetry 是一種透過拍攝大量不同角度的 2D 照片,利用電腦分析影像中相同的特徵點,計算出物體或場景的空間深度與形狀,進而重建出高真實度 3D 模型的技術。

Featureless Mode 是一種在攝影測量(Photogrammetry)中使用的進階模式,專門用來處理表面缺乏明顯特徵的物體,例如純色、光滑、重複紋理或細節很少的物件。

3D Gaussian Splatting 是一種將真實場景轉換成可即時瀏覽 3D 的新技術。

VIVERSE BMW K 1600 GTL

Meta Quest v83 強化手部追蹤體驗:Hands 2.4 提升高速動作穩定度,移動與投擲互動更自然

廣告

自 2019 年於 Meta Quest 平台首次推出以來,手部追蹤逐步從實驗性功能,發展為 VR 中最直覺且具沉浸感的互動方式之一。隨著 Meta Horizon OS v83 更新推出,Hand Tracking 再次迎來重要進化,正式成為系統層級的核心互動能力。

此次 v83 更新聚焦於實際體驗層面的提升,包括效能優化、高速動作穩定度、移動設計簡化,以及投擲互動的高度客製化。Meta 表示,這次更新的目標是進一步縮短「使用者意圖」與「系統回應」之間的距離,讓手勢操作在更多情境下成為最自然的互動方式。

在 Hands 2.4 版本中,Fast Motion Mode(FMM)獲得明顯強化。過去在節奏遊戲或健身應用中,快速揮動、打擊或甩動動作容易造成追蹤遺失或延遲,而新版 Hands 2.4 透過更快的手部重新偵測、進階動作取樣,以及優化後的快速動作濾波,大幅提升高速手勢的連續性與可信度。

快速運動模式 (FMM):以前稱為“高頻手部追蹤”,可更好地追蹤健身和節奏類應用中常見的快速動作。

搭配 Wide Motion Mode(WMM)使用時,即使雙手短暫離開頭顯視野範圍,系統仍能維持合理的手部姿態推測,使健身、節奏與投擲類體驗在動作與畫面呈現上更為一致,減少沉浸感中斷。

廣域運動模式 (WMM): 可讓您追蹤手部動作並顯示逼真的手部姿勢,即使手部超出頭戴裝置的視野範圍,從而提升社交臨場感和廣域運動追蹤效果。

在互動設計層面,v83 也進一步擴充 Interaction SDK,針對「以手為主」的遊戲與應用,提供更成熟的移動與投擲解決方案。新版 SDK 範例中加入了更自然的傳送手勢、攀爬移動方式,以及可依使用者動作即時回饋的物理式移動設計,讓開發者不必從零開始打造複雜的手勢移動系統。

投擲互動方面,Interaction SDK 新增多種可調整的投擲模型與範例場景,涵蓋精準投擲、重量拋物線與滑翔式軌跡等不同需求,對應飛鏢、保齡球、飛盤、籃球等多種玩法情境,讓手部投擲在手感與物理行為上更貼近真實預期。

整體而言,Meta Quest v83 不僅是一次單純的追蹤精度升級,而是持續將手部追蹤推向更可靠、更具延展性的互動基礎,為未來以雙手為核心的 VR 體驗奠定更成熟的系統層支撐。

Disney+ 正式登陸 Meta Quest,美國用戶可在虛擬巨幕上觀看迪士尼全系列內容

廣告

Disney+ 今日正式在美國地區登陸 Meta Quest 平台,為 VR 使用者帶來龐大的串流影音內容庫。透過 Quest 頭顯,訂閱用戶可在虛擬巨幕上觀看來自 DisneyPixarMarvelStar WarsNational Geographic 等品牌的作品,同時也包含部分 HuluESPN 的內容,讓 Quest 成為一個可隨時攜帶的個人影院。

在 Meta Quest 上,使用者可欣賞最新電影、原創影集與經典作品,從《小鬼當家》等節慶電影,到《辛普森家庭》與漫威系列皆可在虛擬空間中播放。由於 Quest 支援 Dolby 技術,Disney+ 美國用戶可在頭顯內觀看部分支援 Dolby Vision 的 4K HDR 影片;升級至 Disney+ Premium 方案後,還可啟用 Dolby Atmos 音效,進一步提升沉浸式觀影體驗。

Disney+ 也同步主打《波西傑克森:神火之賊》第二季的播出。該季改編自原著小說《海妖之海》,故事延續第一季劇情,描繪波西重返混血營後所面臨的全新變化與威脅。透過 Meta Quest,觀眾可在私人虛擬劇院中完整體驗這段神話冒險旅程,無論身處家中、宿舍或旅途中,都能享受大尺寸畫面所帶來的臨場感。

隨著 Disney+ 正式支援 Meta Quest,串流影音服務進一步擴展至 VR 平台,也顯示主流影音內容正逐步將沉浸式觀看體驗納入核心策略之一。

Hypervision 超廣視角 VR/MR 顯示架構,專利技術瞄準完整人類視野模擬

廣告

Hypervision 其 VR/MR 顯示架構與相關研發進度,目標在於解決長期困擾 XR 領域的「視野受限」問題,並透過模組化顯示引擎,逐步實現更接近人類自然視野的沉浸體驗。相關核心技術已獲得美國專利核准,顯示該架構正朝向實際應用階段推進。

根據 Hypervision 說明,其顯示引擎主打超廣視角與高畫質結合,單一視覺模組即可提供最高約 130° 的單眼視野,並在雙眼配置下支援從 140° 到 180° 不同水平視角組合,同時保留大幅度的垂直視野。這樣的設計回應了 VR 社群長期回饋,相比極端的水平視角,垂直視野對於臨場感與空間判斷的重要性往往更高。

在架構層面,Hypervision 提出名為 VRDOM 的顯示系統,透過多個視覺引擎組合,最高可支援達 270° × 130°、並保有高比例立體重疊的全視野刺激。該系統被定位為企業級解決方案,作為傳統圓頂投影室或多面 CAVE 系統的低成本替代方案,主要應用於飛行與駕駛模擬、遠端機器人監控,以及需要高度環境感知的定位式娛樂場域。

目前展示的 PanoVR1.RDK 開發套件,則被視為過渡至完整全視野 XR 的關鍵產品。該套件基於 HO140.Rev2 視覺引擎設計,可在不同立體重疊比例下,彈性調整水平與垂直視角配置,並支援旋轉顯示模組以進一步擴展可視範圍。Hypervision 表示,該系統在兼顧視野、畫質與體積的前提下,嘗試降低高階 XR 顯示的導入門檻。

在實際部署規劃上,PanoVR1.RDK 預計於 2026 年上半年進入量產階段,初期將以 PC 連接形式提供,支援 3DoF,並可透過市售追蹤器延伸至 6DoF。針對混合實境應用,Hypervision 也規劃於 2026 年下半年加入高解析度、廣視角的 MR 透視功能。此外,更進階的 PanoVR1.X.RDK 擴充版本,將進一步把整體視角推進至約 240° × 120° 的規模。

Hypervision 的技術路線並非直接鎖定消費級市場,而是優先聚焦對「完整視野感知」有明確需求的專業應用場景。隨著相關顯示引擎與製程逐步成熟,這類超廣視角 XR 架構是否能在成本、體積與實用性之間取得平衡,將成為未來幾年 XR 產業值得關注的發展方向之一。

X:@ASychov

Hypervision XR 顯示架構|規格與應用對照表

項目PanoVR1.RDKVRDOM Architecture備註說明
目標定位高沉浸 PC VR / MR 原型套件企業級超廣視角 XR 系統明確鎖定專業與模擬市場
顯示架構單組 HO140.Rev2 視覺引擎多視覺引擎拼接架構VRDOM 可擴充周邊視野
最大水平 FoV160°–180°(可調)最多 240°接近人類水平視野
最大垂直 FoV120°–130°120°–130°強調垂直 FoV 的重要性
立體重疊(Stereo Overlap)60%–100%(可調)約 90%高重疊有助深度判斷
最高 FoV 組合示例180° × 130° @ 80% overlap240° × 120° @ 90% overlap依使用情境調整
顯示面板2.56 吋 Fast LCD(BOE / TCL)多組 Fast LCD強調成本可控與量產性
連接方式PC tethered(Thunderbolt 4)PC / 企業系統非獨立式頭顯
追蹤自由度預設 3DOF,可擴充 6DOF依系統配置支援外接追蹤器
MR 穿透顯示H2 2026 預計導入規劃中高 PPD 超廣 FoV passthrough
預計推出時間H1 2026H2 2026(擴充版)已對應量產規劃
主要應用場景飛行 / 駕駛模擬、研發測試模擬訓練、遠端操控、LBE非主流消費娛樂取向
取代目標高階頭顯圓頂投影、CAVE 系統降低建置成本與空間

專利重點懶人包|Hypervision

這項專利在做什麼?

這項由 Hypervision 提出的美國專利(US12411342B2),核心目標是讓 VR / MR 顯示裝置能更接近人類的自然視野範圍,同時避免傳統超廣視角系統常見的畫面變形、體積過大與成本過高問題。

與其說這是一顆單一鏡頭或螢幕的創新,這份專利更像是一套「超廣視角顯示架構設計方法」。

為什麼這個問題重要?

目前市面多數 VR 頭顯的水平視野大約落在 90°–110°,即使是高階裝置,也很少超過 120°。
但人類的實際水平視野可接近 200° 以上,垂直視野也遠高於現行 XR 裝置。

這種差距會直接影響:

  • 空間感與速度感
  • 周邊視覺警覺(situational awareness)
  • 飛行、駕駛、遠端操控等專業應用的真實度

專利的關鍵技術重點

1️⃣ 多視覺引擎拼接的超廣視角架構
專利描述了一種可將多個「視覺引擎(Visual Engines)」組合的系統設計,用來覆蓋人類更完整的水平與垂直視野,而不是依賴單一巨大顯示模組。

這種方式可以:

  • 保持畫面清晰度與邊緣一致性
  • 避免極端鏡頭帶來的畸變
  • 彈性調整視角配置

2️⃣ 高立體重疊(Stereo Overlap)的設計理念
即使在超廣視角下,該架構仍強調維持高比例的雙眼重疊視野,確保立體深度感不被犧牲。
這點對於精準距離判斷、操作模擬與訓練應用尤其關鍵。

3️⃣ 視野可調的模組化配置
專利中提出可依需求在不同設定間切換,例如:

  • 較高立體重疊、較窄水平視角
  • 或更寬水平視角、較低立體重疊

讓系統能依應用場景(模擬、娛樂、遠端操作)進行最佳化,而非一體適用。

4️⃣ 對企業級 XR 與模擬應用的明確指向
專利內容多次提及:

  • 飛行與駕駛模擬
  • 遠端機器人/車輛監控
  • 定位式娛樂與大型沉浸空間

顯示這項技術並非優先針對消費市場,而是鎖定「需要完整視野感知的專業場景」。

與市面 XR 技術的差異是什麼?

現行主流 XRHypervision 專利方向
單一顯示模組多視覺引擎架構
視野受限接近完整人類視野
側重解析度視野 × 立體感並重
消費導向專業模擬與工業應用

這代表什麼?

這項專利顯示 Hypervision 正嘗試解決 XR 長期未被真正突破的「視野天花板」,並以工程化、可量產的方式切入,而非僅停留在實驗室展示。

若未來能在成本、體積與量產穩定度上達標,這類架構有機會重新定義「高沉浸 XR」在專業市場中的標準。

Meta 的下一代平台藍圖:VR × AI × Wearables × Robotics 的整合方向

廣告

在長達十多年的探索之後,Meta 正逐步勾勒出一個比單一裝置更大的未來平台藍圖。這個方向不再只是 VR、智慧眼鏡或 AI 各自發展,而是試圖將 VR、AI、穿戴式裝置與機器人技術整合為同一條技術路線,形成一個以「人為核心」的新一代運算平台。

Meta 認為,AI 是這條路線的關鍵催化劑。隨著 AI 能力快速提升,系統不再只是被動回應指令,而是能理解環境、預測需求,並主動協助使用者完成事情。這樣的能力,讓穿戴式裝置特別是 AI 眼鏡,成為承載下一代運算體驗的重要載體。眼鏡不需要佔據雙手或視線,卻能持續理解使用者的處境,成為隱身於日常生活中的運算介面。

在 VR 領域,Meta 持續強化其作為「模擬現實」的平台角色。透過新一代渲染技術與 AI 工具,虛擬世界不再只是遊戲場景,而是可以重建真實空間、承載社交互動,甚至成為創作者快速生成與分享世界的工具。VR 被視為一個能將數位體驗轉化為「空間存在感」的關鍵媒介。

這些技術的交集,也逐步延伸至機器人研究。Meta 在 2025 年成立新的機器人研究實驗室,目標並非單純打造硬體,而是讓機器人也能理解物理世界,並共享來自 VR、AI 與穿戴式裝置所累積的感知與互動經驗。這代表著,未來人類與機器之間的互動方式,可能建立在相同的感知與理解模型之上。

整體來看,Meta 描述的並不是單一產品的升級,而是一個跨裝置、跨場景的整合平台。VR 提供沉浸式空間,AI 負責理解與決策,穿戴式裝置成為日常入口,而機器人則把這些能力延伸到實體世界。最終,這些元素將匯聚成一個更貼近人類行為、也更自然融入生活的運算環境。

Meta 將這條路線視為「後智慧型手機時代」的基礎架構。技術不再只是佔據注意力的螢幕,而是逐漸退居背景,在使用者幾乎無感的狀態下運作。這樣的平台是否能真正成形,仍有許多挑戰,但從目前揭示的方向來看,Meta 正嘗試將過去十多年在 VR、AI 與穿戴式裝置的累積,整合為一個長期且系統性的未來布局。

VR 的全新技術基礎:Hyperscape、Gaussian Splatting 與 AI 生成世界

廣告

2025 年,Meta 在 VR 技術基礎層帶來一系列重要變化,標誌著沉浸式內容創作方式正走向一個全新的階段。從高實境感的 3D 捕捉,到 AI 自動生成場景,再到能在瞬間分享的社交空間,新技術正在讓虛擬世界變得更真實、更容易創作,也更易於被大眾接受。

其中最具代表性的,就是 Hyperscape。這項新功能讓使用者僅需一台 Quest 頭顯,就能快速掃描周遭場景並生成逼真的 3D 空間。這些空間能直接在線上分享,好友可以像走進對方家中一樣進入場景探索。過去需要專業團隊才能完成的 3D 場景,如今成為一般用戶也能做到的日常能力,這也逐漸改變了人們紀錄與分享世界的方式。

Hyperspace(超空間)在科幻領域指一種高維度空間,是實現超光速星際旅行的虛構途徑,讓飛船能瞬間跨越遙遠距離;在數學和物理概念中,它也泛指比我們三維空間維度更高、更抽象的空間,例如四維超正方體或超平面。 

在更專業的層面上,Gaussian Splatting 已成為高擬真 3D 重建的重要技術。相比傳統建模方式,Gaussian Splatting 能以更自然的光影與更高密度的資料還原現實空間,使內容在 VR 中呈現時有更接近肉眼觀察的細節。這項技術開始被整合進平台內,讓開發者能更容易利用真實世界素材創造互動式場景。

Gaussian Splatting 是近年崛起的一種新型 3D 場景重建與即時渲染技術。它以大量分布在空間中的 3D 高斯函數(可視為柔和的、具有體積感的橢球)來逼真描述現實場景,藉此取代傳統多邊形或體素的方式。透過這種表達法,系統能以極高效率從 2D 影像中重建出細節豐富、可自由漫遊的 3D 場景,並在即時運算下呈現接近真實的光影與深度效果。

與此同時,AI 的加入讓「生成式世界」成為可能。Meta 今年在 Horizon 展示能透過文字提示自動生成 3D 場景、物件、角色與動態影像的工具,使用者輸入一段描述,就能瞬間生成一個可探索的 VR 世界。這降低了創作門檻,讓過去需要專業美術與工程投入才能完成的內容,如今只需透過簡單操作便能實現。

3D 捕捉、Gaussian Splatting 與 AI 生成世界的結合,使未來的虛擬空間不再侷限於遊戲或娛樂,而是逐步成為新的社交載體。一間房間、一段回憶、一個想像中的場景,都能被記錄、重建並分享,形成本質上更具「真實感」的沉浸式互動方式。

這些技術的底層變化讓 VR 的未來有了更清晰的輪廓:
一個能以現實為基礎、以 AI 為引擎、以個人創作為核心的虛擬世界正在逐步成形。

Meta Neural Band:從肌肉電訊號開始的下一代「神經介面運算」

廣告

在探索未來運算平台的過程中,Meta 認為最重要的突破之一,並不來自螢幕或鏡片,而是來自人類身體本身。Meta Neural Band,以肌電圖(EMG)為基礎的神經介面,正在重新定義人類與電腦的互動方式。

這項技術的核心理念非常直接:只要讀取手腕上的微小神經訊號,電腦就能理解你即將做出的手指動作。例如,在你真正按下按鍵前,神經指令已經被感測到並轉換成輸入。這種「意圖即動作」的互動方式,是自鍵盤滑鼠、觸控螢幕以來最大的一次輸入革命。

Meta 強調,以往 EMG 技術普遍需要高成本設備與長時間校正,且只能在少數人身上可靠運作。但 AI 的加入改變了一切。透過更大規模的資料、模型訓練與泛化能力,Meta Neural Band 能直接在大部分人身上準確運作,不需任何校正、不需學習期,戴上即可使用。

初期版本已能進行滑動、點擊、旋轉等精準操作,而更進階的「EMG 手寫」功能也即將推出。它能辨識手指在空中進行的細微書寫動作,即便你手沒有碰到任何表面,也能完成字母輸入。這讓穿戴式設備真正具備了「無螢幕文字輸入」的可能性。

從技術角度來看,Neural Band 解決了穿戴式設備的一個核心瓶頸:輸入方式。眼鏡雖能呈現資訊,但如何自然地把訊息「輸入」回系統,一直是重大難題。語音不適用所有情境,手勢仍然受限,而 Neural Band 則提供了一種更貼近人類意圖的方式。

更重要的是,這項技術具備成長性。Meta 表示,EMG 有能力追蹤「上千個運動神經元」,意味著未來可以辨識更複雜的操作,例如虛擬鍵盤、遊戲動作、3D 物件操控,甚至是近乎「心念控制」的輸入方式。當 AI 與神經訊號模型變得更強大,與電腦互動將不再需要任何外接裝置。

這一切讓我們第一次看到了未來運算的雛形:
不需要滑鼠、不需要鍵盤、不需要觸控螢幕,也不需要揮動手臂。
你的「意圖」本身就是輸入。

Neural Band 的誕生不僅強化了 AI 眼鏡的使用體驗,也為整個 XR、生產力應用、社交互動與遊戲玩法開啟了新的可能性。未來,它可能成為所有可穿戴式運算設備的標準介面,也是 Meta 所謂「下一個十年計算平台」的重要根基。

AI 眼鏡正式進入主流:Ray-Ban Meta 與新一代「日常式運算」的成形

廣告

近十年來,Meta 不斷尋找「智慧手機之後」的下一個運算平台。這段過程中,它建立了 VR、手部追蹤、空間理解與各式可穿戴設備,但真正產生突破性變化的,是最新一代的 AI 技術 , 尤其是當 AI 與眼鏡結合的那一刻,未來的輪廓終於變得清晰。

Ray-Ban Meta 成為這個轉折的象徵。上市後已累積數百萬用戶,成為近期成長速度最快、也最具普及潛力的消費型可穿戴設備之一。與傳統 AR 眼鏡不同,它並非以「AR 特效」作為主軸,而是以更自然的方式把 AI 放在使用者的生活周圍,像一副能看、能聽、能理解你當下處境的「第二雙眼睛與耳朵」。

Meta 也展示了更進階的能力,例如 Conversation Focus,利用 AI 增強聽覺,只放大你正在交流的那個聲音,在擁擠的公共場合中特別實用。這項功能展示了 AI 如何讓「人體感知」與「個人技術代理人」結合得更加緊密,讓未來的智慧設備不只是工具,而是能真正理解情境的協作夥伴。

Meta Reality Labs Research 早在 2020 年便開始致力於打造 AR 與 VR 的未來,並因此匯聚一支由研究科學家、工程師與設計師組成的跨領域音訊團隊,共同推動突破性的聲音技術。團隊的使命是創造在感知上與現實無法區分的虛擬聲音,同時重新定義人類聽覺。他們專注於兩項關鍵能力:其一是讓虛擬聲音具備真實般的音頻臨場感,使聲音彷彿來自同一空間;其二是透過技術賦予人類「感知超能力」,讓使用者在嘈雜環境中仍能清晰聆聽,例如自動提升對話對象的聲音並降低背景雜訊,使未來的 AR/VR 體驗不只看起來真實,也能自然地「聽起來」像真實世界。

在相機方面,Ray-Ban Meta 透過 AI 不僅能協助拍攝,也逐漸學習「什麼時刻值得被拍下」。像是在騎乘自行車或跑步時,它能學習你的節奏,自動捕捉你可能想保留的最佳瞬間。這類的功能為 AI 眼鏡奠定了「主動式助理」的基礎 , 未來,它能越來越理解情境,直接幫你完成許多日常任務。

這些趨勢也透露出一個重要訊號:AI 眼鏡不會只是手機的附屬品,而是逐步成為下一代個人電腦的雛形。它們能理解你的環境、你的需求與你的意圖,並透過語音、視覺與手勢,在你不需要盯著螢幕的情況下完成事情。與 VR 等裝置一起,它們構成了 Meta 所期待的更自然、更低摩擦、更貼近人類感知的運算平台。

AI 正在讓運算不再「發生在手機裡」,而是發生在現實世界裡。Ray-Ban Meta 只是起點,未來會有更多類型、更輕量化、更具情境理解能力的 AI 眼鏡持續擴展這個新興品類。對整個科技而言,這是一個已被啟動、且無法逆轉的新 S 曲線。

Android XR SDK Developer Preview 3 全面開放:Google 讓 XR 開發變得更容易、更統一

廣告

Google 於 The Android Show | XR Edition 正式推出 Android XR SDK Developer Preview 3,意味著 Android XR 正邁入一個更成熟、可跨裝置應用的開發時代。無論是頭顯、AI 眼鏡或有線 XR glasses,Google 正試圖讓開發者用「同一套 Android 工具」打造下一代空間運算體驗。

這次更新的核心亮點,就是 全面開放 AI 眼鏡的應用開發能力。Google 為此推出 Jetpack Compose Glimmer,一款專為透明顯示打造的 UI 工具,讓資訊可自然地浮現在眼鏡鏡片中,不會阻礙視野,也不需額外學習複雜框架。同時,Jetpack Projected 讓開發者能將既有 Android 手機 App 的介面延伸到眼鏡顯示,大幅降低新裝置的內容門檻。這象徵著未來的 AI 眼鏡能更快速擴充生態系,不需要等待大量原生 App 重做介面。

在混合實境能力上,Developer Preview 3 亦深化了 ARCore for Jetpack XR,加入更智慧的 地理定位功能 ,使 XR 裝置能更準確理解使用者的所在位置與周遭環境。這讓導航、戶外資訊疊加與情境式提示等體驗更實用,也加速 XR 與真實世界的融合。

針對 Galaxy XR 這類頭顯,以及像 XREAL Project Aura 這類有線 XR glasses,Google 則加入了新的 FOV(視場角)偵測 API。不同 XR 裝置的視野範圍差異極大,這項能力讓 App 能依據裝置自動調整 UI 與顯示方式,保持一致且舒適的體驗。對希望跨裝置發行內容的團隊而言,是一個重要的步驟。

Google 也同步擴大與第三方引擎的合作。Unreal Engine 已能透過內建 OpenXR 支援 Android XR,並將推出整合 Google XR 能力的 vendor plug-in;Godot 亦正式加入 Android XR 支援,使團隊能直接將既有內容移植到 Galaxy XR 等裝置。Google 的目標是在 XR 生態系中打造一個更開放、熟悉、具可擴展性的跨平台環境。

Developer Preview 3 的亮相,彰顯 Google 對 XR 生態的長期投入:從 AI 眼鏡、輕量空間裝置到旗艦級頭顯,Android 正逐步形成一個橫跨多種形態的 XR 平台。對開發者而言,更新後的工具不只帶來更多裝置支援,也讓 XR 開發與傳統 Android 開發更接近,使 XR 應用的進入門檻比以往更低。

在 XR 正迎來多樣化裝置時代的此刻,Android XR SDK Developer Preview 3 是 Google 為下一代空間運算體驗奠定基礎的一次關鍵更新。

Galaxy XR 推出新系統更新:PC Connect、Travel Mode 與 Likeness 強化日常使用體驗

廣告

Android XR 生態系今年迎來一項重要更新,而 Galaxy XR 也成為首批受惠的裝置之一。隨著 Google 在 The Android Show: XR Edition 公布最新功能,Galaxy XR 正逐步從單一娛樂設備,轉變成更貼近日常工作與通訊情境的 XR 裝置。

更新中最受關注的功能,是正式上線的 PC Connect Beta。使用者能將 Windows 電腦串接至頭顯,將桌面或單一視窗拖入 XR 空間,並與 Play 商店的原生應用並排使用。這種同時操作 PC 與 XR Apps 的工作模式,讓頭顯不再只是播放內容的裝置,而更像是可自由擴增的多螢幕工作站。對習慣遠端工作、創作工具或 PC 遊戲的使用者而言,PC Connect 代表一種新的跨裝置協作方式。

PC Connect Beta

另一項加入的功能,是為通勤與旅行情境而設計的 Travel Mode。它能在車輛震動或飛機移動時,維持視野穩定,讓使用者能在狹窄環境中閱讀、工作或觀影,而不會受到移動干擾。這讓 XR 頭顯更貼近日常情境,並減少以往 XR 裝置不適合在移動中使用的限制。

Travel Mode

通訊方面,Galaxy XR 也開始推出 Likeness Beta,能建立接近真實面部表情與手勢的個人化虛擬臉部模型,用於視訊通話。此功能讓 XR 會議不再是抽象化的虛擬角色,而更像是以個人特徵為基礎的自然交流方式。Google 表示該技術未來將逐步擴大功能與精準度,使 XR 裝置在社交場合中具備更高的存在感與可信度。

Likeness Beta with mobile

在 Likeness(測試版)中,使用者能依需求自訂個人虛擬肖像,包括調整色溫、亮度與背景顏色等細節,讓呈現效果更貼近真實外貌。所有編輯操作都能在即時視圖中完成,只需選擇「編輯」或開啟調整工具即可微調視覺風格。若想變更背景,也能透過顏色填滿工具快速設定。當使用者決定刪除某個肖像時,系統會同步移除所有相關資料,不會保留在任何裝置上。操作方式可在頭戴裝置或行動應用程式中進行:只要在 Likeness(測試版)中選擇要刪除的肖像,並從工具列或長按呼出的刪除選項中確認即可。整體流程設計簡單直覺,方便使用者保持自己的虛擬形象始終符合需求。

調整色溫、亮度或進行微調
調整背景顏色

本次更新並非只是功能的堆疊,而是代表 Android XR 正逐步走向混合工作、個人助理與沉浸娛樂的整合形式。Galaxy XR 作為首波裝置,讓外界更加清楚看見 Google 與 Samsung 共同打造 XR 生態系的方向。

Explore POV 榮獲 Apple Vision Pro App of the Year,沉浸式影像邁向新里程碑

廣告

Apple 公布 2025 App Store Awards,其中 Explore POV 奪下 Apple Vision Pro App of the Year,成為今年在沉浸式內容領域最受矚目的作品之一。這款由個人開發者 James Hustler 主導的應用,從一開始並不是大規模團隊,而是在紐西蘭旅行時以露營車作為基地、一步步探索沉浸式影像拍攝技術所誕生的成果。

Explore POV 的核心概念非常直接:如何讓人「真的感覺自己在現場」。與一般旅遊影像不同,應用採用 16K VR180 影片,搭配 Vision Pro 的空間顯示能力,使觀看體驗更接近「重返一個地方」,而不是單純觀看一段記錄。作品目前已走訪超過 20 個國家、累積發佈超過 150 支沉浸式影片,內容橫跨瀑布、雪山、雨林、海岸、冰河等多種環境,也成為許多使用者日常放鬆、冥想或追溯回憶的方式。

亮眼的不只是畫面,而是這個 App 與 Vision Pro 生態系相互成長的過程。Explore POV 迄今已累積超過 80,000 名使用者,App Store 上數千則 5 星評價也反映出沉浸式旅遊內容正在形成新類型的數位體驗,不僅用於娛樂,也被用在教育、無障礙體驗或療癒用途。Apple 在頒獎典禮上特別示範 Explore POV,也象徵 Vision Pro 正朝向更成熟的沉浸式內容平台邁進。

對開發者來說,這個獎項是一個階段性的肯定。James Hustler 表示,這個專案從來不是以商業為出發點,而是一個「讓人能看到世界更多地方」的願望逐步進化而成。如今 Explore POV 已成為 Vision Pro 上最具代表性的沉浸式影像 App,而接下來,團隊將持續擴展影片庫並投入更多保育與戶外紀錄計畫,讓更多人能透過 Vision Pro 接觸到世界的壯麗景色。

3 / 8

Meta 成立全新創意設計工作室,前 Apple 設計領軍加入 Reality Labs

廣告

Meta 宣布成立新的創意設計工作室,由曾在 Apple 主導近 20 年設計工作的 Alan Dye 擔任領導。這項組織調整聚焦於未來硬體、軟體以及 AI 裝置的整合,並希望在下一階段產品中提升設計的重要性。Mark Zuckerberg 表示,團隊的目標是把「智慧」視為新的設計材料,重新思考未來裝置在人類生活中的角色。

新工作室將整合設計、美學、科技與系統思維,由多位跨領域的設計領導者共同打造。團隊成員包含同樣來自 Apple 的 Billy SorrentinoJoshua To 負責 Reality Labs 介面設計 , Pete Bristol 帶領的工業設計團隊,以及 Jason Rubin 主導的元宇宙與藝術設計團隊。這些團隊將在同一架構下協作,致力讓未來的 XR 與 AI 裝置具有更自然、更直覺、更以人為本的互動方式。

隨著 AI 眼鏡與其他新型裝置逐漸成為科技產業的核心焦點,Meta 認為設計將加速決定產品的體驗形態與市場接受度。Zuckerberg 表示,新工作室的任務是讓每一次互動都變得更直覺、更貼近人的行為模式。Meta 也將此視為 Reality Labs 的下一階段策略,強調在硬體與軟體整合之外,將設計本身置於更核心的位置。

Mark Zuckerberg:
Today we’re establishing a new creative studio in Reality Labs led by Alan Dye, who has spent nearly 20 years leading design at Apple.

The new studio will bring together design, fashion, and technology to define the next generation of our products and experiences. Our idea is to treat intelligence as a new design material and imagine what becomes possible when it is abundant, capable, and human-centered. We plan to elevate design within Meta, and pull together a talented group with a combination of craft, creative vision, systems thinking, and deep experience building iconic products that bridge hardware and software.

Alan will be joined by Billy Sorrentino, another acclaimed design lead from Apple; Joshua To, who has led our interface design across Reality Labs; our industrial design team led by Pete Bristol; and our metaverse design and art teams led by Jason Rubin.

We’re entering a new era where AI glasses and other devices will change how we connect with technology and each other. The potential is enormous, but what matters most is making these experiences feel natural and truly centered around people. With this new studio, we’re focused on making every interaction thoughtful, intuitive, and built to serve people.

I’m excited to welcome Alan and Billy to Meta to work with me, Boz, and our team to drive this important work forward.