標籤彙整: AR

XREAL 推出 XREAL 1S 與 Neo Hub:顯示型 AR 眼鏡的下一步進化

廣告

CES 2026 期間,XREAL 正式發表新一代 XREAL 1S 空間眼鏡,並同步推出全新配件 Neo Hub。相較於前幾代產品,XREAL 1S 並未改變其核心產品方向,而是在既有的「顯示型 AR 眼鏡」定位上,針對顯示品質、空間穩定性與內容呈現方式進行深化與優化。

其眼鏡的主要功能,是在使用者視野前方顯示一個大型的虛擬螢幕,用來呈現手機、電腦、遊戲主機或其他裝置的即時畫面輸出,而非建立一套全新的 XR 應用生態。這樣的設計讓使用者不需要改變原本的使用習慣,也不必重新適應一套陌生的操作系統。

XREAL 1S 的重要更新之一,是導入全新的 X1 空間運算晶片。這顆處理器並非通用型 SoC,而是專為 AR 顯示場景設計,主要負責低延遲顯示處理、畫面同步與空間錨定相關運算。XREAL 表示,X1 的設計重點在於提升畫面穩定性,尤其是在移動或長時間使用的情境下,降低畫面飄移與不適感。

在 X1 晶片的支援下,XREAL 1S 新增了 Real 3D 顯示模式。啟用此模式後,虛擬顯示器中的所有內容,包括原本為 2D 的電影、影片與電子遊戲,都會即時轉換為具有景深層次的 3D 顯示效果。這項功能並不依賴內容本身是否為原生 3D,而是由系統即時進行空間演算,屬於顯示層級的立體化處理,而非 VR 那種完全重新建構的 3D 世界。

顯示規格方面,XREAL 1S 也帶來多項實質升級。解析度由前代的 1080p 提升至 1200p,支援最高 120Hz 更新率,視場角提升至 52 度,峰值亮度提高至 700 nits,同時官方標示 motion-to-photon 延遲低至 3ms。這些數據顯示,XREAL 並未一味追求極端寬廣的視場,而是選擇在清晰度、流暢度與穩定性之間取得平衡,使其更接近一個可長時間使用的顯示器,而非短時間高刺激的沉浸式頭顯。

在實際使用上,XREAL 1S 允許使用者透過實體按鍵,將虛擬顯示器固定在空間中的某個位置,並將顯示尺寸擴展至最高 500 吋。畫面可以選擇隨視線移動,維持在鏡框範圍內,也可以鎖定在空間中,使其尺寸超出視野邊界,這樣的設計在觀影或搭配筆電進行多工操作時,能夠提供更接近大尺寸外接顯示器的使用感受。

鏡片方面,XREAL 1S 延續 One 系列的電致變色設計,提供 Clear、Shade 與 Theatre 等模式,讓使用者可依環境光線與使用情境調整鏡片透明度。這樣的配置反映出產品仍以日常使用與長時間佩戴為主要考量,而非僅限於室內或完全沉浸的環境。官方同樣強調其通過多項 TÜV Rheinland 護眼相關認證,包括低藍光與無閃爍顯示,顯示其設計目標仍偏向舒適與穩定。

與 XREAL 1S 同步推出的 Neo Hub,則補足了行動使用場景中較為實際的一環。Neo Hub 內建 10,000 mAh 電池,支援 DisplayPort 輸出,可在連接眼鏡的同時為手機、筆電或其他裝置供電,減少長時間使用時的續航壓力。該配件亦支援直接連接 Nintendo Switch 或 Switch 2,讓掌機內容能在外出時輸出至 XREAL 眼鏡進行大尺寸顯示,無需額外轉接設備。

整體來看,XREAL 1S 並未嘗試將產品推向完整擴增實境頭顯的方向,也未引入獨立作業系統。它更像是一種私密、可穿戴、尺寸可大幅延伸的顯示器,專注於把既有內容用更大的尺度、更穩定的方式呈現在使用者眼前。

XREAL 1S 空間眼鏡的建議售價為 449 美元,Neo Hub 為 99 美元,產品已正式上市。

XREAL 1S 空間眼鏡 規格表

項目規格
產品名稱XREAL 1S Spatial Glasses
產品類型顯示型 AR 空間眼鏡
顯示技術Micro-OLED
等效顯示尺寸最高約 500 吋虛擬螢幕
解析度1200p(由前代 1080p 升級)
更新率最高 120 Hz
視場角(FoV)52°
峰值亮度700 nits
Motion-to-Photon 延遲約 3 ms
立體顯示Real 3D(即時 2D → 3D 顯示轉換)
處理器X1 空間運算晶片
空間定位原生 3DoF 空間錨定
顯示模式螢幕跟隨視線 / 空間固定
鏡片電致變色鏡片(Clear / Shade / Theatre)
護眼認證TÜV Rheinland(低藍光、無閃爍等)
連接介面USB-C(DisplayPort Alt Mode)
相容裝置手機、PC、Mac、遊戲主機、掌機
內建電池無(需外接供電)
機身顏色Cobalt Blue
建議售價USD 449

XREAL One / One Pro vs XREAL 1S 規格對照表

項目XREAL OneXREAL One ProXREAL 1S
產品定位顯示型 AR 眼鏡顯示型 AR 眼鏡(進階)顯示型 AR 眼鏡(新世代)
顯示技術Micro-OLEDMicro-OLEDMicro-OLED
解析度1080p1080p1200p
更新率60 Hz60 Hz最高 120 Hz
視場角(FoV)約 45°約 50°52°
峰值亮度約 600 nits約 600 nits700 nits
虛擬顯示尺寸最高約 500 吋最高約 500 吋最高約 500 吋
Motion-to-Photon 延遲未公開未公開約 3 ms
空間定位原生 3DoF原生 3DoF原生 3DoF
空間顯示模式螢幕跟隨 / 固定螢幕跟隨 / 固定螢幕跟隨 / 固定
即時 2D → 3D不支援不支援支援(Real 3D)
顯示處理器眼鏡內建控制晶片眼鏡內建控制晶片X1 空間運算晶片
鏡片調光電致變色電致變色電致變色
護眼認證TÜV RheinlandTÜV RheinlandTÜV Rheinland
連接方式USB-C(DP Alt)USB-C(DP Alt)USB-C(DP Alt)
內建電池
顏色選項黑色系黑色系Cobalt Blue
發表世代第一代第一代進階款CES 2026 新款
美國售價(上市時)約 USD 399約 USD 449USD 449

Magic Leap 攜手 Pegatron 展開 AR 眼鏡關鍵元件量產合作,波導技術邁向規模化製造

廣告

Magic Leap 宣布已與全球電子製造大廠 Pegatron 簽署合作協議,雙方將共同推動擴增實境(AR)眼鏡關鍵元件的量產製造。根據協議內容,Pegatron 將運用其高產能與精密製造能力,協助 Magic Leap 擴大 AR 元件的生產規模,其中包含被視為產業領先技術的光波導(waveguide)元件。

此次合作被視為結合 Magic Leap 長期累積的光學創新實力,與 Pegatron 在高精度、大規模電子製造領域的成熟經驗。Magic Leap 的波導技術專為可穿戴 AR 裝置設計,能在輕量化外型中同時實現高解析度與高亮度顯示,滿足下一代 AR 眼鏡對視覺品質與配戴舒適度的雙重需求。

Magic Leap 產品與合作發展資深副總裁 Jade Meskill 表示,這項協議展現雙方對於滿足先進 AR 元件市場需求的共同目標。透過整合 Magic Leap 的光學與系統設計專業,以及 Pegatron 在製造端的深厚基礎,雙方正建立一條能夠將 AR 元件推向大規模商用市場的清晰路徑。

Magic Leap 指出,公司已投入超過十年時間開發專為 AR 穿戴裝置打造的波導與光學元件,其研發重點不僅在於顯示效能,同時也考量可製造性。透過光學設計、材料科學與製程工程的整合,Magic Leap 期望解決 AR 眼鏡在小型化、功耗效率與顯示品質方面的產業難題。

除了波導技術之外,Magic Leap 亦持續拓展其 AR 光學與顯示系統相關元件組合,並以完整系統整合為核心方向。此次與 Pegatron 的合作,為這些技術與量產製程之間建立了更直接的銜接,有助於達成商用裝置在良率、穩定性與出貨規模上的要求。

Pegatron 副董事長 Jason Cheng 則表示,這項合作反映出 AR 產業生態系正逐步走向成熟。結合 Magic Leap 在元件層級的深度技術,與 Pegatron 的製造基礎設施,雙方將能為 AR 技術從研發走向量產提供更高效率的解決方案。

Pickle 1 發表:主打「Soul Computer」概念的輕量化 AR 裝置,聚焦長期記憶與個人化 AI

廣告

新創公司 Pickle, Inc. 近日公布旗下首款穿戴式裝置 Pickle 1 的完整產品資訊,並同步介紹其核心作業系統 Pickle OS。該產品以「Soul Computer」作為概念定位,主打結合擴增實境顯示、生成式 AI 以及長期個人記憶系統,試圖打造一種以使用者生命脈絡為核心的 AI 穿戴體驗。

Pickle 1 的主要特色在於其對「長期記憶」的系統性整合。根據官方說明,Pickle OS 能在使用者授權範圍內,持續整理日常互動、對話內容、行為紀錄與環境線索,並將其結構化為可被檢索與串聯的記憶單元,官方稱之為「Memory Bubbles」。

這些記憶資料可在對話、行動建議或創作過程中被即時喚回,作為 AI 理解使用者背景與偏好的依據。Pickle 將此系統描述為一種「活的記憶架構」,可隨使用時間逐步累積並調整。

在硬體層面,Pickle 1 採用鋁合金機身設計,官方標示重量為 68 克(不含度數鏡片),定位為可長時間配戴的日常型 AR 裝置。顯示方面,Pickle 1 採用雙眼全彩 AR 顯示架構,並以波導技術實現寬視野呈現,官方宣稱其視野角度在同級雙目 AR 眼鏡中屬於較大範圍。

裝置內建高解析度雙目相機、空間音訊喇叭與多組麥克風,用於環境理解、語音互動與情境分析。運算平台方面,Pickle 表示系統由 Snapdragon 處理器驅動,並與 Qualcomm 進行合作,以支援低延遲的即時運算需求。續航部分則採用雙電池架構,官方標示在混合使用情境下可達約 12 小時。

在應用層面,Pickle OS 支援創作導向的使用情境,包括圖像、影片與音樂生成,也涵蓋行程管理、筆記整理與個人知識回顧等功能。官方亦預告未來將推出團隊版本,作為多人共享上下文與知識的協作系統。

Pickle OS 被定位為跨裝置、跨資料來源的整合平台。官方指出,系統可自動同步對話紀錄、檔案、應用狀態與裝置互動資訊,並將其整合為單一記憶與知識叢集。使用者可透過語音或 AR 視覺介面與系統互動,並與內建的互動式 Avatar 進行長時間對話。

針對穿戴式裝置常見的隱私疑慮,Pickle 強調其系統採用端對端加密與零資料保留(ZDR)設計。官方文件指出,所有使用者資料僅會在硬體隔離的安全執行環境中短暫解密並完成推論,處理結束後即清除,資料不會被用於第三方模型訓練。

加密金鑰由使用者裝置端產生並管理,伺服器端不具備解密能力。Pickle 亦表示其系統支援可重現編譯,使用者可透過比對公開原始碼與實際執行環境的雜湊值,驗證系統架構的完整性。帳號刪除後,對應的加密金鑰將被銷毀,使資料無法被還原。

Pickle 1 目前已開放首批預訂,官方定價為 1300 美元,目前官方特價 799 美元,訂購時需支付 200 美元可全額退還的訂金。根據官方時程,美國市場預計於 2026 年第二季開始出貨,其他國際市場將於後續季度陸續展開。

Pickle 1 規格表(官方公布資訊整理)

項目規格說明
產品名稱Pickle 1
產品定位穿戴式 AR 裝置/AI Soul Computer
作業系統Pickle OS
顯示系統雙眼全彩 AR 顯示(Binocular Full-Color AR)
顯示技術波導(Waveguide)光學系統
視野角度官方宣稱為同級雙目 AR 波導眼鏡中最大之一
戶外可視性支援高亮環境顯示(官方標示可於戶外使用)
重量約 68 克(不含度數鏡片)
機身材質鋁合金機身
相機高解析度雙目相機(用於環境理解與情境分析)
音訊空間音訊喇叭
麥克風多組高靈敏度麥克風
處理器Snapdragon 平台(與 Qualcomm 合作)
AI 運算即時生成式 AI 與長期記憶系統
記憶系統Memory Bubbles(長期個人化記憶架構)
互動方式語音互動、AR 視覺介面、互動式 Avatar
電池雙電池系統
官方續航約 12 小時(混合使用情境)
充電方式充電盒+充電座
隱私架構端對端加密、零資料保留(ZDR)、硬體隔離安全執行環境
資料處理推論後即清除,不用於模型訓練
原始碼支援可重現編譯(Reproducible Builds)
防護設計可承受日常汗水與小雨(非全防水)
建議使用年齡不建議 13 歲以下兒童使用
建議用途個人 AI 助理、創作、知識整理、長期對話
定價799 美元
訂金200 美元(可全額退還)
出貨時程2026 年 Q2(美國),其他地區後續季度

Meta Ray-Ban Display 正式發售:AI 智能眼鏡新世代登場

廣告

在 Connect 2025 發表後引起關注的 Meta Ray-Ban Display ,如今正式於美國上市,售價 799 美元,包含 Meta Neural Band。這款新品被視為 AI 智能眼鏡的重要里程碑,結合顯示器、攝影機、麥克風、揚聲器與 AI 計算能力於一體,並以時尚眼鏡的外觀呈現,將數位互動帶入日常生活。

Ray-Ban Display 最大的突破是搭載高解析度的全彩波導顯示器,能在鏡片中顯示訊息、導航、訊息通知與即時翻譯,並透過自動亮度調整與低光洩設計,兼顧使用體驗與周遭互動。所有款式皆採用 Transitions® 光致變色鏡片,具備日夜適用性。機身重量僅 69 克,並搭配可攜式折疊充電盒,總續航可達 30 小時。

每副眼鏡皆隨附 Meta Neural Band,這是一款基於表面肌電圖(EMG)的手環,能讀取手部肌肉訊號,將細微的手指動作轉化為輸入指令。使用者可以透過捏合、滑動或旋轉手勢進行操作,無需觸碰眼鏡或拿出手機。這項技術來自大量參與者的肌電數據訓練,並能即時在裝置上處理訊號,未來更具應用於醫療與輔助科技的潛力。

在功能體驗上,Ray-Ban Display 支援 Meta AI 視覺化互動,能以圖像方式提供操作指引;訊息通知與 WhatsApp、Messenger 視訊通話;即時相機取景與縮放拍攝;導航與地圖顯示;音樂播放與控制;以及即時字幕與翻譯。未來更新還將加入 Instagram Reels 專用應用、EMG 手寫輸入等新功能。

這款眼鏡由 Meta 與 EssilorLuxottica 合作設計,延續 Ray-Ban Wayfarer 經典外型,並採用鈦金屬鉸鏈與新型鋼罐電池,兼顧強度與續航。首發顏色為黑色與沙色,提供標準與大型鏡框,Meta Neural Band 則有三種尺寸以適應不同用戶。

目前,Meta Ray-Ban Display 僅在美國指定零售商販售,包括 Best Buy、LensCrafters、Sunglass Hut、Ray-Ban Store 與 Meta Lab,Verizon 門市將於稍後加入。由於需求強烈,實體體驗預約已排至十月中旬,Meta 表示將持續增加店面名額。該產品預計於 2026 年初擴展至加拿大、法國、義大利與英國。

Meta Ray-Ban Display 的發售,標誌著 AI 智能眼鏡邁入新階段。Meta 也強調,這僅是未來穿戴式裝置發展的一部分,隨著 Orion 原型 AR 眼鏡的持續研發,完整的擴增實境產品亦在路上。

延伸閱讀:Meta Connect 2025:三款 AI 智慧眼鏡對比

KOJIMA PRODUCTIONS 聯手 Niantic Spatial 推動遊戲敘事邁向「超越螢幕」

廣告

在東京舉辦的 Beyond The Strand 十週年特別活動上,小島秀夫(Hideo Kojima)與 Niantic Spatial 執行長 John Hanke 驚喜同台,宣布兩家公司將展開全新合作。雙方將結合小島獨特的敘事風格與 Niantic Spatial 的地理空間 AI 技術,嘗試把遊戲體驗帶出螢幕,融入現實世界。這項合作被視為沉浸式娛樂的重要里程碑,不僅代表 KOJIMA PRODUCTIONS 正在突破傳統遊戲框架,也凸顯 Niantic 在地理空間 AI 領域的技術潛力。

小島秀夫強調:「至今為止,我們創造的遊戲都是存在於螢幕之上。透過 John 與 Niantic Spatial 的技術,這些體驗能被釋放到真實世界。我期待打造能讓人們在攀登真實山峰時,同時獲得娛樂並與朋友連結的全新體驗。」John Hanke 也補充道:「Niantic Spatial 正在建立一個人與機器都能對話的世界模型,為真實世界的故事敘事與互動創造新的畫布。我們很高興能與 KOJIMA PRODUCTIONS 合作,探索雙方結合後能為新舊粉絲帶來什麼樣的創新體驗。」

在公開的影片中,可以看到「戴著眼鏡看見虛擬角色」的演示畫面,這似乎暗示 AR 眼鏡被視為未來的重要載體。結合小島式的敘事手法與 Niantic 的共享 AR 技術,外界普遍推測這將是一款全新的 AR 體驗。雖然目前細節尚未公開,但官方強調的「超越螢幕」概念,意味著玩家未來或許能在真實世界中探索,並與虛擬元素甚至其他玩家即時互動,帶來截然不同的沉浸式娛樂形式。

KOJIMA PRODUCTIONS 由小島秀夫於 2015 年 12 月創立,代表作品包括《DEATH STRANDING》及其續作《DEATH STRANDING 2: ON THE BEACH》,同時正與 Xbox Game Studios 合作開發新作《OD》,並與獨立娛樂公司 A24 攜手推出《DEATH STRANDING》電影版,更計劃打造全新動作諜報類 IP《PHYSINT》(暫定名)。Niantic Spatial 則專注於地理空間 AI,致力於開發第三代數位地圖與 Visual Positioning System (VPS),並推進大型地理空間模型(Large Geospatial Model)的研究,以實現更高精度的定位與更豐富的語義化空間理解。


什麼是 Visual Positioning System Large Geospatial Model

Visual Positioning System (VPS)
視覺定位系統(VPS)指的是透過使用電腦視覺分析即時攝影機輸入並將其與預先映射的視覺特徵資料庫進行匹配來確定設備的精確位置和方向,在室內等 GPS 訊號不穩定的環境中提供精準的空間資訊。 VPS 透過實現精確的空間感知,增強了擴增實境 (AR) 導航、機器人技術和基於位置的服務等應用的性能。

Large Geospatial Model(大型地理空間模型) 指的是 Niantic Spatial 的核心技術,結合 AI、電腦視覺與地圖數據,能在現實世界提供公分級的精準定位,並理解環境的語義特徵。例如,它不僅能辨識出玩家所在的位置,還能區分人行道、建築或入口,讓虛擬物件自然融入現實場景。同時,這套系統能讓多人在同一地點看到相同的虛擬內容,是打造多人 AR 體驗的基礎。

Meta Connect 2025:《Oakley Meta Vanguard》登場 — 運動取向的 AI 智慧眼鏡

廣告

在 Meta Connect 2025 上,MetaOakley 正式發表了全新系列 Oakley Meta Vanguard,進一步拓展了 AI 智慧眼鏡的產品線,這次聚焦於高強度運動場景。這款新世代「運動取向 AI 智慧眼鏡」結合 Oakley 經典外觀與 Meta AI 技術,強調在極限運動中仍能穩定提供資訊與支援。產品現已開放預購,售價 499 美元,並將於 10 月 21 日正式上市。

Oakley Meta Vanguard 採用防風、防塵與防水等運動設計,擁有 IP67 防護等級,適合長時間戶外使用。電池續航力最高可達 9 小時混合使用 或 6 小時音樂播放,充電盒可額外提供 36 小時電力,並支援 20 分鐘快充至 50%。外型上具備 Oakley® PRIZM™ 鏡片技術及三點式配戴結構,隨附三種鼻墊,能搭配安全帽或帽子配戴。

在影音功能上,Oakley Meta Vanguard 配備 3K 錄影解析度、122 度廣角鏡頭與 1,200 萬像素相機,並加入 Hyperlapse 與慢動作模式,可捕捉馬拉松、滑雪或極限運動中的精彩片段。開放式喇叭音量比前代提升 6 分貝,搭配五麥克風陣列,可有效減少 30mph 強風下的通話雜音。

此外,Oakley Meta Vanguard 與 Garmin 與 Strava 深度整合,能透過 Meta AI 即時查詢心率、配速等數據,甚至在達成特定里程或速度時自動觸發錄影。運動員還可將數據疊加在影片上,分享到 Strava 或其他社群平台,形成個人化的「運動高光集錦」。

首發版本提供 四種鏡框與鏡片配色,包括 PRIZM™ 24K、PRIZM™ Black、PRIZM™ Road 與 PRIZM™ Sapphire,鏡片可更換,售價 85 美元,未來還會追加 PRIZM™ Low Light 選項。上市地區涵蓋美國、加拿大、英國、歐洲多國與澳洲,後續將擴展至墨西哥、印度、巴西與阿聯酋。

在 Connect 現場,Red Bull 也帶來實際應用案例。運動員 Jamie Huser 戴上 Oakley Meta Vanguard 成功完成 140 公尺的世界最長滑水鐵軌挑戰,而 Diego Poncelet 則正在準備 2026 年挑戰超過 150 km/h 的極限速降滑板紀錄。這些運動瞬間皆由 Oakley Meta Vanguard 捕捉,展現了其在極限環境下的實用性與可靠性。

Oakley Meta Vanguard

項目規格 / 資訊
定位運動 / 戶外取向 AI 智慧眼鏡
售價499 美元
上市日期2025 年 10 月 21 日(預購開放中)
上市地區美國、加拿大、英國、愛爾蘭、法國、義大利、西班牙、奧地利、比利時、澳洲、德國、瑞典、挪威、芬蘭、丹麥、瑞士、荷蘭;稍晚將拓展至墨西哥、印度、巴西、阿聯酋
設計Oakley 包覆式運動設計,適合搭配安全帽、帽款
鏡片Oakley® PRIZM™ 鏡片(24K、Black、Road、Sapphire,可更換);Low Light 鏡片將於後續推出
耐用性IP67 防塵防水
相機1,200 萬像素中央相機,122° 廣角
錄影3K Ultra HD;支援 Hyperlapse、慢動作、可調式防震、自動錄影(Garmin 整合)
音訊最強開放式喇叭(比 HSTN 音量大 6 分貝),五麥克風陣列,抗風降噪(最高 30mph)
電池續航9 小時混合使用 / 6 小時連續音樂
充電盒額外 36 小時電量
快充20 分鐘可充至 50%
AI 功能Garmin 與 Strava 整合:即時數據查詢、運動數據疊加影片、自動錄影;支援 Meta AI 語音助理
特別應用自動錄影(依心率、速度或里程觸發)、運動數據疊加影片分享
顏色選項4 款:Black/PRIZM 24K、White/PRIZM Black、Black/PRIZM Road、White/PRIZM Sapphire
鏡片售價替換鏡片 $85 美元

Snap 發布 Snap OS 2.0,為 Spectacles 帶來全新介面與沉浸式體驗

廣告

Snap 正式宣布推出 Snap OS 2.0,這是第五代 Spectacles 的最新作業系統更新。Snap 表示,Snap OS 是讓硬體「活起來」的靈魂,結合即時 AI 體驗與自然的人機互動,並為 2026 年消費者版 Specs 的公開發售鋪路。

全新 Snap OS 介面

Snap OS 2.0 提供更直觀的介面與操作體驗,讓使用者能更輕鬆地存取內容、保持連線與享受娛樂。此次更新帶來多項重要功能升級,其中最受矚目的是全新設計的 Browser。

Spectacles 的瀏覽器不僅速度更快、效能更強,同時採用極簡設計,並針對載入速度與電源效率進行優化。使用者現在能透過 首頁 widget 與書籤快速打開常用網站,也能以輸入或語音方式導航,更可調整視窗比例,讓操作更貼近筆電體驗。值得注意的是,Browser 新增了 WebXR 支援,這意味著使用者可以直接從任何啟用 WebXR 的網站體驗沉浸式擴增實境。

Spotlight:打造免手機的沉浸式內容

另一項重大升級是 Spotlight Lens。Snap 將其定位為「免手機、超越螢幕」的觀影體驗,讓垂直影片能以空間化方式投射在眼前。使用者能一邊做家事,一邊觀看創作者影片,或是將評論在 3D 空間中展開。內容可以錨定在某個位置,或跟隨使用者移動,提供更靈活的體驗。

Gallery Lens 與 Travel Mode

Snap 也推出了 Gallery Lens,讓使用者能以更沉浸的方式回顧與分享自己的記錄。這項功能提供互動式的弧形捲動畫廊,影片可以放大細看、整理成收藏,再輕鬆傳送給好友或分享到 Snapchat。

此外,全新的 Travel Mode 針對移動環境進行優化,無論是在飛機、火車或汽車上,都能確保 AR 內容保持穩定與錨定,避免因移動而造成追蹤失準。

豐富的 Lens 生態系

目前已有來自 30 個國家、數百位開發者 為 Spectacles 開發 Lens,涵蓋創意應用與實用工具。例如 Enklu 的 SightCraft、Utopia Labs 的 NavigatAR、Studio ANRK 的 Pool Assist,以及 Snap 自家開發的 Finger Paint、Chess 與 Imagine Together。

Snap 也宣布,知名 VR/AR 節奏遊戲 Synth Riders 即將登陸 Spectacles。玩家將能透過捕捉節奏、閃避障礙與身體律動,將音樂遊戲與現實世界融合,提供全新混合實境娛樂體驗。

邁向 2026 消費者版 Specs

Snap 強調,Spectacles 的發展並非只是「把手機應用塞進眼鏡」,而是朝向 AI-first 的全新運算模式。透過語音與手勢操作,使用者能呼叫文件、串流專屬私人螢幕,或與朋友在現實桌面上對弈虛擬棋局。這樣的體驗不僅個人化與情境化,更強調共享,讓運算回歸社交本質。

隨著 Snap OS 2.0 的推出,Snap 正逐步邁向 2026 年的消費者版本 Specs。Snap 表示,他們的願景是以人為中心的運算方式,結合 AI 與沉浸式體驗,開啟數位與實體世界交融的新時代。

VR NEWS TODAY專訪|MixRift CEO Bobby Voicu Meta Connect 前夕的 MR 革命思考

廣告

在 9 月 17 日即將揭幕的 Meta Connect 前,VR NEWS TODAY 訪問了快速成長的混合實境(MR)遊戲工作室 MixRift 的共同創辦人暨執行長 Bobby Voicu

MixRift 近期宣布前 Meta 副總裁 Ingrid Cotoros 加入董事會,她曾參與 Quest 3、Ray-Ban Meta 智慧眼鏡與 Orion AR 等計畫,象徵硬體到應用的跨界合作正加速成形。此外,MixRift 在 2024 年 8 月成功完成的 pre-seed 融資,僅用七週即募得 160 萬美元,並已陸續在 Meta QuestApple Vision Pro 推出遊戲作品。

對 Bobby 而言,2025 並不是 XR 技術單純的「延續」或「改良」的一年,而是整個產業邁向 臨界點(tipping point) 的時刻,隨著智慧眼鏡逐步進入日常生活,MR 的真正革命才會啟動。

Bobby 指出,過去十年 MR 發展最大的難題在於「硬體」與「生活」之間的落差。傳統 MR/AR 裝置體積龐大、價格高昂,且使用情境受限,即便能帶來沉浸式體驗,也難以真正普及。

不過,隨著 Ray-Ban Meta 智慧眼鏡 等輕量化產品的推出,情勢開始改變。這類裝置不再只是「展示科技」,而是逐漸融入日常的穿戴工具。他強調:「當人們戴上一副眼鏡時,不再覺得自己是『科技玩家』,而是自然地把它當作生活的一部分,這才是主流化的開始。」

對產業而言,智慧眼鏡結合了頭顯的功能與時尚外型,將是 MR 普及的臨界點,也意味著產業將從「專業應用」邁向「日常應用」。

Bobby 認為,除了硬體演進之外,「使用者回饋」才是推動 MR 採用的核心力量。過去的產業模式多由平台制定方向,但真正決定技術能否存活的,是使用者的體驗與接受度。「我們必須回到玩家與使用者的實際體驗。」他表示,「不管是遊戲的操作直覺,還是日常應用的便利性,這些才是推動普及的關鍵。」

MixRift 在開發過程中,把 玩家社群的回饋 放在早期設計階段,例如透過 Discord 直接與玩家互動,並根據需求快速調整功能與玩法。Bobby 強調,這樣的迭代模式,才是讓應用真正貼近市場需求的方式。

他認為,這象徵產業正在進入一個新階段:「我們正從硬體巨頭壟斷的時代,走向由敏捷工作室驅動的應用時代。」

根據研究,2023 年全球 XR 市場規模已達 1,839.6 億美元,並持續快速增長。對 Bobby 而言,這顯示產業已從「探索期」邁向「成長期」。
他總結道:「當智慧眼鏡被自然地融入生活,而不是被視為小眾科技產品時,MR 的真正革命才會展開。」
這場革命不僅是技術突破,更是一種生活方式的轉變,將重新定義我們的工作、娛樂與互動方式。

隨著 Meta Connect 2025 即將舉行,Bobby 的觀察提供了產業一個前瞻視角。智慧眼鏡的日常化、使用者回饋的力量,以及小型工作室的靈活創新,將是 MR 能否走向主流的三大核心要素。對 XR 產業的觀察者與開發者而言,這場對話不僅是技術討論,更是對未來生活方式的探索。

VR NEWS TODAY 與 Bobby Voicu 的完整採訪(原文):

Q.1 Smart glasses with headset capabilities are often seen as a tipping point for mainstream MR adoption. From your perspective, what are the biggest challenges and opportunities in making this technology truly consumer-ready?
The biggest challenge right now is processing power. XR Glasses can’t yet handle the kind of content people expect without relying on an external unit. In the short term, I see us moving into a phase where devices will act more like streaming units connected to a separate processing pack. It’s similar to the first versions of the Apple Watch – it didn’t run apps directly, it relied on the iPhone. MR glasses will likely need that kind of bridge stage before they become fully independent. In terms of opportunities, the potential is huge, but we’re not quite there yet.

Q.2 You’ve mentioned that user feedback can be a stronger driver of adoption than platform roadmaps. Can you share examples of how MixRift incorporates user feedback into development, and how that has shaped your games?
Today, platforms like Meta Quest already have enough users to support a small studio. Waiting for platforms to grow before building isn’t always the smartest strategy – the key is listening to the players who are already there. At MixRift, we talk directly to our community, like through direct communication or Discord channels. And, their feedback has impact – if they want features tweaked or content adjusted, we act on it quickly. That approach has shaped everything from gameplay mechanics to platform choices.

Q.3 MixRift develops across both Meta Quest and Apple Vision Pro. What are the most significant differences you’ve observed between these platforms, and how do they influence your design decisions?
The most obvious difference is input. Meta Quest relies primarily on controllers, whereas Vision Pro is built around hand-tracking. That changes the game mechanics completely. Meta also supports hand-tracking, but it’s not the main way players interact. The second point is scale. Vision Pro doesn’t yet have a large enough user base to be considered a viable platform for us in the same way Meta does. So we experiment there, but we focus on development where there’s already a strong community.

Q.4 With Ingrid Cotoros joining your board, MixRift brings in expertise from major XR hardware development. How do you see the relationship between nimble studios and large hardware companies evolving in the next few years?
Smaller studios move much faster, and that’s our advantage. Hardware platforms are in a constant state of flux, and big companies move at their own pace based on their own roadmaps and data. We can’t influence that, but we can adapt quickly when changes happen. That’s where the relationship lies – hardware giants set the direction, and studios like us find creative ways to make the most of it.

Q.5 Many indie developers are watching Meta Connect closely. From your experience, what should smaller studios pay attention to in terms of consumer trends or platform opportunities?
This year’s Meta Connect could be the most important so far. The expectation is that we’ll see real progress on smartglasses, with displays sharp enough to support content creation – that would be a gamechanger for the industry. Meta also continues to lead the market in terms of scale. The signals that come out of Connect often set the tone for the next year, so smaller studios should pay close attention to where Meta is putting its focus.

Q.6 The XR market was valued at nearly USD 184 billion last year. In your view, what key factors will determine which companies and technologies succeed in the next stage of MR growth?
The market value is around hardware. We don’t yet have a ‘killer app’ that makes people use XR devices daily. Success will come down to two things: content that genuinely resonates with users, and hardware that’s light and comfortable enough to wear everywhere. Glasses with MR capabilities are the future, but adoption will depend on both usability and experiences.

Q.7 Beyond gaming, where do you see the strongest potential for MR adoption in everyday life, and how might that shape the types of experiences MixRift creates?
The strongest potential is in training and medical fields. In everyday life, MR glasses could change behaviour in small but important ways. Instead of pulling out your phone to check a notification or adjust volume, you could do it seamlessly through your glasses. This shift can make MR part of people’s daily routines.

Q.8 Looking ahead, what excites you the most about the next generation of XR, and how is MixRift preparing to stay at the forefront of this evolution?
For me, it’s the arrival of MR glasses. They open the door to entirely new types of content, not just immersive 3D but even hybrid experiences, like flat screens inside glasses or games that work across MR and mobile. At MixRift, we’re building with that hybrid future in mind, and we want our games to work wherever players are.

中譯:

3 / 9

HTC 推出 VIVE Eagle|49 克輕量 AI 智慧眼鏡,搭載 Snapdragon AR1 與 12MP 相機

廣告

HTC 近日正式推出旗下首款 AI 智慧眼鏡 VIVE Eagle,這款產品被視為 HTC 品牌在智慧穿戴領域的重要里程碑。不同於過去專注於沉浸式虛擬實境的裝置,VIVE Eagle 主打日常使用與 AI 整合,藉由輕盈設計、智慧功能與隱私保護機制,瞄準越來越活躍的 AI 智慧眼鏡市場。建議售價為新台幣 15,600 元 (約五百多美金),目前僅在台灣販售,並已於指定通路開放體驗與預購。

外觀設計上,VIVE Eagle 強調輕巧與舒適,全機重量不到 49 克,即使長時間配戴也不會造成負擔。鏡框提供紅色、黑色、咖啡色與灰色四種選擇,並採用經典威靈頓造型,搭配由 ZEISS 打造的 UV400 太陽鏡片,不僅具備時尚感,同時能有效阻隔紫外線。消費者可選擇 M 或 L 兩種尺寸,HTC 建議親自到店試戴,以獲得最適合的佩戴體驗。

在核心硬體上,VIVE Eagle 採用 Qualcomm Snapdragon AR1 Gen 1 晶片,搭配 4GB RAM 與 32GB 儲存空間,能有效支援即時運算與 AI 功能。這款眼鏡內建 VIVE AI,並可存取 Google Gemini 以及 OpenAI GPT(目前為 Beta 版本),讓使用者能夠透過語音或按鍵直接調用 AI 助理。從翻譯外語、生成建議,到整理待辦事項或記錄資訊,VIVE Eagle 嘗試將生成式 AI 真正落實到日常生活中。

影像功能同樣是這款裝置的亮點。它搭載 1200 萬畫素的超廣角相機,能拍攝 3024 × 4032 高解析度照片,並支援 2016p 30fps 錄影,搭配 AI 自動水平校正與模糊偵測,即使在移動中也能捕捉清晰影像。拍攝時會自動啟動 LED 指示燈,若眼鏡未正確佩戴或燈號被遮擋,拍攝功能將自動停用,以保障周圍人士的隱私。聲音方面,VIVE Eagle 配備波束成形麥克風陣列,包括一個指向性與三個全向性麥克風,並結合兩組立體聲低音強化喇叭,能在保持開放式設計的同時,抑制外傳音量,提供更清晰的語音互動與更沉浸的音樂體驗。

續航表現上,VIVE Eagle 內建 235mAh 電池,在待機狀態下可超過 36 小時,連續音樂播放最長可達 4.5 小時,通話時間則超過 3 小時。它支援磁吸式快充,僅需 10 分鐘即可從零充至 50%,23 分鐘能達到 80%,即使在外出途中也能快速補充電力。連線方面,眼鏡支援 Wi-Fi 6E 與 Bluetooth 5.3,能與 iOS 17.6 以上或 Android 10 以上的智慧型手機相容,並需透過 VIVE Connect 應用程式進行設定。輸入方式包含語音控制、觸控板、拍攝按鈕以及 AI 專屬按鍵,讓操作更直覺。

在功能應用上,HTC 將 VIVE Eagle 打造成隨身智慧助理。使用者能透過語音或手勢完成查詢天氣、撥打電話、播放音樂與搜尋地點的操作,也能快速翻譯旅途中遇到的文字內容,甚至將停車位置、代辦清單或社交場合的姓名臉孔交給 AI 記錄,以免遺忘。外出旅遊時,VIVE Eagle 可以即時提供交通路線、景點資訊與餐廳推薦,甚至在散步或登山途中,透過聲控即可拍照或獲取天氣資訊,讓使用者專注於體驗當下。

安全與隱私部分,HTC 特別強調 VIVE Eagle 採用先進的加密與匿名技術,個人資料無法被追蹤,不會被用於模型訓練或轉售給第三方。這一點對於智慧眼鏡市場至關重要,也回應了消費者對隱私的普遍疑慮。盒裝內容包含 VIVE Eagle 本體、磁吸式充電線、眼鏡收納盒以及安全與保固卡,設計簡潔而實用。

目前 VIVE Eagle 僅在台灣販售,消費者可前往全台 2020EYEhaus(Outlet 店點除外)以及指定台灣大哥大門市進行試戴體驗,並可於 8 月 31 日前透過官方預購表單完成訂購。隨著 AI 穿戴式裝置市場快速成長,HTC 藉由 VIVE Eagle 嘗試搶佔先機,將科技應用從遊戲與專業領域延伸到日常生活,能否在全球智慧眼鏡競爭中建立新的定位,將是未來值得關注的焦點。

Meta 將推首款 HUD 智慧眼鏡 Celeste,搭配手勢控制手環,價格鎖定 800 美元市場

廣告

Meta 即將推出的新款智慧眼鏡「Celeste」近期在業界引發廣泛關注。根據 Bloomberg 記者 Mark Gurman 的最新爆料,這款眼鏡原本預計售價超過 1000 美元,但 Meta 已決定將價格下修至約 800 美元,以提高市場接受度並擴大使用者基礎。

Celeste(開發代號 Hypernova)不同於先前的 Ray-Ban Meta 系列智慧眼鏡,搭載了一組單眼的 HUD(Heads-Up Display)顯示系統,並與一款具備神經訊號解讀功能的 sEMG 腕帶配套使用。該手環能夠透過肌電訊號讀取使用者的手指動作,進行高精度的無接觸操作。據傳這項技術已研發多年,如今首次進入消費級市場。

Celeste 並非典型的 AR(擴增實境)裝置。其功能定位於資訊通知中樞,透過右眼的顯示畫面提供時間、天氣、行程提醒、即時翻譯字幕、導航資訊,甚至支援以文字形式呈現 Meta AI 的對話內容。這些功能使其更接近於「智慧穿戴助理」的定位,而非全沉浸式的 XR 裝置。

單眼顯示的選擇,雖然可能對沉浸感造成一定限制,但 Meta 技術長 Andrew Bosworth 在 AMA 活動中表示,雙眼顯示需搭載兩組顯示模組與波導,並進行視差校正,不僅提升製造成本,也讓整體結構更複雜與笨重。對於日常配戴用途,單眼 HUD 是更具實用性的選擇。

據《The Information》報導,Celeste 的重量約為 70 克,略重於 Ray-Ban Meta(約 50 克),主要來自 HUD 硬體的增加。不過對使用者而言,其重量仍屬於日常眼鏡的可接受範圍。

至於操作體驗方面,Celeste 將大幅倚賴與其綁定的 sEMG 神經手環,該裝置可以偵測極為細微的肌肉電訊號,讓使用者僅透過手指輕微移動即可觸發操作。這項控制方式不僅免除觸控操作的侷限,也為未來更多穿戴設備的自然交互方式奠定基礎。

目前尚未有關於 Celeste 的確切發表時間表,不過根據先前洩漏的固件資料與渲染圖,外界普遍預期該產品將於 2025 年底或 Meta Connect 大會期間正式亮相。該眼鏡也預期將與 Ray-Ban Meta 系列形成產品分層策略,一條偏向時尚輕巧、另一條則主打功能創新與技術實驗性。

值得一提的是,Celeste 將成為第一款將神經手環與智慧眼鏡整合販售的消費級裝置。此舉不僅有望改變使用者與數位資訊的互動模式,也可能為未來 AR 裝置的操作標準立下全新範例。

雖然初步售價設定為 800 美元,但 Gurman 表示,最終價格仍可能因鏡片配置(如處方鏡片)與鏡框材質而有所調整。

Meta 是否能藉由 Celeste 成功開拓 HUD 類智慧眼鏡的新市場,目前尚有待觀察。不過可以確定的是,在 Apple、Xreal 等品牌相繼佈局空間運算與穿戴設備領域之際,Meta 正試圖透過價格策略與創新互動方式,維持其在 XR 戰局中的領先地位。

Reality Labs 發表突破性 sEMG 手腕神經介面研究,登上《Nature》期刊:一種直覺、無須校準的人機互動未來

廣告

Meta 旗下的 Reality Labs 團隊近日在國際權威期刊《Nature》發表了一項具指標性的 研究成果,展示一種基於手腕表面肌電圖(surface electromyography, sEMG)的非侵入式神經介面技術,為人機互動領域開闢了新的可能性。這項研究的核心,是透過配戴於手腕的可穿戴設備擷取微弱的神經肌肉訊號,並運用深度學習模型將這些訊號即時轉譯為用戶的操作意圖,讓人們僅以手腕與手指的輕微肌肉活動,即可完成輸入、滑動、點選、手寫等日常數位操作。與以往仰賴鍵盤、滑鼠、觸控或語音控制的方式相比,sEMG 所提供的是一種更自然、更安靜、更即時的人機互動體驗,特別適合於行動中或不便發聲的使用情境。

這款研究中開發的 sEMG 手環裝置由 48 個乾電極組成,環繞使用者手腕至前臂部位,並透過藍牙即時串流高密度肌電數據至外部運算系統。為了解碼這些複雜且個體差異極大的生理訊號,團隊設計了一套以 Conformer 架構為基礎的深度神經網路,這種網路原本用於語音辨識,能有效處理時間序列資料並保留訊號中的語意順序。在此系統中,它被改造為能即時處理手勢與手寫的肌電資料,進而轉化為精確的輸入指令。此外,為克服使用者間的差異性,研究團隊特別強化模型的泛化能力,使其能「即插即用」,不需每位使用者額外進行校準,就能立即使用。

根據實驗結果,該系統能以平均每秒 0.88 次的速率辨識手勢指令,並達成超過 92% 的準確率,在手寫任務中也能以每分鐘 20.9 字的速度輸入文字,而不須任何鍵盤或螢幕輔助。更令人關注的是,即便僅加入極少量的個人化資料(例如使用者自行書寫幾分鐘樣本),其輸入精度仍可提升約 10% 至 16%。這意味著該技術不僅具備廣泛適用性,也能隨著使用時間逐漸適應與優化每位使用者的個別操作習慣。

這項 sEMG 技術的實用性不僅體現在效率上,更在於其對不同身體條件使用者的包容能力。由於該介面不需明顯的手部移動即可感知神經訊號,即使是肢體活動能力受限者,也能透過細微肌肉意圖操作設備。研究團隊也在多位不同性別、年齡與前臂尺寸的參與者身上進行測試,證實系統對不同生理特徵具備穩定解碼效果,這使它具備成為通用輸入方式的潛力。

控制轉移:新現實實驗室關於表面肌電圖的研究發表在《Nature》

這項技術已在 Reality Labs 的 AR 原型裝置「Orion」眼鏡上實測搭配使用,並配合先進機器學習模型將肌肉訊號準確解碼為輸入指令。根據實驗,系統不僅能即時辨識標準手勢,還能支援手寫辨識——用戶可直接在桌面、腿部或其他硬表面快速書寫訊息。

  • 它完全是非侵入性的,開闢了使用肌肉訊號與電腦互動的新方法,同時解決了其他形式的 HCI 面臨的許多問題。
  • 它使用起來方便、簡單、自然,並且在語音互動等替代方案可能不切實際或不受歡迎的情況下(例如在公共場合發送私人訊息)也能發揮作用。
  • 它始終可用,並且無需笨重的配件,讓您脫離當下並分散您對最重要的人事物的注意力。

Reality Labs 亦公開了完整的資料集與訓練流程,包含超過 300 名參與者所產出的三種任務數據(連續控制、手勢與手寫),累計超過 100 小時的高密度肌電資料。研究團隊希望透過此舉加速學術界與開發者在神經介面領域的創新進展,並鼓勵社群針對硬體設計、訊號處理與機器學習模型進行更深入的探索與應用。

Reality Labs 發表的這項研究不只是工程技術的進步,更是一種對人與科技互動關係的重新思考。相較於人類過去不斷適應各種輸入工具,如打字、滑鼠點擊、觸控滑動,sEMG 所提供的是一種由人出發、機器主動理解的控制方式。當科技真正理解「意圖」本身,並能將其自然轉化為互動回饋,人機介面便不再只是效率問題,而將成為一種更加人性化的存在形式。這不僅將提升主流使用者的操作體驗,更為行動能力受限者與語言障礙者開啟嶄新溝通途徑,也可能成為未來 XR 與 AR 裝置最關鍵的核心輸入方案之一。

隨著這類非侵入式神經輸入技術日漸成熟,一種更安靜、更無感、更貼近人類本能的數位互動模式正悄然成形。Reality Labs 所提出的 sEMG 手環研究,不僅為這個可能性提供了堅實技術基礎,也讓外界對人機介面的下一個演化階段,有了更加具體的想像。

*如果想要更深入了解研究,建議一定要看nature期刊上的 文章PDF *

阿聯酋新創 XPANCEO 完成 2.5 億美元融資,估值達 13.5 億美元,打造智慧隱形眼鏡

廣告

總部位於杜拜的智慧隱形眼鏡公司 XPANCEO 近日宣布完成 2.5 億美元 A 輪融資,使公司估值攀升至 13.5 億美元,正式成為擴增實境(XR)領域的新獨角獸。此次融資由 Opportunity Venture(亞洲)領投,該機構亦曾於 2023 年領投 XPANCEO 的 4,000 萬美元種子輪投資。根據 Crunchbase 數據,XPANCEO 累計總融資金額已達 2.9 億美元。

XPANCEO 表示,此筆資金將加速其開發「全球首款全功能智慧隱形眼鏡」的步伐,目標是在 2026 年前正式推出。該產品目前仍處於原型階段,預計將整合擴增實境(AR/XR)功能、即時健康監測、夜視以及變焦等能力,將各類裝置功能濃縮於佩戴者的眼中,實現「無形界面」的願景。

公司創辦人兼管理合夥人 Roman Axelrod 表示:「在短短 24 個月內,我們已完成 15 款具備不同功能的原型,這證明我們正走在正確的道路上。我們的終極目標,是讓所有裝置都整合進你的眼睛中。」

根據官方資訊,XPANCEO 已開發多款原型鏡片,包括支援 AR 視覺顯示的隱形眼鏡、可量測眼內壓的智慧鏡片(用於青光眼監控)、能從淚液中讀取血糖等生化指標的鏡片,以及支援無線即時充電與數據傳輸的鏡片。

此外,XPANCEO 亦研發出使用奈米粒子技術的夜視鏡片與色彩校正鏡片,另有專為 3D 成像所設計的鏡片,顯示其技術研發覆蓋範圍廣泛。

XPANCEO 成立於 2021 年,由連續創業家 Roman Axelrod 與物理學家 Dr. Valentyn S. Volkov 領軍。短短幾年間,公司人數從 50 人增至 100 人,並大幅擴建實驗室以因應技術開發規模。公司並指出,其已與多間國際研究機構合作,包括曼徹斯特大學、新加坡國立大學、西班牙 Donostia 國際物理中心與杜拜大學。

XPANCEO 的成功亦讓外界聯想到過去幾個 XR 領域的指標性新創案,例如 Magic Leap 曾於 2014 年獲 Google 領投的 5.42 億美元 B 輪融資,一度在 2018 年創下 64 億美元的最高估值。如今 XPANCEO 的崛起,象徵 XR 技術正邁入微型化與穿戴化的新階段,智慧隱形眼鏡的應用潛力也持續獲得資本市場關注。