分類彙整: 人工智慧AI

Snap 將 AR 眼鏡業務獨立為子公司 Specs Inc.,規劃推出新一代穿戴裝置

廣告

Snap Inc. 近期宣布,將其擴增實境(AR)眼鏡業務獨立為全資子公司 Specs Inc.。此舉代表 Snap 旗下穿戴式裝置部門將以獨立實體運作,同時仍隸屬於 Snap Inc. 架構之下。

根據 Snap 的說明,成立 Specs Inc. 的目的之一,是讓 AR 眼鏡業務在資金募集與合作夥伴關係上具備更高彈性,同時也能將 Specs 發展為一個獨立品牌。外媒 The Information 早在 2025 年中便曾報導,Snap 正評估為其 AR 眼鏡業務引入外部資金的可能性,以強化與 Meta 等資金規模更大的競爭對手之間的競爭能力,當時即已考慮業務分拆的選項。

Snap 在公告中表示,Specs 的推出時機正值人工智慧技術快速改變人們使用電腦與數位工具的方式。公司指出,Specs 所使用的作業系統可依據眼鏡所「看見」的環境,以及對使用者行為的理解,協助完成各類工作流程。Snap 也提到,與手機與電腦相比,智慧眼鏡可在不打斷現實互動的情況下,將數位工具疊加於真實世界之上,以維持與朋友及家人相處時的專注狀態。

此外,Snap 認為,隨著數位工具逐步取代部分實體物件,例如使用數位介面取代紙本手冊或白板,智慧眼鏡在長期使用情境中可能有助於降低資源浪費。

Snap 並未透露 Specs Inc. 是否已確定引入外部投資者,但表示該子公司目前已在全球多個地區開放超過 100 個職缺,涵蓋工程、產品與相關技術領域。官方資訊指出,Specs Inc. 預計於今年內推出 Snap 下一代的獨立式 AR 眼鏡。

Snap 執行長 Evan Spiegel 先前曾公開表示,新一代 AR 眼鏡將比過去版本更輕巧、體積更小,並具備更多功能。相較於以開發者為主要對象的早期智慧眼鏡產品,新一代裝置預期將面向更廣泛的使用族群。

傳 Apple 計畫於 2026 年推出智慧眼鏡,台灣 AR 光學供應鏈出現布局調整

廣告

根據 DigiTimes 報導,Apple 傳出計畫於 2026 年底進入智慧眼鏡市場的消息,已開始對全球 AR 光學供應鏈產生影響。報導指出,即使相關產品尚未正式公布,市場對 Apple 潛在需求的預期,已促使多家供應商調整投資方向與研發重點。

報導內容提到,目前智慧眼鏡市場需求持續成長,包含 Meta 等品牌的產品出貨量穩定增加。不過,產業普遍預期 Apple 的進入,將成為智慧眼鏡邁向大規模商業化的重要推力。基於此預期,多家台灣光學相關廠商已開始擴大資本支出,並將研發資源轉向 AR 相關技術。

其中,台灣光學廠商 Kinko Optical 近期設立新的 AR、VR 與 MR 研究中心,投入資金約 560 萬美元。DigiTimes 指出,Kinko Optical 目前是台灣少數同時開發奈米壓印光波導(nanoimprint optical waveguides)與光學引擎(optical engines)的廠商,這兩項技術被視為現代 AR 智慧眼鏡設計中的關鍵元件。相關聯合開發專案預計於 2026 年啟動,時間點與市場傳聞中的新產品時程相互呼應。

除 Kinko Optical 外,其他台灣供應商亦同步加快布局。Asia Optical 正加速 AR、VR 與 metalens(超穎透鏡)相關產品的開發,並與新加坡公司 MetaOptics 合作進行 metalens 技術的共同研發。JMO Corp. 已進入 AR 眼鏡供應鏈體系,而 Aiimax Innovation 則完成 metalens 樣品,目前正進行品牌端的認證流程。

報導亦指出,除 Apple 外,Samsung 已公開表示計畫於 2026 年推出 AR 眼鏡產品。在多家大型品牌預計進入市場的背景下,產業預期智慧眼鏡相關零組件的出貨量將進一步提升,並有助於供應鏈規模化與成本結構調整。

智慧眼鏡市場雖仍處於早期階段,但多家光學與元件供應商已提前因應潛在需求,調整資本投資與技術研發方向。Apple 傳出的產品規劃,被視為促使供應鏈加速布局的重要背景因素之一。

CES 2026:Meta 展示 Ray-Ban Display 新功能,EMG 手寫輸入、隱形提詞機與跨產業合作揭示 AI 眼鏡下一步

廣告

CES 2026 展會期間,Meta 公開多項與 AI 眼鏡相關的最新進展。此次更新聚焦於 Meta Ray-Ban DisplayMeta Neural Band,涵蓋顯示、輸入方式、導航體驗,以及跨足車用與無障礙科技的研究合作,顯示 Meta 正嘗試將 AI 眼鏡從「輔助裝置」推進為真正融入日常生活的運算介面。

在功能層面,Meta 正分階段推出全新的提詞機體驗,將文字提示直接顯示於 Ray-Ban Display 眼鏡中。使用者只需將手機中的內容貼上,即可在不低頭、不分心的情況下查看重點資訊,並透過 Meta Neural Band 進行翻頁與操作。這項設計明顯鎖定內容創作者、簡報者與專業講者,讓 AI 眼鏡成為「始終在視線內、卻不打擾注意力」的工具。

同樣引發關注的還有 EMG 手寫輸入功能。透過 Neural Band 的肌電感測能力,使用者可以在任何表面上以手指書寫文字,系統會即時辨識並轉換為數位訊息,直接傳送至通訊平台。這項功能目前以 Early Access 形式推出,雖然仍有限制,但已展現 EMG 作為新一代輸入介面的潛力,讓使用者在不掏出手機的情況下完成回覆,維持「抬頭互動」的使用狀態。

除了個人使用場景,Meta 也持續擴大 AI 眼鏡的環境應用範圍。Ray-Ban Display 的步行導航功能已新增多座城市,使整體支援城市數量進一步提升。不過,由於產品需求遠超預期,Meta 也同步調整供應策略,暫緩原訂於 2026 年初展開的國際市場擴張,優先處理美國市場的訂單,反映目前 AI 眼鏡仍處於供不應求的階段。

在產業合作方面,Meta 與 Garmin 展示了一項車用概念系統,結合 EMG 手勢控制與車內資訊娛樂介面,探索未來免接觸操作的可能性。透過 Neural Band 的肌電辨識,乘客可在車內以細微手勢完成選單瀏覽與操作,為多乘客情境下的互動方式提供新的想像空間。

同時,Meta 也與 University of Utah 展開研究合作,評估 EMG 穿戴裝置在行動受限族群中的實際應用效果。該研究不僅涵蓋智慧家庭裝置控制,也延伸至輔具與行動裝置,顯示 Meta 將 EMG 技術視為長期輸入平台,而非僅服務於單一產品。

Meta 在 CES 2026 所揭示的並非單一功能更新,而是一條清晰的產品演進路線。AI 眼鏡正逐步從顯示資訊的角色,轉變為結合感測、輸入與 AI 理解能力的低存在感運算裝置。EMG 技術、顯示體驗與跨場景應用持續成熟,穿戴式運算的競爭重點也正從硬體規格,轉向互動方式與生態整合能力。

Pickle 1 發表:主打「Soul Computer」概念的輕量化 AR 裝置,聚焦長期記憶與個人化 AI

廣告

新創公司 Pickle, Inc. 近日公布旗下首款穿戴式裝置 Pickle 1 的完整產品資訊,並同步介紹其核心作業系統 Pickle OS。該產品以「Soul Computer」作為概念定位,主打結合擴增實境顯示、生成式 AI 以及長期個人記憶系統,試圖打造一種以使用者生命脈絡為核心的 AI 穿戴體驗。

Pickle 1 的主要特色在於其對「長期記憶」的系統性整合。根據官方說明,Pickle OS 能在使用者授權範圍內,持續整理日常互動、對話內容、行為紀錄與環境線索,並將其結構化為可被檢索與串聯的記憶單元,官方稱之為「Memory Bubbles」。

這些記憶資料可在對話、行動建議或創作過程中被即時喚回,作為 AI 理解使用者背景與偏好的依據。Pickle 將此系統描述為一種「活的記憶架構」,可隨使用時間逐步累積並調整。

在硬體層面,Pickle 1 採用鋁合金機身設計,官方標示重量為 68 克(不含度數鏡片),定位為可長時間配戴的日常型 AR 裝置。顯示方面,Pickle 1 採用雙眼全彩 AR 顯示架構,並以波導技術實現寬視野呈現,官方宣稱其視野角度在同級雙目 AR 眼鏡中屬於較大範圍。

裝置內建高解析度雙目相機、空間音訊喇叭與多組麥克風,用於環境理解、語音互動與情境分析。運算平台方面,Pickle 表示系統由 Snapdragon 處理器驅動,並與 Qualcomm 進行合作,以支援低延遲的即時運算需求。續航部分則採用雙電池架構,官方標示在混合使用情境下可達約 12 小時。

在應用層面,Pickle OS 支援創作導向的使用情境,包括圖像、影片與音樂生成,也涵蓋行程管理、筆記整理與個人知識回顧等功能。官方亦預告未來將推出團隊版本,作為多人共享上下文與知識的協作系統。

Pickle OS 被定位為跨裝置、跨資料來源的整合平台。官方指出,系統可自動同步對話紀錄、檔案、應用狀態與裝置互動資訊,並將其整合為單一記憶與知識叢集。使用者可透過語音或 AR 視覺介面與系統互動,並與內建的互動式 Avatar 進行長時間對話。

針對穿戴式裝置常見的隱私疑慮,Pickle 強調其系統採用端對端加密與零資料保留(ZDR)設計。官方文件指出,所有使用者資料僅會在硬體隔離的安全執行環境中短暫解密並完成推論,處理結束後即清除,資料不會被用於第三方模型訓練。

加密金鑰由使用者裝置端產生並管理,伺服器端不具備解密能力。Pickle 亦表示其系統支援可重現編譯,使用者可透過比對公開原始碼與實際執行環境的雜湊值,驗證系統架構的完整性。帳號刪除後,對應的加密金鑰將被銷毀,使資料無法被還原。

Pickle 1 目前已開放首批預訂,官方定價為 1300 美元,目前官方特價 799 美元,訂購時需支付 200 美元可全額退還的訂金。根據官方時程,美國市場預計於 2026 年第二季開始出貨,其他國際市場將於後續季度陸續展開。

Pickle 1 規格表(官方公布資訊整理)

項目規格說明
產品名稱Pickle 1
產品定位穿戴式 AR 裝置/AI Soul Computer
作業系統Pickle OS
顯示系統雙眼全彩 AR 顯示(Binocular Full-Color AR)
顯示技術波導(Waveguide)光學系統
視野角度官方宣稱為同級雙目 AR 波導眼鏡中最大之一
戶外可視性支援高亮環境顯示(官方標示可於戶外使用)
重量約 68 克(不含度數鏡片)
機身材質鋁合金機身
相機高解析度雙目相機(用於環境理解與情境分析)
音訊空間音訊喇叭
麥克風多組高靈敏度麥克風
處理器Snapdragon 平台(與 Qualcomm 合作)
AI 運算即時生成式 AI 與長期記憶系統
記憶系統Memory Bubbles(長期個人化記憶架構)
互動方式語音互動、AR 視覺介面、互動式 Avatar
電池雙電池系統
官方續航約 12 小時(混合使用情境)
充電方式充電盒+充電座
隱私架構端對端加密、零資料保留(ZDR)、硬體隔離安全執行環境
資料處理推論後即清除,不用於模型訓練
原始碼支援可重現編譯(Reproducible Builds)
防護設計可承受日常汗水與小雨(非全防水)
建議使用年齡不建議 13 歲以下兒童使用
建議用途個人 AI 助理、創作、知識整理、長期對話
定價799 美元
訂金200 美元(可全額退還)
出貨時程2026 年 Q2(美國),其他地區後續季度

Meta 推出 AI Glasses v21 更新:Conversation Focus 與多項 AI、音樂功能同步上線

廣告

Meta 近期釋出 AI Glasses v21 軟體更新,為旗下 Ray-Ban MetaOakley Meta 系列智慧眼鏡帶來多項功能調整,進一步強化 AI 眼鏡在日常生活中的實用性與即時互動能力。本次更新也被視為 Meta 在 AI 穿戴裝置發展路線中的一個階段性總結,為 2025 年畫下句點。

v21 更新的重點之一是 Conversation Focus 功能,該功能可在嘈雜環境中即時放大使用者正在對話對象的聲音,並抑制周遭背景噪音。透過開放式喇叭、波束成形技術與即時空間音訊處理,AI 眼鏡能讓對話聲音更清晰可辨,適用於餐廳、通勤途中或人多的公共場所。使用者可透過語音指令、鏡腳觸控或系統設定調整放大強度,目前已於北美地區開放 Early Access 測試。

在娛樂應用方面,Meta 也與 Spotify 合作推出結合視覺辨識的音樂體驗。使用者可根據眼前所見的場景或物件,直接透過語音請求播放相符情境的音樂內容。該功能結合電腦視覺與音樂推薦系統,讓 AI 眼鏡不再只是播放工具,而是能即時回應環境的聲音介面,目前已在多個歐洲市場與北美地區支援英文語音操作。

此外,v21 更新也擴充了音樂相關的多語系語音指令支援,新增法文、德文、義大利文、葡萄牙文與西班牙文,讓更多使用者可透過語音控制音樂播放、辨識歌曲或建立個人化播放清單。這項調整顯示 Meta 正持續擴大 AI 眼鏡在非英語市場的可用性。

針對運動與戶外使用情境,Oakley Meta Vanguard 也在此次更新中加入更快速的語音捷徑操作,使用者可省略喚醒詞直接下達拍照、錄影或播放音樂等指令。同時,AI 眼鏡也支援與相容的 Garmin 裝置整合,允許使用者建立跑步或騎乘訓練計畫,進一步將 AI 眼鏡定位為運動輔助裝置的一環。

Meta 表示,v21 更新將採分階段方式推送,以確保穩定性與使用體驗。整體來看,此次更新顯示 AI 眼鏡正逐步從「新奇裝置」轉向具備實際價值的日常工具,並持續朝向更自然、低干擾的人機互動模式發展。

Meta 的下一代平台藍圖:VR × AI × Wearables × Robotics 的整合方向

廣告

在長達十多年的探索之後,Meta 正逐步勾勒出一個比單一裝置更大的未來平台藍圖。這個方向不再只是 VR、智慧眼鏡或 AI 各自發展,而是試圖將 VR、AI、穿戴式裝置與機器人技術整合為同一條技術路線,形成一個以「人為核心」的新一代運算平台。

Meta 認為,AI 是這條路線的關鍵催化劑。隨著 AI 能力快速提升,系統不再只是被動回應指令,而是能理解環境、預測需求,並主動協助使用者完成事情。這樣的能力,讓穿戴式裝置特別是 AI 眼鏡,成為承載下一代運算體驗的重要載體。眼鏡不需要佔據雙手或視線,卻能持續理解使用者的處境,成為隱身於日常生活中的運算介面。

在 VR 領域,Meta 持續強化其作為「模擬現實」的平台角色。透過新一代渲染技術與 AI 工具,虛擬世界不再只是遊戲場景,而是可以重建真實空間、承載社交互動,甚至成為創作者快速生成與分享世界的工具。VR 被視為一個能將數位體驗轉化為「空間存在感」的關鍵媒介。

這些技術的交集,也逐步延伸至機器人研究。Meta 在 2025 年成立新的機器人研究實驗室,目標並非單純打造硬體,而是讓機器人也能理解物理世界,並共享來自 VR、AI 與穿戴式裝置所累積的感知與互動經驗。這代表著,未來人類與機器之間的互動方式,可能建立在相同的感知與理解模型之上。

整體來看,Meta 描述的並不是單一產品的升級,而是一個跨裝置、跨場景的整合平台。VR 提供沉浸式空間,AI 負責理解與決策,穿戴式裝置成為日常入口,而機器人則把這些能力延伸到實體世界。最終,這些元素將匯聚成一個更貼近人類行為、也更自然融入生活的運算環境。

Meta 將這條路線視為「後智慧型手機時代」的基礎架構。技術不再只是佔據注意力的螢幕,而是逐漸退居背景,在使用者幾乎無感的狀態下運作。這樣的平台是否能真正成形,仍有許多挑戰,但從目前揭示的方向來看,Meta 正嘗試將過去十多年在 VR、AI 與穿戴式裝置的累積,整合為一個長期且系統性的未來布局。

VR 的全新技術基礎:Hyperscape、Gaussian Splatting 與 AI 生成世界

廣告

2025 年,Meta 在 VR 技術基礎層帶來一系列重要變化,標誌著沉浸式內容創作方式正走向一個全新的階段。從高實境感的 3D 捕捉,到 AI 自動生成場景,再到能在瞬間分享的社交空間,新技術正在讓虛擬世界變得更真實、更容易創作,也更易於被大眾接受。

其中最具代表性的,就是 Hyperscape。這項新功能讓使用者僅需一台 Quest 頭顯,就能快速掃描周遭場景並生成逼真的 3D 空間。這些空間能直接在線上分享,好友可以像走進對方家中一樣進入場景探索。過去需要專業團隊才能完成的 3D 場景,如今成為一般用戶也能做到的日常能力,這也逐漸改變了人們紀錄與分享世界的方式。

Hyperspace(超空間)在科幻領域指一種高維度空間,是實現超光速星際旅行的虛構途徑,讓飛船能瞬間跨越遙遠距離;在數學和物理概念中,它也泛指比我們三維空間維度更高、更抽象的空間,例如四維超正方體或超平面。 

在更專業的層面上,Gaussian Splatting 已成為高擬真 3D 重建的重要技術。相比傳統建模方式,Gaussian Splatting 能以更自然的光影與更高密度的資料還原現實空間,使內容在 VR 中呈現時有更接近肉眼觀察的細節。這項技術開始被整合進平台內,讓開發者能更容易利用真實世界素材創造互動式場景。

Gaussian Splatting 是近年崛起的一種新型 3D 場景重建與即時渲染技術。它以大量分布在空間中的 3D 高斯函數(可視為柔和的、具有體積感的橢球)來逼真描述現實場景,藉此取代傳統多邊形或體素的方式。透過這種表達法,系統能以極高效率從 2D 影像中重建出細節豐富、可自由漫遊的 3D 場景,並在即時運算下呈現接近真實的光影與深度效果。

與此同時,AI 的加入讓「生成式世界」成為可能。Meta 今年在 Horizon 展示能透過文字提示自動生成 3D 場景、物件、角色與動態影像的工具,使用者輸入一段描述,就能瞬間生成一個可探索的 VR 世界。這降低了創作門檻,讓過去需要專業美術與工程投入才能完成的內容,如今只需透過簡單操作便能實現。

3D 捕捉、Gaussian Splatting 與 AI 生成世界的結合,使未來的虛擬空間不再侷限於遊戲或娛樂,而是逐步成為新的社交載體。一間房間、一段回憶、一個想像中的場景,都能被記錄、重建並分享,形成本質上更具「真實感」的沉浸式互動方式。

這些技術的底層變化讓 VR 的未來有了更清晰的輪廓:
一個能以現實為基礎、以 AI 為引擎、以個人創作為核心的虛擬世界正在逐步成形。

Meta Neural Band:從肌肉電訊號開始的下一代「神經介面運算」

廣告

在探索未來運算平台的過程中,Meta 認為最重要的突破之一,並不來自螢幕或鏡片,而是來自人類身體本身。Meta Neural Band,以肌電圖(EMG)為基礎的神經介面,正在重新定義人類與電腦的互動方式。

這項技術的核心理念非常直接:只要讀取手腕上的微小神經訊號,電腦就能理解你即將做出的手指動作。例如,在你真正按下按鍵前,神經指令已經被感測到並轉換成輸入。這種「意圖即動作」的互動方式,是自鍵盤滑鼠、觸控螢幕以來最大的一次輸入革命。

Meta 強調,以往 EMG 技術普遍需要高成本設備與長時間校正,且只能在少數人身上可靠運作。但 AI 的加入改變了一切。透過更大規模的資料、模型訓練與泛化能力,Meta Neural Band 能直接在大部分人身上準確運作,不需任何校正、不需學習期,戴上即可使用。

初期版本已能進行滑動、點擊、旋轉等精準操作,而更進階的「EMG 手寫」功能也即將推出。它能辨識手指在空中進行的細微書寫動作,即便你手沒有碰到任何表面,也能完成字母輸入。這讓穿戴式設備真正具備了「無螢幕文字輸入」的可能性。

從技術角度來看,Neural Band 解決了穿戴式設備的一個核心瓶頸:輸入方式。眼鏡雖能呈現資訊,但如何自然地把訊息「輸入」回系統,一直是重大難題。語音不適用所有情境,手勢仍然受限,而 Neural Band 則提供了一種更貼近人類意圖的方式。

更重要的是,這項技術具備成長性。Meta 表示,EMG 有能力追蹤「上千個運動神經元」,意味著未來可以辨識更複雜的操作,例如虛擬鍵盤、遊戲動作、3D 物件操控,甚至是近乎「心念控制」的輸入方式。當 AI 與神經訊號模型變得更強大,與電腦互動將不再需要任何外接裝置。

這一切讓我們第一次看到了未來運算的雛形:
不需要滑鼠、不需要鍵盤、不需要觸控螢幕,也不需要揮動手臂。
你的「意圖」本身就是輸入。

Neural Band 的誕生不僅強化了 AI 眼鏡的使用體驗,也為整個 XR、生產力應用、社交互動與遊戲玩法開啟了新的可能性。未來,它可能成為所有可穿戴式運算設備的標準介面,也是 Meta 所謂「下一個十年計算平台」的重要根基。

AI 眼鏡正式進入主流:Ray-Ban Meta 與新一代「日常式運算」的成形

廣告

近十年來,Meta 不斷尋找「智慧手機之後」的下一個運算平台。這段過程中,它建立了 VR、手部追蹤、空間理解與各式可穿戴設備,但真正產生突破性變化的,是最新一代的 AI 技術 , 尤其是當 AI 與眼鏡結合的那一刻,未來的輪廓終於變得清晰。

Ray-Ban Meta 成為這個轉折的象徵。上市後已累積數百萬用戶,成為近期成長速度最快、也最具普及潛力的消費型可穿戴設備之一。與傳統 AR 眼鏡不同,它並非以「AR 特效」作為主軸,而是以更自然的方式把 AI 放在使用者的生活周圍,像一副能看、能聽、能理解你當下處境的「第二雙眼睛與耳朵」。

Meta 也展示了更進階的能力,例如 Conversation Focus,利用 AI 增強聽覺,只放大你正在交流的那個聲音,在擁擠的公共場合中特別實用。這項功能展示了 AI 如何讓「人體感知」與「個人技術代理人」結合得更加緊密,讓未來的智慧設備不只是工具,而是能真正理解情境的協作夥伴。

Meta Reality Labs Research 早在 2020 年便開始致力於打造 AR 與 VR 的未來,並因此匯聚一支由研究科學家、工程師與設計師組成的跨領域音訊團隊,共同推動突破性的聲音技術。團隊的使命是創造在感知上與現實無法區分的虛擬聲音,同時重新定義人類聽覺。他們專注於兩項關鍵能力:其一是讓虛擬聲音具備真實般的音頻臨場感,使聲音彷彿來自同一空間;其二是透過技術賦予人類「感知超能力」,讓使用者在嘈雜環境中仍能清晰聆聽,例如自動提升對話對象的聲音並降低背景雜訊,使未來的 AR/VR 體驗不只看起來真實,也能自然地「聽起來」像真實世界。

在相機方面,Ray-Ban Meta 透過 AI 不僅能協助拍攝,也逐漸學習「什麼時刻值得被拍下」。像是在騎乘自行車或跑步時,它能學習你的節奏,自動捕捉你可能想保留的最佳瞬間。這類的功能為 AI 眼鏡奠定了「主動式助理」的基礎 , 未來,它能越來越理解情境,直接幫你完成許多日常任務。

這些趨勢也透露出一個重要訊號:AI 眼鏡不會只是手機的附屬品,而是逐步成為下一代個人電腦的雛形。它們能理解你的環境、你的需求與你的意圖,並透過語音、視覺與手勢,在你不需要盯著螢幕的情況下完成事情。與 VR 等裝置一起,它們構成了 Meta 所期待的更自然、更低摩擦、更貼近人類感知的運算平台。

AI 正在讓運算不再「發生在手機裡」,而是發生在現實世界裡。Ray-Ban Meta 只是起點,未來會有更多類型、更輕量化、更具情境理解能力的 AI 眼鏡持續擴展這個新興品類。對整個科技而言,這是一個已被啟動、且無法逆轉的新 S 曲線。

Google 公布下一階段 XR 裝置藍圖:AI 眼鏡、Display AI Glasses 與 XREAL Project Aura 勾勒未來生態系

廣告

Google 在 The Android Show | XR Edition 中,首次揭示 Android XR 生態系的下一階段方向,並展示 2025–2026 年間將陸續登場的多款 XR 裝置形態。這些裝置共同指向一個核心願景:XR 不再侷限於頭戴式顯示器,而是成為一個跨裝置、跨場景、可全天配戴的運算平台。

Google 表示,XR 的演化需要更多樣的硬體形式來支撐人們的日常生活,因此與 SamsungGentle MonsterWarby Parker 等合作夥伴共同打造新一代 AI Glasses。此類眼鏡主打全天候配戴體驗,其第一類為無螢幕 AI 眼鏡,透過相機、麥克風與 Gemini AI 提供語音助理、拍照、搜尋與路線提示等功能。第二類則是 Display AI Glasses,將資訊直接投射到鏡片內側,可用於逐步導航、即時翻譯字幕或情境提示。這類裝置預計於明年陸續亮相。

AI Glasses

同時,Google 也展示 XREAL Project Aura,作為有線 XR glasses 的全新代表作。Aura 主打便攜性與沉浸度兼具的使用體驗,70 度視場角與光學透視技術可在現實環境上疊加巨大的虛擬畫面。對於需要多視窗作業、攜帶式娛樂或混合場景工作流程的族群,這類 XR glasses 帶來比傳統頭顯更輕便的技術方向。Google 明確指出此類裝置將是 XR 生態系的重要一環,而非折衷方案。

XREAL 合作的 Project Aura

在應用層面,Google 也展示像 Uber、GetYourGuide 等合作夥伴如何運用 AI 眼鏡提供情境式資訊。例如使用者能在視野中看到行程狀態,或在城市中以更直接的方式獲得指引。這些案例凸顯 XR 裝置如何突破傳統手機介面限制,並逐漸成為生活與工作中更自然的延伸。

這些硬體方向的公開,對開發者而言具有指標性意義。Google 正把 XR 從單一裝置類別拓展至完整產品族群,而 Android XR 平台將成為連結這些裝置的基礎層。無論是 AI Glasses、XR glasses 或完整頭顯,它們的核心將共享同一套 Android XR 開發框架,使開發者能以更高效率跨裝置打造新一代體驗。

Google 今年的訊號十分明確:XR 裝置生態正在快速擴張,不再是個別產品競爭,而是以 Android XR 為核心,形成一個連續性與可協作的未來運算平台。

Android XR 明年大升級:AI 將於 2026 推出 2D→3D 自動立體化功能,全面提升沉浸體驗

廣告

Google 在最新的 The Android Show|XR Edition 中揭露了一項具有顛覆性的功能——Android XR 系統即將導入全新的 AI「自動立體化」技術(Autospatialization),能將任何 2D 內容即時轉換成 3D 視覺效果。這不僅涵蓋一般的 Android 應用程式或 YouTube 影片,甚至連透過 PC Connect 串流到 Galaxy XR 的 PC 遊戲,都能在裝置上瞬間變成具有深度的沉浸式 3D 視窗。這項能力由 AI 在本地端運算,不需雲端也不依賴開發者重新製作 3D 版本,代表 XR 裝置終於能突破「內容不足」的瓶頸。而最重要的是,Google 也確認這項技術會在 2026 年推出,讓整體 XR 生態進入新階段。

在官方示範中,用戶只需按下按鈕,平面的視窗便會立即呈現前後景深與分層效果,彷彿整個畫面被「拉進」空間中。影片、遊戲、瀏覽器頁面、一般手機 App 都能瞬間轉化成 XR 世界中的立體內容。這項技術不再依賴原生 XR 開發,也不需要平台額外推出特製版本,而是直接將現有的 Android 生態與所有網路內容帶入沉浸式體驗,使 XR 不再受限於內容量,而是直接擁有一個完整的 2D→3D 即時轉換引擎。

Google 認為這將徹底改變 XR 的使用方式。使用者可以把任何 YouTube 影片變成 3D 觀看,把手機 App 以立體方式展示在眼前,甚至將《City Skylines II》這類 PC 遊戲透過串流變成半沉浸式 3D。更值得注意的是,這項技術讓整個 Web 世界也能自然轉換成 3D,等於讓 XR 裝置首次真正擁有「全域內容」。Google 表示這是讓「整個網路都變成沉浸式」的重要突破,而 2026 年的推出時間意味著 Android XR 的下一波成長潮正在準備中。

目前 Galaxy XR 已率先推出 PC Connect、Likeness 虛擬化身與 Travel Mode 等系統更新,而 AI 自動立體化功能則將在 2026 年首度亮相並推向更多 Android XR 裝置。對消費者而言,XR 內容將不再受到限制;對開發者而言,不需再額外投入成本打造 XR 版本;對產業而言,這有可能成為 XR 普及化真正的分水嶺,讓虛實整合邁向更自然、更大規模的應用場景。

Android XR 系統自動空間化

Galaxy XR 推出新系統更新:PC Connect、Travel Mode 與 Likeness 強化日常使用體驗

廣告

Android XR 生態系今年迎來一項重要更新,而 Galaxy XR 也成為首批受惠的裝置之一。隨著 Google 在 The Android Show: XR Edition 公布最新功能,Galaxy XR 正逐步從單一娛樂設備,轉變成更貼近日常工作與通訊情境的 XR 裝置。

更新中最受關注的功能,是正式上線的 PC Connect Beta。使用者能將 Windows 電腦串接至頭顯,將桌面或單一視窗拖入 XR 空間,並與 Play 商店的原生應用並排使用。這種同時操作 PC 與 XR Apps 的工作模式,讓頭顯不再只是播放內容的裝置,而更像是可自由擴增的多螢幕工作站。對習慣遠端工作、創作工具或 PC 遊戲的使用者而言,PC Connect 代表一種新的跨裝置協作方式。

PC Connect Beta

另一項加入的功能,是為通勤與旅行情境而設計的 Travel Mode。它能在車輛震動或飛機移動時,維持視野穩定,讓使用者能在狹窄環境中閱讀、工作或觀影,而不會受到移動干擾。這讓 XR 頭顯更貼近日常情境,並減少以往 XR 裝置不適合在移動中使用的限制。

Travel Mode

通訊方面,Galaxy XR 也開始推出 Likeness Beta,能建立接近真實面部表情與手勢的個人化虛擬臉部模型,用於視訊通話。此功能讓 XR 會議不再是抽象化的虛擬角色,而更像是以個人特徵為基礎的自然交流方式。Google 表示該技術未來將逐步擴大功能與精準度,使 XR 裝置在社交場合中具備更高的存在感與可信度。

Likeness Beta with mobile

在 Likeness(測試版)中,使用者能依需求自訂個人虛擬肖像,包括調整色溫、亮度與背景顏色等細節,讓呈現效果更貼近真實外貌。所有編輯操作都能在即時視圖中完成,只需選擇「編輯」或開啟調整工具即可微調視覺風格。若想變更背景,也能透過顏色填滿工具快速設定。當使用者決定刪除某個肖像時,系統會同步移除所有相關資料,不會保留在任何裝置上。操作方式可在頭戴裝置或行動應用程式中進行:只要在 Likeness(測試版)中選擇要刪除的肖像,並從工具列或長按呼出的刪除選項中確認即可。整體流程設計簡單直覺,方便使用者保持自己的虛擬形象始終符合需求。

調整色溫、亮度或進行微調
調整背景顏色

本次更新並非只是功能的堆疊,而是代表 Android XR 正逐步走向混合工作、個人助理與沉浸娛樂的整合形式。Galaxy XR 作為首波裝置,讓外界更加清楚看見 Google 與 Samsung 共同打造 XR 生態系的方向。