Snap Inc. 近期宣布,將其擴增實境(AR)眼鏡業務獨立為全資子公司 Specs Inc.。此舉代表 Snap 旗下穿戴式裝置部門將以獨立實體運作,同時仍隸屬於 Snap Inc. 架構之下。
根據 Snap 的說明,成立 Specs Inc. 的目的之一,是讓 AR 眼鏡業務在資金募集與合作夥伴關係上具備更高彈性,同時也能將 Specs 發展為一個獨立品牌。外媒 The Information 早在 2025 年中便曾報導,Snap 正評估為其 AR 眼鏡業務引入外部資金的可能性,以強化與 Meta 等資金規模更大的競爭對手之間的競爭能力,當時即已考慮業務分拆的選項。
在功能層面,Meta 正分階段推出全新的提詞機體驗,將文字提示直接顯示於 Ray-Ban Display 眼鏡中。使用者只需將手機中的內容貼上,即可在不低頭、不分心的情況下查看重點資訊,並透過 Meta Neural Band 進行翻頁與操作。這項設計明顯鎖定內容創作者、簡報者與專業講者,讓 AI 眼鏡成為「始終在視線內、卻不打擾注意力」的工具。
同樣引發關注的還有 EMG 手寫輸入功能。透過 Neural Band 的肌電感測能力,使用者可以在任何表面上以手指書寫文字,系統會即時辨識並轉換為數位訊息,直接傳送至通訊平台。這項功能目前以 Early Access 形式推出,雖然仍有限制,但已展現 EMG 作為新一代輸入介面的潛力,讓使用者在不掏出手機的情況下完成回覆,維持「抬頭互動」的使用狀態。
除了個人使用場景,Meta 也持續擴大 AI 眼鏡的環境應用範圍。Ray-Ban Display 的步行導航功能已新增多座城市,使整體支援城市數量進一步提升。不過,由於產品需求遠超預期,Meta 也同步調整供應策略,暫緩原訂於 2026 年初展開的國際市場擴張,優先處理美國市場的訂單,反映目前 AI 眼鏡仍處於供不應求的階段。
在產業合作方面,Meta 與 Garmin 展示了一項車用概念系統,結合 EMG 手勢控制與車內資訊娛樂介面,探索未來免接觸操作的可能性。透過 Neural Band 的肌電辨識,乘客可在車內以細微手勢完成選單瀏覽與操作,為多乘客情境下的互動方式提供新的想像空間。
同時,Meta 也與 University of Utah 展開研究合作,評估 EMG 穿戴裝置在行動受限族群中的實際應用效果。該研究不僅涵蓋智慧家庭裝置控制,也延伸至輔具與行動裝置,顯示 Meta 將 EMG 技術視為長期輸入平台,而非僅服務於單一產品。
Meta 在 CES 2026 所揭示的並非單一功能更新,而是一條清晰的產品演進路線。AI 眼鏡正逐步從顯示資訊的角色,轉變為結合感測、輸入與 AI 理解能力的低存在感運算裝置。EMG 技術、顯示體驗與跨場景應用持續成熟,穿戴式運算的競爭重點也正從硬體規格,轉向互動方式與生態整合能力。
新創公司 Pickle, Inc. 近日公布旗下首款穿戴式裝置 Pickle 1 的完整產品資訊,並同步介紹其核心作業系統 Pickle OS。該產品以「Soul Computer」作為概念定位,主打結合擴增實境顯示、生成式 AI 以及長期個人記憶系統,試圖打造一種以使用者生命脈絡為核心的 AI 穿戴體驗。
Pickle 1 的主要特色在於其對「長期記憶」的系統性整合。根據官方說明,Pickle OS 能在使用者授權範圍內,持續整理日常互動、對話內容、行為紀錄與環境線索,並將其結構化為可被檢索與串聯的記憶單元,官方稱之為「Memory Bubbles」。
這些記憶資料可在對話、行動建議或創作過程中被即時喚回,作為 AI 理解使用者背景與偏好的依據。Pickle 將此系統描述為一種「活的記憶架構」,可隨使用時間逐步累積並調整。
在硬體層面,Pickle 1 採用鋁合金機身設計,官方標示重量為 68 克(不含度數鏡片),定位為可長時間配戴的日常型 AR 裝置。顯示方面,Pickle 1 採用雙眼全彩 AR 顯示架構,並以波導技術實現寬視野呈現,官方宣稱其視野角度在同級雙目 AR 眼鏡中屬於較大範圍。
Meta 近期釋出 AI Glasses v21 軟體更新,為旗下 Ray-Ban Meta 與 Oakley Meta 系列智慧眼鏡帶來多項功能調整,進一步強化 AI 眼鏡在日常生活中的實用性與即時互動能力。本次更新也被視為 Meta 在 AI 穿戴裝置發展路線中的一個階段性總結,為 2025 年畫下句點。
v21 更新的重點之一是 Conversation Focus 功能,該功能可在嘈雜環境中即時放大使用者正在對話對象的聲音,並抑制周遭背景噪音。透過開放式喇叭、波束成形技術與即時空間音訊處理,AI 眼鏡能讓對話聲音更清晰可辨,適用於餐廳、通勤途中或人多的公共場所。使用者可透過語音指令、鏡腳觸控或系統設定調整放大強度,目前已於北美地區開放 Early Access 測試。
在娛樂應用方面,Meta 也與 Spotify 合作推出結合視覺辨識的音樂體驗。使用者可根據眼前所見的場景或物件,直接透過語音請求播放相符情境的音樂內容。該功能結合電腦視覺與音樂推薦系統,讓 AI 眼鏡不再只是播放工具,而是能即時回應環境的聲音介面,目前已在多個歐洲市場與北美地區支援英文語音操作。
此外,v21 更新也擴充了音樂相關的多語系語音指令支援,新增法文、德文、義大利文、葡萄牙文與西班牙文,讓更多使用者可透過語音控制音樂播放、辨識歌曲或建立個人化播放清單。這項調整顯示 Meta 正持續擴大 AI 眼鏡在非英語市場的可用性。
針對運動與戶外使用情境,Oakley Meta Vanguard 也在此次更新中加入更快速的語音捷徑操作,使用者可省略喚醒詞直接下達拍照、錄影或播放音樂等指令。同時,AI 眼鏡也支援與相容的 Garmin 裝置整合,允許使用者建立跑步或騎乘訓練計畫,進一步將 AI 眼鏡定位為運動輔助裝置的一環。
Meta 表示,v21 更新將採分階段方式推送,以確保穩定性與使用體驗。整體來看,此次更新顯示 AI 眼鏡正逐步從「新奇裝置」轉向具備實際價值的日常工具,並持續朝向更自然、低干擾的人機互動模式發展。
在長達十多年的探索之後,Meta 正逐步勾勒出一個比單一裝置更大的未來平台藍圖。這個方向不再只是 VR、智慧眼鏡或 AI 各自發展,而是試圖將 VR、AI、穿戴式裝置與機器人技術整合為同一條技術路線,形成一個以「人為核心」的新一代運算平台。
Meta 認為,AI 是這條路線的關鍵催化劑。隨著 AI 能力快速提升,系統不再只是被動回應指令,而是能理解環境、預測需求,並主動協助使用者完成事情。這樣的能力,讓穿戴式裝置特別是 AI 眼鏡,成為承載下一代運算體驗的重要載體。眼鏡不需要佔據雙手或視線,卻能持續理解使用者的處境,成為隱身於日常生活中的運算介面。
在 VR 領域,Meta 持續強化其作為「模擬現實」的平台角色。透過新一代渲染技術與 AI 工具,虛擬世界不再只是遊戲場景,而是可以重建真實空間、承載社交互動,甚至成為創作者快速生成與分享世界的工具。VR 被視為一個能將數位體驗轉化為「空間存在感」的關鍵媒介。
2025 年,Meta 在 VR 技術基礎層帶來一系列重要變化,標誌著沉浸式內容創作方式正走向一個全新的階段。從高實境感的 3D 捕捉,到 AI 自動生成場景,再到能在瞬間分享的社交空間,新技術正在讓虛擬世界變得更真實、更容易創作,也更易於被大眾接受。
其中最具代表性的,就是 Hyperscape。這項新功能讓使用者僅需一台 Quest 頭顯,就能快速掃描周遭場景並生成逼真的 3D 空間。這些空間能直接在線上分享,好友可以像走進對方家中一樣進入場景探索。過去需要專業團隊才能完成的 3D 場景,如今成為一般用戶也能做到的日常能力,這也逐漸改變了人們紀錄與分享世界的方式。
在更專業的層面上,Gaussian Splatting 已成為高擬真 3D 重建的重要技術。相比傳統建模方式,Gaussian Splatting 能以更自然的光影與更高密度的資料還原現實空間,使內容在 VR 中呈現時有更接近肉眼觀察的細節。這項技術開始被整合進平台內,讓開發者能更容易利用真實世界素材創造互動式場景。
Gaussian Splatting 是近年崛起的一種新型 3D 場景重建與即時渲染技術。它以大量分布在空間中的 3D 高斯函數(可視為柔和的、具有體積感的橢球)來逼真描述現實場景,藉此取代傳統多邊形或體素的方式。透過這種表達法,系統能以極高效率從 2D 影像中重建出細節豐富、可自由漫遊的 3D 場景,並在即時運算下呈現接近真實的光影與深度效果。
與此同時,AI 的加入讓「生成式世界」成為可能。Meta 今年在 Horizon 展示能透過文字提示自動生成 3D 場景、物件、角色與動態影像的工具,使用者輸入一段描述,就能瞬間生成一個可探索的 VR 世界。這降低了創作門檻,讓過去需要專業美術與工程投入才能完成的內容,如今只需透過簡單操作便能實現。
3D 捕捉、Gaussian Splatting 與 AI 生成世界的結合,使未來的虛擬空間不再侷限於遊戲或娛樂,而是逐步成為新的社交載體。一間房間、一段回憶、一個想像中的場景,都能被記錄、重建並分享,形成本質上更具「真實感」的沉浸式互動方式。
這些技術的底層變化讓 VR 的未來有了更清晰的輪廓: 一個能以現實為基礎、以 AI 為引擎、以個人創作為核心的虛擬世界正在逐步成形。
近十年來,Meta 不斷尋找「智慧手機之後」的下一個運算平台。這段過程中,它建立了 VR、手部追蹤、空間理解與各式可穿戴設備,但真正產生突破性變化的,是最新一代的 AI 技術 , 尤其是當 AI 與眼鏡結合的那一刻,未來的輪廓終於變得清晰。
Ray-Ban Meta 成為這個轉折的象徵。上市後已累積數百萬用戶,成為近期成長速度最快、也最具普及潛力的消費型可穿戴設備之一。與傳統 AR 眼鏡不同,它並非以「AR 特效」作為主軸,而是以更自然的方式把 AI 放在使用者的生活周圍,像一副能看、能聽、能理解你當下處境的「第二雙眼睛與耳朵」。
Meta 也展示了更進階的能力,例如 Conversation Focus,利用 AI 增強聽覺,只放大你正在交流的那個聲音,在擁擠的公共場合中特別實用。這項功能展示了 AI 如何讓「人體感知」與「個人技術代理人」結合得更加緊密,讓未來的智慧設備不只是工具,而是能真正理解情境的協作夥伴。
Meta Reality Labs Research 早在 2020 年便開始致力於打造 AR 與 VR 的未來,並因此匯聚一支由研究科學家、工程師與設計師組成的跨領域音訊團隊,共同推動突破性的聲音技術。團隊的使命是創造在感知上與現實無法區分的虛擬聲音,同時重新定義人類聽覺。他們專注於兩項關鍵能力:其一是讓虛擬聲音具備真實般的音頻臨場感,使聲音彷彿來自同一空間;其二是透過技術賦予人類「感知超能力」,讓使用者在嘈雜環境中仍能清晰聆聽,例如自動提升對話對象的聲音並降低背景雜訊,使未來的 AR/VR 體驗不只看起來真實,也能自然地「聽起來」像真實世界。
在相機方面,Ray-Ban Meta 透過 AI 不僅能協助拍攝,也逐漸學習「什麼時刻值得被拍下」。像是在騎乘自行車或跑步時,它能學習你的節奏,自動捕捉你可能想保留的最佳瞬間。這類的功能為 AI 眼鏡奠定了「主動式助理」的基礎 , 未來,它能越來越理解情境,直接幫你完成許多日常任務。
這些趨勢也透露出一個重要訊號:AI 眼鏡不會只是手機的附屬品,而是逐步成為下一代個人電腦的雛形。它們能理解你的環境、你的需求與你的意圖,並透過語音、視覺與手勢,在你不需要盯著螢幕的情況下完成事情。與 VR 等裝置一起,它們構成了 Meta 所期待的更自然、更低摩擦、更貼近人類感知的運算平台。
AI 正在讓運算不再「發生在手機裡」,而是發生在現實世界裡。Ray-Ban Meta 只是起點,未來會有更多類型、更輕量化、更具情境理解能力的 AI 眼鏡持續擴展這個新興品類。對整個科技而言,這是一個已被啟動、且無法逆轉的新 S 曲線。
Google 在 The Android Show | XR Edition 中,首次揭示 Android XR 生態系的下一階段方向,並展示 2025–2026 年間將陸續登場的多款 XR 裝置形態。這些裝置共同指向一個核心願景:XR 不再侷限於頭戴式顯示器,而是成為一個跨裝置、跨場景、可全天配戴的運算平台。
Google 表示,XR 的演化需要更多樣的硬體形式來支撐人們的日常生活,因此與 Samsung、Gentle Monster、Warby Parker 等合作夥伴共同打造新一代 AI Glasses。此類眼鏡主打全天候配戴體驗,其第一類為無螢幕 AI 眼鏡,透過相機、麥克風與 Gemini AI 提供語音助理、拍照、搜尋與路線提示等功能。第二類則是 Display AI Glasses,將資訊直接投射到鏡片內側,可用於逐步導航、即時翻譯字幕或情境提示。這類裝置預計於明年陸續亮相。
Google 在最新的 The Android Show|XR Edition 中揭露了一項具有顛覆性的功能——Android XR 系統即將導入全新的 AI「自動立體化」技術(Autospatialization),能將任何 2D 內容即時轉換成 3D 視覺效果。這不僅涵蓋一般的 Android 應用程式或 YouTube 影片,甚至連透過 PC Connect 串流到 Galaxy XR 的 PC 遊戲,都能在裝置上瞬間變成具有深度的沉浸式 3D 視窗。這項能力由 AI 在本地端運算,不需雲端也不依賴開發者重新製作 3D 版本,代表 XR 裝置終於能突破「內容不足」的瓶頸。而最重要的是,Google 也確認這項技術會在 2026 年推出,讓整體 XR 生態進入新階段。
Android XR 生態系今年迎來一項重要更新,而 Galaxy XR 也成為首批受惠的裝置之一。隨著 Google 在 The Android Show: XR Edition 公布最新功能,Galaxy XR 正逐步從單一娛樂設備,轉變成更貼近日常工作與通訊情境的 XR 裝置。
更新中最受關注的功能,是正式上線的 PC Connect Beta。使用者能將 Windows 電腦串接至頭顯,將桌面或單一視窗拖入 XR 空間,並與 Play 商店的原生應用並排使用。這種同時操作 PC 與 XR Apps 的工作模式,讓頭顯不再只是播放內容的裝置,而更像是可自由擴增的多螢幕工作站。對習慣遠端工作、創作工具或 PC 遊戲的使用者而言,PC Connect 代表一種新的跨裝置協作方式。