標籤彙整: AI 眼鏡

CES 2026:Meta 展示 Ray-Ban Display 新功能,EMG 手寫輸入、隱形提詞機與跨產業合作揭示 AI 眼鏡下一步

廣告

CES 2026 展會期間,Meta 公開多項與 AI 眼鏡相關的最新進展。此次更新聚焦於 Meta Ray-Ban DisplayMeta Neural Band,涵蓋顯示、輸入方式、導航體驗,以及跨足車用與無障礙科技的研究合作,顯示 Meta 正嘗試將 AI 眼鏡從「輔助裝置」推進為真正融入日常生活的運算介面。

在功能層面,Meta 正分階段推出全新的提詞機體驗,將文字提示直接顯示於 Ray-Ban Display 眼鏡中。使用者只需將手機中的內容貼上,即可在不低頭、不分心的情況下查看重點資訊,並透過 Meta Neural Band 進行翻頁與操作。這項設計明顯鎖定內容創作者、簡報者與專業講者,讓 AI 眼鏡成為「始終在視線內、卻不打擾注意力」的工具。

同樣引發關注的還有 EMG 手寫輸入功能。透過 Neural Band 的肌電感測能力,使用者可以在任何表面上以手指書寫文字,系統會即時辨識並轉換為數位訊息,直接傳送至通訊平台。這項功能目前以 Early Access 形式推出,雖然仍有限制,但已展現 EMG 作為新一代輸入介面的潛力,讓使用者在不掏出手機的情況下完成回覆,維持「抬頭互動」的使用狀態。

除了個人使用場景,Meta 也持續擴大 AI 眼鏡的環境應用範圍。Ray-Ban Display 的步行導航功能已新增多座城市,使整體支援城市數量進一步提升。不過,由於產品需求遠超預期,Meta 也同步調整供應策略,暫緩原訂於 2026 年初展開的國際市場擴張,優先處理美國市場的訂單,反映目前 AI 眼鏡仍處於供不應求的階段。

在產業合作方面,Meta 與 Garmin 展示了一項車用概念系統,結合 EMG 手勢控制與車內資訊娛樂介面,探索未來免接觸操作的可能性。透過 Neural Band 的肌電辨識,乘客可在車內以細微手勢完成選單瀏覽與操作,為多乘客情境下的互動方式提供新的想像空間。

同時,Meta 也與 University of Utah 展開研究合作,評估 EMG 穿戴裝置在行動受限族群中的實際應用效果。該研究不僅涵蓋智慧家庭裝置控制,也延伸至輔具與行動裝置,顯示 Meta 將 EMG 技術視為長期輸入平台,而非僅服務於單一產品。

Meta 在 CES 2026 所揭示的並非單一功能更新,而是一條清晰的產品演進路線。AI 眼鏡正逐步從顯示資訊的角色,轉變為結合感測、輸入與 AI 理解能力的低存在感運算裝置。EMG 技術、顯示體驗與跨場景應用持續成熟,穿戴式運算的競爭重點也正從硬體規格,轉向互動方式與生態整合能力。

Meta 的下一代平台藍圖:VR × AI × Wearables × Robotics 的整合方向

廣告

在長達十多年的探索之後,Meta 正逐步勾勒出一個比單一裝置更大的未來平台藍圖。這個方向不再只是 VR、智慧眼鏡或 AI 各自發展,而是試圖將 VR、AI、穿戴式裝置與機器人技術整合為同一條技術路線,形成一個以「人為核心」的新一代運算平台。

Meta 認為,AI 是這條路線的關鍵催化劑。隨著 AI 能力快速提升,系統不再只是被動回應指令,而是能理解環境、預測需求,並主動協助使用者完成事情。這樣的能力,讓穿戴式裝置特別是 AI 眼鏡,成為承載下一代運算體驗的重要載體。眼鏡不需要佔據雙手或視線,卻能持續理解使用者的處境,成為隱身於日常生活中的運算介面。

在 VR 領域,Meta 持續強化其作為「模擬現實」的平台角色。透過新一代渲染技術與 AI 工具,虛擬世界不再只是遊戲場景,而是可以重建真實空間、承載社交互動,甚至成為創作者快速生成與分享世界的工具。VR 被視為一個能將數位體驗轉化為「空間存在感」的關鍵媒介。

這些技術的交集,也逐步延伸至機器人研究。Meta 在 2025 年成立新的機器人研究實驗室,目標並非單純打造硬體,而是讓機器人也能理解物理世界,並共享來自 VR、AI 與穿戴式裝置所累積的感知與互動經驗。這代表著,未來人類與機器之間的互動方式,可能建立在相同的感知與理解模型之上。

整體來看,Meta 描述的並不是單一產品的升級,而是一個跨裝置、跨場景的整合平台。VR 提供沉浸式空間,AI 負責理解與決策,穿戴式裝置成為日常入口,而機器人則把這些能力延伸到實體世界。最終,這些元素將匯聚成一個更貼近人類行為、也更自然融入生活的運算環境。

Meta 將這條路線視為「後智慧型手機時代」的基礎架構。技術不再只是佔據注意力的螢幕,而是逐漸退居背景,在使用者幾乎無感的狀態下運作。這樣的平台是否能真正成形,仍有許多挑戰,但從目前揭示的方向來看,Meta 正嘗試將過去十多年在 VR、AI 與穿戴式裝置的累積,整合為一個長期且系統性的未來布局。

Android XR SDK Developer Preview 3 全面開放:Google 讓 XR 開發變得更容易、更統一

廣告

Google 於 The Android Show | XR Edition 正式推出 Android XR SDK Developer Preview 3,意味著 Android XR 正邁入一個更成熟、可跨裝置應用的開發時代。無論是頭顯、AI 眼鏡或有線 XR glasses,Google 正試圖讓開發者用「同一套 Android 工具」打造下一代空間運算體驗。

這次更新的核心亮點,就是 全面開放 AI 眼鏡的應用開發能力。Google 為此推出 Jetpack Compose Glimmer,一款專為透明顯示打造的 UI 工具,讓資訊可自然地浮現在眼鏡鏡片中,不會阻礙視野,也不需額外學習複雜框架。同時,Jetpack Projected 讓開發者能將既有 Android 手機 App 的介面延伸到眼鏡顯示,大幅降低新裝置的內容門檻。這象徵著未來的 AI 眼鏡能更快速擴充生態系,不需要等待大量原生 App 重做介面。

在混合實境能力上,Developer Preview 3 亦深化了 ARCore for Jetpack XR,加入更智慧的 地理定位功能 ,使 XR 裝置能更準確理解使用者的所在位置與周遭環境。這讓導航、戶外資訊疊加與情境式提示等體驗更實用,也加速 XR 與真實世界的融合。

針對 Galaxy XR 這類頭顯,以及像 XREAL Project Aura 這類有線 XR glasses,Google 則加入了新的 FOV(視場角)偵測 API。不同 XR 裝置的視野範圍差異極大,這項能力讓 App 能依據裝置自動調整 UI 與顯示方式,保持一致且舒適的體驗。對希望跨裝置發行內容的團隊而言,是一個重要的步驟。

Google 也同步擴大與第三方引擎的合作。Unreal Engine 已能透過內建 OpenXR 支援 Android XR,並將推出整合 Google XR 能力的 vendor plug-in;Godot 亦正式加入 Android XR 支援,使團隊能直接將既有內容移植到 Galaxy XR 等裝置。Google 的目標是在 XR 生態系中打造一個更開放、熟悉、具可擴展性的跨平台環境。

Developer Preview 3 的亮相,彰顯 Google 對 XR 生態的長期投入:從 AI 眼鏡、輕量空間裝置到旗艦級頭顯,Android 正逐步形成一個橫跨多種形態的 XR 平台。對開發者而言,更新後的工具不只帶來更多裝置支援,也讓 XR 開發與傳統 Android 開發更接近,使 XR 應用的進入門檻比以往更低。

在 XR 正迎來多樣化裝置時代的此刻,Android XR SDK Developer Preview 3 是 Google 為下一代空間運算體驗奠定基礎的一次關鍵更新。