分類彙整: 人工智慧AI

Snap 發布 Snap OS 2.0,為 Spectacles 帶來全新介面與沉浸式體驗

廣告

Snap 正式宣布推出 Snap OS 2.0,這是第五代 Spectacles 的最新作業系統更新。Snap 表示,Snap OS 是讓硬體「活起來」的靈魂,結合即時 AI 體驗與自然的人機互動,並為 2026 年消費者版 Specs 的公開發售鋪路。

全新 Snap OS 介面

Snap OS 2.0 提供更直觀的介面與操作體驗,讓使用者能更輕鬆地存取內容、保持連線與享受娛樂。此次更新帶來多項重要功能升級,其中最受矚目的是全新設計的 Browser。

Spectacles 的瀏覽器不僅速度更快、效能更強,同時採用極簡設計,並針對載入速度與電源效率進行優化。使用者現在能透過 首頁 widget 與書籤快速打開常用網站,也能以輸入或語音方式導航,更可調整視窗比例,讓操作更貼近筆電體驗。值得注意的是,Browser 新增了 WebXR 支援,這意味著使用者可以直接從任何啟用 WebXR 的網站體驗沉浸式擴增實境。

Spotlight:打造免手機的沉浸式內容

另一項重大升級是 Spotlight Lens。Snap 將其定位為「免手機、超越螢幕」的觀影體驗,讓垂直影片能以空間化方式投射在眼前。使用者能一邊做家事,一邊觀看創作者影片,或是將評論在 3D 空間中展開。內容可以錨定在某個位置,或跟隨使用者移動,提供更靈活的體驗。

Gallery Lens 與 Travel Mode

Snap 也推出了 Gallery Lens,讓使用者能以更沉浸的方式回顧與分享自己的記錄。這項功能提供互動式的弧形捲動畫廊,影片可以放大細看、整理成收藏,再輕鬆傳送給好友或分享到 Snapchat。

此外,全新的 Travel Mode 針對移動環境進行優化,無論是在飛機、火車或汽車上,都能確保 AR 內容保持穩定與錨定,避免因移動而造成追蹤失準。

豐富的 Lens 生態系

目前已有來自 30 個國家、數百位開發者 為 Spectacles 開發 Lens,涵蓋創意應用與實用工具。例如 Enklu 的 SightCraft、Utopia Labs 的 NavigatAR、Studio ANRK 的 Pool Assist,以及 Snap 自家開發的 Finger Paint、Chess 與 Imagine Together。

Snap 也宣布,知名 VR/AR 節奏遊戲 Synth Riders 即將登陸 Spectacles。玩家將能透過捕捉節奏、閃避障礙與身體律動,將音樂遊戲與現實世界融合,提供全新混合實境娛樂體驗。

邁向 2026 消費者版 Specs

Snap 強調,Spectacles 的發展並非只是「把手機應用塞進眼鏡」,而是朝向 AI-first 的全新運算模式。透過語音與手勢操作,使用者能呼叫文件、串流專屬私人螢幕,或與朋友在現實桌面上對弈虛擬棋局。這樣的體驗不僅個人化與情境化,更強調共享,讓運算回歸社交本質。

隨著 Snap OS 2.0 的推出,Snap 正逐步邁向 2026 年的消費者版本 Specs。Snap 表示,他們的願景是以人為中心的運算方式,結合 AI 與沉浸式體驗,開啟數位與實體世界交融的新時代。

Meta 推出 Horizon GenAI 工具更新:環境生成全面開放、具身化 NPC 即將登場

廣告

Meta 近期公布了 Meta Horizon GenAI 工具的最新進展,進一步擴展創作者在 Worlds Desktop Editor 中可用的功能。此次更新包含兩個重要方向:一是即將推出的 具身化 LLM NPC,二是 環境生成工具(Environment Generation)正式對所有創作者開放。這些功能將協助開發者與創作者更快速建構世界,同時讓虛擬場景呈現更具互動性與沉浸感。

NPC 方面,Meta 表示 LLM 支援的對話型 NPC 將很快加入編輯器,並能結合自定義腳本回覆與 AI 即時生成的回應。創作者可透過角色編輯工具設定 NPC 的名字、個性、故事背景與語音,未來還會逐步開放 NPC 觸發遊戲內動作與動態互動的能力。這些具身化角色將可在 VR 與行動端世界中同時使用,並提供更多敘事與遊戲設計上的靈活性。

環境生成工具現已全面上線,能讓創作者透過文字提示快速生成完整場景,包含地形、材質、3D 模型與可分解資產。這項功能特別針對早期建構流程設計,大幅節省環境搭建所需時間,並能配合「拼接式(kitbash)」的工作方式提供更高的創作彈性。

目前 Worlds Desktop Editor 已整合多項 GenAI 工具,包括樣式參考、3D 網格生成、材質生成、天空盒生成、音效與環境音效生成,以及程式碼生成等。隨著 NPC 與環境生成的加入,Meta 強調這將成為市場上最完整、最一體化的 GenAI 世界建構工具套件,協助更多創作者以更短時間實現想法並推動互動式內容的發展。

Meta the AI shopkeeper character

HTC 推出 VIVE Eagle|49 克輕量 AI 智慧眼鏡,搭載 Snapdragon AR1 與 12MP 相機

廣告

HTC 近日正式推出旗下首款 AI 智慧眼鏡 VIVE Eagle,這款產品被視為 HTC 品牌在智慧穿戴領域的重要里程碑。不同於過去專注於沉浸式虛擬實境的裝置,VIVE Eagle 主打日常使用與 AI 整合,藉由輕盈設計、智慧功能與隱私保護機制,瞄準越來越活躍的 AI 智慧眼鏡市場。建議售價為新台幣 15,600 元 (約五百多美金),目前僅在台灣販售,並已於指定通路開放體驗與預購。

外觀設計上,VIVE Eagle 強調輕巧與舒適,全機重量不到 49 克,即使長時間配戴也不會造成負擔。鏡框提供紅色、黑色、咖啡色與灰色四種選擇,並採用經典威靈頓造型,搭配由 ZEISS 打造的 UV400 太陽鏡片,不僅具備時尚感,同時能有效阻隔紫外線。消費者可選擇 M 或 L 兩種尺寸,HTC 建議親自到店試戴,以獲得最適合的佩戴體驗。

在核心硬體上,VIVE Eagle 採用 Qualcomm Snapdragon AR1 Gen 1 晶片,搭配 4GB RAM 與 32GB 儲存空間,能有效支援即時運算與 AI 功能。這款眼鏡內建 VIVE AI,並可存取 Google Gemini 以及 OpenAI GPT(目前為 Beta 版本),讓使用者能夠透過語音或按鍵直接調用 AI 助理。從翻譯外語、生成建議,到整理待辦事項或記錄資訊,VIVE Eagle 嘗試將生成式 AI 真正落實到日常生活中。

影像功能同樣是這款裝置的亮點。它搭載 1200 萬畫素的超廣角相機,能拍攝 3024 × 4032 高解析度照片,並支援 2016p 30fps 錄影,搭配 AI 自動水平校正與模糊偵測,即使在移動中也能捕捉清晰影像。拍攝時會自動啟動 LED 指示燈,若眼鏡未正確佩戴或燈號被遮擋,拍攝功能將自動停用,以保障周圍人士的隱私。聲音方面,VIVE Eagle 配備波束成形麥克風陣列,包括一個指向性與三個全向性麥克風,並結合兩組立體聲低音強化喇叭,能在保持開放式設計的同時,抑制外傳音量,提供更清晰的語音互動與更沉浸的音樂體驗。

續航表現上,VIVE Eagle 內建 235mAh 電池,在待機狀態下可超過 36 小時,連續音樂播放最長可達 4.5 小時,通話時間則超過 3 小時。它支援磁吸式快充,僅需 10 分鐘即可從零充至 50%,23 分鐘能達到 80%,即使在外出途中也能快速補充電力。連線方面,眼鏡支援 Wi-Fi 6E 與 Bluetooth 5.3,能與 iOS 17.6 以上或 Android 10 以上的智慧型手機相容,並需透過 VIVE Connect 應用程式進行設定。輸入方式包含語音控制、觸控板、拍攝按鈕以及 AI 專屬按鍵,讓操作更直覺。

在功能應用上,HTC 將 VIVE Eagle 打造成隨身智慧助理。使用者能透過語音或手勢完成查詢天氣、撥打電話、播放音樂與搜尋地點的操作,也能快速翻譯旅途中遇到的文字內容,甚至將停車位置、代辦清單或社交場合的姓名臉孔交給 AI 記錄,以免遺忘。外出旅遊時,VIVE Eagle 可以即時提供交通路線、景點資訊與餐廳推薦,甚至在散步或登山途中,透過聲控即可拍照或獲取天氣資訊,讓使用者專注於體驗當下。

安全與隱私部分,HTC 特別強調 VIVE Eagle 採用先進的加密與匿名技術,個人資料無法被追蹤,不會被用於模型訓練或轉售給第三方。這一點對於智慧眼鏡市場至關重要,也回應了消費者對隱私的普遍疑慮。盒裝內容包含 VIVE Eagle 本體、磁吸式充電線、眼鏡收納盒以及安全與保固卡,設計簡潔而實用。

目前 VIVE Eagle 僅在台灣販售,消費者可前往全台 2020EYEhaus(Outlet 店點除外)以及指定台灣大哥大門市進行試戴體驗,並可於 8 月 31 日前透過官方預購表單完成訂購。隨著 AI 穿戴式裝置市場快速成長,HTC 藉由 VIVE Eagle 嘗試搶佔先機,將科技應用從遊戲與專業領域延伸到日常生活,能否在全球智慧眼鏡競爭中建立新的定位,將是未來值得關注的焦點。

Meta 將推首款 HUD 智慧眼鏡 Celeste,搭配手勢控制手環,價格鎖定 800 美元市場

廣告

Meta 即將推出的新款智慧眼鏡「Celeste」近期在業界引發廣泛關注。根據 Bloomberg 記者 Mark Gurman 的最新爆料,這款眼鏡原本預計售價超過 1000 美元,但 Meta 已決定將價格下修至約 800 美元,以提高市場接受度並擴大使用者基礎。

Celeste(開發代號 Hypernova)不同於先前的 Ray-Ban Meta 系列智慧眼鏡,搭載了一組單眼的 HUD(Heads-Up Display)顯示系統,並與一款具備神經訊號解讀功能的 sEMG 腕帶配套使用。該手環能夠透過肌電訊號讀取使用者的手指動作,進行高精度的無接觸操作。據傳這項技術已研發多年,如今首次進入消費級市場。

Celeste 並非典型的 AR(擴增實境)裝置。其功能定位於資訊通知中樞,透過右眼的顯示畫面提供時間、天氣、行程提醒、即時翻譯字幕、導航資訊,甚至支援以文字形式呈現 Meta AI 的對話內容。這些功能使其更接近於「智慧穿戴助理」的定位,而非全沉浸式的 XR 裝置。

單眼顯示的選擇,雖然可能對沉浸感造成一定限制,但 Meta 技術長 Andrew Bosworth 在 AMA 活動中表示,雙眼顯示需搭載兩組顯示模組與波導,並進行視差校正,不僅提升製造成本,也讓整體結構更複雜與笨重。對於日常配戴用途,單眼 HUD 是更具實用性的選擇。

據《The Information》報導,Celeste 的重量約為 70 克,略重於 Ray-Ban Meta(約 50 克),主要來自 HUD 硬體的增加。不過對使用者而言,其重量仍屬於日常眼鏡的可接受範圍。

至於操作體驗方面,Celeste 將大幅倚賴與其綁定的 sEMG 神經手環,該裝置可以偵測極為細微的肌肉電訊號,讓使用者僅透過手指輕微移動即可觸發操作。這項控制方式不僅免除觸控操作的侷限,也為未來更多穿戴設備的自然交互方式奠定基礎。

目前尚未有關於 Celeste 的確切發表時間表,不過根據先前洩漏的固件資料與渲染圖,外界普遍預期該產品將於 2025 年底或 Meta Connect 大會期間正式亮相。該眼鏡也預期將與 Ray-Ban Meta 系列形成產品分層策略,一條偏向時尚輕巧、另一條則主打功能創新與技術實驗性。

值得一提的是,Celeste 將成為第一款將神經手環與智慧眼鏡整合販售的消費級裝置。此舉不僅有望改變使用者與數位資訊的互動模式,也可能為未來 AR 裝置的操作標準立下全新範例。

雖然初步售價設定為 800 美元,但 Gurman 表示,最終價格仍可能因鏡片配置(如處方鏡片)與鏡框材質而有所調整。

Meta 是否能藉由 Celeste 成功開拓 HUD 類智慧眼鏡的新市場,目前尚有待觀察。不過可以確定的是,在 Apple、Xreal 等品牌相繼佈局空間運算與穿戴設備領域之際,Meta 正試圖透過價格策略與創新互動方式,維持其在 XR 戰局中的領先地位。

Genie 3:Google DeepMind 打造可即時互動的世界模型,推進模擬智能邊界

廣告

Google DeepMind 正式公開 Genie 3,一項在世界模型領域邁出關鍵步伐的技術成果。作為前兩代 Genie 系統的進化版本,Genie 3 能根據自然語言提示生成動態虛擬世界,支援玩家以 24FPS 的速度在 720p 畫質下進行即時互動。其最大的突破在於:Genie 3 不僅提供更長時間的環境一致性,還可觸發可提示的世界事件,使模擬體驗不再只是被動觀看,而能主動參與與操控。

根據 DeepMind 團隊說明,Genie 3 在「交互時間視野(Interaction Horizon)」方面可維持數分鐘的連續邏輯一致性,並透過即時反應使用者行為改變世界狀態,這與以往僅能預覽短暫片段的模擬模型相比,展現了質的飛躍。從穿越風暴的海岸到在幻想森林中奔跑,Genie 3 能生成極具敘事感與物理真實感的沉浸式體驗。

在控制方式上,Genie 3 支援使用者以第一人稱視角進行導航,並可透過文字提示改變世界設定,例如切換天氣、加入新角色,甚至觸發世界規模的劇情變化。這一點讓 Genie 3 成為目前少數能將「可控敘事」與「世界生成」有效結合的模型。與需要 3D 建模或預先訓練資料的 NeRF、Gaussian Splatting 不同,Genie 3 可根據使用者輸入即時逐幀建構場景,動態靈活且豐富。

根據公開資訊,Genie 3 的應用涵蓋面廣泛,從物理模擬、虛擬生態系統、歷史建築重建,到幻想動畫敘事與角色導向互動。展示影片中出現的畫面包括:火山地形下的輪型機器人探索、海邊強風來襲前的疾行、深海水母生態系、魔法傳送門、手繪教室場景記憶測試,以及可提示世界事件導致場景變化的案例。這些場景展現出 Genie 3 不僅理解結構與空間關係,更能維持視覺連貫性與動態生成物理效果。

根據官方提供的對比資料,相比前代系統,Genie 3 在解析度、控制方式與交互延遲等多項指標上都有顯著提升。從僅限於靜態輸出的 Veo,到支援部分鍵盤滑鼠操作的 Genie 2,如今 Genie 3 已實現一般領域、即時互動、可引導世界事件與長時段一致性的完整世界模型能力。

儘管 Genie 3 尚未開放公開測試,但其展現出的技術特性與應用潛力,已引起開發者與學術界的高度關注。對於正在尋求 AI 訓練環境、自適應學習空間,甚至構建虛擬社會與敘事平台的研究者而言,這套系統可能預示著通用人工智慧(AGI)所需模擬能力的早期實現方式。

Meta 與史丹佛提出「合成孔徑波導全像顯示」:AI 驅動的超薄 MR 顯示技術,實現大視域與高擬真 3D 體驗

廣告

Meta Reality Labs Research史丹佛大學的研究團隊 近日發表了一項結合先進光學與 AI 演算法的新技術——「合成孔徑波導全像顯示」(Synthetic Aperture Waveguide Holography)。這項技術的目標,是解決目前混合實境(MR)顯示器在外型、影像品質與視域等方面的限制,並為未來真正輕量化、全天候可穿戴的 MR 顯示設備奠定基礎。

目前的 MR 顯示裝置往往面臨兩大挑戰:其一是體積龐大、外型笨重,不適合長時間使用;其二是顯示內容多半缺乏足夠的 3D 深度資訊,難以提供接近現實的立體感。這不僅限制了沉浸式體驗的真實性,也容易造成長時間使用的視覺不適。Meta 與史丹佛的研究則提供了一條突破路徑,他們設計出一種僅有數毫米厚度的超薄光學波導,結合 MEMS 掃描鏡與特殊的消色差全像透鏡,能在極小的體積下實現更寬廣的視域與清晰穩定的 3D 顯示效果。

這項技術的核心概念是「合成孔徑」。簡單來說,它利用多個小型光學孔徑的光線掃描,將其在數位上整合成一個「大型的合成光學孔徑」。這種設計能有效擴大瞳距範圍(eyebox),讓不同使用者、甚至在佩戴裝置時有些微偏移的情況下,依然能獲得完整、清晰的 3D 畫面。對於日常使用來說,這解決了過去 MR 裝置「必須固定在準確位置」才能觀看的問題,讓佩戴體驗更加自然。

除了光學架構,AI 演算法在這項技術中也扮演了關鍵角色。傳統的全像顯示需要高度精準的光波模擬,但波導結構內的光線傳播極為複雜,單純依靠傳統計算方式不僅耗時,準確度也不足。研究團隊引入了一種基於「部分相干理論」的 AI 模型,能有效學習光在波導內的傳播行為,並在減少資料需求與計算成本的情況下,生成高品質的全像影像。這讓顯示的 3D 影像不僅畫質更清晰,也能自然呈現視差與遮擋等關鍵的深度線索,讓使用者能像觀看現實世界一樣自由移動視線。

在實驗結果中,這項系統能在僅 3 毫米厚的光學堆疊下,實現 38° 對角視場的全彩 3D 顯示,並提供比傳統波導更大的有效瞳距範圍,讓影像在不同觀看角度下依然保持穩定。透過 AI 演算法與光場導向的電腦生成全像(CGH)框架,系統能即時渲染對應不同眼位的畫面,提供自然的立體視覺體驗。

這項技術的潛力不僅限於顯示效果。由於波導結構輕薄且高度整合,未來的 MR 眼鏡有望縮小至接近一般眼鏡的尺寸,同時維持高效能與全天候的可穿戴性。這不僅能改變 MR 裝置的設計,也將擴展其應用場景,例如教育、培訓、設計、醫療模擬,甚至娛樂與社交。

Meta 表示,這項「合成孔徑波導全像顯示」展示了 AI 與光學設計結合的巨大潛力。隨著研究持續推進,未來的 MR 顯示不僅將變得更小、更輕,還能提供與現實世界幾乎無縫銜接的沉浸式體驗,為下一代混合實境設備鋪平道路。這可能是 MR 從實驗室原型走向日常生活的關鍵轉捩點。

Meta Avatar 夏季更新:新增身體類型、AI 造型工具、服裝與表情,全面強化自訂功能

廣告

Meta 宣布為 Meta Avatars 帶來全新更新,讓用戶能以更細緻的方式展現個人風格,並進一步強化跨平台的沉浸式社交體驗。這次的更新不僅增加了多樣的身體類型,還引入更多服裝、表情、動作以及 AI 輔助造型工具,為使用者提供更完整的自訂化功能。

針對身形部分,Meta 推出了十多種預設身體類型,並允許使用者微調臀部、肩膀、手臂等部位,以更貼近個人需求。新增的「身體預覽模式」則可在換裝前快速切換服裝顯示,確保外觀與身形搭配自然。這種靈活的調整方式,讓虛擬化身更能呈現使用者的真實比例與偏好。

除了外觀,Meta 也擴展了動作與互動的表現力。新的「姿勢」選項提供 18 種可自訂的站姿,用戶能在 Horizon 個人檔案中展現獨特的肢體語言。同時新增 50 多種全新表情動作與可解鎖的貼圖,讓互動不再只停留於文字與語音,還能透過肢體語言更自然地傳遞情緒。此外,服裝內容也進一步擴展,數十套全新服裝能更貼合不同身形,提供更多元的搭配可能。

另一個值得關注的功能是 AI 造型輔助工具。這項功能現已於 Horizon 行動應用中上線,使用者可透過簡單的文字提示快速生成新造型,甚至能隨機嘗試不同風格。若偏好自行設計,也能隨時切換回傳統手動編輯模式。AI 造型工具目前僅在美國與加拿大開放,並將持續擴展至更多地區,同時提供更多樣的風格選項。

此外,Meta 也優化了面部自訂的參數控制,使用者可微調下顎、臉頰、面部深度等特徵,並搭配髮型、鬍鬚、妝容、雀斑、面紋及各類裝飾,創造數十億種組合,讓化身不再侷限於單一模板,而是真正反映個人特色。

透過這次更新,Meta Avatars 進一步成為跨平台社交的重要工具,無論是在 Facebook、Instagram、Messenger、WhatsApp,或是 Horizon 的 VR 與行動版本,使用者都能以更貼近真實的虛擬化身與朋友互動。這次的改進不僅豐富了外觀調整功能,更強化了化身在沉浸式社交場景中的表達力,為未來的虛擬社交體驗鋪平了道路。

Reality Labs 發表突破性 sEMG 手腕神經介面研究,登上《Nature》期刊:一種直覺、無須校準的人機互動未來

廣告

Meta 旗下的 Reality Labs 團隊近日在國際權威期刊《Nature》發表了一項具指標性的 研究成果,展示一種基於手腕表面肌電圖(surface electromyography, sEMG)的非侵入式神經介面技術,為人機互動領域開闢了新的可能性。這項研究的核心,是透過配戴於手腕的可穿戴設備擷取微弱的神經肌肉訊號,並運用深度學習模型將這些訊號即時轉譯為用戶的操作意圖,讓人們僅以手腕與手指的輕微肌肉活動,即可完成輸入、滑動、點選、手寫等日常數位操作。與以往仰賴鍵盤、滑鼠、觸控或語音控制的方式相比,sEMG 所提供的是一種更自然、更安靜、更即時的人機互動體驗,特別適合於行動中或不便發聲的使用情境。

這款研究中開發的 sEMG 手環裝置由 48 個乾電極組成,環繞使用者手腕至前臂部位,並透過藍牙即時串流高密度肌電數據至外部運算系統。為了解碼這些複雜且個體差異極大的生理訊號,團隊設計了一套以 Conformer 架構為基礎的深度神經網路,這種網路原本用於語音辨識,能有效處理時間序列資料並保留訊號中的語意順序。在此系統中,它被改造為能即時處理手勢與手寫的肌電資料,進而轉化為精確的輸入指令。此外,為克服使用者間的差異性,研究團隊特別強化模型的泛化能力,使其能「即插即用」,不需每位使用者額外進行校準,就能立即使用。

根據實驗結果,該系統能以平均每秒 0.88 次的速率辨識手勢指令,並達成超過 92% 的準確率,在手寫任務中也能以每分鐘 20.9 字的速度輸入文字,而不須任何鍵盤或螢幕輔助。更令人關注的是,即便僅加入極少量的個人化資料(例如使用者自行書寫幾分鐘樣本),其輸入精度仍可提升約 10% 至 16%。這意味著該技術不僅具備廣泛適用性,也能隨著使用時間逐漸適應與優化每位使用者的個別操作習慣。

這項 sEMG 技術的實用性不僅體現在效率上,更在於其對不同身體條件使用者的包容能力。由於該介面不需明顯的手部移動即可感知神經訊號,即使是肢體活動能力受限者,也能透過細微肌肉意圖操作設備。研究團隊也在多位不同性別、年齡與前臂尺寸的參與者身上進行測試,證實系統對不同生理特徵具備穩定解碼效果,這使它具備成為通用輸入方式的潛力。

控制轉移:新現實實驗室關於表面肌電圖的研究發表在《Nature》

這項技術已在 Reality Labs 的 AR 原型裝置「Orion」眼鏡上實測搭配使用,並配合先進機器學習模型將肌肉訊號準確解碼為輸入指令。根據實驗,系統不僅能即時辨識標準手勢,還能支援手寫辨識——用戶可直接在桌面、腿部或其他硬表面快速書寫訊息。

  • 它完全是非侵入性的,開闢了使用肌肉訊號與電腦互動的新方法,同時解決了其他形式的 HCI 面臨的許多問題。
  • 它使用起來方便、簡單、自然,並且在語音互動等替代方案可能不切實際或不受歡迎的情況下(例如在公共場合發送私人訊息)也能發揮作用。
  • 它始終可用,並且無需笨重的配件,讓您脫離當下並分散您對最重要的人事物的注意力。

Reality Labs 亦公開了完整的資料集與訓練流程,包含超過 300 名參與者所產出的三種任務數據(連續控制、手勢與手寫),累計超過 100 小時的高密度肌電資料。研究團隊希望透過此舉加速學術界與開發者在神經介面領域的創新進展,並鼓勵社群針對硬體設計、訊號處理與機器學習模型進行更深入的探索與應用。

Reality Labs 發表的這項研究不只是工程技術的進步,更是一種對人與科技互動關係的重新思考。相較於人類過去不斷適應各種輸入工具,如打字、滑鼠點擊、觸控滑動,sEMG 所提供的是一種由人出發、機器主動理解的控制方式。當科技真正理解「意圖」本身,並能將其自然轉化為互動回饋,人機介面便不再只是效率問題,而將成為一種更加人性化的存在形式。這不僅將提升主流使用者的操作體驗,更為行動能力受限者與語言障礙者開啟嶄新溝通途徑,也可能成為未來 XR 與 AR 裝置最關鍵的核心輸入方案之一。

隨著這類非侵入式神經輸入技術日漸成熟,一種更安靜、更無感、更貼近人類本能的數位互動模式正悄然成形。Reality Labs 所提出的 sEMG 手環研究,不僅為這個可能性提供了堅實技術基礎,也讓外界對人機介面的下一個演化階段,有了更加具體的想像。

*如果想要更深入了解研究,建議一定要看nature期刊上的 文章PDF *

阿聯酋新創 XPANCEO 完成 2.5 億美元融資,估值達 13.5 億美元,打造智慧隱形眼鏡

廣告

總部位於杜拜的智慧隱形眼鏡公司 XPANCEO 近日宣布完成 2.5 億美元 A 輪融資,使公司估值攀升至 13.5 億美元,正式成為擴增實境(XR)領域的新獨角獸。此次融資由 Opportunity Venture(亞洲)領投,該機構亦曾於 2023 年領投 XPANCEO 的 4,000 萬美元種子輪投資。根據 Crunchbase 數據,XPANCEO 累計總融資金額已達 2.9 億美元。

XPANCEO 表示,此筆資金將加速其開發「全球首款全功能智慧隱形眼鏡」的步伐,目標是在 2026 年前正式推出。該產品目前仍處於原型階段,預計將整合擴增實境(AR/XR)功能、即時健康監測、夜視以及變焦等能力,將各類裝置功能濃縮於佩戴者的眼中,實現「無形界面」的願景。

公司創辦人兼管理合夥人 Roman Axelrod 表示:「在短短 24 個月內,我們已完成 15 款具備不同功能的原型,這證明我們正走在正確的道路上。我們的終極目標,是讓所有裝置都整合進你的眼睛中。」

根據官方資訊,XPANCEO 已開發多款原型鏡片,包括支援 AR 視覺顯示的隱形眼鏡、可量測眼內壓的智慧鏡片(用於青光眼監控)、能從淚液中讀取血糖等生化指標的鏡片,以及支援無線即時充電與數據傳輸的鏡片。

此外,XPANCEO 亦研發出使用奈米粒子技術的夜視鏡片與色彩校正鏡片,另有專為 3D 成像所設計的鏡片,顯示其技術研發覆蓋範圍廣泛。

XPANCEO 成立於 2021 年,由連續創業家 Roman Axelrod 與物理學家 Dr. Valentyn S. Volkov 領軍。短短幾年間,公司人數從 50 人增至 100 人,並大幅擴建實驗室以因應技術開發規模。公司並指出,其已與多間國際研究機構合作,包括曼徹斯特大學、新加坡國立大學、西班牙 Donostia 國際物理中心與杜拜大學。

XPANCEO 的成功亦讓外界聯想到過去幾個 XR 領域的指標性新創案,例如 Magic Leap 曾於 2014 年獲 Google 領投的 5.42 億美元 B 輪融資,一度在 2018 年創下 64 億美元的最高估值。如今 XPANCEO 的崛起,象徵 XR 技術正邁入微型化與穿戴化的新階段,智慧隱形眼鏡的應用潛力也持續獲得資本市場關注。

Ray-Ban Meta 眼鏡音訊功能全面升級:支援多平台語音控制,打造無耳機的聽覺體驗

廣告

隨著人工智慧與穿戴裝置技術的成熟,Meta 透過與音樂及音訊平台的合作,將 Ray-Ban Meta 智慧眼鏡(未來也將支援 Oakley Meta 眼鏡)打造為更自由、無縫的個人音訊中心。無需再糾結耳機線,也不必手忙腳亂地拿出手機,只需一句「Hey Meta」,即可啟動播放、搜尋、辨識或操作喜愛的音樂與內容。

目前支援的音樂與音訊平台包含 Amazon Music、Apple Music(限 iOS)、Spotify、Shazam 與 Music Info 等,在美國地區則額外支援 Audible 有聲書與 iHeartRadio 廣播服務。使用者可透過語音指令操作,例如:「Hey Meta,播放我的運動歌單」或「Hey Meta,播放 chill 音樂」,無需雙手即可完成。

透過 Spotify,還能語音播放特定 podcast 節目,例如:「Hey Meta,播放《The Comment Section with Drew Afualo》」,進一步拓展智慧眼鏡的應用範圍。而內建的 Shazam 功能則可在街頭或聚會中辨識周遭音樂,使用者只需說出「Hey Meta,用 Shazam 辨識這首歌」即可辨識背景音樂。

Music Info 功能進一步延伸了音樂互動的可能性,讓使用者不只知道「這是什麼歌」,還能追問:「這張專輯是什麼?」、「什麼時候發行的?」等進階資訊,為音樂愛好者提供豐富的背景知識。

在美國地區,使用者還能透過 iHeartRadio 語音搜尋本地與全國電台、音樂節目、新聞、體育與 podcast 等內容。而 Audible 的整合則讓用戶能以語音控制播放、暫停、跳章、重播,甚至為段落加入書籤。

硬體設計上,Ray-Ban Meta 採用開放式耳機設計,讓使用者在享受高品質音樂與語音內容的同時,仍能聽到周遭環境聲,適合戶外活動或通勤過程使用。未來登場的 Oakley Meta 眼鏡也預計延續相同架構,並優化於運動場景的配戴體驗。

用戶可依個人偏好快速設定與連接支援的應用程式,只需在 Meta AI app 中前往「眼鏡設定」>「已連接的應用程式」,選擇對應服務並同意相關條款後,即可啟用各項功能,並指定預設的音樂、Podcast 與廣播平台。除 Apple Music 僅限 iOS 外,其餘功能皆支援 Android 與 iOS 裝置。

透過語音搜尋、免手操作與直覺式觸控指令(長按推薦、單擊暫停播放、雙擊跳過),Ray-Ban Meta 智慧眼鏡正在重塑使用者的音樂互動體驗。不需耳機、沒有電線束縛,也無須手動操作,AI 眼鏡正將日常片段轉化為專屬的聲音氛圍。

Apple 穿戴式裝置產品藍圖曝光 智慧眼鏡有望成為未來新趨勢

廣告

蘋果在虛擬實境與穿戴式裝置市場的佈局日趨清晰。根據分析師 Ming-Chi Kuo 於 2025 年 6 月 30 日公開的研究指出,Apple 將在 2025 至 2028 年間陸續推出多款 XR 頭戴裝置與智慧眼鏡,總計至少七項開發中產品,涵蓋三款 Vision 系列 XR 裝置與四款智慧眼鏡類型。當中已有五項確定進入量產時程,其餘兩項尚待公布。

在 XR 裝置方面,蘋果預計於 2025 年第三季推出 Vision Pro M5 版本,主要升級處理器為 M5,其他規格維持不變,並定位為小眾市場產品,用以鞏固開發者與專業用戶基礎。2027 年第三季將問世的 Vision Air 則採用全新輕量設計,重量較 Vision Pro 減輕逾四成,搭載 iPhone 等級處理器並調整感測器數量,以降低售價、提升親民性。另一款 Vision Pro 第二代裝置則預定於 2028 年下半年量產,整體設計與定位皆重新調整,訴求更高效能與更低價格。

智慧眼鏡部分,類似 Ray-Ban 的非顯示型智慧眼鏡預計於 2027 年第二季推出,支援語音與手勢操作,功能聚焦於音樂播放、相機錄影與 AI 感測,具備多樣化鏡架材質選擇,並預估成為蘋果首款進入高銷量的智慧眼鏡產品,單年出貨量可能達 300–500 萬台,帶動市場總體需求突破千萬台。顯示型 XR Glasses 則預計於 2028 年下半年登場,採用 LCoS 加 waveguide 顯示技術,支援彩色畫面與 AI 功能。

此外,蘋果原訂於 2026 年推出的「Display accessory」產品,目前已自 2024 年第四季起暫停開發,正在重新評估市場定位與競爭力。該產品原先設計為需連接 iPhone 的顯示配件,具備鳥浴光學鏡組與變色鏡片功能,但因重量與技術優勢不足而暫緩上市。

整體來看,蘋果預計於 2026 年暫無新 XR 或智慧眼鏡裝置推出,產品高峰將集中於 2027 年與 2028 年,屆時將有多款新型穿戴式產品同時進入市場。蘋果在硬體整合與生態系發展上具備優勢,但軟體與 AI 系統仍是挑戰關鍵。未來兩年內,顯示型智慧眼鏡仍屬利基市場,但非顯示型產品將有望開啟新一波消費熱潮。

Meta 公布 Aria Gen 2 研究眼鏡:結合 AI 感知與穿戴技術的次世代研究裝置

廣告

Meta 於今年初正式發表了 Aria Gen 2 研究眼鏡,作為 Project Aria 計畫的延續,這款裝置旨在為研究社群提供更高效的資料收集工具與更強大的感知能力。Aria Gen 2 被定位為一款專為研究用途設計的穿戴式設備,整合了最新的電腦視覺、機器學習、感測器與即時 AI 運算技術,並透過開放式平台的方式,協助推進機器感知、空間理解、情境式人工智慧與機器人領域的研究。相較於 2020 年發表的 Aria Gen 1,Aria Gen 2 在設計與功能層面上皆有顯著提升,其硬體、演算法與感知模組的更新,意味著穿戴式研究裝置進入了新的階段。該裝置不僅改善了配戴舒適度,也擴展了感測能力與數據精準度,對從事人因工程、視覺認知、自然互動、機器人訓練與智慧城市研究的開發者而言,具備相當的實驗潛力。

Aria Gen 2 延續穿戴裝置的眼鏡形式設計,主打輕量、可攜、長時間配戴的特性,整體重量僅約 74 至 76 公克,並提供八種尺寸版本,考量到不同頭型、臉型與鼻樑結構,以提升適配度與配戴穩定性。此外,鏡腳可折疊的結構設計則進一步提升了日常操作與戶外研究的便利性。這些變化不僅僅是硬體上的調整,更反映出裝置作為研究載具在不同場域使用時的實用考量。透過更多尺寸選擇與輕巧設計,Aria Gen 2 有助於降低穿戴式研究裝置在長時間配戴下造成的身體負擔,使其更適用於實地研究、動態測試與移動應用場景。

在感測元件方面,Aria Gen 2 搭載的視覺模組經過全面升級。該裝置使用四顆電腦視覺鏡頭,數量較 Gen 1 加倍,能提供更寬廣的視角與更高解析度的圖像資料。這些鏡頭配備全球快門與高動態範圍感測器,其 HDR 表現達 120 分貝,相較前代的 70 分貝有明顯進步,有助於裝置在光源強烈變化的場景中穩定執行電腦視覺任務。同時,立體視覺重疊角度也由 Gen 1 的 35 度提升至 80 度,使其更適合進行基於立體影像的深度估測與 3D 重建。這些升級對需要高精度追蹤、姿態識別或空間場景重建的研究來說,可能提升影像數據的可用性與演算法的準確性。

除視覺感知外,Aria Gen 2 也整合了多種新型感測器,進一步擴展其應用潛力。環境光感測器(ALS)具備紫外線識別模式,能夠協助裝置分辨室內與室外環境,有助於優化相機曝光設定與低幀率拍攝條件下的資料表現。嵌入式接觸麥克風設置於鼻墊區域,能在高噪音環境中排除背景干擾,提升語音資料的準確性與可用性。此外,Aria Gen 2 亦內建 PPG 心率感測器,可用於生理狀態估測,這項設計對結合生理反應與環境行為分析的研究具有潛在價值。

CV 攝影機能夠捕捉高度動態的場景,並能分辨 LED 燈絲以及場景中的其他細節。(Video Form Meta)
環境光感測器 (ALS) (Video Form Meta)
模擬有風的場景,當聲學麥克風無法拾取佩戴者的耳語時,接觸式麥克風可以拾取佩戴者的耳語。(Video Form Meta)

針對裝置間資料協同與同步問題,Aria Gen 2 採用了 SubGHz 無線技術進行時間對齊。這項硬體式解決方案取代前代軟體式方法,具備亞毫秒級的時間同步精度,對於多台裝置進行協同紀錄、分散式場景重建與資料對比分析而言,可能帶來更高的資料一致性與時間準確性,進一步支援多視角研究或團隊合作實驗設計。

影片展示了 Aria Gen 2 如何使用裝置時間對齊來執行諸如從兩個 Aria Gen 2 裝置進行分散式擷取寫入等任務。(Video Form Meta)

為了滿足裝置端即時資料處理的需求,Aria Gen 2 配備 Meta 自家開發的低功耗協同處理器,支援機器感知演算法的即時執行。包括視覺慣性定位(Visual Inertial Odometry, VIO)在內的空間追蹤能力,讓裝置可在六自由度下執行位置與方向感知;眼動追蹤模組則提供瞳孔移動、眨眼、聚焦點、雙眼角度等多種視覺參數,有助於視覺注意力與人機互動研究;手部追蹤功能則能擷取三維空間中的關節位置與手勢資訊,應用於手眼協同、機器手臂模擬與手部數據集建立等用途。這些資料處理與感知模組結合後,構築了一套完整的環境理解架構,使 Aria Gen 2 能即時回應使用者動作與周圍變化。

演示 Aria Gen 2 的傳感器和機器感知能力,以及基於它們構建的設備外算法。

目前 Aria Gen 2 尚未全面開放申請,Meta 預計於年內啟動研究合作計畫,而針對前一代 Aria Gen 1 的研究套件仍持續接受申請,有興趣的研究人員可透過官方平台申請進入合作流程。Meta 亦預告將於 2025 年 6 月的 CVPR 年會現場展示 Aria Gen 2 的互動體驗,屆時將提供與會者第一手的裝置試用機會與技術解說。

Aria Gen 2 延續了 Project Aria 開放研究平台的精神,在硬體規格、感測模組、資料處理與同步能力上進行多方面升級。儘管仍以研究與開發為主要目標而非商用消費市場,但其設計與功能已逐步靠近空間運算核心技術的實際應用需求。對於學術界、產業研究團隊與創新開發者來說,這樣一款具備擴充性與即時感知能力的研究眼鏡,有可能成為觀察人類行為、訓練機器學習系統與打造新一代智慧環境的實驗平台。


Meta Aria Gen 2 重點整理|研究人員的理想穿戴式感知工具登場

  1. Project Aria 計畫延續
    Meta 推出 Aria Gen 2 研究眼鏡,專為機器感知、空間理解、AI 與機器人等前沿研究設計。
  2. 更輕更合身的設計
    整體重量約 74 至 76 克,支援長時間配戴。提供 8 種尺寸、可折疊鏡腳,提升適配度與戶外操作便利性。
  3. 升級的視覺模組
    搭載 4 顆電腦視覺鏡頭(前代為 2 顆),HDR 提升至 120dB(前代為 70dB),立體視角由 35 度提升至 80 度,大幅提升影像精準度與深度估測能力。
  4. 多元感測整合
    內建紫外線環境光感測器、高靈敏鼻墊麥克風與 PPG 心率感測器,有助於室內外辨識、語音準確性與生理數據收集。
  5. 超高精度時間同步
    使用 SubGHz 無線技術達成亞毫秒級資料同步,提升多裝置協同記錄與空間重建的資料一致性。
  6. 即時 AI 處理與空間感知
    搭載 Meta 自家低功耗處理器,支援 VIO 空間追蹤、眼動追蹤、手部追蹤等功能,能即時感知使用者動作與環境變化。
  7. 合作計畫與公開展示
    Meta 預計於 2025 年 6 月 CVPR 年會展示 Aria Gen 2 並提供現場試用,現階段 Gen 1 合作申請仍開放,Gen 2 將於年內逐步展開合作計畫。
  8. 高潛力研究應用
    適用於人因工程、智慧城市、視覺認知、機器學習訓練等場景,是一款具備擴充性與即時感知能力的研究平台。