標籤彙整: EMG

Meta Connect 2025:《Meta Ray-Ban Display》正式亮相 — 首款搭載高解析顯示與 Neural Band 的 AI 智慧眼鏡

廣告

在 Meta Connect 2025 的舞台上,Mark Zuckerberg 宣布推出全新產品 Meta Ray-Ban Display,並搭配 Meta Neural Band,開啟 AI 眼鏡的新篇章。這款新品將攝影、音訊、運算、顯示與 AI 全部整合於一副時尚、輕巧的鏡框中,標誌著智慧穿戴的又一次突破。

Meta Ray-Ban Display 最大的特色是搭載單眼高解析彩色顯示器,能夠在鏡片側邊呈現訊息、導航路線、訊息通知與 AI 視覺化提示。螢幕僅在需要時開啟,避免影響佩戴者的日常視野。顯示採用特殊波導技術與光學引擎,達到 42 PPD(每度像素數) 的精細度,亮度高達 5000 nits,即便在戶外強光下仍能清晰可見。同時,光洩漏僅約 2%,確保隱私與舒適使用。

每副眼鏡皆搭配 Meta Neural Band,這是一款基於 肌電訊號(EMG) 的手環,能夠讀取佩戴者手指與手部的微小肌肉訊號,並轉化為指令。用戶僅需細微的手勢,例如滑動或捏合,就能控制顯示器,未來甚至能以「空中書寫」輸入訊息。手環具備 18 小時續航、IPX7 防水,並以 Vectran 強化結構提升耐用度。

在功能體驗上,Meta Ray-Ban Display 延續前一代 Ray-Ban Meta 智慧眼鏡的核心特色,並進一步強化:

  • 訊息與通話:支援 WhatsApp、Messenger、Instagram 訊息顯示,並可進行免持視訊通話。
  • 導航:內建行人導航,能在視野中直接顯示轉彎提示(首波僅支援部分城市)。
  • 翻譯與字幕:支援即時語音翻譯與字幕顯示。
  • 音樂控制:透過 Neural Band 手勢操作音量、切換曲目。
  • 拍攝與取景:新增即時取景框與縮放功能,方便捕捉照片與影片。

在外觀設計上,這款眼鏡維持 Ray-Ban Wayfarer 經典輪廓,但進一步優化鏡框比例與曲線,重量僅 69 公克,並內建全新鋼罐型電池以延長續航。鏡片採用 Transitions® 光致變色材質,適合日夜佩戴,單次充電可支撐 6 小時混合使用,搭配可折疊充電盒則可額外提供 30 小時續航。

價格方面,Meta Ray-Ban Display 與 Meta Neural Band 綑綁販售,售價 799 美元。首波將於 2025 年 9 月 30 日在美國部分零售通路開賣,包括 Best Buy、LensCrafters、Sunglass Hut 與 Ray-Ban 專賣店,稍晚也會登上 Verizon 門市。預計 2026 年初拓展至加拿大、英國、義大利與法國市場。配色有 黑色與沙色,並提供標準與大尺寸兩種框架選擇。

Meta 將 Ray-Ban Display 定位為三大 AI 眼鏡產品線中的「顯示型」裝置,與以攝影為主的 Ray-Ban/Oakley 系列、以及正在研發中的 AR 眼鏡原型 Orion 形成完整產品策略。官方也透露,未來將持續透過軟體更新,新增 Instagram Reels 專用應用、EMG 手寫輸入等功能,持續拓展使用場景。

對 Meta 而言,Ray-Ban Display 不僅是一款硬體新品,更是推進「下一代運算平台」的重要一步。這不再只是記錄生活或播放音樂的智慧眼鏡,而是一個結合 AI、顯示與直覺操控的全新入口,讓人們能在日常中同時保持專注與連結。

Meta Ray-Ban Display

項目詳細資訊
產品類型AI 智慧眼鏡(顯示型)
顯示技術單眼彩色高解析波導顯示
解析度42 PPD(每度像素數)
亮度高達 5000 nits
光洩漏僅約 2%,保護隱私
相機內建(可拍照、錄影、即時取景、縮放)
鏡片Transitions® 光致變色鏡片
設計Ray-Ban Wayfarer 經典造型(標準 / 大尺寸)
重量約 69 公克
電池續航單次充電約 6 小時混合使用
充電盒可折疊式,提供額外 30 小時續航
控制方式眼鏡觸控 + Meta Neural Band(EMG 肌電感測)
Meta Neural Band手勢控制(滑動、捏合、未來支援手寫輸入)
Neural Band 續航最長 18 小時
Neural Band 防水IPX7(防水等級)
音訊開放式耳機 + 5 麥克風陣列
功能訊息顯示、即時翻譯、即時字幕、音樂控制、導航、AI 視覺提示
顏色黑色、沙色
價格799 美元(含眼鏡與 Neural Band)
上市日期2025 年 9 月 30 日(美國部分零售商)
零售通路Best Buy、LensCrafters、Sunglass Hut、Ray-Ban Stores、後續 Verizon
後續上市地區2026 年初:加拿大、英國、義大利、法國

Meta Reality Labs 徵集「運動學習與神經運動倫理」研究提案,最高資助150,00美元

廣告

Meta 旗下 Reality Labs 近日宣布,將針對「Motor Learning & Neuromotor Ethics」(運動學習與神經運動倫理)領域公開徵集研究提案,目標是推動基於表面肌電圖(sEMG)技術的人機互動研究,並確保相關技術的發展能兼顧學術創新與倫理責任。此計畫由 Reality Labs 的 EMG Foundational Research 團隊主導,專為學術界研究人員提供資助與合作機會。

這次徵集的研究重點分為兩大主題。第一是「EMG 控制的運動學習方法」,Meta 期望探索如何幫助使用者更高效地學習高頻寬、可表達性強且可個人化的 EMG 控制方式。提案可包括被動學習、遊戲化訓練、使用者與系統共同適應的互動方式,以及針對不同學習者的回饋優化策略。Meta 也鼓勵研究深入探討不同的神經運動層級(如運動單元、神經驅動、肌肉、動作協同)並設計對應的學習模型。

第二個重點是「神經運動倫理」。Meta 強調,長期的運動學習研究可能需要大量且具縱向性的數據收集,這也涉及隱私、使用者自主權與資料安全等議題。所有提案必須納入倫理合作模型,明確說明研究團隊將如何與倫理學者協作,確保資料使用負責且具包容性,並且能讓學習方法適用於不同背景的使用者。

提案的預算與條件方面,Meta 將提供最多 6 項獎助(其中至少 4 項位於美國),每項最高資助金額為 15 萬美元,資金將作為無限制用途的學術贈款,並計畫於 2026 年 1 月啟動專案。獲選的團隊需提交研究計畫摘要(250 字以內)、研究說明(2 頁以內)、預算說明(1 頁以內)、主要人員履歷,以及機構稅務與行政聯絡資料。Meta 也鼓勵研究成果選擇開放存取的學術期刊發表。

申請資格要求申請人須為授予博士學位的學術機構現任教職,並以專案主持人(PI)的身份參與。組織必須是非營利或具合法地位的非政府單位。所有問題與提案需於 2025 年 9 月 1 日前寄至 neurotech@meta.com,Meta 將於 10 月回覆申請結果。

這項計畫除了推動 EMG 技術在未來人機互動中的實際應用外,也將確保研究的倫理性與使用者價值,並為學界與產業建立更緊密的合作橋樑。

META推動表面肌電圖(EMG)腕帶技術,實現公平與無障礙的人機互動體驗

廣告

META在Connect大會上展示了其最新的AR眼鏡「Orion」,這款產品融合了先進的表面肌電圖(EMG)技術,透過手腕上的腕帶,使用者可以無需控制器即可進行滑動、點擊和瀏覽內容。這項技術致力於為不同神經運動能力的使用者提供包容性的人機互動(HCI)體驗,打破了傳統控制器的局限,讓人們能夠以更便捷且多樣的方式與科技互動。

表面EMG技術運用外部感應器檢測手腕與手部的肌肉電信號,為HCI帶來了一種全新的互動方式。META開發的EMG腕帶在「Orion」中是該技術的最新應用,並計劃將這項技術推向消費者市場,成為一種輕鬆無縫的人機互動設備。META強調,這項技術的設計是以包容性為核心,努力打造能夠適應不同行為、生理和運動能力的穿戴設備與控制算法。無論使用者的手部大小、形狀或運動方式如何,EMG腕帶都能適應並學習每位使用者的獨特動作。

META積極支持外部研究實驗室,致力於推動表面EMG技術的公平與無障礙應用。例如,猶他大學的Jacob George博士團隊開發的研究顯示,即使在手部癱瘓的情況下,手腕上的EMG信號仍可用於控制虛擬互動,這顯示了EMG技術在虛擬環境中表現出的巨大潛力。而華盛頓大學的Jennifer Mankoff與Momona Yamagami博士則開發了一套算法,讓不同神經運動能力的使用者能自由選擇手勢來與電腦互動,實現了個性化的HCI體驗。

另外,META也與加州大學戴維斯分校的研究團隊合作,開發出適用於不同年齡與皮膚特徵的表面EMG算法,考慮到皮膚彈性、含水量、體重指數和體毛等因素對肌電信號的影響,致力於打造更穩健且適用於不同人群的技術。

2023年,META開始與外部合作夥伴分享自家開發的硬體原型與算法,推動EMG技術的無障礙應用。與卡內基梅隆大學合作的研究已證明,該技術可以引導脊髓損傷患者利用微小肌肉信號來控制電腦活動,為患有癱瘓等運動能力受限的個人提供了新的可能性。

此外,META的研究還針對震顫患者進行了專門的算法開發。由於震顫患者在使用傳統觸控設備時會遇到操作困難,EMG腕帶能夠讓他們通過自由空間手勢進行控制,系統則能準確識別他們的操作意圖。這項技術依賴於機器學習模型,能夠將手勢轉換為電腦指令,突破了實際運動能力的限制,為震顫患者帶來更無障礙的科技體驗。

META: AR/VR 輸入的神經腕帶

廣告

在2023年初The Verge透漏了Meta到2027年的AR/VR 硬體路線圖 計劃於 2025 年發布第一副帶顯示器的智慧眼鏡,以及一款旨在控制它們的神經介面智慧手錶。在一次內部演示中,Meta 高層制定了三款新 Quest 耳機、AR 眼鏡和「神經介面」智慧手錶的計劃。

2019 年底,META斥資約 10 億美元收購了一家名為 CTRL-Labs的新創公司,該公司一直在研究手指追蹤腕帶的想法直至今日,CTRL Labs 的執行長兼聯合創始人 Thomas Reardon一直在研究這項技術。

這款腕帶使用微分肌電圖(EMG)來測量手臂神經元中的電脈衝,本質上產生了配戴者可以用來與眼鏡互動的幻肢效果。人們本質上可以思考輸入或控制虛擬介面,Meta 認為這將有助於與沒有觸控螢幕、滑鼠或鍵盤的智慧眼鏡進行互動。

未來的人機互動需要一個極其易用、可靠且保障私密的介面,使我們能夠始終完全沉浸在現實世界中。這樣的介面需多項創新,才能成為我們與數字世界互動的主要方式。其中兩項最關鍵的要素包括:上下文感知的人工智能,能夠理解使用者的命令和操作以及周遭的上下文和環境;以及一種稱為超低摩擦輸入的技術,讓與系統的通訊變得輕而易舉。人工智能將基於對使用者及其環境的了解,深入推斷在各種情況下可能需要的資訊或想要執行的操作,並提供一系列量身定制的選項。輸入方式旨在讓選擇變得毫不費力——就像透過手指輕微移動來點擊一個始終可用的虛擬按鈕一樣簡單。

然而,這個系統的實現是需多年時間。因此,FRL 研究了一個可能更快實現的方案:結合基於手腕的輸入與有限但可用的情境化人工智慧,能夠動態適應使用者及其環境。

自 FRL Research(前稱 Oculus Research)成立之初,團隊便著手設想 AR 眼鏡的理想輸入裝置。他們的目標是開發一種無處不在的輸入技術,適用於任何人在日常生活中遇到的各種情況。首先,也是最重要的,這個系統需要從一開始就以負責任的方式建立,充分考慮隱私、安全性以及保障,為人們提供有意義的方式來個性化和控制他們的 AR 體驗。介面還需要直觀、始終可用、不引人注目且易於操作。理想情況下,它還應該支持豐富的高頻寬控制,適用於從操作虛擬物件到編輯電子文件的各種活動。最重要的是,這個裝置需要有一個足夠舒適的設計,使其能夠全天候佩戴,同時也足夠節能,以支持長時間的使用。

這是一系列嚴格的要求。當研究團隊探索各種可能性時,他們發現了兩個主要的挑戰:首先,當時存在的任何技術都無法完全滿足這些標準。第二,任何最終的解決方案都必須考慮到需要佩戴在手腕上的實際性。

這項挑戰促使團隊不斷創新和試驗,以尋找既能滿足這些嚴格要求又能快速實現的方案。正如馬克·祖克伯格在近期《Morning Brew Daily》脫口秀節目中所透露的那樣,

“我們實際上已經接近在未來幾年內將其應用到產品中了”。這說明了 Facebook 實境實驗室對於其 AR 技術的信心以及對未來的期待。

FRL 的這項研究不僅僅是技術創新的代表,它也象徵著一種對人類互聯方式未來可能變革的深刻理解。通過將數位世界無縫整合進我們的現實生活,AR 眼鏡和相關技術將開啟一個全新的交互維度,讓距離不再是溝通和共享經歷的障礙。FRL 的努力不僅僅是為了創造一種新的產品,更是在為實現一種更加連接和互動的世界而工作。隨著這些技術的成熟和普及,我們可以期待未來的生活方式將因為這些創新而變得更加豐富和多彩。

過去META也曾告訴大家,為何選擇手腕作為這一創新技術的核心?答案藏於其獨特的便利性與直觀性之中。

手腕的選擇並非偶然。傳統上,手腕是佩戴手錶的地方,這使得將輸入裝置放置於此地不僅能自然融入日常生活,還能在社交環境中不引人注目。手腕的位置,緊鄰我們與世界互動的主要工具——我們的手,提供了一個全天候舒適的佩戴選擇,並且讓我們能夠利用手的豐富控制能力進行直觀而強大的互動。

腕式裝置的另一大優勢在於其作為運算、電池和天線平台的潛力,以及支持廣泛感測器的能力。其中,肌電圖(EMG)技術的引入,將手腕上微小的運動神經訊號轉化為數位指令,為實現豐富且精確的控制提供了可能。

EMG 技術的核心在於其能夠識別極其細微的手指運動,甚至於僅僅一毫米的活動,從而使控制動作變得毫不費力。這種技術的進步意味著,最終用戶甚至可能只需感受到移動手指的意圖,就能執行命令。

FRL 的神經運動介面總監指出,這種技術的目標不在於讀心,而是解碼已經決定執行的動作的神經訊號,將其轉換為裝置的數位命令。這種方式類似於我們當今使用手機或電腦時的互動,但速度更快、更直接。

肌電圖技術最初將提供簡單的控制,如“點擊”動作,但預計將發展出更多豐富的控制方式。這包括在擴增實境(AR)中與虛擬界面和對象的直接互動,甚至達到遠程操控虛擬物體的能力,彷彿擁有超自然的力量。

肌電圖技術的美妙之處在於它利用了人們已經熟練掌握的動作——打字和點擊。通過將這些熟悉的動作轉化為數位命令,它有望創造一種全新的互動方式,這種方式不僅更快、更直接,而且還能夠隨時隨地進行,無需任何物理介面。

當我們談論到未來的人機互動方式,如手指點擊或微手勢等超低摩擦輸入方法,這些技術無疑將開創新的互動模式。然而,要讓這些互動感覺更加有形、更具體,我們需要的不僅僅是視覺或聽覺回饋,觸覺反饋在這裡扮演了關鍵角色。

FRL 的研究科學總監 Sean Keller 解釋說,從我們出生時的第一次抓握開始,到靈巧地操縱物體和在鍵盤上打字,觸覺都是我們學習和理解世界的基礎。這種觸覺反饋不僅限於物理世界,也正在進入虛擬世界的互動中。例如,透過腕帶技術,我們可以模擬拉弓的感覺,讓使用者確信自己正在執行正確的動作。

進一步的應用包括在接收不同類型的通知時提供差異化的觸覺反饋,例如“緊急”電子郵件可能觸發一系列振動和脈衝,而普通郵件則可能只有單一脈衝或無任何觸覺回饋,這些都依賴於使用者的偏好設定。這種觸覺反饋使得人機互動不再是單向的,而是成為了一種雙向對話。

FRL 過去一直在探索如何透過腕帶提供更豐富的觸覺體驗。他們開發的一個原型名為“Bellowband”,它是一種圍繞手腕的柔軟且輕盈的帶子,配備了八個氣動波紋管,這些波紋管可以控制空氣流動,以複雜的模式在空間和時間上呈現壓力和振動。另一個名為Tasbi的原型則結合了振動觸覺執行器和一種新穎的手腕擠壓機構,用於測試各種虛擬交互,從檢測虛擬按鈕硬度的差異到感受不同的紋理。

這些研究原型不僅是向創造無法與現實世界中的物體和活動區分的虛擬觸覺反饋邁進的重要一步,也展示了通過所謂的“感覺替代”現象,我們的大腦如何將視覺、聽覺和觸覺刺激結合起來,為虛擬體驗提供了新的維度。