標籤彙整: Reality Labs

Meta Reality Labs 徵集「運動學習與神經運動倫理」研究提案,最高資助150,00美元

廣告

Meta 旗下 Reality Labs 近日宣布,將針對「Motor Learning & Neuromotor Ethics」(運動學習與神經運動倫理)領域公開徵集研究提案,目標是推動基於表面肌電圖(sEMG)技術的人機互動研究,並確保相關技術的發展能兼顧學術創新與倫理責任。此計畫由 Reality Labs 的 EMG Foundational Research 團隊主導,專為學術界研究人員提供資助與合作機會。

這次徵集的研究重點分為兩大主題。第一是「EMG 控制的運動學習方法」,Meta 期望探索如何幫助使用者更高效地學習高頻寬、可表達性強且可個人化的 EMG 控制方式。提案可包括被動學習、遊戲化訓練、使用者與系統共同適應的互動方式,以及針對不同學習者的回饋優化策略。Meta 也鼓勵研究深入探討不同的神經運動層級(如運動單元、神經驅動、肌肉、動作協同)並設計對應的學習模型。

第二個重點是「神經運動倫理」。Meta 強調,長期的運動學習研究可能需要大量且具縱向性的數據收集,這也涉及隱私、使用者自主權與資料安全等議題。所有提案必須納入倫理合作模型,明確說明研究團隊將如何與倫理學者協作,確保資料使用負責且具包容性,並且能讓學習方法適用於不同背景的使用者。

提案的預算與條件方面,Meta 將提供最多 6 項獎助(其中至少 4 項位於美國),每項最高資助金額為 15 萬美元,資金將作為無限制用途的學術贈款,並計畫於 2026 年 1 月啟動專案。獲選的團隊需提交研究計畫摘要(250 字以內)、研究說明(2 頁以內)、預算說明(1 頁以內)、主要人員履歷,以及機構稅務與行政聯絡資料。Meta 也鼓勵研究成果選擇開放存取的學術期刊發表。

申請資格要求申請人須為授予博士學位的學術機構現任教職,並以專案主持人(PI)的身份參與。組織必須是非營利或具合法地位的非政府單位。所有問題與提案需於 2025 年 9 月 1 日前寄至 neurotech@meta.com,Meta 將於 10 月回覆申請結果。

這項計畫除了推動 EMG 技術在未來人機互動中的實際應用外,也將確保研究的倫理性與使用者價值,並為學界與產業建立更緊密的合作橋樑。

Reality Labs 發表突破性 sEMG 手腕神經介面研究,登上《Nature》期刊:一種直覺、無須校準的人機互動未來

廣告

Meta 旗下的 Reality Labs 團隊近日在國際權威期刊《Nature》發表了一項具指標性的 研究成果,展示一種基於手腕表面肌電圖(surface electromyography, sEMG)的非侵入式神經介面技術,為人機互動領域開闢了新的可能性。這項研究的核心,是透過配戴於手腕的可穿戴設備擷取微弱的神經肌肉訊號,並運用深度學習模型將這些訊號即時轉譯為用戶的操作意圖,讓人們僅以手腕與手指的輕微肌肉活動,即可完成輸入、滑動、點選、手寫等日常數位操作。與以往仰賴鍵盤、滑鼠、觸控或語音控制的方式相比,sEMG 所提供的是一種更自然、更安靜、更即時的人機互動體驗,特別適合於行動中或不便發聲的使用情境。

這款研究中開發的 sEMG 手環裝置由 48 個乾電極組成,環繞使用者手腕至前臂部位,並透過藍牙即時串流高密度肌電數據至外部運算系統。為了解碼這些複雜且個體差異極大的生理訊號,團隊設計了一套以 Conformer 架構為基礎的深度神經網路,這種網路原本用於語音辨識,能有效處理時間序列資料並保留訊號中的語意順序。在此系統中,它被改造為能即時處理手勢與手寫的肌電資料,進而轉化為精確的輸入指令。此外,為克服使用者間的差異性,研究團隊特別強化模型的泛化能力,使其能「即插即用」,不需每位使用者額外進行校準,就能立即使用。

根據實驗結果,該系統能以平均每秒 0.88 次的速率辨識手勢指令,並達成超過 92% 的準確率,在手寫任務中也能以每分鐘 20.9 字的速度輸入文字,而不須任何鍵盤或螢幕輔助。更令人關注的是,即便僅加入極少量的個人化資料(例如使用者自行書寫幾分鐘樣本),其輸入精度仍可提升約 10% 至 16%。這意味著該技術不僅具備廣泛適用性,也能隨著使用時間逐漸適應與優化每位使用者的個別操作習慣。

這項 sEMG 技術的實用性不僅體現在效率上,更在於其對不同身體條件使用者的包容能力。由於該介面不需明顯的手部移動即可感知神經訊號,即使是肢體活動能力受限者,也能透過細微肌肉意圖操作設備。研究團隊也在多位不同性別、年齡與前臂尺寸的參與者身上進行測試,證實系統對不同生理特徵具備穩定解碼效果,這使它具備成為通用輸入方式的潛力。

控制轉移:新現實實驗室關於表面肌電圖的研究發表在《Nature》

這項技術已在 Reality Labs 的 AR 原型裝置「Orion」眼鏡上實測搭配使用,並配合先進機器學習模型將肌肉訊號準確解碼為輸入指令。根據實驗,系統不僅能即時辨識標準手勢,還能支援手寫辨識——用戶可直接在桌面、腿部或其他硬表面快速書寫訊息。

  • 它完全是非侵入性的,開闢了使用肌肉訊號與電腦互動的新方法,同時解決了其他形式的 HCI 面臨的許多問題。
  • 它使用起來方便、簡單、自然,並且在語音互動等替代方案可能不切實際或不受歡迎的情況下(例如在公共場合發送私人訊息)也能發揮作用。
  • 它始終可用,並且無需笨重的配件,讓您脫離當下並分散您對最重要的人事物的注意力。

Reality Labs 亦公開了完整的資料集與訓練流程,包含超過 300 名參與者所產出的三種任務數據(連續控制、手勢與手寫),累計超過 100 小時的高密度肌電資料。研究團隊希望透過此舉加速學術界與開發者在神經介面領域的創新進展,並鼓勵社群針對硬體設計、訊號處理與機器學習模型進行更深入的探索與應用。

Reality Labs 發表的這項研究不只是工程技術的進步,更是一種對人與科技互動關係的重新思考。相較於人類過去不斷適應各種輸入工具,如打字、滑鼠點擊、觸控滑動,sEMG 所提供的是一種由人出發、機器主動理解的控制方式。當科技真正理解「意圖」本身,並能將其自然轉化為互動回饋,人機介面便不再只是效率問題,而將成為一種更加人性化的存在形式。這不僅將提升主流使用者的操作體驗,更為行動能力受限者與語言障礙者開啟嶄新溝通途徑,也可能成為未來 XR 與 AR 裝置最關鍵的核心輸入方案之一。

隨著這類非侵入式神經輸入技術日漸成熟,一種更安靜、更無感、更貼近人類本能的數位互動模式正悄然成形。Reality Labs 所提出的 sEMG 手環研究,不僅為這個可能性提供了堅實技術基礎,也讓外界對人機介面的下一個演化階段,有了更加具體的想像。

*如果想要更深入了解研究,建議一定要看nature期刊上的 文章PDF *

SceneScript革命:MEAT Reality Labs以語言重塑3D場景重構未來

廣告

MEAT Reality Labs研究室最新發布的SceneScript代表著一項革命性的進步,它提供了一種全新的方法來重建環境並表示物理空間布局。這一技術的核心在於其使用的Aria合成環境資料集,該資料集經過精心設計,旨在進行模擬訓練,並且開放供學術界使用。

想像您佩戴著一副既時尚又輕便的眼鏡,這副眼鏡結合了情境化人工智慧與顯示技術,能夠在您需要時提供即時信息,並在日常生活中主動為您提供幫助。為了實現這種擴增實境(AR)眼鏡的概念,關鍵在於系統必須能夠準確理解物理環境的布局以及3D世界的結構。這種深入的理解使AR眼鏡能夠根據您的位置和個人環境定制內容,比如將數字信息無縫融合到您的實體空間中,或在您探索未知地點時提供導航幫助。

然而,建立這些3D場景的表示並非易事。當前的混合現實(MR)設備,如Meta Quest 3,是通過處理來自相機或3D感測器的原始視覺數據來創建物理空間的虛擬表示。這些數據被轉化為描述環境中特定元素(如牆壁、天花板和門)的形狀系列。然而,依賴預定義的規則將這些原始數據轉換為形狀的方法,往往會在面對具有獨特或不規則幾何形狀的空間時出現錯誤。

SceneScript的創新之處在於它如何解決了這一挑戰,透過機器學習直接從視覺數據中推斷出房間的幾何形狀,從而提供一種更為精準、可靠且易於理解的物理場景表示方式,隨著Reality Labs研究室繼續探索SceneScript的能力,其對增強實境(AR)、機器學習(ML)和人工智能(AI)研究的影響是深遠的。SceneScript不僅代表了3D場景重構方面的重大進展,還承諾將物理和數字世界之間的鴻溝橋接起來,預示著AR技術的新時代。