Meta Reality Labs Research 與 史丹佛大學的研究團隊 近日發表了一項結合先進光學與 AI 演算法的新技術——「合成孔徑波導全像顯示」(Synthetic Aperture Waveguide Holography)。這項技術的目標,是解決目前混合實境(MR)顯示器在外型、影像品質與視域等方面的限制,並為未來真正輕量化、全天候可穿戴的 MR 顯示設備奠定基礎。
目前的 MR 顯示裝置往往面臨兩大挑戰:其一是體積龐大、外型笨重,不適合長時間使用;其二是顯示內容多半缺乏足夠的 3D 深度資訊,難以提供接近現實的立體感。這不僅限制了沉浸式體驗的真實性,也容易造成長時間使用的視覺不適。Meta 與史丹佛的研究則提供了一條突破路徑,他們設計出一種僅有數毫米厚度的超薄光學波導,結合 MEMS 掃描鏡與特殊的消色差全像透鏡,能在極小的體積下實現更寬廣的視域與清晰穩定的 3D 顯示效果。
這項技術的核心概念是「合成孔徑」。簡單來說,它利用多個小型光學孔徑的光線掃描,將其在數位上整合成一個「大型的合成光學孔徑」。這種設計能有效擴大瞳距範圍(eyebox),讓不同使用者、甚至在佩戴裝置時有些微偏移的情況下,依然能獲得完整、清晰的 3D 畫面。對於日常使用來說,這解決了過去 MR 裝置「必須固定在準確位置」才能觀看的問題,讓佩戴體驗更加自然。
除了光學架構,AI 演算法在這項技術中也扮演了關鍵角色。傳統的全像顯示需要高度精準的光波模擬,但波導結構內的光線傳播極為複雜,單純依靠傳統計算方式不僅耗時,準確度也不足。研究團隊引入了一種基於「部分相干理論」的 AI 模型,能有效學習光在波導內的傳播行為,並在減少資料需求與計算成本的情況下,生成高品質的全像影像。這讓顯示的 3D 影像不僅畫質更清晰,也能自然呈現視差與遮擋等關鍵的深度線索,讓使用者能像觀看現實世界一樣自由移動視線。
在實驗結果中,這項系統能在僅 3 毫米厚的光學堆疊下,實現 38° 對角視場的全彩 3D 顯示,並提供比傳統波導更大的有效瞳距範圍,讓影像在不同觀看角度下依然保持穩定。透過 AI 演算法與光場導向的電腦生成全像(CGH)框架,系統能即時渲染對應不同眼位的畫面,提供自然的立體視覺體驗。
這項技術的潛力不僅限於顯示效果。由於波導結構輕薄且高度整合,未來的 MR 眼鏡有望縮小至接近一般眼鏡的尺寸,同時維持高效能與全天候的可穿戴性。這不僅能改變 MR 裝置的設計,也將擴展其應用場景,例如教育、培訓、設計、醫療模擬,甚至娛樂與社交。
Meta 表示,這項「合成孔徑波導全像顯示」展示了 AI 與光學設計結合的巨大潛力。隨著研究持續推進,未來的 MR 顯示不僅將變得更小、更輕,還能提供與現實世界幾乎無縫銜接的沉浸式體驗,為下一代混合實境設備鋪平道路。這可能是 MR 從實驗室原型走向日常生活的關鍵轉捩點。
- 如需了解更多請查閱 PDF 檔案
