VIVERSE 宣布與行動 3D 掃描工具 KIRI Engine 展開合作,為創作者帶來更直覺、快速的 3D 建模與發佈流程。透過 KIRI Engine,使用者只需以手機拍攝照片或影片,即可生成高品質 3D 模型,並能直接匯入 VIVERSE Worlds,建立可透過連結分享的互動空間,無需安裝應用程式或使用傳統遊戲引擎。
KIRI Engine 提供多種 3D 重建技術,包括攝影測量(Photogrammetry)、Featureless Mode 與 3D Gaussian Splatting,可在行動裝置上快速完成細節豐富的模型建構。這些模型可直接應用於 VIVERSE 的瀏覽器型 3D 世界中,讓創作者能將現實物件轉化為展覽品、場景道具,甚至是完整的互動空間。
此外,針對高解析度或大型模型,創作者也能利用 VIVERSE 的 Polygon Streaming 技術進行最佳化,在保留細節的同時確保載入效能,讓多物件或複雜場景依然維持流暢體驗。這項整合被視為降低 3D 創作門檻、加速 WebXR 內容普及的重要一步。
在長達十多年的探索之後,Meta 正逐步勾勒出一個比單一裝置更大的未來平台藍圖。這個方向不再只是 VR、智慧眼鏡或 AI 各自發展,而是試圖將 VR、AI、穿戴式裝置與機器人技術整合為同一條技術路線,形成一個以「人為核心」的新一代運算平台。
Meta 認為,AI 是這條路線的關鍵催化劑。隨著 AI 能力快速提升,系統不再只是被動回應指令,而是能理解環境、預測需求,並主動協助使用者完成事情。這樣的能力,讓穿戴式裝置特別是 AI 眼鏡,成為承載下一代運算體驗的重要載體。眼鏡不需要佔據雙手或視線,卻能持續理解使用者的處境,成為隱身於日常生活中的運算介面。
在 VR 領域,Meta 持續強化其作為「模擬現實」的平台角色。透過新一代渲染技術與 AI 工具,虛擬世界不再只是遊戲場景,而是可以重建真實空間、承載社交互動,甚至成為創作者快速生成與分享世界的工具。VR 被視為一個能將數位體驗轉化為「空間存在感」的關鍵媒介。
2025 年,Meta 在 VR 技術基礎層帶來一系列重要變化,標誌著沉浸式內容創作方式正走向一個全新的階段。從高實境感的 3D 捕捉,到 AI 自動生成場景,再到能在瞬間分享的社交空間,新技術正在讓虛擬世界變得更真實、更容易創作,也更易於被大眾接受。
其中最具代表性的,就是 Hyperscape。這項新功能讓使用者僅需一台 Quest 頭顯,就能快速掃描周遭場景並生成逼真的 3D 空間。這些空間能直接在線上分享,好友可以像走進對方家中一樣進入場景探索。過去需要專業團隊才能完成的 3D 場景,如今成為一般用戶也能做到的日常能力,這也逐漸改變了人們紀錄與分享世界的方式。
在更專業的層面上,Gaussian Splatting 已成為高擬真 3D 重建的重要技術。相比傳統建模方式,Gaussian Splatting 能以更自然的光影與更高密度的資料還原現實空間,使內容在 VR 中呈現時有更接近肉眼觀察的細節。這項技術開始被整合進平台內,讓開發者能更容易利用真實世界素材創造互動式場景。
Gaussian Splatting 是近年崛起的一種新型 3D 場景重建與即時渲染技術。它以大量分布在空間中的 3D 高斯函數(可視為柔和的、具有體積感的橢球)來逼真描述現實場景,藉此取代傳統多邊形或體素的方式。透過這種表達法,系統能以極高效率從 2D 影像中重建出細節豐富、可自由漫遊的 3D 場景,並在即時運算下呈現接近真實的光影與深度效果。
與此同時,AI 的加入讓「生成式世界」成為可能。Meta 今年在 Horizon 展示能透過文字提示自動生成 3D 場景、物件、角色與動態影像的工具,使用者輸入一段描述,就能瞬間生成一個可探索的 VR 世界。這降低了創作門檻,讓過去需要專業美術與工程投入才能完成的內容,如今只需透過簡單操作便能實現。
3D 捕捉、Gaussian Splatting 與 AI 生成世界的結合,使未來的虛擬空間不再侷限於遊戲或娛樂,而是逐步成為新的社交載體。一間房間、一段回憶、一個想像中的場景,都能被記錄、重建並分享,形成本質上更具「真實感」的沉浸式互動方式。
這些技術的底層變化讓 VR 的未來有了更清晰的輪廓: 一個能以現實為基礎、以 AI 為引擎、以個人創作為核心的虛擬世界正在逐步成形。
近十年來,Meta 不斷尋找「智慧手機之後」的下一個運算平台。這段過程中,它建立了 VR、手部追蹤、空間理解與各式可穿戴設備,但真正產生突破性變化的,是最新一代的 AI 技術 , 尤其是當 AI 與眼鏡結合的那一刻,未來的輪廓終於變得清晰。
Ray-Ban Meta 成為這個轉折的象徵。上市後已累積數百萬用戶,成為近期成長速度最快、也最具普及潛力的消費型可穿戴設備之一。與傳統 AR 眼鏡不同,它並非以「AR 特效」作為主軸,而是以更自然的方式把 AI 放在使用者的生活周圍,像一副能看、能聽、能理解你當下處境的「第二雙眼睛與耳朵」。
Meta 也展示了更進階的能力,例如 Conversation Focus,利用 AI 增強聽覺,只放大你正在交流的那個聲音,在擁擠的公共場合中特別實用。這項功能展示了 AI 如何讓「人體感知」與「個人技術代理人」結合得更加緊密,讓未來的智慧設備不只是工具,而是能真正理解情境的協作夥伴。
Meta Reality Labs Research 早在 2020 年便開始致力於打造 AR 與 VR 的未來,並因此匯聚一支由研究科學家、工程師與設計師組成的跨領域音訊團隊,共同推動突破性的聲音技術。團隊的使命是創造在感知上與現實無法區分的虛擬聲音,同時重新定義人類聽覺。他們專注於兩項關鍵能力:其一是讓虛擬聲音具備真實般的音頻臨場感,使聲音彷彿來自同一空間;其二是透過技術賦予人類「感知超能力」,讓使用者在嘈雜環境中仍能清晰聆聽,例如自動提升對話對象的聲音並降低背景雜訊,使未來的 AR/VR 體驗不只看起來真實,也能自然地「聽起來」像真實世界。
在相機方面,Ray-Ban Meta 透過 AI 不僅能協助拍攝,也逐漸學習「什麼時刻值得被拍下」。像是在騎乘自行車或跑步時,它能學習你的節奏,自動捕捉你可能想保留的最佳瞬間。這類的功能為 AI 眼鏡奠定了「主動式助理」的基礎 , 未來,它能越來越理解情境,直接幫你完成許多日常任務。
這些趨勢也透露出一個重要訊號:AI 眼鏡不會只是手機的附屬品,而是逐步成為下一代個人電腦的雛形。它們能理解你的環境、你的需求與你的意圖,並透過語音、視覺與手勢,在你不需要盯著螢幕的情況下完成事情。與 VR 等裝置一起,它們構成了 Meta 所期待的更自然、更低摩擦、更貼近人類感知的運算平台。
AI 正在讓運算不再「發生在手機裡」,而是發生在現實世界裡。Ray-Ban Meta 只是起點,未來會有更多類型、更輕量化、更具情境理解能力的 AI 眼鏡持續擴展這個新興品類。對整個科技而言,這是一個已被啟動、且無法逆轉的新 S 曲線。
Android XR 生態系今年迎來一項重要更新,而 Galaxy XR 也成為首批受惠的裝置之一。隨著 Google 在 The Android Show: XR Edition 公布最新功能,Galaxy XR 正逐步從單一娛樂設備,轉變成更貼近日常工作與通訊情境的 XR 裝置。
更新中最受關注的功能,是正式上線的 PC Connect Beta。使用者能將 Windows 電腦串接至頭顯,將桌面或單一視窗拖入 XR 空間,並與 Play 商店的原生應用並排使用。這種同時操作 PC 與 XR Apps 的工作模式,讓頭顯不再只是播放內容的裝置,而更像是可自由擴增的多螢幕工作站。對習慣遠端工作、創作工具或 PC 遊戲的使用者而言,PC Connect 代表一種新的跨裝置協作方式。
Apple 公布 2025 App Store Awards,其中 Explore POV 奪下 Apple Vision Pro App of the Year,成為今年在沉浸式內容領域最受矚目的作品之一。這款由個人開發者 James Hustler 主導的應用,從一開始並不是大規模團隊,而是在紐西蘭旅行時以露營車作為基地、一步步探索沉浸式影像拍攝技術所誕生的成果。
Meta 宣布成立新的創意設計工作室,由曾在 Apple 主導近 20 年設計工作的 Alan Dye 擔任領導。這項組織調整聚焦於未來硬體、軟體以及 AI 裝置的整合,並希望在下一階段產品中提升設計的重要性。Mark Zuckerberg 表示,團隊的目標是把「智慧」視為新的設計材料,重新思考未來裝置在人類生活中的角色。
新工作室將整合設計、美學、科技與系統思維,由多位跨領域的設計領導者共同打造。團隊成員包含同樣來自 Apple 的 Billy Sorrentino 、 Joshua To 負責 Reality Labs 介面設計 , Pete Bristol 帶領的工業設計團隊,以及 Jason Rubin 主導的元宇宙與藝術設計團隊。這些團隊將在同一架構下協作,致力讓未來的 XR 與 AI 裝置具有更自然、更直覺、更以人為本的互動方式。
隨著 AI 眼鏡與其他新型裝置逐漸成為科技產業的核心焦點,Meta 認為設計將加速決定產品的體驗形態與市場接受度。Zuckerberg 表示,新工作室的任務是讓每一次互動都變得更直覺、更貼近人的行為模式。Meta 也將此視為 Reality Labs 的下一階段策略,強調在硬體與軟體整合之外,將設計本身置於更核心的位置。
Mark Zuckerberg: Today we’re establishing a new creative studio in Reality Labs led by Alan Dye, who has spent nearly 20 years leading design at Apple.
The new studio will bring together design, fashion, and technology to define the next generation of our products and experiences. Our idea is to treat intelligence as a new design material and imagine what becomes possible when it is abundant, capable, and human-centered. We plan to elevate design within Meta, and pull together a talented group with a combination of craft, creative vision, systems thinking, and deep experience building iconic products that bridge hardware and software.
Alan will be joined by Billy Sorrentino, another acclaimed design lead from Apple; Joshua To, who has led our interface design across Reality Labs; our industrial design team led by Pete Bristol; and our metaverse design and art teams led by Jason Rubin.
We’re entering a new era where AI glasses and other devices will change how we connect with technology and each other. The potential is enormous, but what matters most is making these experiences feel natural and truly centered around people. With this new studio, we’re focused on making every interaction thoughtful, intuitive, and built to serve people.
I’m excited to welcome Alan and Billy to Meta to work with me, Boz, and our team to drive this important work forward.