分類彙整: 人工智慧AI

Meta 推出 AI Glasses v21 更新:Conversation Focus 與多項 AI、音樂功能同步上線

廣告

Meta 近期釋出 AI Glasses v21 軟體更新,為旗下 Ray-Ban MetaOakley Meta 系列智慧眼鏡帶來多項功能調整,進一步強化 AI 眼鏡在日常生活中的實用性與即時互動能力。本次更新也被視為 Meta 在 AI 穿戴裝置發展路線中的一個階段性總結,為 2025 年畫下句點。

v21 更新的重點之一是 Conversation Focus 功能,該功能可在嘈雜環境中即時放大使用者正在對話對象的聲音,並抑制周遭背景噪音。透過開放式喇叭、波束成形技術與即時空間音訊處理,AI 眼鏡能讓對話聲音更清晰可辨,適用於餐廳、通勤途中或人多的公共場所。使用者可透過語音指令、鏡腳觸控或系統設定調整放大強度,目前已於北美地區開放 Early Access 測試。

在娛樂應用方面,Meta 也與 Spotify 合作推出結合視覺辨識的音樂體驗。使用者可根據眼前所見的場景或物件,直接透過語音請求播放相符情境的音樂內容。該功能結合電腦視覺與音樂推薦系統,讓 AI 眼鏡不再只是播放工具,而是能即時回應環境的聲音介面,目前已在多個歐洲市場與北美地區支援英文語音操作。

此外,v21 更新也擴充了音樂相關的多語系語音指令支援,新增法文、德文、義大利文、葡萄牙文與西班牙文,讓更多使用者可透過語音控制音樂播放、辨識歌曲或建立個人化播放清單。這項調整顯示 Meta 正持續擴大 AI 眼鏡在非英語市場的可用性。

針對運動與戶外使用情境,Oakley Meta Vanguard 也在此次更新中加入更快速的語音捷徑操作,使用者可省略喚醒詞直接下達拍照、錄影或播放音樂等指令。同時,AI 眼鏡也支援與相容的 Garmin 裝置整合,允許使用者建立跑步或騎乘訓練計畫,進一步將 AI 眼鏡定位為運動輔助裝置的一環。

Meta 表示,v21 更新將採分階段方式推送,以確保穩定性與使用體驗。整體來看,此次更新顯示 AI 眼鏡正逐步從「新奇裝置」轉向具備實際價值的日常工具,並持續朝向更自然、低干擾的人機互動模式發展。

Meta 的下一代平台藍圖:VR × AI × Wearables × Robotics 的整合方向

廣告

在長達十多年的探索之後,Meta 正逐步勾勒出一個比單一裝置更大的未來平台藍圖。這個方向不再只是 VR、智慧眼鏡或 AI 各自發展,而是試圖將 VR、AI、穿戴式裝置與機器人技術整合為同一條技術路線,形成一個以「人為核心」的新一代運算平台。

Meta 認為,AI 是這條路線的關鍵催化劑。隨著 AI 能力快速提升,系統不再只是被動回應指令,而是能理解環境、預測需求,並主動協助使用者完成事情。這樣的能力,讓穿戴式裝置特別是 AI 眼鏡,成為承載下一代運算體驗的重要載體。眼鏡不需要佔據雙手或視線,卻能持續理解使用者的處境,成為隱身於日常生活中的運算介面。

在 VR 領域,Meta 持續強化其作為「模擬現實」的平台角色。透過新一代渲染技術與 AI 工具,虛擬世界不再只是遊戲場景,而是可以重建真實空間、承載社交互動,甚至成為創作者快速生成與分享世界的工具。VR 被視為一個能將數位體驗轉化為「空間存在感」的關鍵媒介。

這些技術的交集,也逐步延伸至機器人研究。Meta 在 2025 年成立新的機器人研究實驗室,目標並非單純打造硬體,而是讓機器人也能理解物理世界,並共享來自 VR、AI 與穿戴式裝置所累積的感知與互動經驗。這代表著,未來人類與機器之間的互動方式,可能建立在相同的感知與理解模型之上。

整體來看,Meta 描述的並不是單一產品的升級,而是一個跨裝置、跨場景的整合平台。VR 提供沉浸式空間,AI 負責理解與決策,穿戴式裝置成為日常入口,而機器人則把這些能力延伸到實體世界。最終,這些元素將匯聚成一個更貼近人類行為、也更自然融入生活的運算環境。

Meta 將這條路線視為「後智慧型手機時代」的基礎架構。技術不再只是佔據注意力的螢幕,而是逐漸退居背景,在使用者幾乎無感的狀態下運作。這樣的平台是否能真正成形,仍有許多挑戰,但從目前揭示的方向來看,Meta 正嘗試將過去十多年在 VR、AI 與穿戴式裝置的累積,整合為一個長期且系統性的未來布局。

VR 的全新技術基礎:Hyperscape、Gaussian Splatting 與 AI 生成世界

廣告

2025 年,Meta 在 VR 技術基礎層帶來一系列重要變化,標誌著沉浸式內容創作方式正走向一個全新的階段。從高實境感的 3D 捕捉,到 AI 自動生成場景,再到能在瞬間分享的社交空間,新技術正在讓虛擬世界變得更真實、更容易創作,也更易於被大眾接受。

其中最具代表性的,就是 Hyperscape。這項新功能讓使用者僅需一台 Quest 頭顯,就能快速掃描周遭場景並生成逼真的 3D 空間。這些空間能直接在線上分享,好友可以像走進對方家中一樣進入場景探索。過去需要專業團隊才能完成的 3D 場景,如今成為一般用戶也能做到的日常能力,這也逐漸改變了人們紀錄與分享世界的方式。

Hyperspace(超空間)在科幻領域指一種高維度空間,是實現超光速星際旅行的虛構途徑,讓飛船能瞬間跨越遙遠距離;在數學和物理概念中,它也泛指比我們三維空間維度更高、更抽象的空間,例如四維超正方體或超平面。 

在更專業的層面上,Gaussian Splatting 已成為高擬真 3D 重建的重要技術。相比傳統建模方式,Gaussian Splatting 能以更自然的光影與更高密度的資料還原現實空間,使內容在 VR 中呈現時有更接近肉眼觀察的細節。這項技術開始被整合進平台內,讓開發者能更容易利用真實世界素材創造互動式場景。

Gaussian Splatting 是近年崛起的一種新型 3D 場景重建與即時渲染技術。它以大量分布在空間中的 3D 高斯函數(可視為柔和的、具有體積感的橢球)來逼真描述現實場景,藉此取代傳統多邊形或體素的方式。透過這種表達法,系統能以極高效率從 2D 影像中重建出細節豐富、可自由漫遊的 3D 場景,並在即時運算下呈現接近真實的光影與深度效果。

與此同時,AI 的加入讓「生成式世界」成為可能。Meta 今年在 Horizon 展示能透過文字提示自動生成 3D 場景、物件、角色與動態影像的工具,使用者輸入一段描述,就能瞬間生成一個可探索的 VR 世界。這降低了創作門檻,讓過去需要專業美術與工程投入才能完成的內容,如今只需透過簡單操作便能實現。

3D 捕捉、Gaussian Splatting 與 AI 生成世界的結合,使未來的虛擬空間不再侷限於遊戲或娛樂,而是逐步成為新的社交載體。一間房間、一段回憶、一個想像中的場景,都能被記錄、重建並分享,形成本質上更具「真實感」的沉浸式互動方式。

這些技術的底層變化讓 VR 的未來有了更清晰的輪廓:
一個能以現實為基礎、以 AI 為引擎、以個人創作為核心的虛擬世界正在逐步成形。

Meta Neural Band:從肌肉電訊號開始的下一代「神經介面運算」

廣告

在探索未來運算平台的過程中,Meta 認為最重要的突破之一,並不來自螢幕或鏡片,而是來自人類身體本身。Meta Neural Band,以肌電圖(EMG)為基礎的神經介面,正在重新定義人類與電腦的互動方式。

這項技術的核心理念非常直接:只要讀取手腕上的微小神經訊號,電腦就能理解你即將做出的手指動作。例如,在你真正按下按鍵前,神經指令已經被感測到並轉換成輸入。這種「意圖即動作」的互動方式,是自鍵盤滑鼠、觸控螢幕以來最大的一次輸入革命。

Meta 強調,以往 EMG 技術普遍需要高成本設備與長時間校正,且只能在少數人身上可靠運作。但 AI 的加入改變了一切。透過更大規模的資料、模型訓練與泛化能力,Meta Neural Band 能直接在大部分人身上準確運作,不需任何校正、不需學習期,戴上即可使用。

初期版本已能進行滑動、點擊、旋轉等精準操作,而更進階的「EMG 手寫」功能也即將推出。它能辨識手指在空中進行的細微書寫動作,即便你手沒有碰到任何表面,也能完成字母輸入。這讓穿戴式設備真正具備了「無螢幕文字輸入」的可能性。

從技術角度來看,Neural Band 解決了穿戴式設備的一個核心瓶頸:輸入方式。眼鏡雖能呈現資訊,但如何自然地把訊息「輸入」回系統,一直是重大難題。語音不適用所有情境,手勢仍然受限,而 Neural Band 則提供了一種更貼近人類意圖的方式。

更重要的是,這項技術具備成長性。Meta 表示,EMG 有能力追蹤「上千個運動神經元」,意味著未來可以辨識更複雜的操作,例如虛擬鍵盤、遊戲動作、3D 物件操控,甚至是近乎「心念控制」的輸入方式。當 AI 與神經訊號模型變得更強大,與電腦互動將不再需要任何外接裝置。

這一切讓我們第一次看到了未來運算的雛形:
不需要滑鼠、不需要鍵盤、不需要觸控螢幕,也不需要揮動手臂。
你的「意圖」本身就是輸入。

Neural Band 的誕生不僅強化了 AI 眼鏡的使用體驗,也為整個 XR、生產力應用、社交互動與遊戲玩法開啟了新的可能性。未來,它可能成為所有可穿戴式運算設備的標準介面,也是 Meta 所謂「下一個十年計算平台」的重要根基。

AI 眼鏡正式進入主流:Ray-Ban Meta 與新一代「日常式運算」的成形

廣告

近十年來,Meta 不斷尋找「智慧手機之後」的下一個運算平台。這段過程中,它建立了 VR、手部追蹤、空間理解與各式可穿戴設備,但真正產生突破性變化的,是最新一代的 AI 技術 , 尤其是當 AI 與眼鏡結合的那一刻,未來的輪廓終於變得清晰。

Ray-Ban Meta 成為這個轉折的象徵。上市後已累積數百萬用戶,成為近期成長速度最快、也最具普及潛力的消費型可穿戴設備之一。與傳統 AR 眼鏡不同,它並非以「AR 特效」作為主軸,而是以更自然的方式把 AI 放在使用者的生活周圍,像一副能看、能聽、能理解你當下處境的「第二雙眼睛與耳朵」。

Meta 也展示了更進階的能力,例如 Conversation Focus,利用 AI 增強聽覺,只放大你正在交流的那個聲音,在擁擠的公共場合中特別實用。這項功能展示了 AI 如何讓「人體感知」與「個人技術代理人」結合得更加緊密,讓未來的智慧設備不只是工具,而是能真正理解情境的協作夥伴。

Meta Reality Labs Research 早在 2020 年便開始致力於打造 AR 與 VR 的未來,並因此匯聚一支由研究科學家、工程師與設計師組成的跨領域音訊團隊,共同推動突破性的聲音技術。團隊的使命是創造在感知上與現實無法區分的虛擬聲音,同時重新定義人類聽覺。他們專注於兩項關鍵能力:其一是讓虛擬聲音具備真實般的音頻臨場感,使聲音彷彿來自同一空間;其二是透過技術賦予人類「感知超能力」,讓使用者在嘈雜環境中仍能清晰聆聽,例如自動提升對話對象的聲音並降低背景雜訊,使未來的 AR/VR 體驗不只看起來真實,也能自然地「聽起來」像真實世界。

在相機方面,Ray-Ban Meta 透過 AI 不僅能協助拍攝,也逐漸學習「什麼時刻值得被拍下」。像是在騎乘自行車或跑步時,它能學習你的節奏,自動捕捉你可能想保留的最佳瞬間。這類的功能為 AI 眼鏡奠定了「主動式助理」的基礎 , 未來,它能越來越理解情境,直接幫你完成許多日常任務。

這些趨勢也透露出一個重要訊號:AI 眼鏡不會只是手機的附屬品,而是逐步成為下一代個人電腦的雛形。它們能理解你的環境、你的需求與你的意圖,並透過語音、視覺與手勢,在你不需要盯著螢幕的情況下完成事情。與 VR 等裝置一起,它們構成了 Meta 所期待的更自然、更低摩擦、更貼近人類感知的運算平台。

AI 正在讓運算不再「發生在手機裡」,而是發生在現實世界裡。Ray-Ban Meta 只是起點,未來會有更多類型、更輕量化、更具情境理解能力的 AI 眼鏡持續擴展這個新興品類。對整個科技而言,這是一個已被啟動、且無法逆轉的新 S 曲線。

Google 公布下一階段 XR 裝置藍圖:AI 眼鏡、Display AI Glasses 與 XREAL Project Aura 勾勒未來生態系

廣告

Google 在 The Android Show | XR Edition 中,首次揭示 Android XR 生態系的下一階段方向,並展示 2025–2026 年間將陸續登場的多款 XR 裝置形態。這些裝置共同指向一個核心願景:XR 不再侷限於頭戴式顯示器,而是成為一個跨裝置、跨場景、可全天配戴的運算平台。

Google 表示,XR 的演化需要更多樣的硬體形式來支撐人們的日常生活,因此與 SamsungGentle MonsterWarby Parker 等合作夥伴共同打造新一代 AI Glasses。此類眼鏡主打全天候配戴體驗,其第一類為無螢幕 AI 眼鏡,透過相機、麥克風與 Gemini AI 提供語音助理、拍照、搜尋與路線提示等功能。第二類則是 Display AI Glasses,將資訊直接投射到鏡片內側,可用於逐步導航、即時翻譯字幕或情境提示。這類裝置預計於明年陸續亮相。

AI Glasses

同時,Google 也展示 XREAL Project Aura,作為有線 XR glasses 的全新代表作。Aura 主打便攜性與沉浸度兼具的使用體驗,70 度視場角與光學透視技術可在現實環境上疊加巨大的虛擬畫面。對於需要多視窗作業、攜帶式娛樂或混合場景工作流程的族群,這類 XR glasses 帶來比傳統頭顯更輕便的技術方向。Google 明確指出此類裝置將是 XR 生態系的重要一環,而非折衷方案。

XREAL 合作的 Project Aura

在應用層面,Google 也展示像 Uber、GetYourGuide 等合作夥伴如何運用 AI 眼鏡提供情境式資訊。例如使用者能在視野中看到行程狀態,或在城市中以更直接的方式獲得指引。這些案例凸顯 XR 裝置如何突破傳統手機介面限制,並逐漸成為生活與工作中更自然的延伸。

這些硬體方向的公開,對開發者而言具有指標性意義。Google 正把 XR 從單一裝置類別拓展至完整產品族群,而 Android XR 平台將成為連結這些裝置的基礎層。無論是 AI Glasses、XR glasses 或完整頭顯,它們的核心將共享同一套 Android XR 開發框架,使開發者能以更高效率跨裝置打造新一代體驗。

Google 今年的訊號十分明確:XR 裝置生態正在快速擴張,不再是個別產品競爭,而是以 Android XR 為核心,形成一個連續性與可協作的未來運算平台。

Android XR 明年大升級:AI 將於 2026 推出 2D→3D 自動立體化功能,全面提升沉浸體驗

廣告

Google 在最新的 The Android Show|XR Edition 中揭露了一項具有顛覆性的功能——Android XR 系統即將導入全新的 AI「自動立體化」技術(Autospatialization),能將任何 2D 內容即時轉換成 3D 視覺效果。這不僅涵蓋一般的 Android 應用程式或 YouTube 影片,甚至連透過 PC Connect 串流到 Galaxy XR 的 PC 遊戲,都能在裝置上瞬間變成具有深度的沉浸式 3D 視窗。這項能力由 AI 在本地端運算,不需雲端也不依賴開發者重新製作 3D 版本,代表 XR 裝置終於能突破「內容不足」的瓶頸。而最重要的是,Google 也確認這項技術會在 2026 年推出,讓整體 XR 生態進入新階段。

在官方示範中,用戶只需按下按鈕,平面的視窗便會立即呈現前後景深與分層效果,彷彿整個畫面被「拉進」空間中。影片、遊戲、瀏覽器頁面、一般手機 App 都能瞬間轉化成 XR 世界中的立體內容。這項技術不再依賴原生 XR 開發,也不需要平台額外推出特製版本,而是直接將現有的 Android 生態與所有網路內容帶入沉浸式體驗,使 XR 不再受限於內容量,而是直接擁有一個完整的 2D→3D 即時轉換引擎。

Google 認為這將徹底改變 XR 的使用方式。使用者可以把任何 YouTube 影片變成 3D 觀看,把手機 App 以立體方式展示在眼前,甚至將《City Skylines II》這類 PC 遊戲透過串流變成半沉浸式 3D。更值得注意的是,這項技術讓整個 Web 世界也能自然轉換成 3D,等於讓 XR 裝置首次真正擁有「全域內容」。Google 表示這是讓「整個網路都變成沉浸式」的重要突破,而 2026 年的推出時間意味著 Android XR 的下一波成長潮正在準備中。

目前 Galaxy XR 已率先推出 PC Connect、Likeness 虛擬化身與 Travel Mode 等系統更新,而 AI 自動立體化功能則將在 2026 年首度亮相並推向更多 Android XR 裝置。對消費者而言,XR 內容將不再受到限制;對開發者而言,不需再額外投入成本打造 XR 版本;對產業而言,這有可能成為 XR 普及化真正的分水嶺,讓虛實整合邁向更自然、更大規模的應用場景。

Android XR 系統自動空間化

Galaxy XR 推出新系統更新:PC Connect、Travel Mode 與 Likeness 強化日常使用體驗

廣告

Android XR 生態系今年迎來一項重要更新,而 Galaxy XR 也成為首批受惠的裝置之一。隨著 Google 在 The Android Show: XR Edition 公布最新功能,Galaxy XR 正逐步從單一娛樂設備,轉變成更貼近日常工作與通訊情境的 XR 裝置。

更新中最受關注的功能,是正式上線的 PC Connect Beta。使用者能將 Windows 電腦串接至頭顯,將桌面或單一視窗拖入 XR 空間,並與 Play 商店的原生應用並排使用。這種同時操作 PC 與 XR Apps 的工作模式,讓頭顯不再只是播放內容的裝置,而更像是可自由擴增的多螢幕工作站。對習慣遠端工作、創作工具或 PC 遊戲的使用者而言,PC Connect 代表一種新的跨裝置協作方式。

PC Connect Beta

另一項加入的功能,是為通勤與旅行情境而設計的 Travel Mode。它能在車輛震動或飛機移動時,維持視野穩定,讓使用者能在狹窄環境中閱讀、工作或觀影,而不會受到移動干擾。這讓 XR 頭顯更貼近日常情境,並減少以往 XR 裝置不適合在移動中使用的限制。

Travel Mode

通訊方面,Galaxy XR 也開始推出 Likeness Beta,能建立接近真實面部表情與手勢的個人化虛擬臉部模型,用於視訊通話。此功能讓 XR 會議不再是抽象化的虛擬角色,而更像是以個人特徵為基礎的自然交流方式。Google 表示該技術未來將逐步擴大功能與精準度,使 XR 裝置在社交場合中具備更高的存在感與可信度。

Likeness Beta with mobile

在 Likeness(測試版)中,使用者能依需求自訂個人虛擬肖像,包括調整色溫、亮度與背景顏色等細節,讓呈現效果更貼近真實外貌。所有編輯操作都能在即時視圖中完成,只需選擇「編輯」或開啟調整工具即可微調視覺風格。若想變更背景,也能透過顏色填滿工具快速設定。當使用者決定刪除某個肖像時,系統會同步移除所有相關資料,不會保留在任何裝置上。操作方式可在頭戴裝置或行動應用程式中進行:只要在 Likeness(測試版)中選擇要刪除的肖像,並從工具列或長按呼出的刪除選項中確認即可。整體流程設計簡單直覺,方便使用者保持自己的虛擬形象始終符合需求。

調整色溫、亮度或進行微調
調整背景顏色

本次更新並非只是功能的堆疊,而是代表 Android XR 正逐步走向混合工作、個人助理與沉浸娛樂的整合形式。Galaxy XR 作為首波裝置,讓外界更加清楚看見 Google 與 Samsung 共同打造 XR 生態系的方向。

AI 將如何重寫 VR 開發:Unite 2025 揭示的工具鏈革新

廣告

Unite 2025 的討論中,有一項主題始終不斷被提起,生成式 AI 正在重新定義虛擬實境與混合實境的開發方式。Meta 在今年的發表內容中首次展示完整的 AI 工具鏈,從程式碼撰寫到效能分析,再到內容建構,都可以藉由 AI 加速、補強,甚至協助自動化。這一波技術的整合性遠超過以往任何年度更新,使得 VR 開發不再只是「工具變得更好」,而是「整個流程將被 AI 重新排列」。

Met軟體工程師 Neel Bedekar 分享了 Meta Horizo​​n OS 最新的 AI 工具突破。AI 的角色不再侷限於應用內的 NPC 演算或敘事內容生成,而是深入參與開發者的日常工作流程。許多團隊已開始在建置階段使用 AI 協助除錯、產生場景、修復腳本、生成動畫,甚至用 AI 產製行銷素材。這讓 VR 的開發成本不再像過去那樣一次性堆疊,而是能透過一個更靈活的工具網絡逐步縮短時間與人力投入。

今年最受矚目的功能之一是 Passthrough Camera API 的全新應用方式,它讓 VR 與 MR 的邊界更靠近現實。開發者可以利用前置攝像頭的影像做物件偵測,並讓 AI 自動辨認植物、玩具或其他家庭物件,使遊戲與應用在真實環境中產生新的互動方式。這些技術不再是前沿研究,而是 Meta 以 Building Blocks 形式提供的標準功能,使開發者能以極低門檻打造混合實境應用。

Passthrough Camera API

AI 在 Meta Horizon OS 中的核心進展則集中在 Model Context Protocol(MCP) 上。Meta 讓 AI 代理能直接讀取 Horizon OS 文檔、生成 Unity 或 Android 程式碼、協助建置手部追蹤功能、回答錯誤訊息,甚至能解析效能工具 Perfetto 的資料。以往開發者需要長時間爬文、讀 trace、分析 CPU/GPU 行為,如今 AI 能立即生成可讀性高的摘要並指出異常區段,使效能優化成為具備更高效率的過程。

AI 分析 Perfetto 追蹤並識別各種問題。
META UNITY 2025 利用AI輔助生成程式碼 – 抓取互動

這一整套流程展現出一種「由 AI 引導迭代」的可能性,而不只是「AI 協助改善」。Meta 展示的工作流程中,開發者能透過自然語言生成 Unity 場景框架,快速擁有可運行的原型,再透過 Asset Library 補充素材,加上 AI Building Blocks 產生智能互動,最後使用 Immersive Debugger 在頭顯內調整邏輯、在 MCP 內完成效能優化。這些階段之間的邏輯線變得更平滑,使得 VR 開發首次能以「天數」為單位完成原型,而不再需要「數週甚至數月」。

Unite 2025 凸顯 VR 產業正在邁向一個新的分界點。過去 VR 開發難以普及的核心原因,包括複雜的工具鏈、不透明的效能成本與跨平台配置負擔,如今正在因 AI 而被逐項瓦解。Meta 以一系列工具組合展示了未來 VR 與 MR 開發可能的面貌:創作者可以把更多時間放在構築想像,而不是與技術門檻搏鬥。AI 不只是輔助,而是新時代的核心工作夥伴。

WorldGen:從一句文字生成完整 3D 世界的最新 AI 研究突破

廣告

Meta 最新公開的 WorldGen 研究展示了生成式 AI 正在改變 3D 世界構建方式的速度。這套系統能從一句簡單的文字提示開始,自動產生可自由探索、可導航、風格統一且具備互動潛力的完整 3D 世界。過去生成式 AI 在 3D 領域的應用多半集中於單一物件、短片段或有限區域的場景,而 WorldGen 則將目標放在可實際用於遊戲、模擬與社交空間的「大型、連續、可行走的世界」,並且在生成品質與結構合理性上都呈現出顯著突破。

WorldGen 的技術由多階段組成,首先透過提示生成場景的概念規劃,包括世界底層佈局、建物位置與可行走區域,並建立程序化 blockout 與導航網格,確保最終世界可以讓角色實際在其中移動。接著系統會先產生一張全局參考影像,再利用 2D 圖像重建 3D 場景,並以整體視角推導空間結構,而不是只依靠單一相機角度。這也使得場景在玩家移動後,不會因離開中心視角而產生紋理崩壞或幾何變形。之後,WorldGen 會利用加速版 AutoPartGen 將場景拆解成可管理的物件與區域,例如牆面、地形、家具、植被等,使世界能夠被引擎正常載入、被創作者自由調整,也更便於後續優化。最後系統再進行紋理強化、mesh 修正與整體視覺一致性的細化,使場景在接近檢視時仍能呈現穩定細節。

相較於目前普遍以單一視角生成 3D 場景的方法,WorldGen 最大的差異在於空間完整性與規模擴展。許多現有生成工具即使能做出華麗影像,也常在玩家移動 3、5 公尺後畫面立即崩壞,或者在同一世界內混雜風格無關的物件。WorldGen 則在研究階段已能生成 50 x 50 公尺的統一場景,在建築、材質與空間邏輯上保持一致,並且能被直接匯入 Unity 與 Unreal 等遊戲引擎,無需額外轉檔或重新處理渲染流程。對產業工作流程而言,這代表未來開發者不必先用大量人力打造原型場景,而是可依靠 WorldGen 進行初版世界生成,再逐步投入風格化調整與互動設計。

儘管如此,Meta 強調 WorldGen 仍處於研究階段,尚未對外發布。現有版本仍在生成速度與世界最大規模上存在限制,也需要更深入的交互式物理支援。然而從研究展示來看,它已顯示 AI 生成世界的可行性正式跨過關鍵門檻,並朝向大型多人場景、訓練模擬、城市規劃與娛樂內容等領域擴展,而非僅作為展示材料。

WorldGen 所透露的方向與 Meta Connect 提出的願景一致:讓創作者不必依靠複雜工具或專業美術能力,而是透過自然語言描述就能生成完整虛擬世界。這不只減少開發成本,也重新定義 3D 創作的門檻。過去需要大量建模與美術協作才能完成的場景,未來可能只需一句描述與少量後製調整即可完成。從遊戲到企業訓練,再到混合實境的社交互動空間,WorldGen 展示的概念都指向同一個方向:虛擬世界的生產方式正在邁入 AI 時代,而世界的建造者,也將變得比以往更多。

Meta 與 Blue Owl Capital 成立合資企業 共同開發路易斯安那 Hyperion 資料中心園區

廣告

Meta 宣布與 Blue Owl Capital 管理的基金成立合資企業,將共同開發並擁有位於美國路易斯安那州里奇蘭縣的 Hyperion 資料中心園區。該專案旨在支持 Meta 長期的人工智慧與雲端基礎設施策略,強化其全球資料中心網路的建設速度與靈活性。

根據協議,Blue Owl Capital 管理的基金持有 80% 股權,Meta 保留 20% 所有權。雙方將以相同比例共同承擔約 270 億美元 的總開發成本,用於建築及長期電力、冷凍與連接設施。Meta 將負責園區的建設與物業管理,確保項目進度與品質。

作為交易的一部分,Meta 提供了部分土地與在建工程資產,Blue Owl 基金則注入約 70 億美元現金資金。Meta 隨後從合資企業獲得約 30 億美元分配。此外,Meta 已與該合資公司簽訂經營租賃協議,初始租期為四年並可續約,以確保未來營運彈性。

Meta 財務長 Susan Li 表示,這項合作是實現 AI 願景的重要一步,結合了 Meta 在資料中心建設上的專業與 Blue Owl 在基礎設施投資的實力。
Blue Owl 聯合執行長 Doug Ostrover 和 Marc Lipschultz 也指出,該專案代表推動次世代 AI 基礎設施所需的規模與速度,將成為大型數據運算的重要節點。

目前,Hyperion 項目施工進展順利,已有數千名工人進場,未來正式營運後將創造 超過 500 個長期職位。

此次合作的顧問團隊包括 Morgan Stanley、Latham & Watkins LLP、Eversheds Sutherland、Arthur D. Little、Marsh、Arup、Kirkland & Ellis LLP 及 Milbank LLP 等多家專業機構。

Amazon 開發智慧配送眼鏡 結合AI與電腦視覺技術打造更安全的送貨體驗

廣告

Amazon 近日公布最新研發項目-智慧配送眼鏡(Smart Delivery Glasses),這款可穿戴裝置旨在協助配送員(Delivery Associates, DAs)更安全、高效地完成包裹投遞,並減少對手機的依賴。該系統結合 AI、電腦視覺與機器學習技術,提供導航、障礙警示與包裹辨識等功能,讓配送過程更加直覺化。

自 2018 年推出 Delivery Service Partner 計畫以來,Amazon 一直透過技術創新改善配送流程,包括模擬訓練、包裹處理與路線規劃。此次推出的智慧眼鏡更是將這些功能整合至單一平台,讓配送員能在行進中直接於鏡面顯示導航、包裹資訊與投遞確認畫面。

眼鏡可在安全停車後自動啟動,透過 Amazon 的地理定位技術,提供逐步步行導航至正確地址,並在遇到障礙或複雜地點(如公寓)時給出指引。開發過程中,Amazon 邀請數百名配送員參與測試,他們的回饋影響了眼鏡的配戴舒適度、顯示亮度與操作方式設計。

裝置本體內含可更換電池與緊急呼叫按鈕,並支援配戴處方鏡片或自動調光鏡片,以因應全天候使用。未來版本預計加入即時錯誤偵測、低光警示與動物提示功能,進一步強化配送安全。

此項技術展現 Amazon 在AI輔助物流領域的持續投入,未來可能成為整合倉儲、道路運輸與末端投遞的關鍵節點,推動智慧配送生態系進一步發展。