【Meta 推出 AssetGen 2.0】重新定義 3D 資產生成的 AI 基礎模型

廣告

Meta 宣布推出最新一代的 3D 基礎模型——AssetGen 2.0,旨在透過文字或圖像提示,自動生成具備高幾何細節與優質紋理的 3D 資產。這項技術延續了 AssetGen 1.0 的核心理念,並進一步提升在幾何生成與紋理品質上的表現,為虛擬世界的構建帶來新的技術基礎。

AssetGen 2.0 結合了 Meta 內部開發的兩個模型:一個專注於生成 3D 網格,另一個則負責處理紋理。這次的更新重點在於引入單階段 3D 擴散方法,使得產出的網格不僅具備幾何一致性,還能呈現更為精細的結構細節。這項改進讓模型在處理角色或場景時,能更準確還原使用者輸入的概念或設計草圖。

在紋理處理方面,AssetGen 2.0 新增了多項技術,包括視圖一致性優化、紋理修復與高解析度生成等。這些功能的加入不僅提升了紋理的自然性,也改善了在不同角度觀看下的表現,使最終產出的 3D 模型更適合實際應用,例如動畫、虛擬角色設計或遊戲開發。

目前,AssetGen 2.0 已在 Meta 內部使用,並被應用於 Horizon 與 Avatar 平台上的創作流程。Meta 表示未來幾個月內,這項技術將開放給更多創作者,幫助他們更快速地建立 3D 世界。藉由簡單的文字或圖像輸入,創作者可依序生成單一物件、結構,甚至整體場景,實現自動化且具備一致風格的空間設計。

Meta 表示,AssetGen 2.0 的開發目標之一,是讓 3D 資產創作能夠像 2D 繪圖一樣普及與直覺,並進一步推動創作者生態系的成長。該模型將作為未來全自動 3D 場景生成的核心構件,為產業界提供更高效率的解決方案。

使用 AssetGen v2 產生的紋理網格

使用 AssetGen v2 產生的可動畫角色

使用 AssetGen v2 產生的場景