標籤彙整: Meta AI

Oakley Meta 首度推出超級盃廣告,展示 Performance AI 眼鏡應用場景

廣告

MetaOakley 公布 Oakley Meta Performance AI 眼鏡的首波超級盃廣告企劃。兩支廣告將於 Super Bowl LX 期間播出,並已於 2026 年 2 月 2 日在 NBC《TODAY》節目中率先公開其中一支完整版本。

本次廣告由導演 Antoine Bardou-Jacquet 執導,背景音樂選用 Travis Scott 的〈HYAENA〉。廣告內容以多名運動員與創作者為主角,鏡頭聚焦於臉部與鏡片反射畫面,呈現運動過程中的即時視角。

參與演出的名單包括 Marshawn Lynch、Spike Lee、iShowSpeed、PGA 巡迴賽選手 Akshay Bhatia,以及奧運選手 Sky Brown、Kate Courtney、Sunny Choi 等人。

廣告主題標語為「Athletic Intelligence Is Here」,內容呈現運動員在高強度環境中使用 Oakley Meta Performance AI 眼鏡的情境,包括跳傘、跑步、滑板、登山車、籃球與高爾夫等場景。兩支 30 秒廣告分別於 Super Bowl LX 的第一節與第三節播出。

Oakley Meta Performance AI 眼鏡目前提供兩款主要產品:Oakley Meta VanguardOakley Meta HSTN。官方資訊指出,Vanguard 款式定位於高強度運動使用,搭載超廣角 12MP 相機(122 度視角)、延長電池續航與開放式音訊設計;HSTN 則提供多種鏡框與鏡片配色,定位於日常運動與一般使用情境。

這系列眼鏡支援免持拍攝與分享功能,使用者可透過語音指令進行拍照、錄影或分享至社群平台。此外,Oakley Meta 眼鏡整合 Garmin、Strava、Apple Health 與 Android Health Connect 等健身平台,並支援 Meta AI 功能,可於運動過程中即時查詢心率、配速與其他數據。

官方亦說明,Oakley Meta Performance AI 眼鏡可在錄製影像時疊加運動數據,並直接分享至支援的平台。廣告中亦呈現 Meta AI 的語音互動示範,包括播放音樂、查詢環境資訊與即時狀態回饋。

本次超級盃廣告為 Oakley Meta 首次登上該賽事舞台。Meta 表示,過去曾於超級盃期間推出 Ray-Ban Meta 眼鏡與 Meta Quest 相關廣告。本次活動亦搭配舊金山灣區的實體體驗活動,並結合 Gatorade Hydration Games 的相關內容,部分參與者將配戴 Oakley Meta 眼鏡進行活動紀錄。

Oakley Meta Performance AI 眼鏡系列已於先前上市,官方表示後續將持續透過軟體更新擴充功能。此次廣告企劃相關完整影片已對外公開。

Meta 的下一代平台藍圖:VR × AI × Wearables × Robotics 的整合方向

廣告

在長達十多年的探索之後,Meta 正逐步勾勒出一個比單一裝置更大的未來平台藍圖。這個方向不再只是 VR、智慧眼鏡或 AI 各自發展,而是試圖將 VR、AI、穿戴式裝置與機器人技術整合為同一條技術路線,形成一個以「人為核心」的新一代運算平台。

Meta 認為,AI 是這條路線的關鍵催化劑。隨著 AI 能力快速提升,系統不再只是被動回應指令,而是能理解環境、預測需求,並主動協助使用者完成事情。這樣的能力,讓穿戴式裝置特別是 AI 眼鏡,成為承載下一代運算體驗的重要載體。眼鏡不需要佔據雙手或視線,卻能持續理解使用者的處境,成為隱身於日常生活中的運算介面。

在 VR 領域,Meta 持續強化其作為「模擬現實」的平台角色。透過新一代渲染技術與 AI 工具,虛擬世界不再只是遊戲場景,而是可以重建真實空間、承載社交互動,甚至成為創作者快速生成與分享世界的工具。VR 被視為一個能將數位體驗轉化為「空間存在感」的關鍵媒介。

這些技術的交集,也逐步延伸至機器人研究。Meta 在 2025 年成立新的機器人研究實驗室,目標並非單純打造硬體,而是讓機器人也能理解物理世界,並共享來自 VR、AI 與穿戴式裝置所累積的感知與互動經驗。這代表著,未來人類與機器之間的互動方式,可能建立在相同的感知與理解模型之上。

整體來看,Meta 描述的並不是單一產品的升級,而是一個跨裝置、跨場景的整合平台。VR 提供沉浸式空間,AI 負責理解與決策,穿戴式裝置成為日常入口,而機器人則把這些能力延伸到實體世界。最終,這些元素將匯聚成一個更貼近人類行為、也更自然融入生活的運算環境。

Meta 將這條路線視為「後智慧型手機時代」的基礎架構。技術不再只是佔據注意力的螢幕,而是逐漸退居背景,在使用者幾乎無感的狀態下運作。這樣的平台是否能真正成形,仍有許多挑戰,但從目前揭示的方向來看,Meta 正嘗試將過去十多年在 VR、AI 與穿戴式裝置的累積,整合為一個長期且系統性的未來布局。

WorldGen:從一句文字生成完整 3D 世界的最新 AI 研究突破

廣告

Meta 最新公開的 WorldGen 研究展示了生成式 AI 正在改變 3D 世界構建方式的速度。這套系統能從一句簡單的文字提示開始,自動產生可自由探索、可導航、風格統一且具備互動潛力的完整 3D 世界。過去生成式 AI 在 3D 領域的應用多半集中於單一物件、短片段或有限區域的場景,而 WorldGen 則將目標放在可實際用於遊戲、模擬與社交空間的「大型、連續、可行走的世界」,並且在生成品質與結構合理性上都呈現出顯著突破。

WorldGen 的技術由多階段組成,首先透過提示生成場景的概念規劃,包括世界底層佈局、建物位置與可行走區域,並建立程序化 blockout 與導航網格,確保最終世界可以讓角色實際在其中移動。接著系統會先產生一張全局參考影像,再利用 2D 圖像重建 3D 場景,並以整體視角推導空間結構,而不是只依靠單一相機角度。這也使得場景在玩家移動後,不會因離開中心視角而產生紋理崩壞或幾何變形。之後,WorldGen 會利用加速版 AutoPartGen 將場景拆解成可管理的物件與區域,例如牆面、地形、家具、植被等,使世界能夠被引擎正常載入、被創作者自由調整,也更便於後續優化。最後系統再進行紋理強化、mesh 修正與整體視覺一致性的細化,使場景在接近檢視時仍能呈現穩定細節。

相較於目前普遍以單一視角生成 3D 場景的方法,WorldGen 最大的差異在於空間完整性與規模擴展。許多現有生成工具即使能做出華麗影像,也常在玩家移動 3、5 公尺後畫面立即崩壞,或者在同一世界內混雜風格無關的物件。WorldGen 則在研究階段已能生成 50 x 50 公尺的統一場景,在建築、材質與空間邏輯上保持一致,並且能被直接匯入 Unity 與 Unreal 等遊戲引擎,無需額外轉檔或重新處理渲染流程。對產業工作流程而言,這代表未來開發者不必先用大量人力打造原型場景,而是可依靠 WorldGen 進行初版世界生成,再逐步投入風格化調整與互動設計。

儘管如此,Meta 強調 WorldGen 仍處於研究階段,尚未對外發布。現有版本仍在生成速度與世界最大規模上存在限制,也需要更深入的交互式物理支援。然而從研究展示來看,它已顯示 AI 生成世界的可行性正式跨過關鍵門檻,並朝向大型多人場景、訓練模擬、城市規劃與娛樂內容等領域擴展,而非僅作為展示材料。

WorldGen 所透露的方向與 Meta Connect 提出的願景一致:讓創作者不必依靠複雜工具或專業美術能力,而是透過自然語言描述就能生成完整虛擬世界。這不只減少開發成本,也重新定義 3D 創作的門檻。過去需要大量建模與美術協作才能完成的場景,未來可能只需一句描述與少量後製調整即可完成。從遊戲到企業訓練,再到混合實境的社交互動空間,WorldGen 展示的概念都指向同一個方向:虛擬世界的生產方式正在邁入 AI 時代,而世界的建造者,也將變得比以往更多。