標籤彙整: XR

MixRift 創辦人 Bobby Voicu:眼鏡+雲端串流,將成為 2026 年最被低估的 XR 突破

廣告

當多數 XR 裝置仍試圖把運算能力塞進更小的硬體中,MixRift 執行長暨創辦人 Bobby Voicu 則認為,真正的轉折點來自雲端。根據他與《VR NEWS TODAY》分享的觀點,下一波 XR 將跳過「運算 puck」,走向以雲端串流為核心的智慧眼鏡時代。


根據 MixRift 執行長暨創辦人 Bobby Voicu 與 VR NEWS TODAY 分享的觀點,Bobby Voicu 認為,下一波 XR 發展將直接跳過「運算 puck」階段,邁向以雲端串流為核心的智慧眼鏡。在這樣的架構下,裝置本身的角色將更接近顯示終端,而非一台完整的運算設備。這樣的轉變不僅會影響遊戲體驗,也可能重新定義 XR 產業的商業模式,從硬體銷售逐步轉向訂閱制與雲端服務,並進一步縮小消費型科技與企業應用之間的落差。

Bobby Voicu 指出,當前 XR 產業仍高度聚焦於「將更多運算能力塞進更小的裝置」,但真正具顛覆性的變化,其實正在另一個方向快速成熟,雲端渲染與即時串流。隨著雲端基礎建設與串流技術的進步,高階內容已能在一般網路環境下,以極低延遲穩定運行。當完整的 PC 級遊戲與應用都能可靠地從雲端串流到手持裝置時,將混合實境的視覺疊加與互動式空間內容即時帶入超薄眼鏡中,也就不再只是概念展示,而是具備實際可行性的產品方向。

這樣的轉變,將徹底顛覆 XR 的硬體競賽邏輯。與其在眼鏡內追求更高密度的晶片、更大的電池與更複雜的散熱結構,下一波 XR 裝置可能會選擇回歸輕量化設計,專注於顯示品質、佩戴舒適度與續航效率。更低的發熱、更省電的特性,以及更具彈性的製造成本結構,反而更有機會推動 XR 進入真正的大眾市場。Bobby Voicu 認為,2026 年不會是本地運算全面被取代的一年,但很可能是以串流為優先思維的 XR 產品開始進入市場,並釋放產業策略轉向的重要時間點。

在內容創作層面,AI 的角色同樣正在快速擴大。未來一年,生成式 AI 在遊戲環境製作、敘事生成與 NPC 行為上的應用,預期將顯著加速。動態任務設計、即時回應的對話系統,以及可依玩家行為調整的環境敘事,正逐步成為提升沉浸感的重要工具,特別是在即時營運型(Live-service)的 XR 世界中,AI 能有效降低內容更新的門檻與成本。

不過,Bobby Voicu 也強調,對 AI 在 XR 領域的期待仍必須保持務實。現階段的大型語言模型,仍缺乏足夠關於頭顯操作、空間互動、手部追蹤與混合實境設計原則的訓練資料,使其難以在沒有大量人類介入的情況下,直接生成成熟、可靠的空間互動系統。與其取代 XR 設計師,AI 更適合扮演原型加速器與內容倍增器的角色,協助開發者更快測試與驗證想法,而真正定義體驗品質與邊界的,仍是人類對硬體與空間行為的理解。

這樣的技術環境,也進一步鞏固了獨立開發者在 XR 生態中的關鍵地位。Bobby Voicu 指出,認為 2026 年才是獨立開發者「開始主導」XR,其實忽略了一個事實,他們早已在主導。當今許多最具影響力的 XR 作品,往往來自小型團隊,這些團隊具備高度敏捷性,並能快速回應社群回饋。《Gorilla Tag》便是其中的代表案例,從單人開發起步,透過簡單直覺的機制與持續迭代,最終成為現象級 VR 作品。

此外,隨著智慧眼鏡逐漸朝向僅顯示或低運算能力的方向發展,XR 的使用情境也開始產生轉變。體驗不再是刻意進入某個「XR 模式」,而是以更輕量、環境式的方式融入日常生活。受限於電池續航與佩戴需求,2026 年最有機會成功的 XR 內容,可能並非長時間、重度的沉浸式遊戲,而是短時間、低強度的 MR 互動,例如遊戲化工具、輕娛樂、趣味疊加內容與地點式體驗。

在 Bobby Voicu 看來,智慧眼鏡推動 XR 普及的關鍵,不在於技術規格的堆疊或視覺震撼,而在於熟悉感。當混合實境不再需要被刻意學習,而是自然存在於日常行為之中,XR 才真正邁向下一個成長階段。


VR NEWS TODAY 編輯觀察

從 Bobby Voicu 的觀點可以看出,XR 的下一個關鍵轉折,或許不在於硬體效能的極限競賽,而在於運算位置的重新分配。當雲端逐步承接運算核心,裝置回歸顯示與互動介面,XR 也將更有機會走出「科技展示品」的階段,成為真正融入生活與工作的日常工具。

英文原文:

夏普公開開發中輕量型國產 VR 裝置《SHARP VR Glass》 目標市售化、主打舒適與高解析體驗

廣告

日本電子品牌夏普(SHARP)近期於 XR・元宇宙綜合展公開了最新版本的《SHARP VR Glass》,並確認該裝置正朝市售化方向推進。這款頭戴式虛擬實境設備主打輕量結構、視力補正支援與高解析顯示,定位在兼顧長時間使用與專業應用需求的中高階市場。

現場展示版本的整體重量約落在 200 至 250 公克之間,包含頭帶與臉部墊圈。這樣的重量僅為現行主流裝置 Meta Quest 3 的一半左右,顯示夏普在結構設計上以「減輕負擔」為主要方向。裝置採用柔軟且透氣的臉部墊圈材質,搭配低側壓設計與可調式後方旋鈕頭帶,使佩戴時的壓力分布更為平均。鏡體前方設有可拆式遮光板,可依照環境光線自由調整,提升使用靈活性。

顯示技術方面,《SHARP VR Glass》採用高像素密度微型顯示器,呈現的影像細節精細且清晰。根據現場體驗人員說明,該裝置的視野角度略小於 Quest 3,但畫面密度更高,能維持穩定的解析度與深度表現。夏普尚未公開面板解析度等技術細節,不過強調顯示模組以自家影像技術為基礎開發,追求在小型化與畫質之間取得平衡。

在視力補正方面,夏普針對 VR 使用者的視覺需求設計了可調式光學模組。現場展示的版本可支援最高 -6.00D 的近視度數,而正式量產版本計畫擴展至 -9.00D,足以覆蓋重度近視族群。此功能能減少使用者額外配戴眼鏡的需求,也降低鏡片安裝後造成的視野變形風險。

追蹤系統則採用 Inside-out 方案,透過機身內建的多組感測鏡頭進行空間定位與手部追蹤,無需額外的外部感測器。控制器原型為環狀設計,內部搭載紅外線 LED,透過與主機同步進行位置追蹤。根據展示說明,控制器仍處於原型階段,未來可能會依使用者回饋調整外型與操作方式。

鏡體結構包含外部電源連接埠,推測將搭配外接電池模組以降低頭部重量。機身左右兩側內建揚聲單元並配置散熱孔,以保持運行穩定。後方旋鈕則可依個人頭型進行調整,確保裝置固定穩定並維持舒適貼合。

關於售價與上市時程,夏普尚未正式公布。不過,開發人員表示產品屬中高階定位,價格預估將落在 10 萬至 15 萬日圓之間。由於輕量化結構與高精密顯示模組的開發成本較高,整體售價預計將高於目前的主流消費型裝置。

除 VR Glass 外,夏普也同步展示了開發中的外骨格式觸覺控制器。該裝置透過薄膜致動單元模擬不同表面質感,可在指尖再現粗糙、光滑、顆粒或堅硬等觸感變化。相較於手套型觸覺裝置,外骨格式版本更容易穿戴,但指尖活動範圍相對有限。夏普表示,此控制器的研發方向將著重於輕量與模組化,未來有望應用於教育、設計或企業培訓等領域。

目前《SHARP VR Glass》仍處於樣機開發階段,尚未公布正式上市時間。不過,從整體設計與展示內容可看出,夏普正以自家顯示技術與精密製造能力為基礎,逐步擴展至 XR 領域。

Immersive Web SDK:打造沉浸式網頁新時代

廣告

Meta 推出的 Immersive Web SDK(IWSDK) 正在重新定義沉浸式網頁開發。這款基於 WebXR 的開源工具,讓開發者能以熟悉的網頁語言與架構,快速建立 VR 與 MR 體驗,縮短開發流程並大幅提升跨平台相容性。無論是 Meta Quest、桌面瀏覽器或行動裝置,皆能以單一專案運行,為空間網頁(Spatial Web)奠定關鍵基礎。

IWSDK 建立在 Three.js 與高效的 ECS(Entity Component System) 架構之上,具備可擴充性與高效能的特點。它支援開發者建立可重複使用的元件與系統,加快沉浸式網頁的開發速度。官方強調,開發者可使用指令 npm create @iwsdk@latest 在數分鐘內建立完整專案,並透過 npm run dev 即時預覽與測試,大幅簡化過往零散的設定流程。

為了讓設計與開發能同步進行,Meta 也推出了 Meta Spatial Editor,讓團隊能以可視化方式編排物件、配置邏輯並即時預覽效果。這項工具能與 IWSDK 完整整合,使技術開發者與美術設計師可在同一流程中協作,提升製作效率。

此外,IWSDK 還引入新一代的空間介面語言 UIKitML,結合類似 HTML/CSS 的語法與 3D 幾何編譯機制,讓沉浸式 UI 的製作更簡單直覺。開發者可透過 VS Code 外掛進行即時預覽,並以 querySelectoraddEventListener 等熟悉的 Web API 操作介面,建立流暢的交互體驗。

IWSDK 同時內建多項空間互動功能,如手勢抓取系統、空間音效模組、物理移動與場景理解(Scene Understanding)支援,能自動辨識牆壁、地面與桌面等實體結構,為混合實境應用提供強大的基礎。

Immersive Web SDK 不只是開發工具,而是 Meta 為推動「Spatial Web」所打造的開放基礎。它降低了沉浸式體驗的技術門檻,讓更多創作者、教育者與企業能參與 WebXR 生態,共同推動網頁進化成三維互動世界。

VR NEWS TODAY專訪|MixRift CEO Bobby Voicu Meta Connect 前夕的 MR 革命思考

廣告

在 9 月 17 日即將揭幕的 Meta Connect 前,VR NEWS TODAY 訪問了快速成長的混合實境(MR)遊戲工作室 MixRift 的共同創辦人暨執行長 Bobby Voicu

MixRift 近期宣布前 Meta 副總裁 Ingrid Cotoros 加入董事會,她曾參與 Quest 3、Ray-Ban Meta 智慧眼鏡與 Orion AR 等計畫,象徵硬體到應用的跨界合作正加速成形。此外,MixRift 在 2024 年 8 月成功完成的 pre-seed 融資,僅用七週即募得 160 萬美元,並已陸續在 Meta QuestApple Vision Pro 推出遊戲作品。

對 Bobby 而言,2025 並不是 XR 技術單純的「延續」或「改良」的一年,而是整個產業邁向 臨界點(tipping point) 的時刻,隨著智慧眼鏡逐步進入日常生活,MR 的真正革命才會啟動。

Bobby 指出,過去十年 MR 發展最大的難題在於「硬體」與「生活」之間的落差。傳統 MR/AR 裝置體積龐大、價格高昂,且使用情境受限,即便能帶來沉浸式體驗,也難以真正普及。

不過,隨著 Ray-Ban Meta 智慧眼鏡 等輕量化產品的推出,情勢開始改變。這類裝置不再只是「展示科技」,而是逐漸融入日常的穿戴工具。他強調:「當人們戴上一副眼鏡時,不再覺得自己是『科技玩家』,而是自然地把它當作生活的一部分,這才是主流化的開始。」

對產業而言,智慧眼鏡結合了頭顯的功能與時尚外型,將是 MR 普及的臨界點,也意味著產業將從「專業應用」邁向「日常應用」。

Bobby 認為,除了硬體演進之外,「使用者回饋」才是推動 MR 採用的核心力量。過去的產業模式多由平台制定方向,但真正決定技術能否存活的,是使用者的體驗與接受度。「我們必須回到玩家與使用者的實際體驗。」他表示,「不管是遊戲的操作直覺,還是日常應用的便利性,這些才是推動普及的關鍵。」

MixRift 在開發過程中,把 玩家社群的回饋 放在早期設計階段,例如透過 Discord 直接與玩家互動,並根據需求快速調整功能與玩法。Bobby 強調,這樣的迭代模式,才是讓應用真正貼近市場需求的方式。

他認為,這象徵產業正在進入一個新階段:「我們正從硬體巨頭壟斷的時代,走向由敏捷工作室驅動的應用時代。」

根據研究,2023 年全球 XR 市場規模已達 1,839.6 億美元,並持續快速增長。對 Bobby 而言,這顯示產業已從「探索期」邁向「成長期」。
他總結道:「當智慧眼鏡被自然地融入生活,而不是被視為小眾科技產品時,MR 的真正革命才會展開。」
這場革命不僅是技術突破,更是一種生活方式的轉變,將重新定義我們的工作、娛樂與互動方式。

隨著 Meta Connect 2025 即將舉行,Bobby 的觀察提供了產業一個前瞻視角。智慧眼鏡的日常化、使用者回饋的力量,以及小型工作室的靈活創新,將是 MR 能否走向主流的三大核心要素。對 XR 產業的觀察者與開發者而言,這場對話不僅是技術討論,更是對未來生活方式的探索。

VR NEWS TODAY 與 Bobby Voicu 的完整採訪(原文):

Q.1 Smart glasses with headset capabilities are often seen as a tipping point for mainstream MR adoption. From your perspective, what are the biggest challenges and opportunities in making this technology truly consumer-ready?
The biggest challenge right now is processing power. XR Glasses can’t yet handle the kind of content people expect without relying on an external unit. In the short term, I see us moving into a phase where devices will act more like streaming units connected to a separate processing pack. It’s similar to the first versions of the Apple Watch – it didn’t run apps directly, it relied on the iPhone. MR glasses will likely need that kind of bridge stage before they become fully independent. In terms of opportunities, the potential is huge, but we’re not quite there yet.

Q.2 You’ve mentioned that user feedback can be a stronger driver of adoption than platform roadmaps. Can you share examples of how MixRift incorporates user feedback into development, and how that has shaped your games?
Today, platforms like Meta Quest already have enough users to support a small studio. Waiting for platforms to grow before building isn’t always the smartest strategy – the key is listening to the players who are already there. At MixRift, we talk directly to our community, like through direct communication or Discord channels. And, their feedback has impact – if they want features tweaked or content adjusted, we act on it quickly. That approach has shaped everything from gameplay mechanics to platform choices.

Q.3 MixRift develops across both Meta Quest and Apple Vision Pro. What are the most significant differences you’ve observed between these platforms, and how do they influence your design decisions?
The most obvious difference is input. Meta Quest relies primarily on controllers, whereas Vision Pro is built around hand-tracking. That changes the game mechanics completely. Meta also supports hand-tracking, but it’s not the main way players interact. The second point is scale. Vision Pro doesn’t yet have a large enough user base to be considered a viable platform for us in the same way Meta does. So we experiment there, but we focus on development where there’s already a strong community.

Q.4 With Ingrid Cotoros joining your board, MixRift brings in expertise from major XR hardware development. How do you see the relationship between nimble studios and large hardware companies evolving in the next few years?
Smaller studios move much faster, and that’s our advantage. Hardware platforms are in a constant state of flux, and big companies move at their own pace based on their own roadmaps and data. We can’t influence that, but we can adapt quickly when changes happen. That’s where the relationship lies – hardware giants set the direction, and studios like us find creative ways to make the most of it.

Q.5 Many indie developers are watching Meta Connect closely. From your experience, what should smaller studios pay attention to in terms of consumer trends or platform opportunities?
This year’s Meta Connect could be the most important so far. The expectation is that we’ll see real progress on smartglasses, with displays sharp enough to support content creation – that would be a gamechanger for the industry. Meta also continues to lead the market in terms of scale. The signals that come out of Connect often set the tone for the next year, so smaller studios should pay close attention to where Meta is putting its focus.

Q.6 The XR market was valued at nearly USD 184 billion last year. In your view, what key factors will determine which companies and technologies succeed in the next stage of MR growth?
The market value is around hardware. We don’t yet have a ‘killer app’ that makes people use XR devices daily. Success will come down to two things: content that genuinely resonates with users, and hardware that’s light and comfortable enough to wear everywhere. Glasses with MR capabilities are the future, but adoption will depend on both usability and experiences.

Q.7 Beyond gaming, where do you see the strongest potential for MR adoption in everyday life, and how might that shape the types of experiences MixRift creates?
The strongest potential is in training and medical fields. In everyday life, MR glasses could change behaviour in small but important ways. Instead of pulling out your phone to check a notification or adjust volume, you could do it seamlessly through your glasses. This shift can make MR part of people’s daily routines.

Q.8 Looking ahead, what excites you the most about the next generation of XR, and how is MixRift preparing to stay at the forefront of this evolution?
For me, it’s the arrival of MR glasses. They open the door to entirely new types of content, not just immersive 3D but even hybrid experiences, like flat screens inside glasses or games that work across MR and mobile. At MixRift, we’re building with that hybrid future in mind, and we want our games to work wherever players are.

中譯:

3 / 9

《The Clouds Are Two Thousand Meters Up》:改編吳明益短篇小說的沉浸式 VR 文學體驗

廣告

第 82 屆威尼斯影展 公布得獎名單,由台灣導演 陳芯宜 執導的 VR 作品 《雲在兩千米》(The Clouds Are Two Thousand Meters Up) 在沉浸式內容競賽單元中脫穎而出,獲得 最佳沉浸體驗大獎。這也是她繼《無法離開的人》後,再度奪下此殊榮。來自世界各地的 30 部作品同場角逐,最終由這部融合台灣文學、原民神話與虛擬實境的作品登頂。

《雲在兩千米》改編自台灣知名作家 吳明益 的短篇小說。故事描述律師「關」在妻子因意外過世後,無意間發現她留下的未完成小說手稿。小說將瀕危動物「雲豹」與魯凱族的起源神話相互交織,族人相信他們源自雲豹,而這份象徵也成為妻子筆下的核心意象。關在悲痛與思念之下,循著文字進入一場超現實的旅程。他在夢境般的場景中穿梭:霧氣繚繞的森林、古老的樹洞、象徵潛意識的迷宮,以及充滿隱喻的內在風景。記憶、現實與神話在其中交錯,邊界逐漸模糊,帶領他展開一段關於愛、失落、自我反思與療癒的探索。

在創作聲明中,導演提到自己長期受到吳明益作品啟發,並表示:「吳明益是台灣最具影響力的當代小說家之一。他在文學中編織夢境、記憶,以及多重時間與空間的方式一直深深吸引我。當有機會將《雲在兩千米》改編為 VR 時,我知道這會是一條艱鉅卻必須踏上的道路。」她進一步指出,吳明益的文字中蘊含強烈的意象、空間感與身體感,與 VR 的沉浸式特性高度契合。因此,她選擇透過自由探索的互動設計,將失落、記憶與原住民神話的旅程重現於虛擬世界。她形容這是一場文學、科技與情感之間的對話,並希望藉此「激發跨文化的共鳴與共情」。

原著作者 吳明益 在得知獲獎後也發表感言,他說:「一個作品成為另一些人的作品,那意味著作品存在著生命力。謝謝陳芯宜導演的團隊,創作出啟發我的新作品。」他的回應進一步強調了這次跨界合作不僅是改編,而是一次文學生命力的延伸與再生。

本片於威尼斯影展展映期間場場爆滿,一票難求。近期也已入圍 2025 高雄電影節 XR 沉浸式影像大展「XR DREAMLAND」國際競賽單元,將於 10 月與台灣觀眾見面。

2025 高雄電影節 VR 體感劇院登場,三部沉浸式作品台灣首映引領觀眾穿越歷史、心理與虛構戰場

廣告

2025 年高雄電影節即將於 10 月 10 日至 10 月 26 日舉辦,沉浸式展演單元「VR 體感劇院」再度成為焦點。今年活動將於駁二藝術特區 P3 倉庫與高雄市立歷史博物館同步展開,並集結三部來自法國、日本、英國的沉浸式作品進行台灣首映,分別是《鐵達尼:往日回聲》(Titanic: Echoes from the Past)、《失控生存遊戲》(Impulse: Playing with Reality),以及話題之作《機動戰士鋼彈:銀灰的幻影》(Mobile Suit Gundam: Silver Phantom)。這三部作品涵蓋互動 VR、混合實境與動畫長片等不同類型,代表當代國際沉浸式影像創作的三種敘事方向,也為高雄電影節在沉浸內容領域持續深化奠定基礎。

《鐵達尼:往日回聲》由 Benjamin Auriche 與 Jean Dellac 共同執導,是一部以多人同步互動方式進行的 VR 體驗。觀眾將化身為現代遊客,在 AI 導覽員的引導下,從星空視角下潛至 3,800 公尺海底,親身參與鐵達尼號的命運時刻。經典場景如大樓梯舞會、冰山撞擊事件與沉船遺骸皆以高度細緻的虛擬重建方式呈現,同時融入電影導演威廉·哈貝克這一虛構角色的敘事視角。觀眾不只是重遊歷史,而是透過這位導演的視角,一同尋找沉沒事件中遺落的神秘電影膠卷,並穿梭於船艙、甲板、宴會廳等空間,在視覺與情感上對這場悲劇產生新的理解。該作以歷史實境與虛構敘事融合的方式,為 VR 呈現開闢出感性與記憶並重的新視野。

《失控生存遊戲》由英國沉浸式創作團隊 Anagram 製作,延續其在威尼斯影展獲獎作品《哥利亞的思覺遊戲》所展開的心理健康主題系列《Playing with Reality》。本次聚焦注意力不足過動症(ADHD)的多元表現,作品結合 MR 技術、動畫設計與互動式認知遊戲機制,邀請觀眾進入四位主角的內心世界,理解他們看似混亂但實則真實的心理狀態與情緒需求。觀眾不僅是旁觀者,更以沉浸方式感受這些角色對於理解、自主與陪伴的渴望。由金獎影后蒂妲·史雲頓擔任旁白,敘事張力貫穿整體體驗,情緒層層堆疊,令觀者進入一種半現實半象徵的思考空間。本作亦榮獲 2024 年威尼斯影展沉浸式內容成就獎,並入選阿姆斯特丹與安錫影展競賽單元,是今年在國際間備受矚目的 MR 敘事作品之一。

而最具話題性的作品莫過於《機動戰士鋼彈:銀灰的幻影》。這是世界首部長達 90 分鐘的互動式 VR 動畫長片,由動畫導演鈴木健一執導,萬代南夢宮與法國知名沉浸內容製作公司 Atlas V 聯手打造。故事設定於 U.C.0096 年,在新吉翁與地球聯邦的最後衝突三年後展開。觀眾將以第一人稱視角進入獨立傭兵部隊,駕駛著鋼彈機體參與戰場任務,操作方式與真實 MS 駕駛艙同步,並可直接控制武器、應變系統與導航介面。這不僅是一次動畫影迷的沉浸體驗,更是傳統動畫與新媒體敘事技術結合的實驗。透過高品質的 3D 製作與角色設計,作品成功將鋼彈宇宙的龐大世界觀轉化為可互動的沉浸劇場,使粉絲得以身歷其境地參與戰爭敘事。目前該作已於 2024 安錫動畫影展與威尼斯影展中亮相,並將於 2025 年新影像藝術節作為 XR 主競賽單元展出。

高雄電影節長期致力於推動沉浸式影像在亞洲的落地與普及,「VR 體感劇院」自開辦以來已逐步成為華語地區最具代表性的沉浸影像策展平台之一。今年的三部台灣首映作品不僅代表 VR、MR 與互動動畫的技術多樣性,更觸及歷史記憶、心理敘事與經典 IP 再創造等面向,顯示沉浸式影像敘事已不再停留於科技展示,而是逐步發展為情感傳遞、文化記憶與創意轉化的媒介。活動手冊將於 9 月 17 日上線,套票於 9 月 20 日 13:00 起開賣至當日晚間 20:00 止,早鳥優惠自 9 月 21 日 12:00 起至 10 月 9 日 23:59 止開放,正式放映期間為 10 月 10 日至 10 月 26 日。無論是長期關注 VR 發展的觀眾,或是對沉浸式體驗感到好奇的新觀眾,今年高雄電影節的體感劇院都將提供一次跨越感官、敘事與文化邊界的觀影體驗。

VIVERSE Create 入圍 2025 Auggie Awards,推動無程式碼 XR 創作工具發展

廣告

2025 年的 Auggie Awards 再次成為 XR 產業的重要焦點,今年對 VIVERSE 團隊來說更是特別的一年。VIVERSE 的瀏覽器式無程式碼 XR 創作工具「VIVERSE Create」入圍「最佳創作者與製作工具」獎項,與業界最具代表性的 XR 平台一同角逐。此外,VIVERSE 團隊中的兩位成員也因其在沉浸式敘事與數位表演上的傑出貢獻獲得肯定,使今年的 AWE USA 成為屬於 VIVERSE 平台與其創作者的雙重里程碑。

Auggie Awards 今年邁入第 16 屆,是 XR 領域最受矚目的獎項之一,表彰涵蓋沉浸式敘事、企業應用、創作工具到社會影響等 19 個類別。與許多獎項不同,Auggie Awards 的決選結合了社群投票與專家評審,既反映了業界專業標準,也代表了 XR 創作者社群的認可。頒獎典禮於 AWE USA 舉行,除了有史以來最多的參賽作品,也展示了 XR 創作的快速成長與多元化。

「VIVERSE Create」作為決選入圍工具,展現了其在 XR 創作領域的重要性。這款工具讓獨立創作者、教育者與開發者能在瀏覽器中直接設計並發布沉浸式體驗,無需下載額外軟體。它提供拖曳式設計、跨平台發布、多人模式、3D 資源整合與即時部署等功能,大幅降低了 XR 創作的門檻,並為更多創作者提供了將想法轉化為可體驗內容的機會。

除了平台獲得肯定,VIVERSE 團隊的兩位成員也在 2025 年 Auggie Awards 中脫穎而出。James C. Kane 的沉浸式體驗《In Tirol》同時入圍「最佳藝術或電影」與「最佳獨立創作者」,這是一款透過瀏覽器即可體驗的單人敘事作品,背景設定在 1914 年的奧地利薩爾茨堡郊區,以獨特的視覺風格與氛圍探索藝術家在動盪世界中的掙扎與避難之旅。Michael Morran 也因參與互動音樂劇《Non-Player Character》而獲得「最佳藝術或電影」獎。這部作品融合了虛擬實境與現場表演,挑戰了傳統的表演形式,為 XR 帶來全新的藝術表現。

James C. Kane 《In Tirol》
Non-Player Character

2025 年的 Auggie Awards 是一場獎項競爭,更反映了 XR 創作生態的成熟。從《In Tirol》充滿藝術氛圍的敘事,到《Non-Player Character》將劇場與虛擬結合的實驗形式,XR 正從專業技術領域,逐漸走向能夠匯集創作者、開發者、表演者與教育者的開放平台。VIVERSE 在其中扮演的角色,是提供讓創作者能專注於內容本身的工具與環境,協助更多人參與這場沉浸式內容的革新。

隨著 XR 產業持續成長,VIVERSE 不僅以「VIVERSE Create」等工具支持創作者,還透過社群、教育與合作推動 XR 生態系的發展。2025 年的 Auggie Awards 對 VIVERSE 而言,是一個展現技術實力與創意能量的時刻, XR 創作邁向更廣泛、更具影響力的新階段。

PICO 攜手 Blender 基金會,推動 OpenXR 3D 創作新時代

廣告

PICO 宣布與開源 3D 軟體領導者 Blender 基金會展開合作,將共同推動虛擬實境(VR)與混合實境(MR)環境中的 3D 創作體驗升級。此次合作將聚焦於強化 Blender 對 OpenXR 標準的支援,並結合 PICO 在 XR 硬體與系統軟體的深厚技術優勢,讓全球創作者在沉浸式空間中享有更高效、更直覺的建模與創作流程。

這是 Blender 首度與 XR 平台業者建立深度合作關係,也是 PICO 成為第一個與 Blender 共同優化虛擬實境 3D 創作流程的 XR 品牌。雙方將透過此計畫為藝術家與開發者開啟全新創作方式,不再受限於傳統的滑鼠與鍵盤操作,而是透過自然互動、手部控制與空間感知等 XR 功能,直接在虛擬世界中建構與雕塑 3D 模型。

合作的核心目標之一,是推動 OpenXR 的普及。作為由 Khronos Group 主導的跨平台開放標準,OpenXR 能實現不同 XR 裝置與軟體間的兼容性,使創作者與開發者得以在多種設備上部署一致的內容體驗。PICO 與 Blender 的攜手合作不僅有助於 OpenXR 的技術實踐,也為全球 3D 社群提供了穩定且前瞻的發展平台。

PICO XR 合作夥伴關係負責人 Jessie Zhang 表示:「我們致力於支持 Blender 的全球開源社群,並持續擴展 3D 創作生態系。這項合作讓我們能共同強化創作工具,鼓勵藝術家與開發者以更自然的方式在虛擬空間中實現創意,同時透過 OpenXR 將這些內容帶給全球觀眾。」

這項合作將具體落實在提升 Blender 在 VR 內使用的工作流程。預期未來將釋出一系列整合 PICO XR 裝置的功能,包括頭部與手部追蹤的支援、虛擬工具介面優化,以及針對 PICO 裝置操作邏輯的定制互動模組。對於 3D 動畫師、遊戲開發者、建模師與 XR 應用設計師而言,這代表不再需要離開沉浸環境就能完成創作、測試與調整,大幅提升效率與沉浸感。

此次攜手也象徵 XR 與開源運動間的首次深度融合。作為最受歡迎的開源 3D 建模與動畫軟體,Blender 長年致力於以社群驅動的模式推動創新。而 PICO 作為快速成長的 XR 平台,則持續以創作者為中心打造工具與生態系。雙方理念的契合,正是此合作長期推進的關鍵基礎。

在全球 3D 與 XR 產業快速交集的時代,PICO 與 Blender 的合作不僅展現了技術整合的實力,也將為空間運算與沉浸式內容創作奠定新標準。未來的 3D 工具不再侷限於桌面,而是在立體的空間中被建構、雕琢與即時體驗。對開發者而言,這是一項實用的技術進展;對內容創作者而言,這是一道通往下一個創作維度的大門。

Reality Labs 發表突破性 sEMG 手腕神經介面研究,登上《Nature》期刊:一種直覺、無須校準的人機互動未來

廣告

Meta 旗下的 Reality Labs 團隊近日在國際權威期刊《Nature》發表了一項具指標性的 研究成果,展示一種基於手腕表面肌電圖(surface electromyography, sEMG)的非侵入式神經介面技術,為人機互動領域開闢了新的可能性。這項研究的核心,是透過配戴於手腕的可穿戴設備擷取微弱的神經肌肉訊號,並運用深度學習模型將這些訊號即時轉譯為用戶的操作意圖,讓人們僅以手腕與手指的輕微肌肉活動,即可完成輸入、滑動、點選、手寫等日常數位操作。與以往仰賴鍵盤、滑鼠、觸控或語音控制的方式相比,sEMG 所提供的是一種更自然、更安靜、更即時的人機互動體驗,特別適合於行動中或不便發聲的使用情境。

這款研究中開發的 sEMG 手環裝置由 48 個乾電極組成,環繞使用者手腕至前臂部位,並透過藍牙即時串流高密度肌電數據至外部運算系統。為了解碼這些複雜且個體差異極大的生理訊號,團隊設計了一套以 Conformer 架構為基礎的深度神經網路,這種網路原本用於語音辨識,能有效處理時間序列資料並保留訊號中的語意順序。在此系統中,它被改造為能即時處理手勢與手寫的肌電資料,進而轉化為精確的輸入指令。此外,為克服使用者間的差異性,研究團隊特別強化模型的泛化能力,使其能「即插即用」,不需每位使用者額外進行校準,就能立即使用。

根據實驗結果,該系統能以平均每秒 0.88 次的速率辨識手勢指令,並達成超過 92% 的準確率,在手寫任務中也能以每分鐘 20.9 字的速度輸入文字,而不須任何鍵盤或螢幕輔助。更令人關注的是,即便僅加入極少量的個人化資料(例如使用者自行書寫幾分鐘樣本),其輸入精度仍可提升約 10% 至 16%。這意味著該技術不僅具備廣泛適用性,也能隨著使用時間逐漸適應與優化每位使用者的個別操作習慣。

這項 sEMG 技術的實用性不僅體現在效率上,更在於其對不同身體條件使用者的包容能力。由於該介面不需明顯的手部移動即可感知神經訊號,即使是肢體活動能力受限者,也能透過細微肌肉意圖操作設備。研究團隊也在多位不同性別、年齡與前臂尺寸的參與者身上進行測試,證實系統對不同生理特徵具備穩定解碼效果,這使它具備成為通用輸入方式的潛力。

控制轉移:新現實實驗室關於表面肌電圖的研究發表在《Nature》

這項技術已在 Reality Labs 的 AR 原型裝置「Orion」眼鏡上實測搭配使用,並配合先進機器學習模型將肌肉訊號準確解碼為輸入指令。根據實驗,系統不僅能即時辨識標準手勢,還能支援手寫辨識——用戶可直接在桌面、腿部或其他硬表面快速書寫訊息。

  • 它完全是非侵入性的,開闢了使用肌肉訊號與電腦互動的新方法,同時解決了其他形式的 HCI 面臨的許多問題。
  • 它使用起來方便、簡單、自然,並且在語音互動等替代方案可能不切實際或不受歡迎的情況下(例如在公共場合發送私人訊息)也能發揮作用。
  • 它始終可用,並且無需笨重的配件,讓您脫離當下並分散您對最重要的人事物的注意力。

Reality Labs 亦公開了完整的資料集與訓練流程,包含超過 300 名參與者所產出的三種任務數據(連續控制、手勢與手寫),累計超過 100 小時的高密度肌電資料。研究團隊希望透過此舉加速學術界與開發者在神經介面領域的創新進展,並鼓勵社群針對硬體設計、訊號處理與機器學習模型進行更深入的探索與應用。

Reality Labs 發表的這項研究不只是工程技術的進步,更是一種對人與科技互動關係的重新思考。相較於人類過去不斷適應各種輸入工具,如打字、滑鼠點擊、觸控滑動,sEMG 所提供的是一種由人出發、機器主動理解的控制方式。當科技真正理解「意圖」本身,並能將其自然轉化為互動回饋,人機介面便不再只是效率問題,而將成為一種更加人性化的存在形式。這不僅將提升主流使用者的操作體驗,更為行動能力受限者與語言障礙者開啟嶄新溝通途徑,也可能成為未來 XR 與 AR 裝置最關鍵的核心輸入方案之一。

隨著這類非侵入式神經輸入技術日漸成熟,一種更安靜、更無感、更貼近人類本能的數位互動模式正悄然成形。Reality Labs 所提出的 sEMG 手環研究,不僅為這個可能性提供了堅實技術基礎,也讓外界對人機介面的下一個演化階段,有了更加具體的想像。

*如果想要更深入了解研究,建議一定要看nature期刊上的 文章PDF *

VIVE Arts 推出《Playing with Fire》XR 沉浸式音樂體驗,與鋼琴家王羽佳共赴感官之旅

廣告

2025 年秋季,HTC 旗下的文化藝術推廣計畫 VIVE Arts 將正式推出一項跨界融合的沉浸式 XR 藝術體驗——《Playing with Fire: An Immersive Odyssey with Yuja Wang》。本作由 VIVE Arts 聯合法國 XR 製作公司 Atlas V、創新空間 Lightroom,以及巴黎音樂博物館(Musée de la musique – Philharmonie de Paris)共同策劃。

《Playing with Fire》以當代古典樂界最具代表性的鋼琴家王羽佳(Yuja Wang)為主角,邀請觀眾踏入她內在創作世界的深處。展覽將於 2025 年 11 月 14 日在巴黎音樂博物館正式揭幕,並展出至 2026 年 5 月 4 日,預計成為歐洲藝術與科技界的一大焦點。

這並非一般的音樂會,也不只是表演紀錄。《Playing with Fire》讓參與者不再是坐在座位上被動觀賞的觀眾,而是成為故事與聲音的一部分。透過高度整合的視覺敘事與空間化音效,觀眾得以在無束縛的虛擬空間中漫步,自由探索王羽佳的情感表達與音樂語彙。猶如走進音樂的內部,觀察音符如何成形、如何在情緒與記憶中產生共振。

這場體驗由屢獲殊榮的法國導演 Pierre-Alain Giraud 擔任導演,他曾獲得坎城影展 Cannes Immersive 單元的肯定。視覺由冰島知名藝術家 Gabríela Friðriksdóttir 設計,其作品融合神秘主義與人類心理,為體驗注入詩意與象徵。聲音設計則由奧斯卡得獎設計師 Nicolas Becker 操刀,他曾參與《異星入境》(Arrival)與《聲命線索》(Sound of Metal)等電影,擅長將微觀聲響轉化為深層情緒體驗。

在技術層面上,《Playing with Fire》運用了 HTC 最新一代 XR 裝置 VIVE Focus Vision,並搭配 VIVE Location-Based Software Suite 進行場域定位與內容同步,實現多人共享的無線沉浸式互動空間。觀眾無需配戴背包電腦,也不受纜線限制,可自由在展場中移動,讓身體動作與虛擬內容同步聯動,產生高度真實的參與感。

展場中央設置一架 Steinway Spirio 自動演奏型三角鋼琴,不僅作為現場藝術裝置,更透過高精度 MIDI 同步技術與虛擬影像中的王羽佳表演互動。當觀眾接近鋼琴時,將可感受到虛實之間的流動邊界:耳邊傳來真實鋼琴聲,眼前則是 volumetric 拍攝的王羽佳身影正在演奏,一種跨越實體與數位、過去與當下的交錯經驗油然而生。

此外,體驗過程中亦將穿插混合實境與全虛擬場景的切換,隨著觀眾的移動與視角變化而自動調整。這種動態式的展演設計不僅提供戲劇張力,也讓每位參與者的旅程成為獨一無二的個人體驗。

王羽佳作為當代鋼琴界的傳奇人物,以超凡技巧與個性鮮明的舞台風格聞名。她在《Playing with Fire》中不僅是一位演奏者,更是一位敘述者與引導者。觀眾將隨著她的節奏進入創作空間,從排練片段、情緒流動到音樂與個人記憶的連結,拼湊出她藝術語言的脈絡與深度。

體驗中的一大亮點,是觀眾可以參與一場虛擬排練,彷彿坐在鋼琴旁邊,近距離感受她對每個音符的詮釋過程。聲音不再只是背景,而是與空間互動的主體——像是躍動的氣流,環繞在觀眾耳邊與身邊流動。視覺方面則充滿象徵意象與感官刺激,透過超現實手法呈現鋼琴家的情緒內風景。

這場展覽也延續了 VIVE Arts 過去與全球博物館、藝術家合作的傳統,包含與英國泰特美術館(Tate Modern)、羅浮宮(Louvre)、佛羅倫斯烏菲茲美術館(Uffizi Gallery)等機構推動的多項虛擬策展項目。此次與巴黎音樂博物館的合作,則是音樂領域的一大拓展,也象徵 XR 作為當代表演藝術平台的成熟與可行性。

《Playing with Fire》將於 2025 年 11 月 14 日至 2026 年 5 月 4 日在巴黎音樂博物館展出,觀眾可透過現場預約方式參與,每場體驗為多用戶自由移動形式。

科技未來的交會點:Meta Connect 2025 9/17–18 盛大登場|AI × XR × 開發者生態全面進化

廣告

Meta Connect 2025 即將於 9 月 17 至 18 日盛大舉行。這場年度盛會由 Meta 主辦,集結來自世界各地的開發者、創作者與科技愛好者,一同深入探索人工智慧、虛擬實境(VR)、混合實境(MR)與元宇宙的未來走向。

今年的活動不僅採用線上直播,還將在虛擬平台 Meta Horizon 中舉辦 Connect Keynote,帶來全新的沉浸式參與方式。參與者不只是觀眾,更將身歷其境,親身感受科技與虛擬空間的交會魅力。

9 月 17 日的開幕主題演講(Connect Keynote),由 Meta 執行長 Mark Zuckerberg 親自登場。他將分享 AI 智慧眼鏡的最新進展,並揭示 Meta 對人工智慧與元宇宙的整體願景。這場演講預計將揭示下一波社交與互動技術的關鍵方向。

緊接著在 9 月 18 日登場的 Developer Keynote,則由 Meta 各部門高層輪番上陣,介紹最新的平台技術與創作工具,說明這些技術如何幫助開發者打造出全新體驗。對於 XR 與 AI 應用的開發者來說,這是一場不容錯過的創作契機。

此外,今年還將推出一系列「Developer Sessions」開發者專場講座,深入探討 VR、AI、混合實境等技術細節。這些講座由來自 Meta 及業界的領先技術人員主講,協助開發者掌握第一手工具與知識,進一步加速創新與應用落地。

從主視覺設計到活動安排,Meta Connect 2025 充滿未來感與科技動能。預期除了產品與平台更新,Meta 也可能公開 AI 助理、混合實境應用與跨裝置整合的新突破。這場活動不僅是 Meta 的年度發表,更是整個科技產業對未來互動模式的一次深度對話。

對於關注 XR 技術、AI 發展與數位內容創作的群體而言,Meta Connect 2025 將是一場資訊量與靈感兼具的盛會。

📅 活動日期:2025 年 9 月 17~18 日
📍 活動平台:Meta Horizon 虛擬世界全球同步線上直播

科技的未來,即將揭曉。現在就把日期記下來,一起見證科技如何再次突破人類互動的界線。

阿聯酋新創 XPANCEO 完成 2.5 億美元融資,估值達 13.5 億美元,打造智慧隱形眼鏡

廣告

總部位於杜拜的智慧隱形眼鏡公司 XPANCEO 近日宣布完成 2.5 億美元 A 輪融資,使公司估值攀升至 13.5 億美元,正式成為擴增實境(XR)領域的新獨角獸。此次融資由 Opportunity Venture(亞洲)領投,該機構亦曾於 2023 年領投 XPANCEO 的 4,000 萬美元種子輪投資。根據 Crunchbase 數據,XPANCEO 累計總融資金額已達 2.9 億美元。

XPANCEO 表示,此筆資金將加速其開發「全球首款全功能智慧隱形眼鏡」的步伐,目標是在 2026 年前正式推出。該產品目前仍處於原型階段,預計將整合擴增實境(AR/XR)功能、即時健康監測、夜視以及變焦等能力,將各類裝置功能濃縮於佩戴者的眼中,實現「無形界面」的願景。

公司創辦人兼管理合夥人 Roman Axelrod 表示:「在短短 24 個月內,我們已完成 15 款具備不同功能的原型,這證明我們正走在正確的道路上。我們的終極目標,是讓所有裝置都整合進你的眼睛中。」

根據官方資訊,XPANCEO 已開發多款原型鏡片,包括支援 AR 視覺顯示的隱形眼鏡、可量測眼內壓的智慧鏡片(用於青光眼監控)、能從淚液中讀取血糖等生化指標的鏡片,以及支援無線即時充電與數據傳輸的鏡片。

此外,XPANCEO 亦研發出使用奈米粒子技術的夜視鏡片與色彩校正鏡片,另有專為 3D 成像所設計的鏡片,顯示其技術研發覆蓋範圍廣泛。

XPANCEO 成立於 2021 年,由連續創業家 Roman Axelrod 與物理學家 Dr. Valentyn S. Volkov 領軍。短短幾年間,公司人數從 50 人增至 100 人,並大幅擴建實驗室以因應技術開發規模。公司並指出,其已與多間國際研究機構合作,包括曼徹斯特大學、新加坡國立大學、西班牙 Donostia 國際物理中心與杜拜大學。

XPANCEO 的成功亦讓外界聯想到過去幾個 XR 領域的指標性新創案,例如 Magic Leap 曾於 2014 年獲 Google 領投的 5.42 億美元 B 輪融資,一度在 2018 年創下 64 億美元的最高估值。如今 XPANCEO 的崛起,象徵 XR 技術正邁入微型化與穿戴化的新階段,智慧隱形眼鏡的應用潛力也持續獲得資本市場關注。