媒體新聞
中央社訊息服務
中央大學主導之「結合混合實境顯示與人工智慧場域之研究」,歷經三年的發展,突破技術上的難度與限制,成功於多地協同進行多人虛擬光學實驗,發展出「多人混合實境即時互動遠端算繪平台」的技術,研究團隊更於2023年榮獲「未來科技獎」的肯定。同時,日前與佐臻股份有限公司合作,完成了跨距的多人光學實驗,為元宇宙的應用拉開了一個新紀元。
「多人混合實境即時互動遠端算繪平台」由中大通訊系黃志煒教授帶領,並與師大數學系陳建隆講座教授合作,利用伺服器端的物件串流相機設計和即時位置輔助,消除了MR(mixed reality, MR)技術中難以解決的「延遲」問題,即使在延遲較高的環境,也能更精確地與3D物件互動,且消除延遲的影響。
黃志煒教授表示,這項技術首創「多人、即時、虛實整合、低延遲、跨終端設備、遠端算繪」六個混合實境功能。團隊先在伺服器完成每個3D物件的算繪,再「個別」傳送影像至使用者端,以最新定位來放置各物件,讓延遲造成的偏移幾乎消失,大大提升使用者體驗。在實際應用上,可以讓多個使用者在不同空間,同時看見同一個虛實整合畫面,並能即時與虛擬物件互動。
陳建隆教授認為,該系統在AI的技術加持下,將具備更多互動功能,除了光學實驗,未來將擴及其他場域的應用,如跨國會議或是電子商務。總計畫主持人孫慶成強調,雖然計畫大部份資源是放在MR眼鏡的光學系統,但是黃志煒教授與陳建隆教授的人工智慧場域之研究,為整個計畫創造了不同的格局。不再只是一個硬體的開發者,同時兼具與軟體的結合,使中大的跨校團隊能夠掌握科技研發的脈動。
一起完成這次的跨距光學實驗的佐臻股份有限公司,是國內目前MR眼鏡應用的指標性廠商。梁文隆董事長表示,與中央大學團隊合作,使公司在多人混合實境即時互動遠端算繪平台上的技術更上一層樓。佐臻的J7EF眼鏡在實驗中的出色表現顯示出其全球市場潛力,適用於多種MR應用,並為元宇宙基礎建設做出重要貢獻。該技術實現了多人在不同空間共享虛實整合體驗,提升協同工作效率。結合佐臻MR眼鏡與MetaSpace智慧空間,實現了異地協作的重大突破。MetaSpace提供沉浸式空間,實現兩地多人協作,使物理分隔的用戶們能在同一虛擬空間中互動,促進跨地域技術交流。在持續合作中,佐臻和中央大學推動了自主元宇宙技術的發展,致力於在元宇宙領域樹立新標準。