VR 世界沉浸感再升級,Meta 打造超逼真虛擬手模型

1 月 22 日消息,雙手是我們與世界交互的重要工具,也是我們自我認同的重要部分。在虛擬現實的世界里,一雙逼真寫實的雙手將極大地提升用戶沉浸感和化身認同感。Meta 近期正在致力于讓虛擬現實中的雙手盡可能逼真和個性化,以增強用戶在元宇宙中的沉浸式體驗。
近日,來自 Meta Codec Avatars 實驗室和新加坡南洋理工大學的研究人員聯合發布了開創性研究成果 ——URHand,即“通用可變光照手部模型(Universal Relightable Hands)”。
URHand 并非簡單的手部模型,它能夠根據用戶的真實雙手進行個性化調整,并模擬真實光照環境下的手部細節,研究人員將其稱為“首個可適應不同視角、姿勢、光照和個體差異的通用可變光照手部模型”。該模型的一大亮點是,用戶只需要用手機簡單上傳的幾張自己的手部照片,該模型就定制出與本人相差無幾的虛擬手,輕松將“你的手”帶入虛擬世界。
目前尚不清楚這項研究何時能轉化為實際產品。Meta 多年來一直致力于打造逼真的 Codec Avatars 技術,期望實現跨越時空的真實互動。IT之家注意到,近期扎克伯格與 Lex Fridman 在一檔播客節目中展示了該技術的最新進展。Meta 的目標是將 Codec Avatars 帶入獨立式 VR 頭顯,但目前仍面臨諸多挑戰。
打造一個逼真的虛擬化身不僅需要逼真的頭部和面部,還需要自然的肢體動作、真實服飾細節以及高度個性化的雙手。雙手的重要性尤為突出,因為它們是自我認同的重要部分。任何體驗過虛擬現實中與自己真實雙手完全不符的手部模型的人都會明白那種失真感帶來的不適。URHand 的出現,無疑為解決這一難題邁出了重要一步。未來,當你在元宇宙中伸出手指,打招呼,或是握住虛擬物件時,或許會感覺就像是在現實世界中一樣自然。






























