2020年計算機視覺和模式識別大會匯聚了世界各地的計算機視覺研究者和工程師,而Facebook Reality Labs顯然不會錯過這樣一場盛會。其中,首席科學家邁克爾·亞伯拉什通過視頻介紹了團隊的研究及相關進展。
亞伯拉什首先引用喬布斯于2005年在斯坦福大學畢業生演講中針對PC圖形界面未來發展方向的名言(You couldn’t argue about the inevitability, it was so obvious)指出,正如始于上世紀90年代的第一波HCI革命一樣,基于虛擬現實和增強現實的第二波HCI革命同樣不可避免。
第一波HCI革命是以PC和智能手機為代表的二維計算機,它們帶來的數字世界改變了我們娛樂,工作和社交的方式。但盡管是這樣,我們與數字世界的交互只能局限于二維屏幕。相反,亞伯拉什認為虛擬現實和增強現實則有望充分發揮人類完整的能力,以至于數字和現實能夠實現無縫的融合。
亞伯拉什認為未來的VR頭顯能夠實現200度視場,視網膜分辨率,可變焦距,逼真音頻,而AR眼鏡則是超級時尚,完全可以取代智能手機,并賦予佩戴者感知超能力。不過,目前這個愿景所需的技術遠遠沒有達到應有的水平,包括光學系統,界面,觸覺,虛擬化身和人體工學等。
為之奈何?亞伯拉什的答案非常簡單:研究,研究,更多的研究。在演講中,他提到了Facebook Reality Lab正在進行的研究及相關進展,并提供了一系列的視頻材料。
首先是優化的手部追蹤功能。如上方視頻所示,現在系統能夠相當精確地追蹤手部和手指的快速運動。對于這一點,他表示光學手部和手指追蹤將成為空間計算機范式的重要組成要素。
Facebook在虛擬化身渲染方面同樣取得了進展,包括人體模擬,骨骼追蹤,動捕技術,以及Codec Avatars。根據亞伯拉什的說法,再過數年就可以在虛擬現實中渲染出與真實別無二致的數字形象。
延伸閱讀:Facebook 50年征途:Codec Avatars,創造逼真虛擬角色
Facebooks XR未來的另一個重要組成要素是可以混合數字和物理信息的技術眼鏡。但要做到這一點,它們首先需要在空間方面對物理世界進行分類,并在其中精確定位自己。在這樣的背景下,亞伯拉什展示了LiveMaps團隊的一個研究示例:
利用機器視覺和SLAM技術,LiveMaps可以創建共享的虛擬映射。為了實現這種規模的技術,這家公司設想LiveMaps將依靠未來智能設備捕獲的眾包信息。
亞伯拉什強調,盡管未來一片光明,但擺在我們面前的挑戰依然巨大。他承認,第二波HCI革命的拓荒之路相當漫長,尚需無數年,無數個十年,但這同時是它的魅力所在,而且不可避免,勢不可擋(You couldn’t argue about the inevitability, it was so obvious)。
完整的演講視頻如下:
原文鏈接:https://yivian.com/news/75812.html
來源:映維網 作者 流水原