然后,在瀏覽器中的谷歌搜索中輸入你想搜索的動物,例如 “貓”(中英文皆可),在圖片搜索結果和 Wikipedia 對貓的描述下面就會出現“以 3D 模式查看(View in 3D)” 的按鈕,此時開啟 iphone 相機用以掃描地面,在你的相機視野之內就會出現一只 3D 貓。而且這只動物還可以呈現出適配真實環境的大小,因此你不會覺得太有違和感。
當你拍小視頻回看的時候,還能看到這些動物動起來。
圖丨推特網友稱自己擁有了兩只狗(來源:Gary Taphouse)
根據外媒統計,Google 3D 動物已經包括以下 24 種動物:鱷魚、琵琶魚、棕熊、貓、獵豹、狗、鴨、鷹、帝企鵝、山羊、刺猬、馬、獅子、金剛鸚鵡、章魚、哈巴狗、大熊貓、羅威納犬、鯊魚、小馬、蛇、虎、龜、狼。
“AR”一詞最早是在 1990 年創造的,最初是用于電視產業和軍事目的的技術。隨著互聯網的發展,AR 和 VR 技術得到了極大的改進,但是直到智能手機的發明和普及,諸如谷歌 3D 動物之類的實現成為現實。現在,大多數智能手機都能夠將 3D 模型實時投影到物理物體上,尤其是通過 AR 應用程序。而這次 AR 搜索功能早在 2019 年的 I/O 大會上就已發布。
圖丨去年谷歌 I/O 大會上亮相的 3D 動物功能(來源:谷歌)
當時,谷歌宣稱,ARCore 和 ARKit 手機用戶用谷歌搜索引擎搜索動物的時候,會收到開啟動物 3D 模型的邀請,接受之后便能以 AR 的形式將動物模型疊加在真實空間中。
副總裁 Aparna Chennapragada 如此介紹這項最新視覺技術:由于整合攝像頭和 AR 技術,因此可以強化谷歌搜索結果的互動性和實用性。
其背后的原理是直接在 ARCore 和 ARKit 手機上搜索結果中加入 3D 模型,而這些 3D 模型將直接能 AR 預覽,玩法和去年 WWDC 上的 USDZ 文件格式與 AR 預覽類似,只是谷歌將 3D 文件直接嵌入到搜索結果頁面。
無論你搜索的是人體骨骼,一雙鞋,還是一條鯊魚,都沒問題,只要谷歌制作了 3D 模型,就可以通過攝像頭,展示在現實場景中,供用戶查看效果。它們不僅可以活動,還能夠接受放大、縮小、運動和轉移等操作指令。
根據公開報道,去年 12 月,谷歌宣布為 ARCore 開發平臺推出全新深度識別工具 Depth API。該工具可讓開發者使用谷歌的動態深度算法、RGB 攝像頭制作深度地圖,以開發更自然、交互感更強的 AR 應用。據悉,Depth API 的使用方法非常簡單,用戶只需從多個角度拍攝多張照片,即可實現對環境深度的預測。Depth API 實現的另一項重要功能是遮擋:虛擬物體能夠準確地出現在現實物體的之前或者之后,數字對象與場景真正融合在一起。此前沒有遮擋功能,虛擬物體容易“橫空出世”,更像是現實世界中的“貼圖”,讓人瞬間出戲。
這項技術的原理在于,Depth API 可以進行更深的檢測和理解,手機可以更清楚地知道每個場景下每個物體之間的距離和位置等信息。在此之前,手機要獲得深度圖像,通常需要雙攝像頭或 ToF 傳感器。ToF(Time of Flight,飛行時間)是一種深度信息測量方案,原理是投射器向外投射紅外光,紅外光遇到被測物體后反射,并被接收模組接收,通過記錄紅外光從發射到被接收的時間,計算出被照物體深度信息。
在 Depth API 的支持下,手機在僅有單顆攝像頭的情況下就可以實現自動捕捉并估量手機與周圍環境之間的距離。