【Apple或將在iPhone中加入紅外熱成像 以提升AR準確性】未來的iPhone可能會使用熱成像或紅外成像來補充常規視覺鏡頭,使我們在黑暗或繁忙的環境中更容易使用AppleAR。Apple一項名為"用於確定至少一個與真實環境一部分相關的屬性方法和系統"的新專利已經曝光。

在這份專利當中,Apple Watch示,涉及圖像分析的計算機視覺方法經常被用於導航、物體識別、3D重建、相機姿勢估計和增強現實應用中,但是在至少有一個真實物體在移動的動態環境中使用相機姿勢估計、物體識別、物體跟蹤、同步定位和跟蹤(SLAM)或結構-運動(SfM)演算法時,演算法的精度往往會大大降低,儘管在實際演算法中採用了強大的優化技術,但還是經常出現跟蹤失敗。很明顯,由此產生的問題是,AR在試圖將虛擬物體定位在真實環境中時,會出錯。Apple Watch示,其實問題還在於更深層次的地方,所以解決方案也必須如此。

這是因為各種這樣的計算機視覺演算法都假設了一個靜態的環境,場景中唯一移動的物體就是鏡頭本身,而鏡頭的姿勢可能會被追蹤。這個假設常常被打破,因為在許多場景中,各種移動的物體都可能出現在相機的觀察範圍內。因此,任何AR系統都會擁有關於自身的所有可能的定位細節,它們來自於頭顯或者頭顯上的鏡頭,但追蹤其他一切都很睏難。而之所以困難,是由於包括數據處理在內的一系列問題引發。

在目前的技術水平中,存在許多用於檢測和分割場景中動態(即移動)物體的演算法,然而,這種方法通常計算成本很高,並且依賴於運動分割和/或光流技術。Apple的解決方案是用依靠熱成像或紅外線的鏡頭來增強AR視覺鏡頭,可以使用場景中真實物體的熱屬性,以提高計算機視覺演算法的準確性。另外,熱成像的使用意味著AppleAR不會那麼依賴在光線完全充足的情況下使用。

LINE it!
回頁頂