在今年5月份Google I/O開發(fā)者大會上,全新的幾個Google Lens功能讓人眼前一亮,包括餐廳菜單智能星標顯示,餐廳小票拍攝實時計費,AR實時翻譯等等。當然,對于大多數(shù)人、應(yīng)用場景最多應(yīng)該還是AR實時翻譯(也可以理解為AR物體識別),其不僅可以識別文字進行翻譯,還可以進行物體識別,識別出各種物品等。
近期,國外一名開發(fā)小哥@Phasedragon發(fā)布了一段視頻,他將Google Lens的一些功能與VR結(jié)合,從而可以識別VR環(huán)境中各個場景中的語言進行翻譯。據(jù)悉,該功能利用了VR環(huán)境中的Sparkocam虛擬攝像頭(和此前VR自拍應(yīng)用類似),并結(jié)合一個安卓模擬器運行Google搜素(Google Lens功能基于次應(yīng)用),然后將兩者結(jié)合實現(xiàn)。
開發(fā)小哥稱,他此前還嘗試了微軟翻譯應(yīng)用,但由于兼容問題導(dǎo)致他最終選擇Google Lens。
從應(yīng)用角度來看,這個功能的難點在圖像識別能力,只不過是從以前手機拍照到VR中虛擬場景的一部分。而這個功能對于眾多的VR社交應(yīng)用來講,具有強大的潛力,一方面是提升多語言用戶支撐,另一方面VR應(yīng)用也有望在玩法上帶來一些突破。