無人駕駛,暗潮洶涌。
從行業(yè)巨頭行動來看,他們正在抓緊一切機會拉開領跑優(yōu)勢。Autopilot正變成特斯拉的重中之重。
9月26日,特斯拉Version 10.0正式推送。與此同時,特斯拉Autopilot部門成立以來的第一起收購重組正在進行。
10月1日,外媒CNBC率先報道,特斯拉已經收購自動駕駛感知創(chuàng)業(yè)公司DeepScale。
大洋彼岸的中國,也有進展。自動駕駛初創(chuàng)公司小馬智行(Pony.ai)日前發(fā)布消息稱,小馬智行與廣汽集團通過在Aion LX車型正式量產上市前緊密合作,共同打造了全球首款基于該車型的L4級自動駕駛車輛。
據介紹,該款L4級車型將被應用于雙方的無人駕駛示范運營中,并面向公眾提供自動駕駛移動出行服務。這將L4級無人駕駛應用向前推進了一大步。
L4級的無人駕駛車輛能干什么?小馬智行和Deepscale的感知深度融合優(yōu)勢體現在哪兒?當前無人駕駛領域到底是怎樣一種競爭態(tài)勢?本文將進行解讀。
(本文共2600字,閱讀約需要10分鐘)
L4級,從概念到落地
汽車行業(yè)內是有兩套關于智能駕駛分級的標準的,目前主流的方法是根據智能汽車上可實現功能的差異對車輛進行智能化的分級定義,通常分為4到6級。
如根據2016年美國汽車工程師學會(SAE)的分類,無人駕駛自動化的程度可以分為六個階段,從L1到L5進步的順序依次體現在操作執(zhí)行、環(huán)境監(jiān)控、動態(tài)監(jiān)視任務和行駛情景。其中,L0級是無任何自動化功能;L1輔助駕駛;L2部分自動駕駛;L3有條件自動;L4高度自動駕駛;L5完全自動駕駛,即真正的無人駕駛。
目前全球基本只處在無人駕駛L2到L3的水平。比如L3級別的奧迪A8 、寶馬5系等等已量產。
L4級別,作為概念被很多無人駕駛企業(yè)提出過,但一直被視為離量產還有距離。
因為根據L4的分級,已經達到了超高度自動駕駛的程度,也稱為高度自動化。這個級別的自動駕駛汽車可以自主地完成對車輛的操控,對周邊復雜環(huán)境地監(jiān)測和判斷,具有更高程度的人的意識,可以自主應對絕大部分的路面情況。
在2018年11月1日百度世界大會上,百度與一汽共同發(fā)布L4級別無人駕駛乘用車。按照計劃,2019年底實現小批量量產,2020年大批量投產,首批開放城市將會有北京、長春、海南等。
同時,滴滴在L4級無人駕駛應用也進行了部署。通過有3個激光雷達和7個攝像頭,中間層設有7個攝像頭,以覆蓋車周360度的區(qū)域,滴滴測試車以圖像數據來感知周圍障礙物的信息,根據路線給車輛底層的線控系統(tǒng)發(fā)送控制指令,比如油門、剎車、轉向信息,從而控制車輛,實現L4級別的自動駕駛。
2019世界人工智能大會在上海舉行,滴滴創(chuàng)始人、CEO程維在會上提出,“無人駕駛一定可以指數級降低交通事故發(fā)生,會盡快推動自動駕駛載人測試在上海落地”。目前,滴滴在上海已取得自動駕駛路測牌照。
深度融合方案的競爭
其實,當前L4級別量產車的推出也和工信部的規(guī)劃相匹配。
根據2018年12月工信部印發(fā)了車聯(lián)網產業(yè)發(fā)展行動計劃:至2020年,車聯(lián)網用戶滲透率達到30%以上,新車駕駛輔助系統(tǒng)(L2)搭載率達到30%以上,聯(lián)網車載信息服務終端的新車裝配率達到60%以上。具備高級別自動駕駛功能的智能網聯(lián)汽車實現特定場景規(guī)模應用L3級集成技術水平大幅提升。
L4級別車輛出現,對下一步的高度自動化駕駛的落地,起到了極大的支撐作用。
同廣汽集團在Aion LX車型上實現L4級別無人駕駛,背后是小馬智行的技術沉淀。經過多環(huán)境多工況的道路測試和數據積累,人工智能在軟硬件優(yōu)化上的突破,小馬智行完成了一次又一次的系統(tǒng)整體優(yōu)化,持續(xù)降低資源占用,更好地支持復雜的深度學習模型。
PonyAlpha還有更優(yōu)化的硬件平臺:激光雷達、攝像頭、毫米波雷達等傳感器擁有一體化的適配方式,大大提升集成度和可靠性?;谛●R智行的多傳感器深度融合技術,搭配PonyAlpha方案的車輛能夠根據不同的路況和駕駛場景智能地得到精準的感知數據。
確實,多傳感器融合目前看來已經成了通往自動駕駛的必由之路,更多的傳感器數據往往也意味著更高的安全性。
但數據融合并不是一件簡單的事,目前的競爭也圍繞在了對于數據融合解決方案的競爭上。
我們將目光轉回在剛被特斯拉收購的Deepscale。
DeepScale是硅谷一家專注于自動駕駛感知技術的公司。公司CEO Forrest Iandola接受國內科技媒體雷鋒網的采訪時表示,他們能將深度學習同時用于攝像頭以外的傳感器數據上,如雷達與激光雷達,并在較為廉價的嵌入式設備上提供感知解決方案。
Forrest表示,其多傳感器融合方案的優(yōu)勢,一是體現在物體檢測的準確性上,二是跨傳感器的可移植性(Portability)上。
多傳感器融合分為兩塊,第一塊是傳感器同步技術,第二塊是基于融合數據開發(fā)的算法。
簡單的傳感器融合,不外乎就是每個傳感器的數據能大致在空間跟時間上能得到對齊。而整個多傳感器融合技術的核心就在于高精度的時間以及空間同步。
精度到什么量級呢?舉個例子,比如時間上能得到10的-6次方,空間上能得到在一百米外3到5厘米的誤差,這是一個典型的技術指標。當然,多傳感器同步技術的難度與時間和空間的要求是一個指數級的增加。在百米外能得到3cm的空間精度,換算成角度是0.015度左右。
在無人駕駛當中,毫米波雷達、相機、激光雷達和超聲波都是完全不同的傳感器,讓他們在時域跟空域上得到這樣的精度是非常難的,需要對機器人技術以及機器學習優(yōu)化技術有非常深的理解。
所以,多傳感器深度融合技術,極具優(yōu)勢的解決方案,成為能夠決定無人駕駛公司是否能夠跑出來的關鍵。
在L4曙光已到,L5尚未來臨之前,技術和方案的不斷優(yōu)化,仍將成為無人駕駛領域的常態(tài)。
來源:搜狐