www.久久久久|狼友网站av天堂|精品国产无码a片|一级av色欲av|91在线播放视频|亚洲无码主播在线|国产精品草久在线|明星AV网站在线|污污内射久久一区|婷婷综合视频网站

當前位置:首頁 > 汽車電子 > 汽車電子控制
[導讀]機器深度學習是近年來在人工智能領域的重大突破之一,它在語音識別、自然語言處理、計算機視覺等領域都取得了不少成功。由于車輛行駛環(huán)境復雜,當前感知技術在檢測與識別精度方面無法滿足無人駕駛發(fā)展需要,深度學習

機器深度學習是近年來在人工智能領域的重大突破之一,它在語音識別、自然語言處理、計算機視覺等領域都取得了不少成功。由于車輛行駛環(huán)境復雜,當前感知技術在檢測與識別精度方面無法滿足無人駕駛發(fā)展需要,深度學習被證明在復雜環(huán)境感知方面有巨大優(yōu)勢。

 

 

 

機器深度學習是近年來在人工智能領域的重大突破之一,它在語音識別、自然語言處理、計算機視覺等領域都取得了不少成功。而對于當前大熱的無人駕駛,深度學習可以帶來哪些突破性應用?

由于車輛行駛環(huán)境復雜,當前感知技術在檢測與識別精度方面無法滿足無人駕駛發(fā)展需要,深度學習被證明在復雜環(huán)境感知方面有巨大優(yōu)勢。

近日,針對這一話題,北京航空航天大學交通學院副教授余貴珍,在2016年中國汽車工程學會暨展覽會期間與廣大汽車專業(yè)人士分享了他對于深度學習在無人駕駛環(huán)境感知中應用的體會和心得。余貴珍的研究方向主要是智能交通和無人駕駛的感知和控制。

視覺感知是無人駕駛的核心技術

無人駕駛一般包括四個等級或者五個等級,不管哪個等級都會包含環(huán)境感知、規(guī)劃決策和執(zhí)行控制等三個方面。其中環(huán)境感知方式主要有視覺感知、毫米波雷達感知和激光雷達感知,其中的視覺感知是無人駕駛感知的最主要的方式。

最近炒得比較熱的特斯拉事件,一個是發(fā)生在美國,另外一個發(fā)生在中國,我想從技術的角度來談談。

在美國事件中,特斯拉車上的毫米波雷達因為安裝的位置較低,無法檢測卡車高的車廂,攝像頭應該能檢測到卡車了,我們知道特斯拉車輛是從遠到近的過程中,所以從這個角度一般能夠檢測到卡車的。但是最后融合起來的時候可能出現(xiàn)了問題,沒有檢測到卡車。

在中國發(fā)生的事故,由于前車突然變道,故障車輛離特斯拉比較近,都在視覺感知和雷達的盲區(qū),毫米波雷達由于前面角度的問題,無法掃描到近距離的側向車。另外由于故障車的部分出現(xiàn)在攝像頭中,視覺感知也沒有辦法檢測到,發(fā)生了特斯拉這種刮蹭事故。

所以從以上事故可以看出,視覺感知仍然需要完善。

而中國的路況較為復雜,雨天、霧霾天以及下雪天。另外,像馬車、吊車以及摩托車,還有摩托車拉豬、卡車拉樹的現(xiàn)象在我們生活中經(jīng)常遇到,這些場景對視覺是一個難題,提高這種復雜路況下的感知精度是無人駕駛研究的挑戰(zhàn)。 

深度學習能夠滿足復雜路況下視覺感知的高精度需求

深度學習被認為是一種有效的解決方案,深度學習是模擬人的大腦,是近10年來人工智能取得一個較大的突破。深度學習在視覺感知中近幾年應取得了較大的進展,相對于傳統(tǒng)的計算機視覺,深度學習在視覺感知精度方面有比較大的優(yōu)勢。

特別是2011年以后,有報導指出深度學習如果算法和樣本量足夠的話,其準確率可以達到99.9%以上,傳統(tǒng)的視覺算法檢測精度的極限在93%左右。而人的感知,也就是人能看到的準確率一般為95%,所以從這個方面看,深度學習在視覺感知方面是有優(yōu)勢的。

所謂深度學習,又名深度神經(jīng)網(wǎng)絡,相對于以前的神經(jīng)網(wǎng)絡來說是一種更多層和節(jié)點的神經(jīng)網(wǎng)絡機器學習算法,從這兒可以看出來,其實深度學習是一種機器學習,可以說是一種更智能的機器學習。深度學習主要類型一般包括5種類型,像CNN、RNN、LSTM、RBM和Autoencoder,其中我們主要的是用的CNN,CNN另外一個名字叫卷積神經(jīng)網(wǎng)絡。卷積神經(jīng)網(wǎng)絡已經(jīng)被證明在圖像處理中有很好的效果。

其中,自學特征是深度學習的最大優(yōu)勢。例如智能駕駛需要識別狗,在以前的算法中如果要識別狗,對狗的特征要用程序來詳細描述,深度學習這個地方如果采集到足夠的樣本,然后放在深度學習中訓練,訓練出來后的系統(tǒng)就可以識別這個狗。傳統(tǒng)的計算機的視覺算法需要手工提取特征,很多時候需要專家的知識,算法的魯棒性設計非常困難,很難保證魯棒性,我們做視覺感知的時候就遇到很多困難。另外如果要保證這個穩(wěn)定需要大量的調試,非常耗時。

 

 

深度學習一般包括四種類型的神經(jīng)網(wǎng)絡層,輸入層、卷積層、池化層、輸出層。網(wǎng)絡的結構可以10層甚至上百層,一般層數(shù)越多檢測精度會更精準。并且隨著網(wǎng)絡層數(shù)和節(jié)點數(shù)的增加,可以表達更細、更多的識別物的特征,這樣的話可以為檢測精度的提高打下基礎。

 

其中卷積層和池化層是深度學習的核心處理層。卷積層主要是用于負責物體特征的提取;池化層主要是負責采樣。比如簡單理解池化層,(就是一個數(shù)獨里面取一個最大值),這就是池化層。卷積層與池化層是深度學習兩個核心的層。

深度學習工作的原理,深度學習一般包括兩個方面,一個是訓練,一個是檢測,訓練一般主要是離線進行,就是把采集到的樣本輸入到訓練的網(wǎng)絡中。訓練網(wǎng)絡進行前向輸出,然后利用標定信息進行反饋,最后訓練出模型,這個模型導入到檢測的網(wǎng)絡中,檢測網(wǎng)絡就可以對輸入的視頻和圖像進行檢測和識別。通常情況下,樣本的數(shù)量越多,識別的精度一般也會越高,所以這個樣本的數(shù)量是影響深度學習精度重要的一個因素。

深度學習在無人駕駛感知上應用前景廣闊

一般的環(huán)境感知方面用到的深度學習會多一些,主要是視覺與毫米波雷達方面。在駕駛策略里面也會用到機器學習,但是我們一般叫做增強學習,用于駕駛策略的研究。在環(huán)境感知方面,深度學習可以在視覺感知、激光雷達感知,還有駕駛員狀態(tài)監(jiān)測等方面,甚至在攝像頭和毫米波雷達融合方面都具有優(yōu)勢。

在環(huán)境感知方面,我們在這方面做的重要工作就是前向視覺感知應用。大家知道前向視覺感知是作為無人駕駛很重要的一部分,我們嘗試深度學習在這方面一些應用。主要采用了單目攝像頭的方案,選用的模型是Faster R-CNN,在GPU TITAN 平臺上運行。目標檢測物主要包括車道線、車輛、行人、交通標識和自行車,目前車輛的樣本有3萬左右,行人樣本大概2萬左右,其他的樣本較少,大概1000—2000。從運行效果來看,識別精度、識別類型較以前開發(fā)的一些傳統(tǒng)的視覺算法,我們覺得有比較大的改善。

深度學習的優(yōu)勢之一,容易擴展目標物體類型。

 

例如,我們當初只有對車的樣本進行了學習,發(fā)現(xiàn)效果不錯,然后把人的樣本加進去,再把自行車的樣本加進去,效果都不錯,按照這個邏輯,你只要采集到樣本,放進網(wǎng)絡去訓練學習,然后就可以做出相應的檢測。如果學習樣本達到2000以上,就能有一個比較好的效果,樣本越多精度一般會越好的。

深度學習優(yōu)勢之二,能夠提高部分遮擋物體的識別精度。

 

例如在圖1中如果采用傳統(tǒng)的視覺算法,人在車輛前面,一般的車輛檢測比較困難。在圖2中,可以看到深度學習的檢測結果,紅色車的前面已經(jīng)有人和自行車,但是這個車輛仍然能夠被檢測到,采用深度學習能提高部分遮擋物體的識別精度。

深度學習優(yōu)勢之三,可以解決臨車道車輛部分出現(xiàn)視頻中的識別困難問題。

 

其中圖1是采用傳統(tǒng)的算法,右車道白色的車輛沒有被檢測出來。為什么沒有被檢測出來?我們知道一般的傳統(tǒng)算法主要是對車輛后部的車子進行檢測,對車輛側向的檢測并不好,離你最近的兩個車道臨近車輛其實對你也是一個危險物。如果能把左右車輛出現(xiàn)部分車輛能夠檢測出來,我覺得這個對視覺也是一個比較大的改善。前面講的特斯拉事故,就是說一個車停在路旁,前面的車突然轉道,刮蹭的事故中就是因為這個車輛離它太近,沒有檢測到故障車輛的原因。從圖2中可以看到我們用深度學習檢測的效果,右車道車輛只有部分在圖像中,這個車輛仍然能夠被檢測出來。所以我們感覺利用深度學習可以解決臨道車輛部分出現(xiàn)在視頻中識別困難的問題。

深度學習優(yōu)勢之四,可以減少光線變化對物體識別精度的影響。

 

圖1是晚上的識別效果,但是實際上我們整個訓練樣本中沒有晚上的車輛和行人。我們最后是把訓練之后的網(wǎng)絡,檢測晚上的視頻,效果不錯。圖2中可以看出,右邊樹蔭底下的幾個人,其實如果用肉眼看很難分別出來有幾個行人,但是使用深度學習,基本上能把行人都檢測出來了。以上就是我們在深度學習中的一些體會,不一定正確,因為我們只是做了一些粗淺的研究。更細的問題,如果大家有什么好的建議,或者發(fā)現(xiàn)有一些更新的東西我們可以一起來分享。

小結:

1,深度學習在無人駕駛視覺感知方面,相對于傳統(tǒng)的視覺算法,在精度、環(huán)境適應性和擴展性方面有一定的優(yōu)勢。前面看到的幾個,都是我們做的一些實踐的總結。

2,深度學習大家知道除了在視覺方面,在毫米波雷達、激光雷達甚至駕駛員識別方面,我們覺得也有廣闊的應用前景。特別是駕駛員狀態(tài)識別方面,我想提一下,因為最近特斯拉的一些事件都是駕駛員采用的無人駕駛狀態(tài),然后把手撒開方向盤,手沒有在方向盤上。如果我們有一種攝像頭可以檢測到這個駕駛員狀態(tài)的話,那么可以給駕駛員提醒,甚至說監(jiān)督駕駛員是不是把手放在方向盤上,這樣可以減少事故的發(fā)生。

3,我們這個PPT僅僅是探討了深度學習在視頻檢測中的一些粗淺的應用,距離工程化應用方面仍然還有很多的技術困難需要克服。

本站聲明: 本文章由作者或相關機構授權發(fā)布,目的在于傳遞更多信息,并不代表本站贊同其觀點,本站亦不保證或承諾內容真實性等。需要轉載請聯(lián)系該專欄作者,如若文章內容侵犯您的權益,請及時聯(lián)系本站刪除。
換一批
延伸閱讀

9月2日消息,不造車的華為或將催生出更大的獨角獸公司,隨著阿維塔和賽力斯的入局,華為引望愈發(fā)顯得引人矚目。

關鍵字: 阿維塔 塞力斯 華為

加利福尼亞州圣克拉拉縣2024年8月30日 /美通社/ -- 數(shù)字化轉型技術解決方案公司Trianz今天宣布,該公司與Amazon Web Services (AWS)簽訂了...

關鍵字: AWS AN BSP 數(shù)字化

倫敦2024年8月29日 /美通社/ -- 英國汽車技術公司SODA.Auto推出其旗艦產(chǎn)品SODA V,這是全球首款涵蓋汽車工程師從創(chuàng)意到認證的所有需求的工具,可用于創(chuàng)建軟件定義汽車。 SODA V工具的開發(fā)耗時1.5...

關鍵字: 汽車 人工智能 智能驅動 BSP

北京2024年8月28日 /美通社/ -- 越來越多用戶希望企業(yè)業(yè)務能7×24不間斷運行,同時企業(yè)卻面臨越來越多業(yè)務中斷的風險,如企業(yè)系統(tǒng)復雜性的增加,頻繁的功能更新和發(fā)布等。如何確保業(yè)務連續(xù)性,提升韌性,成...

關鍵字: 亞馬遜 解密 控制平面 BSP

8月30日消息,據(jù)媒體報道,騰訊和網(wǎng)易近期正在縮減他們對日本游戲市場的投資。

關鍵字: 騰訊 編碼器 CPU

8月28日消息,今天上午,2024中國國際大數(shù)據(jù)產(chǎn)業(yè)博覽會開幕式在貴陽舉行,華為董事、質量流程IT總裁陶景文發(fā)表了演講。

關鍵字: 華為 12nm EDA 半導體

8月28日消息,在2024中國國際大數(shù)據(jù)產(chǎn)業(yè)博覽會上,華為常務董事、華為云CEO張平安發(fā)表演講稱,數(shù)字世界的話語權最終是由生態(tài)的繁榮決定的。

關鍵字: 華為 12nm 手機 衛(wèi)星通信

要點: 有效應對環(huán)境變化,經(jīng)營業(yè)績穩(wěn)中有升 落實提質增效舉措,毛利潤率延續(xù)升勢 戰(zhàn)略布局成效顯著,戰(zhàn)新業(yè)務引領增長 以科技創(chuàng)新為引領,提升企業(yè)核心競爭力 堅持高質量發(fā)展策略,塑強核心競爭優(yōu)勢...

關鍵字: 通信 BSP 電信運營商 數(shù)字經(jīng)濟

北京2024年8月27日 /美通社/ -- 8月21日,由中央廣播電視總臺與中國電影電視技術學會聯(lián)合牽頭組建的NVI技術創(chuàng)新聯(lián)盟在BIRTV2024超高清全產(chǎn)業(yè)鏈發(fā)展研討會上宣布正式成立。 活動現(xiàn)場 NVI技術創(chuàng)新聯(lián)...

關鍵字: VI 傳輸協(xié)議 音頻 BSP

北京2024年8月27日 /美通社/ -- 在8月23日舉辦的2024年長三角生態(tài)綠色一體化發(fā)展示范區(qū)聯(lián)合招商會上,軟通動力信息技術(集團)股份有限公司(以下簡稱"軟通動力")與長三角投資(上海)有限...

關鍵字: BSP 信息技術
關閉
關閉