www.久久久久|狼友网站av天堂|精品国产无码a片|一级av色欲av|91在线播放视频|亚洲无码主播在线|国产精品草久在线|明星AV网站在线|污污内射久久一区|婷婷综合视频网站

當(dāng)前位置:首頁(yè) > 智能硬件 > 人工智能AI
[導(dǎo)讀] 今天我們重點(diǎn)探討一下多層感知器MLP。  感知器(Perceptron)是ANN人工神經(jīng)網(wǎng)絡(luò)的一個(gè)概念,由Frank Rosenblatt于1950s第一次引入。 單層

今天我們重點(diǎn)探討一下多層感知器MLP。 

感知器(Perceptron)是ANN人工神經(jīng)網(wǎng)絡(luò)的一個(gè)概念,由Frank Rosenblatt于1950s第一次引入。

單層感知器(Single Layer Perceptron)是最簡(jiǎn)單的ANN人工神經(jīng)網(wǎng)絡(luò)。它包含輸入層和輸出層,而輸入層和輸出層是直接相連的。單層感知器僅能處理線性問題,不能處理非線性問題。今天想要跟大家探討的是MLP多層感知器。

MLP多層感知器是一種前向結(jié)構(gòu)的ANN人工神經(jīng)網(wǎng)絡(luò), 多層感知器(MLP)能夠處理非線性可分離的問題。

MLP概念:

MLP多層感知器(MulTI-layerPerceptron)是一種前向結(jié)構(gòu)的人工神經(jīng)網(wǎng)絡(luò)ANN,映射一組輸入向量到一組輸出向量。MLP可以被看做是一個(gè)有向圖,由多個(gè)節(jié)點(diǎn)層組成,每一層全連接到下一層。除了輸入節(jié)點(diǎn),每個(gè)節(jié)點(diǎn)都是一個(gè)帶有非線性激活函數(shù)的神經(jīng)元。使用BP反向傳播算法的監(jiān)督學(xué)習(xí)方法來訓(xùn)練MLP。MLP是感知器的推廣,克服了感知器不能對(duì)線性不可分?jǐn)?shù)據(jù)進(jìn)行識(shí)別的弱點(diǎn)。

相對(duì)于單層感知器,MLP多層感知器輸出端從一個(gè)變到了多個(gè);輸入端和輸出端之間也不光只有一層,現(xiàn)在又兩層:輸出層和隱藏層。

基于反向傳播學(xué)習(xí)的是典型的前饋網(wǎng)絡(luò), 其信息處理方向從輸入層到各隱層再到輸出層,逐層進(jìn)行。隱層實(shí)現(xiàn)對(duì)輸入空間的非線性映射,輸出層實(shí)現(xiàn)線性分類,非線性映射方式和線性判別函數(shù)可以同時(shí)學(xué)習(xí)。

MLP激活函數(shù)

MLP可使用任何形式的激活函數(shù),譬如階梯函數(shù)或邏輯乙形函數(shù)(logisTIc sigmoid funcTIon),但為了使用反向傳播算法進(jìn)行有效學(xué)習(xí),激活函數(shù)必須限制為可微函數(shù)。由于具有良好可微性,很多乙形函數(shù),尤其是雙曲正切函數(shù)(Hyperbolictangent)及邏輯乙形函數(shù),被采用為激活函數(shù)。

激活函數(shù)的作用是將非線性引入神經(jīng)元的輸出。因?yàn)榇蠖鄶?shù)現(xiàn)實(shí)世界的數(shù)據(jù)都是非線性的,希望神經(jīng)元能夠?qū)W習(xí)非線性的函數(shù)表示,所以這種應(yīng)用至關(guān)重要。

MLP原理:

前饋神經(jīng)網(wǎng)絡(luò)是最先發(fā)明也是最簡(jiǎn)單的人工神經(jīng)網(wǎng)絡(luò)。它包含了安排在多個(gè)層中的多個(gè)神經(jīng)元。相鄰層的節(jié)點(diǎn)有連接或者邊(edge)。所有的連接都配有權(quán)重。

一個(gè)前饋神經(jīng)網(wǎng)絡(luò)可以包含三種節(jié)點(diǎn):

1)輸入節(jié)點(diǎn)(Input Nodes):也稱為輸入層,輸入節(jié)點(diǎn)從外部世界提供信息,。在輸入節(jié)點(diǎn)中,不進(jìn)行任何的計(jì)算,僅向隱藏節(jié)點(diǎn)傳遞信息。

2)隱藏節(jié)點(diǎn)(Hidden Nodes):隱藏節(jié)點(diǎn)和外部世界沒有直接聯(lián)系。這些節(jié)點(diǎn)進(jìn)行計(jì)算,并將信息從輸入節(jié)點(diǎn)傳遞到輸出節(jié)點(diǎn)。隱藏節(jié)點(diǎn)也稱為隱藏層。盡管一個(gè)前饋神經(jīng)網(wǎng)絡(luò)只有一個(gè)輸入層和一個(gè)輸出層,但網(wǎng)絡(luò)里可以沒有也可以有多個(gè)隱藏層。

3)輸出節(jié)點(diǎn)(Output Nodes):輸出節(jié)點(diǎn)也稱為輸出層,負(fù)責(zé)計(jì)算,并從網(wǎng)絡(luò)向外部世界傳遞信息。

在前饋網(wǎng)絡(luò)中,信息只單向移動(dòng)——從輸入層開始前向移動(dòng),然后通過隱藏層,再到輸出層。在網(wǎng)絡(luò)中沒有循環(huán)或回路。

MLP多層感知器就是前饋神經(jīng)網(wǎng)絡(luò)的一個(gè)例子,除了一個(gè)輸入層和一個(gè)輸出層以外,至少包含有一個(gè)隱藏層。單層感知器只能學(xué)習(xí)線性函數(shù),而多層感知器也可以學(xué)習(xí)非線性函數(shù)。

一般采用BP反向傳播算法來訓(xùn)練MPL多層感知器。采用BP反向傳播算法就像從錯(cuò)誤中學(xué)習(xí)。監(jiān)督者在人工神經(jīng)網(wǎng)絡(luò)犯錯(cuò)誤時(shí)進(jìn)行糾正。MLP包含多層節(jié)點(diǎn);輸入層,中間隱藏層和輸出層。相鄰層節(jié)點(diǎn)的連接都有配有權(quán)重。學(xué)習(xí)的目的是為這些邊緣分配正確的權(quán)重。通過輸入向量,這些權(quán)重可以決定輸出向量。在監(jiān)督學(xué)習(xí)中,訓(xùn)練集是已標(biāo)注的。這意味著對(duì)于一些給定的輸入,能夠知道期望的輸出(標(biāo)注)。

MLP訓(xùn)練過程大致如下:

1)所有邊的權(quán)重隨機(jī)分配;

2)前向傳播:利用訓(xùn)練集中所有樣本的輸入特征,作為輸入層,對(duì)于所有訓(xùn)練數(shù)據(jù)集中的輸入,人工神經(jīng)網(wǎng)絡(luò)都被激活,然后經(jīng)過前向傳播,得到輸出值。

3)反向傳播:利用輸出值和樣本值計(jì)算總誤差,再利用反向傳播來更新權(quán)重。

4)重復(fù)2)~3), 直到輸出誤差低于制定的標(biāo)準(zhǔn)。

上述過程結(jié)束后,就得到了一個(gè)學(xué)習(xí)過的MLP網(wǎng)絡(luò),該網(wǎng)絡(luò)被認(rèn)為是可以接受新輸入的。

MLP優(yōu)點(diǎn):

1)高度的并行處理;

2)高度的非線性全局作用;

3)良好的容錯(cuò)性;

4)具有聯(lián)想記憶功能;

5)非常強(qiáng)的自適應(yīng)、自學(xué)習(xí)功能。

MLP缺點(diǎn):

1)網(wǎng)絡(luò)的隱含節(jié)點(diǎn)個(gè)數(shù)選取非常難;

2)停止閾值、學(xué)習(xí)率、動(dòng)量常數(shù)需要采用”trial-and-error”法,極其耗時(shí);

3)學(xué)習(xí)速度慢;

4)容易陷入局部極值;

5)學(xué)習(xí)可能會(huì)不夠充分。

MLP應(yīng)用:

MLP在80年代的時(shí)候曾是相當(dāng)流行的機(jī)器學(xué)習(xí)方法,擁有廣泛的應(yīng)用場(chǎng)景,譬如語(yǔ)音識(shí)別、圖像識(shí)別、機(jī)器翻譯等等,但自90年代以來,MLP遇到來自更為簡(jiǎn)單的支持向量機(jī)的強(qiáng)勁競(jìng)爭(zhēng)。近來,由于深層學(xué)習(xí)的成功,MLP又重新得到了關(guān)注。

常被MLP用來進(jìn)行學(xué)習(xí)的反向傳播算法,在模式識(shí)別的領(lǐng)域中算是標(biāo)準(zhǔn)監(jiān)督學(xué)習(xí)算法,并在計(jì)算神經(jīng)學(xué)及并行分布式處理領(lǐng)域中,持續(xù)成為被研究的課題。MLP已被證明是一種通用的函數(shù)近似方法,可以被用來擬合復(fù)雜的函數(shù),或解決分類問題。

結(jié)語(yǔ):

MLP多層感知器是一種前向結(jié)構(gòu)的ANN人工神經(jīng)網(wǎng)絡(luò), 它能夠處理非線性可分離的問題,值得深入研究。為了實(shí)現(xiàn)MLP多層感知器,會(huì)用到BP反向傳播算法。MLP可使用任何形式的激活函數(shù),但為了使用反向傳播算法進(jìn)行有效學(xué)習(xí),激活函數(shù)必須限制為可微函數(shù)。MLP算法應(yīng)用范圍較廣,擴(kuò)展性也強(qiáng),可應(yīng)用于語(yǔ)音識(shí)別、圖像識(shí)別、機(jī)器翻譯等領(lǐng)域。

本站聲明: 本文章由作者或相關(guān)機(jī)構(gòu)授權(quán)發(fā)布,目的在于傳遞更多信息,并不代表本站贊同其觀點(diǎn),本站亦不保證或承諾內(nèi)容真實(shí)性等。需要轉(zhuǎn)載請(qǐng)聯(lián)系該專欄作者,如若文章內(nèi)容侵犯您的權(quán)益,請(qǐng)及時(shí)聯(lián)系本站刪除。
換一批
延伸閱讀

9月2日消息,不造車的華為或?qū)⒋呱龈蟮莫?dú)角獸公司,隨著阿維塔和賽力斯的入局,華為引望愈發(fā)顯得引人矚目。

關(guān)鍵字: 阿維塔 塞力斯 華為

倫敦2024年8月29日 /美通社/ -- 英國(guó)汽車技術(shù)公司SODA.Auto推出其旗艦產(chǎn)品SODA V,這是全球首款涵蓋汽車工程師從創(chuàng)意到認(rèn)證的所有需求的工具,可用于創(chuàng)建軟件定義汽車。 SODA V工具的開發(fā)耗時(shí)1.5...

關(guān)鍵字: 汽車 人工智能 智能驅(qū)動(dòng) BSP

北京2024年8月28日 /美通社/ -- 越來越多用戶希望企業(yè)業(yè)務(wù)能7×24不間斷運(yùn)行,同時(shí)企業(yè)卻面臨越來越多業(yè)務(wù)中斷的風(fēng)險(xiǎn),如企業(yè)系統(tǒng)復(fù)雜性的增加,頻繁的功能更新和發(fā)布等。如何確保業(yè)務(wù)連續(xù)性,提升韌性,成...

關(guān)鍵字: 亞馬遜 解密 控制平面 BSP

8月30日消息,據(jù)媒體報(bào)道,騰訊和網(wǎng)易近期正在縮減他們對(duì)日本游戲市場(chǎng)的投資。

關(guān)鍵字: 騰訊 編碼器 CPU

8月28日消息,今天上午,2024中國(guó)國(guó)際大數(shù)據(jù)產(chǎn)業(yè)博覽會(huì)開幕式在貴陽(yáng)舉行,華為董事、質(zhì)量流程IT總裁陶景文發(fā)表了演講。

關(guān)鍵字: 華為 12nm EDA 半導(dǎo)體

8月28日消息,在2024中國(guó)國(guó)際大數(shù)據(jù)產(chǎn)業(yè)博覽會(huì)上,華為常務(wù)董事、華為云CEO張平安發(fā)表演講稱,數(shù)字世界的話語(yǔ)權(quán)最終是由生態(tài)的繁榮決定的。

關(guān)鍵字: 華為 12nm 手機(jī) 衛(wèi)星通信

要點(diǎn): 有效應(yīng)對(duì)環(huán)境變化,經(jīng)營(yíng)業(yè)績(jī)穩(wěn)中有升 落實(shí)提質(zhì)增效舉措,毛利潤(rùn)率延續(xù)升勢(shì) 戰(zhàn)略布局成效顯著,戰(zhàn)新業(yè)務(wù)引領(lǐng)增長(zhǎng) 以科技創(chuàng)新為引領(lǐng),提升企業(yè)核心競(jìng)爭(zhēng)力 堅(jiān)持高質(zhì)量發(fā)展策略,塑強(qiáng)核心競(jìng)爭(zhēng)優(yōu)勢(shì)...

關(guān)鍵字: 通信 BSP 電信運(yùn)營(yíng)商 數(shù)字經(jīng)濟(jì)

北京2024年8月27日 /美通社/ -- 8月21日,由中央廣播電視總臺(tái)與中國(guó)電影電視技術(shù)學(xué)會(huì)聯(lián)合牽頭組建的NVI技術(shù)創(chuàng)新聯(lián)盟在BIRTV2024超高清全產(chǎn)業(yè)鏈發(fā)展研討會(huì)上宣布正式成立。 活動(dòng)現(xiàn)場(chǎng) NVI技術(shù)創(chuàng)新聯(lián)...

關(guān)鍵字: VI 傳輸協(xié)議 音頻 BSP

北京2024年8月27日 /美通社/ -- 在8月23日舉辦的2024年長(zhǎng)三角生態(tài)綠色一體化發(fā)展示范區(qū)聯(lián)合招商會(huì)上,軟通動(dòng)力信息技術(shù)(集團(tuán))股份有限公司(以下簡(jiǎn)稱"軟通動(dòng)力")與長(zhǎng)三角投資(上海)有限...

關(guān)鍵字: BSP 信息技術(shù)
關(guān)閉
關(guān)閉