www.久久久久|狼友网站av天堂|精品国产无码a片|一级av色欲av|91在线播放视频|亚洲无码主播在线|国产精品草久在线|明星AV网站在线|污污内射久久一区|婷婷综合视频网站

當(dāng)前位置:首頁(yè) > 公眾號(hào)精選 > AI科技大本營(yíng)
[導(dǎo)讀]作者|泳魚來源|算法進(jìn)階神經(jīng)網(wǎng)絡(luò)(深度學(xué)習(xí))學(xué)習(xí)到的是什么?一個(gè)含糊的回答是,學(xué)習(xí)到的是數(shù)據(jù)的本質(zhì)規(guī)律。但具體這本質(zhì)規(guī)律究竟是什么呢?要回答這個(gè)問題,我們可以從神經(jīng)網(wǎng)絡(luò)的原理開始了解。一、神經(jīng)網(wǎng)絡(luò)的原理神經(jīng)網(wǎng)絡(luò)學(xué)習(xí)就是一種特征的表示學(xué)習(xí),把原始數(shù)據(jù)通過一些簡(jiǎn)單非線性的轉(zhuǎn)換成為更高...

神經(jīng)網(wǎng)絡(luò)學(xué)習(xí)到的是什么?(Python)作者|泳魚來源|算法進(jìn)階神經(jīng)網(wǎng)絡(luò)(深度學(xué)習(xí))學(xué)習(xí)到的是什么?一個(gè)含糊的回答是,學(xué)習(xí)到的是數(shù)據(jù)的本質(zhì)規(guī)律。但具體這本質(zhì)規(guī)律究竟是什么呢?要回答這個(gè)問題,我們可以從神經(jīng)網(wǎng)絡(luò)的原理開始了解。

一、 神經(jīng)網(wǎng)絡(luò)的原理

神經(jīng)網(wǎng)絡(luò)學(xué)習(xí)就是一種特征的表示學(xué)習(xí),把原始數(shù)據(jù)通過一些簡(jiǎn)單非線性的轉(zhuǎn)換成為更高層次的、更加抽象的特征表達(dá)。深度網(wǎng)絡(luò)層功能類似于“生成特征”,而寬度層類似于“記憶特征”,增加網(wǎng)絡(luò)深度可以獲得更抽象、高層次的特征,增加網(wǎng)絡(luò)寬度可以交互出更豐富的特征。通過足夠多的轉(zhuǎn)換組合的特征,非常復(fù)雜的函數(shù)也可以被模型學(xué)習(xí)好。神經(jīng)網(wǎng)絡(luò)學(xué)習(xí)到的是什么?(Python)


可見神經(jīng)網(wǎng)絡(luò)學(xué)習(xí)的核心是,學(xué)習(xí)合適權(quán)重參數(shù)以對(duì)數(shù)據(jù)進(jìn)行非線性轉(zhuǎn)換,以提取關(guān)鍵特征或者決策。即模型參數(shù)控制著特征加工方法及決策。了解了神經(jīng)網(wǎng)絡(luò)的原理,我們可以結(jié)合如下項(xiàng)目示例,看下具體的學(xué)習(xí)的權(quán)重參數(shù),以及如何參與抽象特征生成與決策。

二、神經(jīng)網(wǎng)絡(luò)的學(xué)習(xí)內(nèi)容

2.1 簡(jiǎn)單的線性模型的學(xué)習(xí)

我們先從簡(jiǎn)單的模型入手,分析其學(xué)習(xí)的內(nèi)容。像線性回歸、邏輯回歸可以視為單層的神經(jīng)網(wǎng)絡(luò),它們都是廣義的線性模型,可以學(xué)習(xí)輸入特征到目標(biāo)值的線性映射規(guī)律。如下代碼示例,以線性回歸模型學(xué)習(xí)波士頓各城鎮(zhèn)特征與房?jī)r(jià)的關(guān)系,并作出房?jī)r(jià)預(yù)測(cè)。數(shù)據(jù)是波士頓房?jī)r(jià)數(shù)據(jù)集,它是統(tǒng)計(jì)20世紀(jì)70年代中期波士頓郊區(qū)房?jī)r(jià)情況,有當(dāng)時(shí)城鎮(zhèn)的犯罪率、房產(chǎn)稅等共計(jì)13個(gè)指標(biāo)以及對(duì)應(yīng)的房?jī)r(jià)中位數(shù)。神經(jīng)網(wǎng)絡(luò)學(xué)習(xí)到的是什么?(Python)


import pandas as pd
import numpy as np
from keras.datasets import boston_housing #導(dǎo)入波士頓房?jī)r(jià)數(shù)據(jù)集


(train_x, train_y), (test_x, test_y) = boston_housing.load_data()

from keras.layers import *
from keras.models import Sequential, Model
from tensorflow import random
from sklearn.metrics import  mean_squared_error

np.random.seed(0) # 隨機(jī)種子
random.set_seed(0)

# 單層線性層的網(wǎng)絡(luò)結(jié)構(gòu)(也就是線性回歸):無隱藏層,由于是數(shù)值回歸預(yù)測(cè),輸出層沒有用激活函數(shù);
model = Sequential()
model.add(Dense(1,use_bias=False))


model.compile(optimizer='adam', loss='mse') # 回歸預(yù)測(cè)損失mse


model.fit(train_x, train_y, epochs=1000,verbose=False) # 訓(xùn)練模型
model.summary()

pred_y = model.predict(test_x)[:,0]

print("正確標(biāo)簽:",test_y)
print("模型預(yù)測(cè):",pred_y )

print("實(shí)際與預(yù)測(cè)值的差異:",mean_squared_error(test_y,pred_y ))
通過線性回歸模型學(xué)習(xí)訓(xùn)練集,輸出測(cè)試集預(yù)測(cè)結(jié)果如下:神經(jīng)網(wǎng)絡(luò)學(xué)習(xí)到的是什么?(Python)



分析預(yù)測(cè)的效果,用上面數(shù)值體現(xiàn)不太直觀,如下畫出實(shí)際值與預(yù)測(cè)值的曲線,可見,整體模型預(yù)測(cè)值與實(shí)際值的差異還是比較小的(模型擬合較好)。#繪圖表示
import matplotlib.pyplot as plt

plt.rcParams['font.sans-serif'] = ['SimHei']
plt.rcParams['axes.unicode_minus'] = False

# 設(shè)置圖形大小
plt.figure(figsize=(8, 4), dpi=80)
plt.plot(range(len(test_y)), test_y, ls='-.',lw=2,c='r',label='真實(shí)值')
plt.plot(range(len(pred_y)), pred_y, ls='-',lw=2,c='b',label='預(yù)測(cè)值')

# 繪制網(wǎng)格
plt.grid(alpha=0.4, linestyle=':')
plt.legend()
plt.xlabel('number') #設(shè)置x軸的標(biāo)簽文本
plt.ylabel('房?jī)r(jià)') #設(shè)置y軸的標(biāo)簽文本

# 展示
plt.show()
神經(jīng)網(wǎng)絡(luò)學(xué)習(xí)到的是什么?(Python)回到正題,我們的單層神經(jīng)網(wǎng)絡(luò)模型(線性回歸),在數(shù)據(jù)(波士頓房?jī)r(jià))、優(yōu)化目標(biāo)(最小化預(yù)測(cè)誤差mse)、優(yōu)化算法(梯度下降)的共同配合下,從數(shù)據(jù)中學(xué)到了什么呢?我們可以很簡(jiǎn)單地用決策函數(shù)的數(shù)學(xué)式來概括我們學(xué)習(xí)到的線性回歸模型,預(yù)測(cè)y=w1x1 w2x2 wn*xn。通過提取當(dāng)前線性回歸模型最終學(xué)習(xí)到的參數(shù):神經(jīng)網(wǎng)絡(luò)學(xué)習(xí)到的是什么?(Python)


將參數(shù)與對(duì)應(yīng)輸入特征組合一下,我們忙前忙后訓(xùn)練模型學(xué)到內(nèi)容也就是——權(quán)重參數(shù),它可以對(duì)輸入特征進(jìn)行加權(quán)求和輸出預(yù)測(cè)值決策。小結(jié):?jiǎn)螌由窠?jīng)網(wǎng)絡(luò)學(xué)習(xí)到各輸入特征所合適的權(quán)重值,根據(jù)權(quán)重值對(duì)輸入特征進(jìn)行加權(quán)求和,輸出求和結(jié)果作為預(yù)測(cè)值(注:邏輯回歸會(huì)在求和的結(jié)果再做sigmoid非線性轉(zhuǎn)為預(yù)測(cè)概率)。

2.2 深度神經(jīng)網(wǎng)絡(luò)的學(xué)習(xí)

深度神經(jīng)網(wǎng)絡(luò)(深度學(xué)習(xí))與單層神經(jīng)網(wǎng)絡(luò)的結(jié)構(gòu)差異在于,引入了層數(shù)>=1的非線性隱藏層。從學(xué)習(xí)的角度上看,模型很像是集成學(xué)習(xí)方法——以上層的神經(jīng)網(wǎng)絡(luò)的學(xué)習(xí)的特征,輸出到下一層。而這種學(xué)習(xí)方法,就可以學(xué)習(xí)到非線性轉(zhuǎn)換組合的復(fù)雜特征,達(dá)到更好的擬合效果。對(duì)于學(xué)習(xí)到的內(nèi)容,他不僅僅是利用權(quán)重值控制輸出決策結(jié)果--f(WX),還有比較復(fù)雜多層次的特征交互, 這也意味著深度學(xué)習(xí)不能那么直觀數(shù)學(xué)形式做表示--它是一個(gè)復(fù)雜的復(fù)合函數(shù)f(f..f(WX))。神經(jīng)網(wǎng)絡(luò)學(xué)習(xí)到的是什么?(Python)


如下以2層的神經(jīng)網(wǎng)絡(luò)為例,繼續(xù)波士頓房?jī)r(jià)的預(yù)測(cè):神經(jīng)網(wǎng)絡(luò)學(xué)習(xí)到的是什么?(Python)


注:本可視化工具來源于https://netron.app/from keras.layers import *
from keras.models import Sequential, Model
from tensorflow import random
from sklearn.metrics import  mean_squared_error

np.random.seed(0) # 隨機(jī)種子
random.set_seed(0)


# 網(wǎng)絡(luò)結(jié)構(gòu):輸入層的特征維數(shù)為13,1層relu隱藏層,線性的輸出層;
model = Sequential()
model.add(Dense(10, input_dim=13, activation='relu',use_bias=False)) # 隱藏層
model.add(Dense(1,use_bias=False))


model.compile(optimizer='adam', loss='mse') # 回歸預(yù)測(cè)損失mse


model.fit(train_x, train_y, epochs=1000,verbose=False) # 訓(xùn)練模型
model.summary()

pred_y = model.predict(test_x)[:,0]

print("正確標(biāo)簽:",test_y)
print("模型預(yù)測(cè):",pred_y )

print("實(shí)際與預(yù)測(cè)值的差異:",mean_squared_error(test_y,pred_y ))
神經(jīng)網(wǎng)絡(luò)學(xué)習(xí)到的是什么?(Python)可見,其模型的參數(shù)(190個(gè))遠(yuǎn)多于單層線性網(wǎng)絡(luò)(13個(gè));學(xué)習(xí)的誤差(27.4)小于單層線性網(wǎng)絡(luò)模型(31.9),有著更高的復(fù)雜度和更好的學(xué)習(xí)效果。#繪圖表示
import matplotlib.pyplot as plt

plt.rcParams['font.sans-serif'] = ['SimHei']
plt.rcParams['axes.unicode_minus'] = False

# 設(shè)置圖形大小
plt.figure(figsize=(8, 4), dpi=80)
plt.plot(range(len(test_y)), test_y, ls='-.',lw=2,c='r',label='真實(shí)值')
plt.plot(range(len(pred_y)), pred_y, ls='-',lw=2,c='b',label='預(yù)測(cè)值')

# 繪制網(wǎng)格
plt.grid(alpha=0.4, linestyle=':')
plt.legend()
plt.xlabel('number') #設(shè)置x軸的標(biāo)簽文本
plt.ylabel('房?jī)r(jià)') #設(shè)置y軸的標(biāo)簽文本

# 展示
plt.show()
神經(jīng)網(wǎng)絡(luò)學(xué)習(xí)到的是什么?(Python)回到分析深度神經(jīng)網(wǎng)絡(luò)學(xué)習(xí)的內(nèi)容,這里我們輸入一條樣本,看看每一層神經(jīng)網(wǎng)絡(luò)的輸出。from numpy import exp


x0=train_x[0]
print("1、輸入第一條樣本x0:\n", x0)
# 權(quán)重參數(shù)可以控制數(shù)據(jù)的特征表達(dá)再輸出到下一層
w0= model.layers[0].get_weights()[0]
print("2、第一層網(wǎng)絡(luò)的權(quán)重參數(shù)w0:\n", w0)

a0 = np.maximum(0,np.dot(w0.T, x0))
# a0可以視為第一層網(wǎng)絡(luò)層交互出的新特征,但其特征含義是比較模糊的
print("3、經(jīng)過第一層神經(jīng)網(wǎng)絡(luò)relu(w0*x0)后輸出:\n",a0)
w1=model.layers[1].get_weights()[0]
print("4、第二層網(wǎng)絡(luò)的權(quán)重參數(shù)w1:\n", w1)
# 預(yù)測(cè)結(jié)果為w1與ao加權(quán)求和
a1 = np.dot(w1.T,a0)
print("5、經(jīng)過第二層神經(jīng)網(wǎng)絡(luò)w1*ao后輸出預(yù)測(cè)值:%s,實(shí)際標(biāo)簽值為%s"%(a1[0],train_y[0]))

運(yùn)行代碼,輸出如下結(jié)果神經(jīng)網(wǎng)絡(luò)學(xué)習(xí)到的是什么?(Python)從深度神經(jīng)網(wǎng)絡(luò)的示例可以看出,神經(jīng)網(wǎng)絡(luò)學(xué)習(xí)的內(nèi)容一樣是權(quán)重參數(shù)。由于非線性隱藏層的作用下,深度神經(jīng)網(wǎng)絡(luò)可以通過權(quán)重參數(shù)對(duì)數(shù)據(jù)非線性轉(zhuǎn)換,交互出復(fù)雜的、高層次的特征,并利用這些特征輸出決策,最終取得較好的學(xué)習(xí)效果。但是,正也因?yàn)殡[藏層交互組合特征過程的復(fù)雜性,學(xué)習(xí)的權(quán)重參數(shù)在業(yè)務(wù)含義上如何決策,并不好直觀解釋。對(duì)于深度神經(jīng)網(wǎng)絡(luò)的解釋,常常說深度學(xué)習(xí)模型是“黑盒”,學(xué)習(xí)內(nèi)容很難表示成易于解釋含義的形式。在此,一方面可以借助shap等解釋性的工具加于說明。另一方面,還有像深度學(xué)習(xí)處理圖像識(shí)別任務(wù),就是個(gè)天然直觀地展現(xiàn)深度學(xué)習(xí)的過程。如下展示輸入車子通過層層提取的高層次、抽象的特征,圖像識(shí)別的過程。注:圖像識(shí)別可視化工具來源于https://poloclub.github.io/cnn-explainer/神經(jīng)網(wǎng)絡(luò)學(xué)習(xí)到的是什么?(Python)


神經(jīng)網(wǎng)絡(luò)學(xué)習(xí)到的是什么?(Python)


在神經(jīng)網(wǎng)絡(luò)學(xué)習(xí)提取層次化特征以識(shí)別圖像的過程:
  • 第一層,像是各種邊緣探測(cè)特征的集合,在這個(gè)階段,激活值仍然是保留了幾乎原始圖像的所有信息。
  • 更高一層,激活值就變得進(jìn)一步抽象,開始表示更高層次的內(nèi)容,諸如“車輪”。有著更少的視覺表示(稀疏),也提取到了更關(guān)鍵特征的信息。
這和人類學(xué)習(xí)(圖像識(shí)別)的過程是類似的——從具體到抽象,簡(jiǎn)單概括出物體的本質(zhì)特征。就像我們看到一輛很酷的小車神經(jīng)網(wǎng)絡(luò)學(xué)習(xí)到的是什么?(Python)


然后憑記憶將它畫出來,很可能沒法畫出很多細(xì)節(jié),只有抽象出來的關(guān)鍵特征表現(xiàn),類似這樣:神經(jīng)網(wǎng)絡(luò)學(xué)習(xí)到的是什么?(Python)


我們的大腦學(xué)習(xí)輸入的視覺圖像的抽象特征,而不相關(guān)忽略的視覺細(xì)節(jié),提高效率的同時(shí),學(xué)習(xí)的內(nèi)容也有很強(qiáng)的泛化性,我們只要識(shí)別一輛車的樣子,就也會(huì)辨別出不同樣式的車。這也是深度神經(jīng)網(wǎng)絡(luò)學(xué)習(xí)更高層次、抽象的特征的過程。神經(jīng)網(wǎng)絡(luò)學(xué)習(xí)到的是什么?(Python)



本站聲明: 本文章由作者或相關(guān)機(jī)構(gòu)授權(quán)發(fā)布,目的在于傳遞更多信息,并不代表本站贊同其觀點(diǎn),本站亦不保證或承諾內(nèi)容真實(shí)性等。需要轉(zhuǎn)載請(qǐng)聯(lián)系該專欄作者,如若文章內(nèi)容侵犯您的權(quán)益,請(qǐng)及時(shí)聯(lián)系本站刪除。
換一批
延伸閱讀

9月2日消息,不造車的華為或?qū)⒋呱龈蟮莫?dú)角獸公司,隨著阿維塔和賽力斯的入局,華為引望愈發(fā)顯得引人矚目。

關(guān)鍵字: 阿維塔 塞力斯 華為

倫敦2024年8月29日 /美通社/ -- 英國(guó)汽車技術(shù)公司SODA.Auto推出其旗艦產(chǎn)品SODA V,這是全球首款涵蓋汽車工程師從創(chuàng)意到認(rèn)證的所有需求的工具,可用于創(chuàng)建軟件定義汽車。 SODA V工具的開發(fā)耗時(shí)1.5...

關(guān)鍵字: 汽車 人工智能 智能驅(qū)動(dòng) BSP

北京2024年8月28日 /美通社/ -- 越來越多用戶希望企業(yè)業(yè)務(wù)能7×24不間斷運(yùn)行,同時(shí)企業(yè)卻面臨越來越多業(yè)務(wù)中斷的風(fēng)險(xiǎn),如企業(yè)系統(tǒng)復(fù)雜性的增加,頻繁的功能更新和發(fā)布等。如何確保業(yè)務(wù)連續(xù)性,提升韌性,成...

關(guān)鍵字: 亞馬遜 解密 控制平面 BSP

8月30日消息,據(jù)媒體報(bào)道,騰訊和網(wǎng)易近期正在縮減他們對(duì)日本游戲市場(chǎng)的投資。

關(guān)鍵字: 騰訊 編碼器 CPU

8月28日消息,今天上午,2024中國(guó)國(guó)際大數(shù)據(jù)產(chǎn)業(yè)博覽會(huì)開幕式在貴陽(yáng)舉行,華為董事、質(zhì)量流程IT總裁陶景文發(fā)表了演講。

關(guān)鍵字: 華為 12nm EDA 半導(dǎo)體

8月28日消息,在2024中國(guó)國(guó)際大數(shù)據(jù)產(chǎn)業(yè)博覽會(huì)上,華為常務(wù)董事、華為云CEO張平安發(fā)表演講稱,數(shù)字世界的話語(yǔ)權(quán)最終是由生態(tài)的繁榮決定的。

關(guān)鍵字: 華為 12nm 手機(jī) 衛(wèi)星通信

要點(diǎn): 有效應(yīng)對(duì)環(huán)境變化,經(jīng)營(yíng)業(yè)績(jī)穩(wěn)中有升 落實(shí)提質(zhì)增效舉措,毛利潤(rùn)率延續(xù)升勢(shì) 戰(zhàn)略布局成效顯著,戰(zhàn)新業(yè)務(wù)引領(lǐng)增長(zhǎng) 以科技創(chuàng)新為引領(lǐng),提升企業(yè)核心競(jìng)爭(zhēng)力 堅(jiān)持高質(zhì)量發(fā)展策略,塑強(qiáng)核心競(jìng)爭(zhēng)優(yōu)勢(shì)...

關(guān)鍵字: 通信 BSP 電信運(yùn)營(yíng)商 數(shù)字經(jīng)濟(jì)

北京2024年8月27日 /美通社/ -- 8月21日,由中央廣播電視總臺(tái)與中國(guó)電影電視技術(shù)學(xué)會(huì)聯(lián)合牽頭組建的NVI技術(shù)創(chuàng)新聯(lián)盟在BIRTV2024超高清全產(chǎn)業(yè)鏈發(fā)展研討會(huì)上宣布正式成立。 活動(dòng)現(xiàn)場(chǎng) NVI技術(shù)創(chuàng)新聯(lián)...

關(guān)鍵字: VI 傳輸協(xié)議 音頻 BSP

北京2024年8月27日 /美通社/ -- 在8月23日舉辦的2024年長(zhǎng)三角生態(tài)綠色一體化發(fā)展示范區(qū)聯(lián)合招商會(huì)上,軟通動(dòng)力信息技術(shù)(集團(tuán))股份有限公司(以下簡(jiǎn)稱"軟通動(dòng)力")與長(zhǎng)三角投資(上海)有限...

關(guān)鍵字: BSP 信息技術(shù)
關(guān)閉
關(guān)閉