www.久久久久|狼友网站av天堂|精品国产无码a片|一级av色欲av|91在线播放视频|亚洲无码主播在线|国产精品草久在线|明星AV网站在线|污污内射久久一区|婷婷综合视频网站

當(dāng)前位置:首頁 > 智能硬件 > 智能硬件
[導(dǎo)讀]各位以為用人臉識別性別年齡就很厲害了嗎? 這篇文章要來讓各位瞧瞧深度學(xué)習(xí)的黑科技可以黑到甚么程度。 只要透過手的照片,就能夠知道性別與年齡,透過卷積神經(jīng)網(wǎng)絡(luò)就能做到這么神奇的效果。

隨著深度學(xué)習(xí)的技術(shù)發(fā)展,越來越多的深度學(xué)習(xí)應(yīng)用也進(jìn)入到我們的世界。 其中最為普遍的就是人臉識別,包括微軟也推出了Cognitive Face API,可以透過人臉來識別身分,甚至可以用來判斷性別與年齡。

各位以為用人臉識別性別年齡就很厲害了嗎? 這篇文章要來讓各位瞧瞧深度學(xué)習(xí)的黑科技可以黑到甚么程度。 只要透過手的照片,就能夠知道性別與年齡,透過卷積神經(jīng)網(wǎng)絡(luò)就能做到這么神奇的效果。

本文將從數(shù)據(jù)到模型,透過微軟的深度學(xué)習(xí)框架CNTK以及臉書的深度學(xué)習(xí)框架Pytorch,來實(shí)作根據(jù)手的照片來判斷人的性別與年齡。 以下解說部分張貼的皆為CNTK代碼,并附上兩個框架代碼。

首先關(guān)于使用的數(shù)據(jù)來自Google,他提供了一組數(shù)據(jù)包含了11,000張手部的照片(圖1),同時包含手的主人的性別年齡與種族。 我們將會擷取里面的性別(類別)與年齡(連續(xù))數(shù)據(jù)來作為輸出變量,手部圖片作為輸入特征。

 

 

圖1 Google提供了一組數(shù)據(jù)包含了11,000張手部的照片。

由于下載后還要自己整理圖片有些許麻煩,因此我也已做好圖片的懶人包,將圖片數(shù)據(jù)向量化,以及比對好卷標(biāo)檔的結(jié)果,并以Pickle文件格式儲存。

圖2為解析完的結(jié)果,列表內(nèi)的每個項(xiàng)目也是一個子列表,里面分別包含兩個Ndarray,第一個是形狀3×64×64的向量代表圖檔。 請注意,CNTK與Pytorch都是CHW格式:信道×高×寬。 另一個則是形狀為3的向量,里面三個數(shù)值分別為id(數(shù)值相同代表是同一個人的不同角度的手)、年齡(介于0~100)以及性別(0是表示女性,1是表示男性)。

 

 

圖2 Google手部圖片分析后的結(jié)果

CNTK與Pytorch的圖片格式要求是一樣的,在各家深度學(xué)習(xí)框架中,僅有Tensorflow的排列順序相反。 向量維度的排列是CHW(信道×高×寬),顏色的排列順序是BGR(藍(lán)綠紅),也就都是依照字母順序排列。

關(guān)于圖片與向量的轉(zhuǎn)換方法如下:

def img2array(img: Image):

arr=np.array(img).astype(np.float32)

arr=arr.transpose(2, 0, 1)#轉(zhuǎn)成CHW

arr=arr[::-1] #顏色排序?yàn)锽GR

return np.ascontiguousarray(arr)

def array2img(arr: np.ndarray):

sanitized_img=arr[::-1]#轉(zhuǎn)成RGB

sanitized_img=np.maximum(0, np.minimum(255, np.transpose(arr, (1, 2, 0))))#轉(zhuǎn)成HWC

img=Image.fromarray(sanitized_img.astype(np.uint8))

return img

為了供給建模使用的數(shù)據(jù)讀取器,同時也因?yàn)槲蚁胍吰涔τ谝灰郏寖煞N框架都可以一次適用,所以我寫了一個通用的讀取器來供應(yīng)每個Minibatch所需要的數(shù)據(jù)。 其中讀取圖片時,我將圖片向量除以255,而且讀取年齡時,我將數(shù)值除以100,都是為了確保數(shù)據(jù)可以介于0~1之間,以方便收斂。 在這個范例中因?yàn)槠P(guān)系暫時不放數(shù)據(jù)增強(qiáng)(Data Augmentation)。 利用函數(shù),每次調(diào)用都可以回傳圖片以及所需要卷標(biāo)。 此外,要注意的是打亂圖片順序這個步驟很重要,Google的數(shù)據(jù)是有按照性別排序的。

在這里要示范的卷積神經(jīng)網(wǎng)絡(luò)骨干網(wǎng)絡(luò)用的是我最近很推崇的一篇文章所介紹的新架構(gòu)「DenseNet」,原始論文出處為「Densely Connected Convolutional Networks」。

傳統(tǒng)的卷積網(wǎng)絡(luò)都是線性的,但當(dāng)層數(shù)越多時,就有可能發(fā)生梯度彌散的問題,造成模型無法收斂。 正因如此,微軟亞洲院2015年發(fā)展出的殘差神經(jīng)網(wǎng)絡(luò)(ResNet)就使用了跳轉(zhuǎn)連接(Skip Connection),以有效的將梯度挹注到后面神經(jīng)層,這樣模型就可以做出超深的架構(gòu),也不用擔(dān)心難以收斂。

微軟2015年就以152層的ResNet獲得了當(dāng)年的imageNet冠軍。 但是深度學(xué)習(xí)在訓(xùn)練的過程中,當(dāng)卷積神經(jīng)網(wǎng)絡(luò)將梯度傳送到后層的時候,都會發(fā)生特征被隨機(jī)遺失,這樣這個特征就再也傳不下去而無用了。 為了解決這個問題,DenseNet的基本概念就是,每一層的特征都會傳送到后面的「每」一層,這樣就可以有效的確保訊號不被丟失。

 

 

圖3 ResNet架構(gòu)

DenseNet的基本結(jié)構(gòu)稱之為稠密單元(Dense Block),它有幾個重要的超參數(shù):

·k:稠密單元層數(shù)

·n_channel_start:初始信道數(shù)

·glowth_rate:信道成長數(shù)

以圖4為例,假設(shè)下圖是一個k=4(向下傳遞4次,所以共5層),初始信道數(shù)32,成長數(shù)為16的Dense Block,分別計(jì)算每一層的輸入信道數(shù)(從前面?zhèn)鬟M(jìn)來):

 

 

圖4 5層架構(gòu)的Dense Block

X1:32+16(來自于X0)=48

X2:48+16(來自于X1)=64

X3:64+16(來自于X0)+16(來自于X1)=96

X4:96+16(來自于X0)+16(來自于X1)+16(來自于X2)=144

Growth Rate有就是每次會傳遞多少信道到后面的層數(shù),以上面說明案例固定數(shù)值為16,但該卷積層的信道數(shù)比這數(shù)字更大,因此等于是強(qiáng)迫每個卷積層要做一次特征選取,將特征精選之后傳至后方。 這種「Save the Best for Last」的精神,可以高度保全有效特征,以強(qiáng)化模型的收斂。 DenseNet就是利用多個DenseBlock構(gòu)成的網(wǎng)絡(luò)(圖5)。

另外,CNTK與Pytorch都沒有默認(rèn)的DenseNet,所以筆者用自定義網(wǎng)絡(luò)的方式實(shí)作了兩個框架下的DenseNet。 在該實(shí)作中,由于圖片只有64×64,經(jīng)不起太多次圖片縮小,因此使用了5層k=4的Dense Block。 同時,筆者也測試過3層,收斂速度快,但是結(jié)果測試集落差很大,顯著過擬合。 由于想要同時預(yù)測性別與年齡,CNTK一個很神奇的特性就是可以在一個主要骨架下,同時接兩個輸出,只需要使用Combine函數(shù),就可以將兩個輸出合并。 未來更只要做一次預(yù)測,就能產(chǎn)出兩個預(yù)測結(jié)果,而且訓(xùn)練時也只要訓(xùn)練一次,而且骨干部分特征選取流程不需要做兩次,是不是很方便呢。 但如果你是使用其他框架就只好做兩個模型了。

預(yù)測性別部分,使用的是長度為2的向量,最后一層全連接層活化函數(shù)使用Softmax已進(jìn)行分類。 預(yù)測年齡部分,由于讀取數(shù)據(jù)時已經(jīng)將年齡除以100,因此年齡分布為0~1之間的常態(tài)分布,因此使用Sigmoid函數(shù)效果較好。

最后的訓(xùn)練過程可以透過另一個函數(shù)來控制。 首先宣告輸入變量以及兩個輸出變量(性別與年齡),然后宣告模型、損失函數(shù)以及正確率指針。 優(yōu)化器使用的是Adam,然后每50個Minibatch就用測試集測試一次。

筆者使用gtx-1080(minibatch size=64)跑完第3個epoch的結(jié)果如圖6,可以看出年齡誤差只有1.8%,性別目前仍有20.31%的錯誤率,看來手真的藏不住年齡啊! 這個模型若是希望提升其泛化效果,應(yīng)該要在輸入數(shù)據(jù)加入數(shù)據(jù)增強(qiáng)。

 

 

圖6 使用gtx-1080(minibatch size=64)跑完第3個epoch的結(jié)果

本站聲明: 本文章由作者或相關(guān)機(jī)構(gòu)授權(quán)發(fā)布,目的在于傳遞更多信息,并不代表本站贊同其觀點(diǎn),本站亦不保證或承諾內(nèi)容真實(shí)性等。需要轉(zhuǎn)載請聯(lián)系該專欄作者,如若文章內(nèi)容侵犯您的權(quán)益,請及時聯(lián)系本站刪除。
換一批
延伸閱讀

9月2日消息,不造車的華為或?qū)⒋呱龈蟮莫?dú)角獸公司,隨著阿維塔和賽力斯的入局,華為引望愈發(fā)顯得引人矚目。

關(guān)鍵字: 阿維塔 塞力斯 華為

加利福尼亞州圣克拉拉縣2024年8月30日 /美通社/ -- 數(shù)字化轉(zhuǎn)型技術(shù)解決方案公司Trianz今天宣布,該公司與Amazon Web Services (AWS)簽訂了...

關(guān)鍵字: AWS AN BSP 數(shù)字化

倫敦2024年8月29日 /美通社/ -- 英國汽車技術(shù)公司SODA.Auto推出其旗艦產(chǎn)品SODA V,這是全球首款涵蓋汽車工程師從創(chuàng)意到認(rèn)證的所有需求的工具,可用于創(chuàng)建軟件定義汽車。 SODA V工具的開發(fā)耗時1.5...

關(guān)鍵字: 汽車 人工智能 智能驅(qū)動 BSP

北京2024年8月28日 /美通社/ -- 越來越多用戶希望企業(yè)業(yè)務(wù)能7×24不間斷運(yùn)行,同時企業(yè)卻面臨越來越多業(yè)務(wù)中斷的風(fēng)險(xiǎn),如企業(yè)系統(tǒng)復(fù)雜性的增加,頻繁的功能更新和發(fā)布等。如何確保業(yè)務(wù)連續(xù)性,提升韌性,成...

關(guān)鍵字: 亞馬遜 解密 控制平面 BSP

8月30日消息,據(jù)媒體報(bào)道,騰訊和網(wǎng)易近期正在縮減他們對日本游戲市場的投資。

關(guān)鍵字: 騰訊 編碼器 CPU

8月28日消息,今天上午,2024中國國際大數(shù)據(jù)產(chǎn)業(yè)博覽會開幕式在貴陽舉行,華為董事、質(zhì)量流程IT總裁陶景文發(fā)表了演講。

關(guān)鍵字: 華為 12nm EDA 半導(dǎo)體

8月28日消息,在2024中國國際大數(shù)據(jù)產(chǎn)業(yè)博覽會上,華為常務(wù)董事、華為云CEO張平安發(fā)表演講稱,數(shù)字世界的話語權(quán)最終是由生態(tài)的繁榮決定的。

關(guān)鍵字: 華為 12nm 手機(jī) 衛(wèi)星通信

要點(diǎn): 有效應(yīng)對環(huán)境變化,經(jīng)營業(yè)績穩(wěn)中有升 落實(shí)提質(zhì)增效舉措,毛利潤率延續(xù)升勢 戰(zhàn)略布局成效顯著,戰(zhàn)新業(yè)務(wù)引領(lǐng)增長 以科技創(chuàng)新為引領(lǐng),提升企業(yè)核心競爭力 堅(jiān)持高質(zhì)量發(fā)展策略,塑強(qiáng)核心競爭優(yōu)勢...

關(guān)鍵字: 通信 BSP 電信運(yùn)營商 數(shù)字經(jīng)濟(jì)

北京2024年8月27日 /美通社/ -- 8月21日,由中央廣播電視總臺與中國電影電視技術(shù)學(xué)會聯(lián)合牽頭組建的NVI技術(shù)創(chuàng)新聯(lián)盟在BIRTV2024超高清全產(chǎn)業(yè)鏈發(fā)展研討會上宣布正式成立。 活動現(xiàn)場 NVI技術(shù)創(chuàng)新聯(lián)...

關(guān)鍵字: VI 傳輸協(xié)議 音頻 BSP

北京2024年8月27日 /美通社/ -- 在8月23日舉辦的2024年長三角生態(tài)綠色一體化發(fā)展示范區(qū)聯(lián)合招商會上,軟通動力信息技術(shù)(集團(tuán))股份有限公司(以下簡稱"軟通動力")與長三角投資(上海)有限...

關(guān)鍵字: BSP 信息技術(shù)
關(guān)閉
關(guān)閉