www.久久久久|狼友网站av天堂|精品国产无码a片|一级av色欲av|91在线播放视频|亚洲无码主播在线|国产精品草久在线|明星AV网站在线|污污内射久久一区|婷婷综合视频网站

當(dāng)前位置:首頁(yè) > 物聯(lián)網(wǎng) > 網(wǎng)絡(luò)層
[導(dǎo)讀]DeepDetect ,一個(gè)專為深度學(xué)習(xí)的開(kāi)源API和服務(wù)。 DeepDetect的API 簡(jiǎn)單直觀、易用、通用和易擴(kuò)展。

DeepDetect ,一個(gè)專為深度學(xué)習(xí)的開(kāi)源API和服務(wù)。 DeepDetect的API 簡(jiǎn)單直觀、易用、通用和易擴(kuò)展。

在其他貢獻(xiàn)者的幫助下,他集成了 Caffe , XGBoost 和 Tensorflow (很快將完成),并且未對(duì)原服務(wù)或者API修改。

XGBoost梯度提升法樹(shù)是深度模型常用的算法。Tensorflow支持分布式訓(xùn)練模型和數(shù)據(jù),并且能很好的支持LSTM和RNNs神經(jīng)網(wǎng)絡(luò)算法。Caffe擅長(zhǎng)處理圖像和文本數(shù)據(jù)。DeepDetect讓你在這些深度學(xué)習(xí)框架間自由轉(zhuǎn)換。

下面將介紹實(shí)現(xiàn)通用深度學(xué)習(xí)API的主要原則。同時(shí)也期待大家貢獻(xiàn)出一些想法和評(píng)價(jià)來(lái)提高DeepDetect。

創(chuàng)業(yè)公司期待構(gòu)建一個(gè)可認(rèn)證的深度學(xué)習(xí)的SaaS API,可擴(kuò)展,并能快速市場(chǎng)化、產(chǎn)品化;

企業(yè)期待與已有系統(tǒng)可以無(wú)縫銜接,剛開(kāi)始數(shù)據(jù)流比較慢,后續(xù)模型需要隨著數(shù)據(jù)的增加而進(jìn)行優(yōu)化。并且對(duì)應(yīng)的技術(shù)可以復(fù)制到其他項(xiàng)目中或者部門。

符合上述兩個(gè)要求的開(kāi)源項(xiàng)目有搜索引擎 Elasticsearch ,可擴(kuò)展搜索引擎,清晰的REST風(fēng)格API和完全JSON化的輸入/輸出數(shù)據(jù)結(jié)構(gòu)。

那深度學(xué)習(xí)API集成服務(wù)該怎樣實(shí)現(xiàn)呢?下面給出幾點(diǎn):

無(wú)需重寫:深度學(xué)習(xí)(機(jī)器學(xué)習(xí))就像密碼學(xué),只需生成一次。無(wú)需重寫對(duì)存在多種深度學(xué)習(xí)庫(kù)是非要重要的;

無(wú)縫轉(zhuǎn)換:開(kāi)發(fā)和產(chǎn)品發(fā)布具有相同的環(huán)境會(huì)加快測(cè)試和發(fā)布周期,避免出現(xiàn)bug;

簡(jiǎn)化命令行:簡(jiǎn)單、人性化的輸入/輸出格式,比如JSON格式。簡(jiǎn)單即是王道;

產(chǎn)品化:專業(yè)的機(jī)器學(xué)習(xí)服務(wù)生命周期更期待在數(shù)據(jù)預(yù)測(cè),而不是訓(xùn)練模型。

如果有一種通用機(jī)器學(xué)習(xí)服務(wù)能融合以上的點(diǎn),簡(jiǎn)單且強(qiáng)悍的API,它將會(huì)同時(shí)滿足開(kāi)發(fā)人員和企業(yè)訴求,并且在開(kāi)發(fā)和產(chǎn)品之間無(wú)縫切換。它將會(huì)采用JSON數(shù)據(jù)格式,用單一框架和API統(tǒng)一其他深度學(xué)習(xí)和機(jī)器學(xué)習(xí)開(kāi)發(fā)庫(kù),并隱藏各代碼間的內(nèi)部復(fù)雜性。

DeepDetect機(jī)器學(xué)習(xí)API核心部分是資源和數(shù)據(jù)輸入/輸出格式。資源過(guò)去是指服務(wù)器資源,而不是指機(jī)器學(xué)習(xí)服務(wù)。此種設(shè)計(jì)的原因是GPU和內(nèi)存在POST機(jī)器學(xué)習(xí)服務(wù)作業(yè)時(shí)是緊缺資源。讓他們看看有哪些核心資源:

服務(wù)器信息:通過(guò)GET目錄/info獲取服務(wù)器信息;

機(jī)器學(xué)習(xí)服務(wù)管理:通過(guò)PUT(創(chuàng)建一個(gè)機(jī)器學(xué)習(xí)服務(wù))、GET(獲得一個(gè)機(jī)器學(xué)習(xí)服務(wù)狀態(tài))和POST(更新一個(gè)機(jī)器學(xué)習(xí)服務(wù))目錄/services進(jìn)行機(jī)器學(xué)習(xí)服務(wù)的管理;

模型訓(xùn)練:通過(guò)POST(創(chuàng)建一個(gè)新的訓(xùn)練作業(yè))、GET(獲取一個(gè)訓(xùn)練作業(yè)的狀態(tài))和DELETE(取消一個(gè)訓(xùn)練作業(yè))目錄/train進(jìn)行模型訓(xùn)練;

數(shù)據(jù)預(yù)測(cè):通過(guò)POST(發(fā)送數(shù)據(jù)到服務(wù))目錄/predict進(jìn)行數(shù)據(jù)預(yù)測(cè)。

所以服務(wù)包括機(jī)器學(xué)習(xí)服務(wù)、模型訓(xùn)練和數(shù)據(jù)預(yù)測(cè),這些服務(wù)資源是統(tǒng)計(jì)模型上兩種主要操作。在這個(gè)階段監(jiān)督學(xué)習(xí)服務(wù)和無(wú)監(jiān)督學(xué)習(xí)服務(wù)沒(méi)什么區(qū)別。

機(jī)器學(xué)習(xí)的主要參數(shù)是輸入或預(yù)處理、統(tǒng)計(jì)學(xué)習(xí)和最終輸出,映入腦海里的是:input,mllib和output三種。mllib指定支持的機(jī)器學(xué)習(xí)庫(kù),input和output不寫自明。下面是一個(gè)例子,創(chuàng)建一個(gè)圖像分類的服務(wù):

PUT /services/imageserv

{

“description”: “image classification service”,

“mllib”: “caffe”,

“model”: {

“repository”: “/path/to/models/imgnet”,

“templates”: “../templates/caffe/”

},

“parameters”: {

“input”: {

“connector”: “image”

},

“mllib”: {

“nclasses”: 1000,

“template”: “googlenet”

},

“output”: {

}

},

“type”: “supervised”

}

參數(shù)一般包括input,mllib和output,監(jiān)督學(xué)習(xí)服務(wù)和無(wú)監(jiān)督學(xué)習(xí)服務(wù)通過(guò)調(diào)整輸出connector設(shè)置。input connector處理輸入格式,支持CSV、libsvm和text等格式,包括圖像和特征。mllib部件指定的是服務(wù)創(chuàng)建、訓(xùn)練和預(yù)測(cè)模型的機(jī)器學(xué)習(xí)庫(kù),非常方便的引用各機(jī)器學(xué)習(xí)庫(kù)的參數(shù),并且保留了參數(shù)標(biāo)志。

下面給出一個(gè)CSV格式的input connector例子:

“input”: {

“id”: “Id”,

“label”: “Cover”,

“separator”: “,”,

“shuffle”: true,

“test_split”: 0.1

}

下面是一個(gè)典型訓(xùn)練模型的output connector:

“output”: {

“measure”: [

“acc”,

“mcll”,

“f1”

]

}

接下來(lái)給出一個(gè)復(fù)雜點(diǎn)的輸出,Mustache格式的輸出模版(標(biāo)準(zhǔn)化的JSON格式可以轉(zhuǎn)化成任意其他的格式):

{

“network”: {

“http_method”: “POST”,

“url”: “http://localhost:9200/images/img"

},

“template”: “{ {{#body}}{{#predictions}} \”uri\”:\”{{uri}}\”,

\”categories\”: [ {{#classes}} { \”category\”:\”{{cat}}\”,\”score\”:

{{prob}} } {{^last}},{{/last}}{{/classes}} ] {{/predictions}}

{{/body}} }”

}

上述模版可以使監(jiān)督學(xué)習(xí)分類結(jié)果直接輸入Elasticsearch并生成索引,詳情見(jiàn)http://www.deepdetect.com/tutorials/es-image-classifier 。注意到network對(duì)象,其POST到輸出服務(wù)器,這個(gè)對(duì)象也可以用在input connector連接遠(yuǎn)程輸入源。

上面的模版是一個(gè)典型的DeepDetect服務(wù)器監(jiān)督分類JSON輸出:

“body”: {

“predictions”: {

“classes”: [

{

“cat”: “n03868863 oxygen mask”,

“prob”: 0.24278657138347626

},

],

“loss”: 0.0,

“uri”: “http://i.ytimg.com/vi/0vxOhd4qlnA/maxresdefault.jpg”

}

上述的例子在集成到已存項(xiàng)目管道是不需要“膠水”代碼,這很好的滿足了許多企業(yè)的需求。

下面快速瀏覽下mllib組件,包括Caffe和XGBoost:

// Caffe

“mllib”:{

"gpu":true,

"net":{

"batch_size":128

},

"solver: {

"test_interval":1000,

"iterations":16000,

"base_lr":0.01,

"solver_type":"SGD"

}

}

// XGBoost

"mllib": {

"iterations": 100,

"objective": "multi:softprob"

}

對(duì)于Caffe的例子,服務(wù)器使用了GPU,其他參數(shù)包括solver和learning rate等。對(duì)于XGBoost例子,參數(shù)iterations和objective被設(shè)置。

接下來(lái)重要的部分是數(shù)據(jù)預(yù)測(cè),觀察機(jī)器學(xué)習(xí)服務(wù)生命周期重要的是基于數(shù)據(jù)進(jìn)行預(yù)測(cè):

curl -X POST 'http://localhost:8080/predict' -d

'{"service":"covert","parameters":{"input":

{"id":"Id",”separator”:","}},"data":["test.csv"]}'

這里mllib部分省略掉了,有時(shí)在深度網(wǎng)絡(luò)中抽取特征時(shí)mllib是有用的。在非監(jiān)督學(xué)習(xí)中是相似的,輸出是一個(gè)張量,而不是一個(gè)類或者回歸對(duì)象:

"mllib":{"extract_layer":"pool5/7x7_s1"}

最后總結(jié),這歌機(jī)器學(xué)習(xí)API的核心點(diǎn):

可讀性:所有的數(shù)據(jù)結(jié)構(gòu)是簡(jiǎn)單、人性化的;

通用性:監(jiān)督學(xué)習(xí)服務(wù)和無(wú)監(jiān)督學(xué)習(xí)服務(wù)的通用API;

REST風(fēng)格和可編程的API:這個(gè)API通過(guò)網(wǎng)絡(luò)獲取,但保留C++原有標(biāo)志;

“虛構(gòu)”性;能夠很容易的學(xué)習(xí)增加的特征和資源,比如,為多個(gè)預(yù)測(cè)實(shí)現(xiàn)服務(wù)鏈。

本站聲明: 本文章由作者或相關(guān)機(jī)構(gòu)授權(quán)發(fā)布,目的在于傳遞更多信息,并不代表本站贊同其觀點(diǎn),本站亦不保證或承諾內(nèi)容真實(shí)性等。需要轉(zhuǎn)載請(qǐng)聯(lián)系該專欄作者,如若文章內(nèi)容侵犯您的權(quán)益,請(qǐng)及時(shí)聯(lián)系本站刪除。
換一批
延伸閱讀

9月2日消息,不造車的華為或?qū)⒋呱龈蟮莫?dú)角獸公司,隨著阿維塔和賽力斯的入局,華為引望愈發(fā)顯得引人矚目。

關(guān)鍵字: 阿維塔 塞力斯 華為

倫敦2024年8月29日 /美通社/ -- 英國(guó)汽車技術(shù)公司SODA.Auto推出其旗艦產(chǎn)品SODA V,這是全球首款涵蓋汽車工程師從創(chuàng)意到認(rèn)證的所有需求的工具,可用于創(chuàng)建軟件定義汽車。 SODA V工具的開(kāi)發(fā)耗時(shí)1.5...

關(guān)鍵字: 汽車 人工智能 智能驅(qū)動(dòng) BSP

北京2024年8月28日 /美通社/ -- 越來(lái)越多用戶希望企業(yè)業(yè)務(wù)能7×24不間斷運(yùn)行,同時(shí)企業(yè)卻面臨越來(lái)越多業(yè)務(wù)中斷的風(fēng)險(xiǎn),如企業(yè)系統(tǒng)復(fù)雜性的增加,頻繁的功能更新和發(fā)布等。如何確保業(yè)務(wù)連續(xù)性,提升韌性,成...

關(guān)鍵字: 亞馬遜 解密 控制平面 BSP

8月30日消息,據(jù)媒體報(bào)道,騰訊和網(wǎng)易近期正在縮減他們對(duì)日本游戲市場(chǎng)的投資。

關(guān)鍵字: 騰訊 編碼器 CPU

8月28日消息,今天上午,2024中國(guó)國(guó)際大數(shù)據(jù)產(chǎn)業(yè)博覽會(huì)開(kāi)幕式在貴陽(yáng)舉行,華為董事、質(zhì)量流程IT總裁陶景文發(fā)表了演講。

關(guān)鍵字: 華為 12nm EDA 半導(dǎo)體

8月28日消息,在2024中國(guó)國(guó)際大數(shù)據(jù)產(chǎn)業(yè)博覽會(huì)上,華為常務(wù)董事、華為云CEO張平安發(fā)表演講稱,數(shù)字世界的話語(yǔ)權(quán)最終是由生態(tài)的繁榮決定的。

關(guān)鍵字: 華為 12nm 手機(jī) 衛(wèi)星通信

要點(diǎn): 有效應(yīng)對(duì)環(huán)境變化,經(jīng)營(yíng)業(yè)績(jī)穩(wěn)中有升 落實(shí)提質(zhì)增效舉措,毛利潤(rùn)率延續(xù)升勢(shì) 戰(zhàn)略布局成效顯著,戰(zhàn)新業(yè)務(wù)引領(lǐng)增長(zhǎng) 以科技創(chuàng)新為引領(lǐng),提升企業(yè)核心競(jìng)爭(zhēng)力 堅(jiān)持高質(zhì)量發(fā)展策略,塑強(qiáng)核心競(jìng)爭(zhēng)優(yōu)勢(shì)...

關(guān)鍵字: 通信 BSP 電信運(yùn)營(yíng)商 數(shù)字經(jīng)濟(jì)

北京2024年8月27日 /美通社/ -- 8月21日,由中央廣播電視總臺(tái)與中國(guó)電影電視技術(shù)學(xué)會(huì)聯(lián)合牽頭組建的NVI技術(shù)創(chuàng)新聯(lián)盟在BIRTV2024超高清全產(chǎn)業(yè)鏈發(fā)展研討會(huì)上宣布正式成立。 活動(dòng)現(xiàn)場(chǎng) NVI技術(shù)創(chuàng)新聯(lián)...

關(guān)鍵字: VI 傳輸協(xié)議 音頻 BSP

北京2024年8月27日 /美通社/ -- 在8月23日舉辦的2024年長(zhǎng)三角生態(tài)綠色一體化發(fā)展示范區(qū)聯(lián)合招商會(huì)上,軟通動(dòng)力信息技術(shù)(集團(tuán))股份有限公司(以下簡(jiǎn)稱"軟通動(dòng)力")與長(zhǎng)三角投資(上海)有限...

關(guān)鍵字: BSP 信息技術(shù)
關(guān)閉
關(guān)閉