www.久久久久|狼友网站av天堂|精品国产无码a片|一级av色欲av|91在线播放视频|亚洲无码主播在线|国产精品草久在线|明星AV网站在线|污污内射久久一区|婷婷综合视频网站

當前位置:首頁 > 物聯(lián)網(wǎng) > 區(qū)塊鏈
[導(dǎo)讀] 2009 年 1 月 3 日,比特幣作為一種自持的 P2P 系統(tǒng)啟動了創(chuàng)世區(qū)塊,以巧妙的設(shè)計驅(qū)使參與者維持它的運轉(zhuǎn),并提供受限但極具顛覆性的金融功能至今。2015 年 6月 30 日,以太坊上線

2009 年 1 月 3 日,比特幣作為一種自持的 P2P 系統(tǒng)啟動了創(chuàng)世區(qū)塊,以巧妙的設(shè)計驅(qū)使參與者維持它的運轉(zhuǎn),并提供受限但極具顛覆性的金融功能至今。2015 年 6月 30 日,以太坊上線,為區(qū)塊鏈增加了圖靈完備的智能合約,可以對一些短小的程序的執(zhí)行結(jié)果形成共識。相對于比特幣,以太坊可以執(zhí)行更復(fù)雜的計算,提供更豐富的響應(yīng),然而這些合約是不具備學(xué)習(xí)能力和自我進化規(guī)則的,是純粹的基于簡單規(guī)則(rule-based) 與遞歸調(diào)用的子程序的集合。參考 Conway 的生命游戲,基于 P2P 技術(shù)的虛擬貨幣網(wǎng)絡(luò)可以被界定為生存在互聯(lián)網(wǎng)上的生命,通過提供金融功能維持自身的存在,只要還有一個全節(jié)點在,網(wǎng)絡(luò)的狀態(tài)就可以得到保存,并且能夠響應(yīng)來自外界的交互。然而人類渴望的智能還沒有出現(xiàn),這些原始的網(wǎng)絡(luò)生命只停留在簡單規(guī)則的水平。

Cortex 在此基礎(chǔ)上更進一步,為區(qū)塊鏈增加了人工智能的共識推斷,所有全節(jié)點共同運作,對一個要求人工智能的智能合約的執(zhí)行達成共識,為系統(tǒng)賦予智能響應(yīng)的能力。Cortex 作為一條兼容 EVM 智能合約的獨立公鏈,可以運行現(xiàn)有的合約和帶有人工智能推斷的合約,在創(chuàng)世區(qū)塊發(fā)布后,也將作為一個更加智能的網(wǎng)絡(luò)生命永續(xù)存在下去。在 Cortex 中,由于開源和天然的競爭機制,最優(yōu)秀的模型終將會存留下來,提升網(wǎng)絡(luò)的智能水平。從機器學(xué)習(xí)研究者的角度來講,Cortex 平臺集合了各種基本智能應(yīng)用的公開模型,并且是當前的世界級水準 (state of the art),這將大大加速他們的研究,并朝向 AI in All 的智能世界快速前進。這條公鏈同時使得模型在部署后的計算結(jié)果自動地得到全網(wǎng)公證。外星人存在與否我們尚不可知,但有人工智能的陪伴,人類不再孤獨前行。

系統(tǒng)架構(gòu)

1.擴充智能合約和區(qū)塊鏈的功能

Cortex 智能推斷框架

模型的貢獻者將不限于 Cortex 團隊,全球的機器學(xué)習(xí)從業(yè)人員都可以將訓(xùn)練好的相應(yīng)數(shù)據(jù)模型上傳到存儲層,其他需要該數(shù)據(jù)模型的用戶可以在其訓(xùn)練好的模型上進行推斷,并且支付費用給模型上傳者。每次推斷的時候,全節(jié)點會從存儲層將模型和數(shù)據(jù)同步到本地。通過 Cortex 特有的虛擬機 CVM (Cortex Virtual Machine) 進行一次推斷,將結(jié)果同步到全節(jié)點,并返回結(jié)果。

將需要預(yù)測的數(shù)據(jù)進行代入計算到已知一個數(shù)據(jù)模型獲得結(jié)果就是一次智能推斷的過程。用戶每發(fā)起一筆交易,執(zhí)行帶有數(shù)據(jù)模型的智能合約和進行推斷都需要支付一定的 Endorphin,每次支付的 Endorphin 數(shù)量取決于模型運算難度和模型排名等。Endorphin和 Cortex Coin 會有一個動態(tài)的轉(zhuǎn)換關(guān)系,Endorphin 的價格由市場決定,反映了Cortex 進行模型推斷和執(zhí)行智能合約的成本。這部分 Endorphin 對應(yīng)的 Cortex Coin會分成兩個部分,一部分支付給智能合約調(diào)用 Infer 的模型提交者,另一部分支付給礦工作為打包區(qū)塊的費用。對于支付給模型提交者的比例,Cortex 會為這個比例設(shè)定一個上限。

ortex 在原有的智能合約中額外添加一個 Infer 指令,使得在智能合約中可以支持使用 Cortex 鏈上的模型。

下述偽代碼表述了如何在智能合約里使用 Infer ,當用戶調(diào)用智能合約的時候就會對這個模型進行一次推斷:

模型提交框架

前面分析了鏈上訓(xùn)練的難處和不可行性,Cortex 提出了鏈下 (Offchain) 進行訓(xùn)練的提交接口,包括模型的指令解析虛擬機。這能夠給算力提供方和模型提交者搭建交易和合作的橋梁。

用戶將模型通過 Cortex 的 CVM 解析成模型字符串以及參數(shù),打包上傳到存儲層,并發(fā)布通用接口,讓智能合約編寫用戶進行調(diào)用。模型提交者需要支付一定的存儲費用得以保證模型能在存儲層持續(xù)保存。對智能合約中調(diào)用過此模型進行 Infer 所收取的費用會有一部分交付給模型提交者。提交者也可以根據(jù)需要進行撤回和更新等操作。對于撤回的情況,為了保證調(diào)用此模型的智能合約可以正常運作,Cortex 會根據(jù)模型的使用情況進行托管,并且保持調(diào)用此模型收取的費用和存儲維護費用相當。Cortex 同時會提供一個接口將模型上傳到存儲層并獲得模型哈希。之后提交者發(fā)起一筆交易,執(zhí)行智能合約將模型哈希寫入存儲中。這樣所有用戶就可以知道這個模型的輸入輸出狀態(tài)。

智能 AI 合約

Cortex 允許用戶在 Cortex 鏈上進行和機器學(xué)習(xí)相關(guān)的編程,并且提交一些依賴其他合約的交互,這將變得十分有趣。比如以太坊上運行的電子寵物 Cryptokitties ,寵物之間的交互可以是動態(tài)的、智能的、進化的。通過用戶上傳的增強學(xué)習(xí)模型,賦予智能合約結(jié)合人工智能,可以很方便的實現(xiàn)類似帶有人工智能的各種應(yīng)用。

同時 Cortex 為其他鏈提供 AI 調(diào)用接口。比如在比特幣現(xiàn)金和以太坊上,Cortex 提供基于人工智能的合約錢包地址上分析的調(diào)用結(jié)果。那些分析地址的模型將將不僅有助于監(jiān)管科技 (RegTech),也能給一般用戶提供轉(zhuǎn)賬目標地址的動態(tài)風(fēng)險評估。

2.模型和數(shù)據(jù)存儲

Cortex 鏈并不實際存儲模型和數(shù)據(jù),只存儲模型和數(shù)據(jù)的 Hash 值,真正的模型和數(shù)據(jù)存儲在鏈外的 key-value 存儲系統(tǒng)中。新模型和新數(shù)據(jù)在節(jié)點上有足夠多的副本之后將可以在鏈上可用。

3.Cortex 共識推斷標準

當用戶發(fā)起一筆交易到某個合約之后,全節(jié)點需要執(zhí)行該智能合約的代碼。Cortex 和普通智能合約不同的地方在于其智能合約中可能涉及推斷指令,需要全節(jié)點對于這個推斷指令的結(jié)果進行共識。整個全節(jié)點的執(zhí)行流程是:

1. 全節(jié)點通過查詢模型索引找到模型在存儲層的位置,并下載該模型的模型字符串和對應(yīng)的參數(shù)數(shù)據(jù)。

2. 通過 Cortex 模型表示工具將模型字符串轉(zhuǎn)換成可執(zhí)行代碼。

3. 通過 Cortex 提供的虛擬機 CVM ,執(zhí)行可執(zhí)行代碼,得到結(jié)果后進行全節(jié)點廣播共識。

Cortex 模型表示工具的作用可以分為兩部分:

1. 模型提交者需要將自己編寫的模型代碼通過模型表示工具轉(zhuǎn)化為模型字符串之后才可以提交到存儲層。

2. 全節(jié)點下載模型字符串之后通過模型表示工具提供的轉(zhuǎn)換器轉(zhuǎn)換成可執(zhí)行代碼后,在 Cortex 虛擬機中執(zhí)行推斷操作。

Cortex 虛擬機的作用在于全節(jié)點的每次推斷執(zhí)行都是確定的。

4.如何挑選優(yōu)秀的模型

Cortex 鏈不會對模型進行限制,用戶可以依靠模型 infer 的調(diào)用次數(shù)作為相對客觀的模型評價標準。當模型使用者對模型有不計計算代價的高精度需求時,Cortex 支持保留

原有模型參數(shù)使用浮點數(shù)來表示。從而,官方或者第三方機構(gòu)可以通過自行定義對模型的排序機制(召回率,準確率,計算速度,基準排序數(shù)據(jù)集等),達成模型的甄選工作,并展示在第三方的網(wǎng)站或者應(yīng)用中。

5 共識機制:PoW 挖礦

一直以來,一機一票的加密數(shù)字貨幣社區(qū)設(shè)想并未實現(xiàn)。原因是 ASIC 的特殊設(shè)計使得計算加速比得到大幅提升。社區(qū)和學(xué)術(shù)界探索了很多內(nèi)存瓶頸算法來對顯卡和 CPU 挖礦更加友好,而無需花費大量資金購買專業(yè)挖礦設(shè)備。近年來社區(qū)實踐的結(jié)果顯示,以太坊的 Dagger-Hashimoto和 Zcash 的 Equihash是比較成功的顯卡優(yōu)先原則的算法實踐。

Cortex 鏈將進一步秉承一機一票優(yōu)先,采用 Cuckoo Cycle 的 PoW 進一步縮小 CPU和顯卡之間加速比的差距。同時 Cortex 鏈將充分發(fā)掘智能手機顯卡的效能,使得手機和桌面電腦的顯卡差距符合通用硬件平臺測評工具(如 GFXBench )的差距比例:比如,最好的消費級別顯卡是最好的手機顯卡算力的 10-15 倍??紤]到手機計算的功耗比更低,使得大規(guī)模用戶在夜間充電時間利用手機挖礦將變得更加可行。

特別值得注意的一點是,出塊加密的共識算法和鏈上的智能推斷合約的計算并沒有直接聯(lián)系,PoW 保障參與挖礦的礦工們硬件上更加公平,而智能計算合約則自動提供公眾推理的可驗證性。

6.防作弊以及模型篩選

由于模型是完全公開的,所以可能會有模型被復(fù)制或抄襲等現(xiàn)象發(fā)生。在一般情況下,如果是一個非常優(yōu)秀的模型,往往上線之后就會有很高的使用量,而針對這些模型進行抄襲并沒有很大優(yōu)勢,但是,在一些特殊情況下,對一些很明顯的抄襲或者完全復(fù)制的行為,Cortex 會進行介入并且仲裁,并通過鏈上 Oracle 的方式公示。

軟件方案

1.CVM:EVM + Inference

Cortex 擁有自己的虛擬機,稱為 Cortex Virtual Machine(CVM)。CVM 指令集完全兼容 EVM,此外,CVM 還提供對于推斷指令的支持。Cortex 將在 0xc0 加入一個新的 INFER 指令。這條指令的輸入是推斷代碼,輸出是推斷結(jié)果。CVM 使用的虛擬機指令包含的內(nèi)容在表 1中說明。

2.Cortex 核心指令集與框架標準

人工智能的典型應(yīng)用——圖像問題,語音/語義/文本問題,與強化學(xué)習(xí)問題無一例外的需要以下張量操作。Cortex 以張量操作的代價作為 Endorphin 計費的一種潛在錨定手段,剖析機器學(xué)習(xí)以及深度學(xué)習(xí)的核心指令集。在不同計算框架中,這一術(shù)語往往被稱為網(wǎng)絡(luò)層 (network layer) 或者操作符 (operator)。

? 張量的計算操作,包括:

– 張量的數(shù)值四則運算:輸入張量,數(shù)值與四則運算符

– 張量之間的按位四則運算:輸入兩個張量與四則運算符

– 張量的按位函數(shù)運算:輸入張量與乘方函數(shù)、三角函數(shù)、冪與對數(shù)函數(shù)、大小判斷函數(shù)、隨機數(shù)生成函數(shù)、取整函數(shù)等。

– 張量的降維運算:輸入張量與滿足結(jié)合律、交換律的操作符。

– 張量之間的廣播運算:輸入張量,用維度低張量補齊維度后進行按位操作。

– 張量之間的乘法操作:以 NCHW/NHWC 張量存儲模式為例,包含張量與矩陣、矩陣與向量等張量乘法/矩陣乘法操作。

? 張量的重構(gòu)操作,包括:

– 維度交換,維度擴張與維度壓縮

– 按維度排序

– 值補充

– 按通道拼接

– 沿圖像平面拼接/剪裁

? 神經(jīng)網(wǎng)絡(luò)特定操作

– 全連接

– 神經(jīng)網(wǎng)絡(luò)激發(fā)函數(shù)主要依賴張量的按位函數(shù)運算的操作

– 1 維/2 維/3 維卷積(包括不同尺度卷積核、帶孔、分組等選項)

– 通過上采樣實現(xiàn)的 1 維/2 維/3 維反卷積操作與線性插值操作

– 通用輔助運算(如對一階/二階信息的統(tǒng)計 BatchNorm)

– 圖像類輔助計算(如可形變卷積網(wǎng)絡(luò)的形變參數(shù)模塊)

– 特定任務(wù)輔助計算(如 ROIPooling, ROIAlign 模塊)

Cortex 的核心指令集已覆蓋主流的人工智能計算框架操作。受制于不同平臺上 BLAS的實現(xiàn),Cortex 把擁有浮點數(shù) (Float32, Float16) 參數(shù)的 Cortex 模型通過 DevKit 轉(zhuǎn)化為定點數(shù)(INT8, INT6)參數(shù)模型 (Wu et al. [9]Han et al. [10]),從而支持跨平臺的推斷共識。

3.Cortex 模型表示工具

Cortex 模型表示工具創(chuàng)建了一個開放,靈活的標準,使深度學(xué)習(xí)框架和工具能夠互操作。它使用戶能夠在框架之間遷移深度學(xué)習(xí)模型,使其更容易投入生產(chǎn)。Cortex 模型表示工具作為一個開放式生態(tài)系統(tǒng),使人工智能更容易獲得,對不同的使用者都有價值:人工智能開發(fā)人員可以根據(jù)不同任務(wù)選擇正確的框架,框架開發(fā)人員可以專注于創(chuàng)新與更新,硬件供應(yīng)商可以針對性的優(yōu)化。例如,人工智能開發(fā)人員可以使用 PyTorch等框架訓(xùn)練復(fù)雜的計算機視覺模型,并使用 CNTK 、Apache MXNet 或者 TensorFlow進行推斷。

模型表示的基礎(chǔ)是關(guān)于人工智能計算的 Cortex 核心指令集的規(guī)范化。隨著人工智能領(lǐng)域研究成果、軟件框架、指令集、硬件驅(qū)動、硬件形式的日益豐富,工具鏈碎片化問題逐漸突顯。很多新的論文站在前人的工作基礎(chǔ)上進行微創(chuàng)新;理論過硬的科研成果得到的模型、數(shù)據(jù)、結(jié)論并不是站在過去最佳成果之上進行進一步發(fā)展,為精度的提高帶來天花板效應(yīng);工程師為了解決特定問題而設(shè)計的硬編碼更加無法適應(yīng)爆發(fā)式增長的數(shù)據(jù)。

Cortex 模型表示工具被設(shè)計為

? 表征:將字符串映射為主流神經(jīng)網(wǎng)絡(luò)模型、概率圖模型所支持的最細粒度的指令集

? 組織:將指令集映射為主流神經(jīng)網(wǎng)絡(luò)框架的代碼

? 遷移:提供同構(gòu)檢測工具,使得不同機器學(xué)習(xí)/神經(jīng)網(wǎng)絡(luò)框架中相同模型可以互相遷移

4.存儲層

Cortex 可以使用任何 key-value 存儲系統(tǒng)來存儲模型,可行的選擇是 IPFS 和 libtorrent。Cortex 的數(shù)據(jù)存儲抽象層并不依賴于任何具體的分布式存儲解決方案,分布式哈希表或者 IPFS 都可以用來解決存儲問題,對于不同設(shè)備,Cortex 采取不同策略:

? 全節(jié)點常年存儲公鏈數(shù)據(jù)模型

? 手機節(jié)點采取類似比特幣輕錢包模式,只存儲小規(guī)模的全模型

Cortex 只負責(zé)共識推斷,不存儲任何訓(xùn)練集。為了幫助合約作者篩選模型,避免過擬合的數(shù)據(jù)模型難題,合約作者可以提交測試集到 Cortex 披露模型結(jié)果。

一條進入合約級別的調(diào)用,會在內(nèi)存池 (Mempool) 中排隊,出塊后,將打包進入?yún)^(qū)塊確認交易。緩存期間數(shù)據(jù)會廣播到包括礦池的全節(jié)點。Cortex 當前的存儲能力,能夠支持目前圖片、語音、文字、短視頻等絕大部分典型應(yīng)用,足以覆蓋絕大多數(shù)人工智能問題。對于超出當前存儲限制的模型和數(shù)據(jù),比如醫(yī)療全息掃描數(shù)據(jù),一條就可能幾十個 GB ,將在未來 Cortex 提升存儲限制后加入支持。

對于 Cortex 的全節(jié)點,需要比現(xiàn)有比特幣和以太坊更大的存儲空間來存儲緩存的數(shù)據(jù)測試集和數(shù)據(jù)模型??紤]到摩爾定律 (Moore’s Law),存儲設(shè)備價格將不斷下降,因此不會構(gòu)成障礙。對于每個數(shù)據(jù)模型,Metadata 內(nèi)將建立標注信息,用來進行鏈上調(diào)用的檢索。Metadata 的格式在表 2中表述。

5.模型索引

Cortex 存儲了所有的模型,在全節(jié)點中,對于每筆需要驗證的交易,如果智能合約涉及共識推斷,則需要從內(nèi)存快速檢索出對應(yīng)的模型進行推斷。Cortex 的全節(jié)點內(nèi)存將為本地存儲的模型建立索引,根據(jù)智能合約存儲的模型地址去檢索。

6.模型緩存

Cortex 的全節(jié)點存儲能力有限,無法存下全網(wǎng)所有模型。Cortex 引入了緩存來解決這個問題,在全節(jié)點中維護一個 Model Cache 。Model Cache 數(shù)據(jù)模型的替換策略,有最近最常使用(LRU)、先進先出(FIFO)等,也可以使用任何其他方案來提高命中率。

7.全節(jié)點實驗

針對全節(jié)點執(zhí)行推斷指令的吞吐情況,本章描述了一些在單機上實驗的結(jié)果。測試平臺配置為:

? CPU: E5-2683 v3

? GPU: 8x1080TI

? 內(nèi)存: 64 GB

? 硬盤: SSD 960 EVO 250 GB

實驗中使用的測試代碼基于 python 2.7 和 MXNet ,其中主要包含以下模型:

? CaffeNet

? Network in Network

? SqueezeNet

? VGG16

? VGG19

? IncepTIon v3 / BatchNorm

? ResNet-152

? ResNet101-64x4d

所有模型都可以在 MXNet 的文檔 1 中找到。實驗分別在 CPU 和 GPU 中測試這些模型在平臺上的推斷速度,這些測試不考慮讀取模型的速度,所有模型會提前加載到內(nèi)存或者顯存中。

測試結(jié)果如表 3,括號中是 Batch Size(即一次計算所傳入的數(shù)據(jù)樣本量),所有 GPU測試結(jié)果都是在單卡上的測試。

以上是單機測試的結(jié)果。為了模擬真實的情況,試驗平臺上設(shè)置 10 萬張的圖片不斷進行推斷,每次推斷選擇隨機的模型來進行并且 Batch Siz e 為 1,圖片發(fā)放到 8 張帶有負載均衡的顯卡上。對于兩種情況:

1. 所有模型都已經(jīng)讀取完畢并存放到顯存中,其單張圖片推斷的平均速度為 3.16ms。

2. 每次重新讀取數(shù)據(jù)(包括模型和輸入數(shù)據(jù))而不是提前加載進顯存,但是進行緩存,其單張圖片推斷的平均速度為 113.3 ms。

結(jié)論 全節(jié)點在模型已經(jīng)預(yù)讀到顯存之后,支持負載均衡,并且將同一模型進行顯卡間并行推斷,測試結(jié)果大約每秒能執(zhí)行接近 300 次的單一推斷。如果在極端情況下不進行顯存預(yù)讀,而只是進行緩存,每次重新讀取模型和輸入數(shù)據(jù),大約每秒能進行 9 次左右的單一推斷。以上實驗都是在沒有優(yōu)化的情況下進行的計算,Cortex 的目標之一是致力于不斷優(yōu)化提高推斷性能。

硬件方案

1.CUDA and RoCM 方案

Cortex 的硬件方案大量采用了 NVidia 公司的 CUDA 驅(qū)動與 CUDNN 庫作為顯卡計算的開發(fā)框架。同時,AMD OpenMI 軟件項目采用了 RoCM 驅(qū)動與 HIP/HCC 庫人工智能研發(fā)計劃, 并計劃在 2018 年底推出后支持的開發(fā)框架。

2.FPGA 方案

FPGA 產(chǎn)品的特性是低位定點運算 (INT8 甚至 INT6 運算),延時較低,但是計算功耗較高,靈活性較差;在自動駕駛領(lǐng)域、云服務(wù)領(lǐng)域已經(jīng)有較好的深度學(xué)習(xí)部署方案。Cortex 計劃對 Xilinx 與 Altera 系列產(chǎn)品提供 Infer 支持。

3.全節(jié)點的硬件配置需求 - 多顯卡和回歸傳統(tǒng)的 USB 挖礦

不同于傳統(tǒng)的比特幣和以太坊全節(jié)點,Cortex 對全節(jié)點的硬件配置需求較高。需要比較大的硬盤存儲空間和多顯卡桌面主機來達到最佳確認速度的性能,然而這并不是必需的。在比特幣領(lǐng)域 USB 曾經(jīng)是一種即插即用的比特幣小型 ASIC 礦機,在大規(guī)模礦廠形成之前,這種去中心化的挖礦模式,曾經(jīng)風(fēng)靡一時,Cortex 全節(jié)點在缺少顯卡算力的情況下可以配置類似的神經(jīng)網(wǎng)絡(luò)計算芯片或計算棒,這些設(shè)備已經(jīng)在市場上逐漸成熟。與 USB 挖礦不同的是,計算芯片是做全節(jié)點驗證的硬件補足,并非計算挖礦具體過程中需要的設(shè)備。

4.現(xiàn)有顯卡礦廠需要的硬件改裝措施

對于一個現(xiàn)有顯卡算力的礦廠,特別是有高端顯卡的礦廠,Cortex 提供改造咨詢服務(wù)和整體技術(shù)解決方案,使得礦廠具有和世界一流 AI 公司同等水平的智能計算中心,硬件性價比將遠遠超過現(xiàn)有商用 GPU 云,多中心化的礦廠有機會出售算力給算法提供者,或者以合作的方式生成數(shù)據(jù)模型,和世界一流的互聯(lián)網(wǎng)、AI 公司同場競技。具體的改造策略有:

? 主板和 CPU 的定制策略,滿足多路 PCI-E 深度學(xué)習(xí)的數(shù)據(jù)傳輸帶寬

? 萬兆交換機和網(wǎng)卡的硬件解決方案

? 存儲硬件和帶寬解決方案

? 相關(guān)軟件在挖 Cortex 主鏈、挖其他競爭顯卡幣和鏈下深度學(xué)習(xí)訓(xùn)練之間自動切換

? 相關(guān)的手機端監(jiān)控收益、手動切換等管理軟件

5. 手機設(shè)備和物聯(lián)網(wǎng)設(shè)備挖礦和計算

平衡異構(gòu)計算芯片 (CPU)、顯示芯片 (GPU)、FPGA 與 ASIC 計算模塊的算力收益比例,從而更加去中心的進行工作量證明挖礦,一直是主鏈設(shè)計的難點,特別是能夠讓算力相對弱小的設(shè)備,比如手機和 IoT 設(shè)備參與其中。同時,由于目前市場上的手機設(shè)備已經(jīng)出現(xiàn)了支持 AI 計算的芯片或者計算庫、基于手機 AI 芯片的計算框架也可以參與智能推斷,只不過全節(jié)點的數(shù)據(jù)模型相對較大,移動端需要定制對可執(zhí)行數(shù)據(jù)模型的規(guī)模做篩選。Cortex 主鏈將發(fā)布 AndroidiOS 客戶端 App:

? 閑置中具有顯卡算力的設(shè)備能通過 SoC 、ARM 架構(gòu)的 CPU/GPU 參與挖礦,比如市場中,電視盒子的顯卡性能其實已經(jīng)很不錯了,而 90% 時間基本都在閑置

? 用戶手機在上班充電和睡覺充電中都可以參與挖礦,只要算法上讓手機的顯卡得到公平的收益競爭力

? 手機或其他配有 AI 芯片的設(shè)備,能夠自動在主鏈出塊和執(zhí)行智能推斷之間切換

手機端的推斷能力可能會受到芯片供應(yīng)商的軟件技術(shù)限制,不同軟件供應(yīng)商正在封裝不同的計算協(xié)議,Cortex 將負責(zé)抽象層接口的編寫和輕智能客戶端的篩選。

代幣模型

1.Cortex Coin (CTXC)

模型提交者的獎勵收益

傳統(tǒng)的區(qū)塊鏈對于每個打包區(qū)塊的獎勵是直接支付給礦工的,Cortex 為了激勵開發(fā)者提交更加豐富和優(yōu)秀的模型,調(diào)用合約需要支付的 Endorphin 不僅僅會分配給幫助區(qū)塊打包的節(jié)點礦工,還會支付給模型的提供者。費用的收取比例采用市場博弈價格,類似以太坊中 Gas 的機制。

模型提交者成本支出

為了防止模型提交者進行過度的提交和存儲攻擊 - 比如,隨意提交幾乎不可用的模型以及頻繁提交相同模型從而占用存儲資源 - 每個模型提交者必須支付存儲費用。這樣可以促使模型提交者提交更加優(yōu)秀的模型。這樣調(diào)用者更多,模型提交者收益更大。

模型復(fù)雜度和 Endorphin 的耗費

Endorphin 用來衡量在推斷過程中將數(shù)據(jù)模型帶入合約時,計算所耗費的虛擬機級別硬件計算資源,Endorphin 的耗費正比于模型大小,同時 Cortex 也為模型的參數(shù)大小設(shè)置了 8GB 的上限,對應(yīng)最多約 20 億個 Float32 的參數(shù)。

2.代幣分配

Cortex Coin (CTXC) 數(shù)量總共為 299,792,4582個。其中 60,000,000 (20.01%) 分配給早期投資者。

3 代幣發(fā)行曲線

Cortex Coin 發(fā)行總量為 299,792,458 個,其中 150,000,000 的 Cortex Coin 可以通過挖礦獲得。

第一個 4 年 75,000,000

第二個 4 年 37,500,000

第三個 4 年 18,750,000

第四個 4 年 9,375,000

第五個 4 年 4,687,500

依此類推,發(fā)行量按每四年減半。

本站聲明: 本文章由作者或相關(guān)機構(gòu)授權(quán)發(fā)布,目的在于傳遞更多信息,并不代表本站贊同其觀點,本站亦不保證或承諾內(nèi)容真實性等。需要轉(zhuǎn)載請聯(lián)系該專欄作者,如若文章內(nèi)容侵犯您的權(quán)益,請及時聯(lián)系本站刪除。
換一批
延伸閱讀

9月2日消息,不造車的華為或?qū)⒋呱龈蟮莫毥谦F公司,隨著阿維塔和賽力斯的入局,華為引望愈發(fā)顯得引人矚目。

關(guān)鍵字: 阿維塔 塞力斯 華為

加利福尼亞州圣克拉拉縣2024年8月30日 /美通社/ -- 數(shù)字化轉(zhuǎn)型技術(shù)解決方案公司Trianz今天宣布,該公司與Amazon Web Services (AWS)簽訂了...

關(guān)鍵字: AWS AN BSP 數(shù)字化

倫敦2024年8月29日 /美通社/ -- 英國汽車技術(shù)公司SODA.Auto推出其旗艦產(chǎn)品SODA V,這是全球首款涵蓋汽車工程師從創(chuàng)意到認證的所有需求的工具,可用于創(chuàng)建軟件定義汽車。 SODA V工具的開發(fā)耗時1.5...

關(guān)鍵字: 汽車 人工智能 智能驅(qū)動 BSP

北京2024年8月28日 /美通社/ -- 越來越多用戶希望企業(yè)業(yè)務(wù)能7×24不間斷運行,同時企業(yè)卻面臨越來越多業(yè)務(wù)中斷的風(fēng)險,如企業(yè)系統(tǒng)復(fù)雜性的增加,頻繁的功能更新和發(fā)布等。如何確保業(yè)務(wù)連續(xù)性,提升韌性,成...

關(guān)鍵字: 亞馬遜 解密 控制平面 BSP

8月30日消息,據(jù)媒體報道,騰訊和網(wǎng)易近期正在縮減他們對日本游戲市場的投資。

關(guān)鍵字: 騰訊 編碼器 CPU

8月28日消息,今天上午,2024中國國際大數(shù)據(jù)產(chǎn)業(yè)博覽會開幕式在貴陽舉行,華為董事、質(zhì)量流程IT總裁陶景文發(fā)表了演講。

關(guān)鍵字: 華為 12nm EDA 半導(dǎo)體

8月28日消息,在2024中國國際大數(shù)據(jù)產(chǎn)業(yè)博覽會上,華為常務(wù)董事、華為云CEO張平安發(fā)表演講稱,數(shù)字世界的話語權(quán)最終是由生態(tài)的繁榮決定的。

關(guān)鍵字: 華為 12nm 手機 衛(wèi)星通信

要點: 有效應(yīng)對環(huán)境變化,經(jīng)營業(yè)績穩(wěn)中有升 落實提質(zhì)增效舉措,毛利潤率延續(xù)升勢 戰(zhàn)略布局成效顯著,戰(zhàn)新業(yè)務(wù)引領(lǐng)增長 以科技創(chuàng)新為引領(lǐng),提升企業(yè)核心競爭力 堅持高質(zhì)量發(fā)展策略,塑強核心競爭優(yōu)勢...

關(guān)鍵字: 通信 BSP 電信運營商 數(shù)字經(jīng)濟

北京2024年8月27日 /美通社/ -- 8月21日,由中央廣播電視總臺與中國電影電視技術(shù)學(xué)會聯(lián)合牽頭組建的NVI技術(shù)創(chuàng)新聯(lián)盟在BIRTV2024超高清全產(chǎn)業(yè)鏈發(fā)展研討會上宣布正式成立。 活動現(xiàn)場 NVI技術(shù)創(chuàng)新聯(lián)...

關(guān)鍵字: VI 傳輸協(xié)議 音頻 BSP

北京2024年8月27日 /美通社/ -- 在8月23日舉辦的2024年長三角生態(tài)綠色一體化發(fā)展示范區(qū)聯(lián)合招商會上,軟通動力信息技術(shù)(集團)股份有限公司(以下簡稱"軟通動力")與長三角投資(上海)有限...

關(guān)鍵字: BSP 信息技術(shù)
關(guān)閉
關(guān)閉