人工神經網絡在解決分類、回歸、函數估計和降維等問題中非常有用。然而,不同的神經網絡結構能夠在某些問題上獲得更高的性能。本文將概述最常見的神經網絡架構——包括遞歸神經網絡和腦回神經網絡——以及如何實現它們來幫助區(qū)塊鏈技術。
腦回神經網絡
腦回神經網絡(CNNs)是一種神經網絡,旨在捕捉輸入數據中越來越復雜的特征。要做到這一點,CNNs是由一系列的圖層構成的,每個圖層由一系列立方體形狀的濾鏡組成。在CNNs中最常用的層是腦回層、最大池層和全連接層。
?腦回層:腦回層由一組立方形濾波器組成,這些濾波器通過計算兩者的點積與輸入數據腦回,形成所謂的腦回特征映射。腦回層的目標是從輸入數據中提取特征,并且通常在同一網絡中使用多個腦回層,以便在數據傳播時學習越來越復雜的特征。
?池化層:池化層定期插入到腦回網絡中,負責縮小腦回特征的空間大小。這樣做的主要原因是通過降維來降低處理數據所需的計算能力。一般來說,通常使用兩種類型的池層:最大池層和平均池層。
?全連接層:全連接層被添加到網絡的末端,并作為腦回層和池層的扁平向量表示的輸入。本質上,完全連通層代表一個規(guī)則的完全連通神經網絡,該神經網絡的訓練目的是對輸入數據進行分類。全連通層的輸出是一維向量,表示輸入數據屬于某一類的概率。
遞歸神經網絡
許多機器學習問題需要分析數據,在這些數據中可以觀察到單個訓練實例之間的關系。在處理所謂的排序問題時就是這種情況:輸入到網絡中的數據表示數據點的序列(通常稱為“時間序列”)。
可以找到許多表示這種數據序列的實際例子,包括日常氣溫、個別股票的收盤價或一個句子所代表的單詞序列。從這些示例中可以清楚地看到,有價值的信息可能按照實例表示到網絡的順序隱藏。為了獲取這些信息,需要更復雜的網絡,這就鼓勵了神經網絡類型的發(fā)明,這種類型的神經網絡目前通常用于處理順序數據:遞歸神經網絡(RNNs)。
從概念上講,RNNs通過在網絡架構中引入反饋回路來實現這一點,使它們能夠使用以前計算中的信息來確定新的輸出。這一特性賦予了遞歸神經網絡一種類似記憶的能力,使它們能夠在處理順序數據時回顧幾個步驟。
長短時記憶網絡
長期短時記憶網絡(LSTMs)使用記憶單元,而不是像RNNs那樣使用常規(guī)神經元。這些單元由三個門組成:忘記門、輸出門和輸入門。通過調節(jié)這些門,網絡能夠在一定的時間內記住特定的值。此外,由于長短時記憶網絡能夠減少漸變問題,因此可用于深度遞歸網絡結構。這使得它們特別適合用于復雜的排序任務,如時間序列預測,語音識別和語義分析。
區(qū)塊鏈行業(yè)的人工智能
像區(qū)塊鏈技術這樣的分布式存儲系統需要共識協議來決定哪個節(jié)點將向區(qū)塊鏈添加新發(fā)布的區(qū)塊,從而為網絡提供最新的交易信息。目前,在分布式系統中,存在著不同的協議來達成共識,其中最突出的協議是工作證明協議(PoW)和利害關系證明協議(PoS)。然而,這些協議是有缺陷的,因為它們消耗了大量的能量(PoW),或者傾向于傾向于傾向于持有大量硬幣的節(jié)點,這可能會壟斷其區(qū)塊鏈(PoS)。
人工智能——尤其是神經網絡——為這些問題提供了解決方案,方法是將其應用于一種叫做人工智能證明(PoAI)的新型節(jié)能協議中。人工智能協議證明由J. Chen等人(2018)提出。人工智能協議的證明使用一個預先訓練的CNN來確定每個節(jié)點的平均交易數(AVN),并利用該計算結果和節(jié)點特征來確定節(jié)點池中的挖掘節(jié)點。通過使用該協議,共識機制確保了節(jié)點選擇的公平性,保持了區(qū)塊鏈的去中心化特性,減少了能源浪費和挖掘沖突的問題。
區(qū)塊鏈應用的未來
人工智能以及RNNs的引入,特別是LSTMs的引入使得復雜的時間序列預測成為可能,這是機器學習的一個領域,通過引用過去的參數來預測未來的參數。
利用比特幣(或任何加密貨幣)之前的價格點的數據,可以訓練RNNs來估計其未來價格。這使得零售行業(yè)的參與者能夠考慮到未來價格的上漲/下跌,這可能有助于向數字貨幣的實施過渡。
對于技術專業(yè)人士來說,盡可能多地了解人工智能和神經網絡的未來是非常重要的,這樣才能保持領先優(yōu)勢。在這方面有很多很好的資源可以幫助你,比如學習神經網絡這樣的博客和來自GoogleTechTalks和Geoffrey E. Hinton的視頻等。瀏覽一下網絡,對未來進行投資——它會以你意想不到的方式幫助你。