今年2月,來自谷歌、微軟、高通、三星和6所大學的一組研究人員齊聚加州圣何塞,討論將機器學習帶到網(wǎng)絡(luò)最遠端的挑戰(zhàn),尤其是運行在傳感器或其他電池驅(qū)動設(shè)備上的微處理器中。
這就是盛大的“微型機器學習峰會”,該峰會的主旨是找出如何在最小的微處理器上運行機器學習算法。在邊緣的學習將推動更好的隱私實踐,更低的功耗,并在未來的設(shè)備中構(gòu)建新應(yīng)用。
神經(jīng)網(wǎng)絡(luò)的訓(xùn)練是機器學習的核心,這種訓(xùn)練需要大量的數(shù)據(jù)。最終會把它訓(xùn)練成一個無論是下圍棋還是響應(yīng)語音指令的任務(wù)模型。
許多公司目前專注于為機器學習構(gòu)建專門的硅材料,以便在數(shù)據(jù)中心內(nèi)訓(xùn)練網(wǎng)絡(luò)。他們還希望在邊緣使用硅來對機器學習模型進行推理運行數(shù)據(jù),以查看數(shù)據(jù)是否與模型的結(jié)果相匹配。但是,這個微型機器學習生態(tài)群(Tiny ML)的目標是對最小的處理器進行推理,比如為遠程傳感器供電的8位微控制器。
如果我們討論的是智能手機之類的東西,那么在邊緣推理方面已經(jīng)有了很大進展。在2019年11月,谷歌開放了兩個版本的機器學習算法的源代碼,其中一個運行所需的能量減少了50%,另一個運行速度是之前版本的兩倍。還有一些初創(chuàng)公司,如Flex Logix、Greenwaves和Syntiant,使用專用的硅來應(yīng)對類似的挑戰(zhàn)。
但是Tiny ML有不同的目標。想象一下,如果機器學習模型,能夠把對話和助聽器上的背景噪音區(qū)分開來。如果您無法在設(shè)備本身上安裝該模型,那么您就需要在運行在該模型上的云保持無線連接。但如果您能夠安裝它的話,直接在助聽器上運行該模型更有效、更安全。
Tiny ML的研究人員也在嘗試在電池供電的邊緣設(shè)備上使用ML來進行更好的數(shù)據(jù)分類。Latent AI公司首席執(zhí)行長Jags Kandasamy表示,他的公司正在與制造增強現(xiàn)實和虛擬現(xiàn)實耳機相關(guān)公司進行談判。Latent AI正在開發(fā)用于微型處理器的神經(jīng)網(wǎng)絡(luò)壓縮軟件。這些公司希望利用他們的耳機收集的大量圖像數(shù)據(jù),對設(shè)備上看到的圖像進行分類,這樣他們就可以將有用的數(shù)據(jù)發(fā)送到云上,供以后培訓(xùn)使用。 “如果你已經(jīng)看到了10輛豐田皇冠,它們真的有必要轉(zhuǎn)移到云端嗎?”Kandasamy問道。
由于機器學習通常需要大量的電力,而將設(shè)備上的數(shù)據(jù)進行分類可以減少收集到云中的數(shù)據(jù)量,從而節(jié)省帶寬和電力。
當涉及到機器學習時,很多人覺得數(shù)據(jù)越大才越好,但我對將機器學習應(yīng)用到邊緣的潛力感到興奮。盡管Tiny ML仍然專注于推理的挑戰(zhàn),也許有一天我們甚至可以考慮在邊緣上訓(xùn)練網(wǎng)絡(luò)本身。