淺談機(jī)器學(xué)習(xí)是大數(shù)據(jù)走向嵌入式智能化應(yīng)用的捷徑
我們生活在一個特定的世界,幾乎每個人都在談?wù)摂?shù)據(jù)和潛在價值。繪制大量的原始數(shù)據(jù)是復(fù)雜且難以解釋的。近年來,學(xué)習(xí)機(jī)器使我們能夠?qū)崿F(xiàn)在線公司迄今為止所做的大部分價值,但現(xiàn)在它們正在擴(kuò)展到物理世界。然而,對于許多人來說,傳感器數(shù)據(jù)和集成KI模型之間的路徑似乎幾乎無法逾越。
WriTIngembeddedsoftwareisnotoriouslyTIme-consuming,andisknowntotakeatleast10-20TImeslongerthandesktopsoftware被發(fā)展的狀態(tài)開發(fā)區(qū)[1].Itdoesnothavetobethatway.Here,wewillwalkyouthrougharealAIproject—fromtoembeddedapplicaTIon—usingourefficient,time-savingmethod.
今天,處理和解釋傳感器數(shù)據(jù)的絕大多數(shù)軟件都是基于傳統(tǒng)的方法:變換、濾波、統(tǒng)計分析等。這些方法是由一個人設(shè)計的,他參考他們的個人領(lǐng)域知識,在數(shù)據(jù)中尋找某種“指紋。通常,這種指紋是數(shù)據(jù)中事件的復(fù)雜組合,需要機(jī)器學(xué)習(xí)才能成功地解決問題。
Tobeabletoprocesssensordatainreal-time,themachinelearningmodelneedstorunlocallyonthechip,closetothesensoritself—usuallycalled“theedge.”Here,weexplainhowamachinelearningapplicationcanbecreated,fromtheinitialdatacollectionphasetothefinalembeddedapplication.Asanexample,welookataprojectweatImagimobcarriedouttogetherwiththeradarmanufacturerAcconeer.
(左)Acconeer生產(chǎn)世界上最小、最節(jié)能的產(chǎn)品雷達(dá)系統(tǒng)。
在2019年,Imagimob與Acconeer合作,創(chuàng)建了一個帶有手勢識別的嵌入式應(yīng)用程序。兩家公司都專注于為小型電池供電設(shè)備提供解決方案,對能源效率、處理能力和BOM成本提出了極端要求。我們的目標(biāo)硬件包含一個基于ArmCortex-M0-M4架構(gòu)的MCU,它提供了市場上最節(jié)能的平臺。對于我們Imagimob來說,邊緣計算幾乎已經(jīng)成為最小ArmCortexM系列MCU上的高級計算的同義詞。重要的是,能夠運(yùn)行我們的應(yīng)用程序在下端的ArmCortexM系列MCU,因為它向世界表明,我們正在瞄準(zhǔn)地球上最小的設(shè)備。這就是我們希望從市場角度出發(fā)的地方。
Acconeer生產(chǎn)世界上最小、最節(jié)能的雷達(dá)系統(tǒng)。數(shù)據(jù)包含大量信息,對于手勢控制等高級用例,需要復(fù)雜的解釋。在數(shù)據(jù)輸出流的頂部運(yùn)行機(jī)器學(xué)習(xí)軟件對這些案例有很大的好處。因此,Imagimob-Aconeer協(xié)作在創(chuàng)建全新的和創(chuàng)造性的嵌入式應(yīng)用程序方面是一個很好的匹配。
我們與Acconeer的項目的目標(biāo)是創(chuàng)建一個嵌入式應(yīng)用程序,該應(yīng)用程序可以使用雷達(dá)數(shù)據(jù)實時分類五種不同的手勢(包括用于喚醒應(yīng)用程序的一個手勢)。由于雷達(dá)體積小,可以放置在一對耳機(jī)中,手勢將作為虛擬按鈕來引導(dǎo)功能,通常被編程成物理按鈕。該項目的最終產(chǎn)品被確定為一個運(yùn)行在ArmCortex-M4架構(gòu)上的C庫,該庫于2020年1月在拉斯維加斯的CES上被展示為一個健壯的現(xiàn)場演示。對于演示,我們使用耳朵耳機(jī)。然而,我們的長期產(chǎn)品目標(biāo)是在耳內(nèi)耳機(jī)中使用這項技術(shù)。我們認(rèn)為,手勢檢測特別會改變耳內(nèi)耳機(jī)的可用性,因為它們的面積有限,這使得物理按鈕的放置變得困難。
在其核心,(監(jiān)督)機(jī)器學(xué)習(xí)是關(guān)于找到一個函數(shù)(F),根據(jù)y=f(X)將一些輸入數(shù)據(jù)(X)映射到一些輸出數(shù)據(jù)(Y)。該函數(shù)或“模型”是通過處理許多不同的輸入/輸出對(x,y)和“學(xué)習(xí)”它們之間的關(guān)系來找到的。如果y是一個連續(xù)的值,那么這個問題被稱為回歸問題。但如果y取離散值,則被認(rèn)為是一個分類問題。因此,機(jī)器學(xué)習(xí)項目的第一步是收集這些數(shù)據(jù)對。模型構(gòu)建是第二步。嵌入式項目的最后一步是在目標(biāo)平臺上部署模型。下面,我們以手勢識別項目為指導(dǎo)示例,通過這些步驟。
機(jī)器學(xué)習(xí)項目的第一步是收集數(shù)據(jù)對。模型構(gòu)建是第二步,a嵌入式項目的最后一步是在目標(biāo)平臺上部署模型。
(左)我們?yōu)槌跏茧A段建造了一個粗糙的試驗臺datacollectionwhich由雷達(dá)傳感器組成安裝在上面development板和放置在一個一對耳機(jī)。
從表面上看,數(shù)據(jù)收集似乎不是一項艱巨的任務(wù)。但這一步通常被低估了,根據(jù)我們的經(jīng)驗,這是大部分時間都花在這里的。首先要考慮的是如何從傳感器中物理地獲取數(shù)據(jù)。許多傳感器帶有一個開發(fā)板,可以從中提取數(shù)據(jù),通常是通過某種電纜連接到PC機(jī)。對于手勢識別項目,我們搭建了一個粗糙的試驗臺,用于初始數(shù)據(jù)采集,由安裝在開發(fā)板上的雷達(dá)傳感器組成,放置在一對耳機(jī)上,如下圖所示。在這種情況下,我們使用了AcconeerXM112雷達(dá)傳感器和XB112突破板。
接下來要考慮的是如何有效地標(biāo)記數(shù)據(jù)。換句話說,你需要弄清楚如何為每個“x”標(biāo)記適當(dāng)?shù)摹皔”。這可能看起來很瑣碎,但當(dāng)涉及到最小化這一步所需的人工工作量時,這是至關(guān)重要的??紤]到大量的數(shù)據(jù),如果您不能正確地理解這一點(diǎn),它將成為一項非常耗時的任務(wù)。對于傳感器時間序列數(shù)據(jù),通常不可能僅僅通過查看數(shù)據(jù)來標(biāo)記數(shù)據(jù),否則,例如圖像數(shù)據(jù)可能是可能的。
幫助標(biāo)記過程的一種方法是將視頻記錄附加到數(shù)據(jù)中。ImagimobCapture是一個Android應(yīng)用程序,它將同步視頻記錄附加到每個傳感器數(shù)據(jù)流中。標(biāo)簽可以直接在應(yīng)用程序中完成,也可以在桌面應(yīng)用程序ImagimobStudio中完成。在我們的雷達(dá)手勢識別項目中,數(shù)據(jù)流看起來如下:
雷達(dá)手勢識別項目中的數(shù)據(jù)流。
在這里,數(shù)據(jù)從傳感器,帶有USB串口,發(fā)送到PC。在PC上,服務(wù)器運(yùn)行并將數(shù)據(jù)發(fā)送到手機(jī)上的ImagimobCapture,而手勢則被視頻記錄。標(biāo)記的數(shù)據(jù),連同其視頻記錄,然后發(fā)送回PC,或云存儲,如果數(shù)據(jù)是遠(yuǎn)程收集。從存儲中,數(shù)據(jù)可以下載到ImagimobStudio,當(dāng)它是建模階段的時候。
我們定義了以下一組手勢(“覆蓋傳感器”僅用于喚醒應(yīng)用程序),并記錄了大約七個不同的人的數(shù)據(jù)。
從七個不同的人記錄了上述一組手勢的數(shù)據(jù)。
數(shù)據(jù)收集過程的一個例子如下圖所示。手勢識別模型僅限于特定的手勢,但可以很容易地用其他手勢進(jìn)行再訓(xùn)練。
手勢數(shù)據(jù)采集過程的一個例子。
一旦數(shù)據(jù)到位并貼上標(biāo)簽,就該建立機(jī)器學(xué)習(xí)模型了。通常,人們開始建立模型只是為了很快意識到他們需要調(diào)整一些標(biāo)簽。你是做什么的?手動進(jìn)入并編輯文本文件和更新數(shù)據(jù)是很麻煩的,這是我們都希望盡可能避免的。相反,圖形工具是可取的。ImagimobStudio將數(shù)據(jù)與視頻記錄一起加載,并允許用戶以圖形方式拖動和修剪標(biāo)簽。一個例子,以一個記錄的手勢,顯示在下面的圖像。視頻與綠色數(shù)據(jù)一起可見。在底部,藍(lán)色的標(biāo)簽顯示出來,我們可以看到它們緊緊地放在手勢周圍(非零數(shù)據(jù))。
ImagimobStudio將數(shù)據(jù)與視頻記錄一起加載,并允許用戶以圖形方式拖動和修剪標(biāo)簽。這是一個有記錄的手勢的例子。
如果數(shù)據(jù)已經(jīng)在ImagimobCapture中預(yù)先標(biāo)記,那么通過文件并確保數(shù)據(jù)是正確的,并且標(biāo)簽已經(jīng)到位,這是一個相對較小的任務(wù)。沒有正確標(biāo)記的數(shù)據(jù),很難找到一個好的模型。找到一個高精度的好模型通常需要多次迭代和實驗。首先要決定使用什么機(jī)器學(xué)習(xí)技術(shù),例如隨機(jī)森林、支持向量機(jī)或人工神經(jīng)網(wǎng)絡(luò)等。在過去的幾年里,深度學(xué)習(xí)由于具有原始數(shù)據(jù)的令人印象深刻的學(xué)習(xí)能力而受到歡迎。深度學(xué)習(xí)的主要吸引力之一是它排除了手動查找功能的需要,這是更傳統(tǒng)的機(jī)器學(xué)習(xí)方法所需要的。它具有提高精度和消除大量手工工作的潛力。然而,仍有許多所謂的超參數(shù)有待選擇,例如網(wǎng)絡(luò)的體系結(jié)構(gòu)、所謂的學(xué)習(xí)率和許多其他參數(shù)。
在ImagimobStudio中,用戶經(jīng)歷了構(gòu)建深度神經(jīng)網(wǎng)絡(luò)的過程。用戶定義要試用多少種不同類型的超參數(shù),然后程序自動搜索所有組合并保存最佳模型。
在ImagimobStudio中,用戶被引導(dǎo)通過構(gòu)建深度神經(jīng)網(wǎng)絡(luò)的過程。用戶定義要試用多少種不同類型的超參數(shù),然后程序自動搜索所有組合并保存最佳模型。
一旦您對模型的健壯性感到滿意,就該是過程中的最后一步了:將模型導(dǎo)出到C代碼并為嵌入式硬件構(gòu)建庫。
當(dāng)從PC環(huán)境中的高級語言軟件開發(fā)到微控制器(MCU)上的低級編程時,復(fù)雜性急劇增加。發(fā)育時間增加的因子為10-20并不少見[1]。例如,障礙可能包括更難的內(nèi)存和處理限制,更長的調(diào)試周期,以及更難找到的更糟糕的錯誤類型。
在ImagimobStudio中,以.h5文件形式訓(xùn)練的模型很容易轉(zhuǎn)換為特定硬件類型的C代碼,如“Edge”選項卡所示。
在ImagimobStudio中,以.h5文件形式(用于從Tensorflow、Keras和其他深度學(xué)習(xí)框架導(dǎo)出模型權(quán)重和體系結(jié)構(gòu)的通用格式)的經(jīng)過訓(xùn)練的模型可以很容易地轉(zhuǎn)換為特定硬件類型的C代碼,如上一幅圖像中的“Edge”選項卡所示。
然后編譯C代碼并將其閃爍到硬件上。我們通常構(gòu)建一個庫,可以集成到C應(yīng)用程序中。右邊,可以看到現(xiàn)場演示的嵌入式版本。它有一個電池驅(qū)動的Acconeer物聯(lián)網(wǎng)模塊XM122與藍(lán)牙連接。人工智能應(yīng)用程序運(yùn)行在XM122模塊上,其中包括來自北歐半導(dǎo)體的NRF52840SoC,該模塊基于ArmCortexM4MCU。
現(xiàn)場演示的嵌入式版本。
在這里,你可以看看最后的演示:
圖像手勢檢測庫的核心是針對時間序列數(shù)據(jù)的人工神經(jīng)網(wǎng)絡(luò)。它是專門設(shè)計的,腦海中有一個小的記憶足跡。庫用C編寫并在靜態(tài)庫中編譯,然后與主AcconeerC應(yīng)用程序一起編譯。 ·TheGesturedetectionlibraryusesradardatafromtheAcconeerXM122IoTModuleasinput ·Thememoryfootprintofthegesturelibraryisapproximately80kBRAM ·Thelibraryrunsona32-bit64MHzArmCortexM4MCUwith1MBFlashand256kBRAM ·Thelibraryprocessesroughly30kBofdatapersecond ·TheexecutiontimeoftheAImodelisroughly70mswhichmeansthatitpredictsagestureatapproximately14.3Hz
在2020年6月,由Imagimob、Acconeer和Flexworks組成的一個財團(tuán)從瑞典Vinnova獲得了價值45萬$的贈款,以采取下一步建設(shè)gesturhe控制的耳內(nèi)耳機(jī)。Acconeer將覆蓋傳感部分,F(xiàn)lexworks將負(fù)責(zé)硬件和力學(xué),我們在Imagimob將開發(fā)手勢檢測應(yīng)用程序。在這個項目中,我們不僅將建立第一個手勢控制的耳內(nèi)耳機(jī),而且我們還將致力于一個硬件加速系統(tǒng)的機(jī)器學(xué)習(xí)代碼在單片機(jī)上。我們將繼續(xù)使用ArmCortexM系列,并受益于Arm提供的先進(jìn)解決方案。
John malm digital analysis and development algorithmus擔(dān)任imagimob machines的學(xué)習(xí)開發(fā)者[(1)]麥康奈爾,史蒂夫,軟件評估,秘密黑藝術(shù),微軟出版社,2006年