www.久久久久|狼友网站av天堂|精品国产无码a片|一级av色欲av|91在线播放视频|亚洲无码主播在线|国产精品草久在线|明星AV网站在线|污污内射久久一区|婷婷综合视频网站

當(dāng)前位置:首頁(yè) > 公眾號(hào)精選 > 嵌入式案例Show
[導(dǎo)讀]點(diǎn)擊上方藍(lán)字關(guān)注我哦~ 01 前言 在前面兩篇關(guān)于火焰檢測(cè)的文章中,最終的效果不是很好,為了提高火焰檢測(cè)的效果,又搜集了一些火焰數(shù)據(jù),訓(xùn)練的網(wǎng)絡(luò)由之前的yolov3-tiny改為mobilev2-yolov3,最終在樹(shù)莓派上利用NCNN推算框架,比之前的效果要好很多,如圖:

點(diǎn)擊上方藍(lán)字關(guān)注我哦~

01

前言


在前面兩篇關(guān)于火焰檢測(cè)的文章中,最終的效果不是很好,為了提高火焰檢測(cè)的效果,又搜集了一些火焰數(shù)據(jù),訓(xùn)練的網(wǎng)絡(luò)由之前的yolov3-tiny改為mobilev2-yolov3,最終在樹(shù)莓派上利用NCNN推算框架,比之前的效果要好很多,如圖:

02

實(shí)現(xiàn)步驟


在darknet下訓(xùn)練

訓(xùn)練的cfg和model文件如果需要聯(lián)系筆者。

在樹(shù)莓派上部署NCNN

官方提供了在樹(shù)莓派上的編譯說(shuō)明,按照這個(gè)說(shuō)明是可以編譯起來(lái)的。這里可以參考這篇文章來(lái)安裝依賴:

sudo apt-get install git cmakesudo apt-get install -y gfortransudo apt-get install -y libprotobuf-dev libleveldb-dev libsnappy-dev libopencv-dev libhdf5-serial-dev protobuf-compilersudo apt-get install --no-install-recommends libboost-all-devsudo apt-get install -y libgflags-dev libgoogle-glog-dev liblmdb-dev libatlas-base-dev

然后下載NCNN:

git clone https://github.com/Tencent/ncnn.gitcd ncnn

編輯CMakeList.txt文件,添加examples和benchmark:

add_subdirectory(examples)add_subdirectory(benchmark)add_subdirectory(tools)

然后就可以按照官方文檔進(jìn)行編譯了,官方提供的pi3 toolchain在4代Raspbian上可以直接使用,最新版的NCNN會(huì)自動(dòng)使用OpenMP:

cd <ncnn-root-dir>mkdir -p buildcd buildcmake -DCMAKE_TOOLCHAIN_FILE=../toolchains/pi3.toolchain.cmake -DPI3=ON ..make -j4

模型轉(zhuǎn)換

cd <ncnn-root-dir>cd buildcd tools/darknet./darknet2ncnn mobilenetV2-yolov3.cfg mobilenetV2-yolov3.weights mobilenetV2-yolov3.param mobilenetV2-yolov3.bin 1
  運(yùn)行
cd <ncnn-root-dir>cd buildcd example./mobilenetV2-yolov3

部分代碼

#include "net.h"
#include "platform.h"

#include <opencv2/core/core.hpp>
#include <opencv2/highgui/highgui.hpp>
#include <opencv2/imgproc/imgproc.hpp>
#include <stdio.h>
#include <vector>
#include <sys/time.h>
#include <stdio.h>
#include <string.h>
#if NCNN_VULKAN
#include "gpu.h"
#endif // NCNN_VULKAN

#define MobileNetV2-yolov3_TINY 1 //0 or undef for MobileNetV2-yolov3

struct Object
{
cv::Rect_<float> rect;
int label;
float prob;
};

double what_time_is_it_now(){
struct timeval time;
if (gettimeofday(&time,NULL)){
return 0;
}
return (double)time.tv_sec + (double)time.tv_usec * .000001;
}
ncnn::Net MobileNetV2-yolov3;
static int detect_MobileNetV2-yolov3(const cv::Mat& bgr, std::vector<Object>& objects)
{
double time;
#if NCNN_VULKAN
MobileNetV2-yolov3.opt.use_vulkan_compute = true;
#endif // NCNN_VULKAN

const int target_size = 320;
time = what_time_is_it_now();
int img_w = bgr.cols;
int img_h = bgr.rows;
//PIXEL_BGR
ncnn::Mat in = ncnn::Mat::from_pixels_resize(bgr.data, ncnn::Mat::PIXEL_BGR2RGB, bgr.cols, bgr.rows, target_size, target_size);

const float mean_vals[3] = {0, 0, 0};
const float norm_vals[3] = {1 / 255.f, 1 / 255.f, 1 / 255.f};
in.substract_mean_normalize(mean_vals, norm_vals);

ncnn::Extractor ex = MobileNetV2-yolov3.create_extractor();
ex.set_num_threads(4);

ex.input("data", in);

ncnn::Mat out;
ex.extract("output", out);
printf("Predicted in %f seconds.11\n", what_time_is_it_now()-time);
printf("%d %d %d\n", out.w, out.h, out.c);
objects.clear();
for (int i = 0; i < out.h; i++)
{
const float* values = out.row(i);

Object object;
object.label = values[0];
object.prob = values[1];
object.rect.x = values[2] * img_w;
object.rect.y = values[3] * img_h;
object.rect.width = values[4] * img_w - object.rect.x;
object.rect.height = values[5] * img_h - object.rect.y;

objects.push_back(object);
}

return 0;
}

void draw_objects(cv::Mat& image, const std::vector<Object>& objects){
static const char* class_names[] = {"background", "fire"};

//cv::Mat image = bgr.clone();

for (size_t i = 0; i < objects.size(); i++)
{
const Object& obj = objects[i];

fprintf(stderr, "%d = %.5f at %.2f %.2f %.2f x %.2f\n", obj.label, obj.prob,
obj.rect.x, obj.rect.y, obj.rect.width, obj.rect.height);

cv::rectangle(image, obj.rect, cv::Scalar(255, 0, 0));

char text[256];
sprintf(text, "%s %.1f%%", class_names[obj.label], obj.prob * 100);

int baseLine = 0;
cv::Size label_size = cv::getTextSize(text, cv::FONT_HERSHEY_SIMPLEX, 0.5, 1, &baseLine);

int x = obj.rect.x;
int y = obj.rect.y - label_size.height - baseLine;
if (y < 0)
y = 0;
if (x + label_size.width > image.cols)
x = image.cols - label_size.width;

cv::rectangle(image, cv::Rect(cv::Point(x, y), cv::Size(label_size.width, label_size.height + baseLine)),
cv::Scalar(255, 255, 255), -1);

cv::putText(image, text, cv::Point(x, y + label_size.height),
cv::FONT_HERSHEY_SIMPLEX, 0.5, cv::Scalar(0, 0, 0));
}
}

int main(int argc, char** argv){
MobileNetV2-yolov3.load_param("MobileNetV2-YOLOv3-Lite.param");
MobileNetV2-yolov3.load_model("MobileNetV2-YOLOv3-Lite.bin");
cv::VideoCapture cap(0);
if(!cap.isOpened()){
printf("capture err");
return -1;
}
cv::Mat cv_img;
std::vector<Object> objects;
while(true){
if(!cap.read(cv_img)){
printf("cv_img err");
return -1;
}
detect_MobileNetV2-yolov3(cv_img, objects);
draw_objects(cv_img, objects);
cv::imshow("video", cv_img);
cv::waitKey(1);
}
cap.release();
return 0;
}


/ The End /

目前測(cè)試效果還比較滿意,但是每幀處理的時(shí)間需要0.3s左右,還不能實(shí)時(shí),接下來(lái)的目標(biāo)是達(dá)到實(shí)時(shí)檢測(cè),并嘗試別推理框架,比如MNN和TNN。


公眾號(hào)后臺(tái)回復(fù) 火焰數(shù)據(jù) ” 獲取火焰數(shù)據(jù)集

推薦閱讀



樹(shù)莓派系列(一):基于openCV+python的顏色識(shí)別(紅色)


圖像變換:opencv基于樹(shù)莓派和Android端分別實(shí)現(xiàn)

掃碼關(guān)注我們

看更多嵌入式案例

喜歡本篇內(nèi)容請(qǐng)給我們點(diǎn)個(gè)在看

免責(zé)聲明:本文內(nèi)容由21ic獲得授權(quán)后發(fā)布,版權(quán)歸原作者所有,本平臺(tái)僅提供信息存儲(chǔ)服務(wù)。文章僅代表作者個(gè)人觀點(diǎn),不代表本平臺(tái)立場(chǎng),如有問(wèn)題,請(qǐng)聯(lián)系我們,謝謝!

本站聲明: 本文章由作者或相關(guān)機(jī)構(gòu)授權(quán)發(fā)布,目的在于傳遞更多信息,并不代表本站贊同其觀點(diǎn),本站亦不保證或承諾內(nèi)容真實(shí)性等。需要轉(zhuǎn)載請(qǐng)聯(lián)系該專欄作者,如若文章內(nèi)容侵犯您的權(quán)益,請(qǐng)及時(shí)聯(lián)系本站刪除。
換一批
延伸閱讀

9月2日消息,不造車的華為或?qū)⒋呱龈蟮莫?dú)角獸公司,隨著阿維塔和賽力斯的入局,華為引望愈發(fā)顯得引人矚目。

關(guān)鍵字: 阿維塔 塞力斯 華為

倫敦2024年8月29日 /美通社/ -- 英國(guó)汽車技術(shù)公司SODA.Auto推出其旗艦產(chǎn)品SODA V,這是全球首款涵蓋汽車工程師從創(chuàng)意到認(rèn)證的所有需求的工具,可用于創(chuàng)建軟件定義汽車。 SODA V工具的開(kāi)發(fā)耗時(shí)1.5...

關(guān)鍵字: 汽車 人工智能 智能驅(qū)動(dòng) BSP

北京2024年8月28日 /美通社/ -- 越來(lái)越多用戶希望企業(yè)業(yè)務(wù)能7×24不間斷運(yùn)行,同時(shí)企業(yè)卻面臨越來(lái)越多業(yè)務(wù)中斷的風(fēng)險(xiǎn),如企業(yè)系統(tǒng)復(fù)雜性的增加,頻繁的功能更新和發(fā)布等。如何確保業(yè)務(wù)連續(xù)性,提升韌性,成...

關(guān)鍵字: 亞馬遜 解密 控制平面 BSP

8月30日消息,據(jù)媒體報(bào)道,騰訊和網(wǎng)易近期正在縮減他們對(duì)日本游戲市場(chǎng)的投資。

關(guān)鍵字: 騰訊 編碼器 CPU

8月28日消息,今天上午,2024中國(guó)國(guó)際大數(shù)據(jù)產(chǎn)業(yè)博覽會(huì)開(kāi)幕式在貴陽(yáng)舉行,華為董事、質(zhì)量流程IT總裁陶景文發(fā)表了演講。

關(guān)鍵字: 華為 12nm EDA 半導(dǎo)體

8月28日消息,在2024中國(guó)國(guó)際大數(shù)據(jù)產(chǎn)業(yè)博覽會(huì)上,華為常務(wù)董事、華為云CEO張平安發(fā)表演講稱,數(shù)字世界的話語(yǔ)權(quán)最終是由生態(tài)的繁榮決定的。

關(guān)鍵字: 華為 12nm 手機(jī) 衛(wèi)星通信

要點(diǎn): 有效應(yīng)對(duì)環(huán)境變化,經(jīng)營(yíng)業(yè)績(jī)穩(wěn)中有升 落實(shí)提質(zhì)增效舉措,毛利潤(rùn)率延續(xù)升勢(shì) 戰(zhàn)略布局成效顯著,戰(zhàn)新業(yè)務(wù)引領(lǐng)增長(zhǎng) 以科技創(chuàng)新為引領(lǐng),提升企業(yè)核心競(jìng)爭(zhēng)力 堅(jiān)持高質(zhì)量發(fā)展策略,塑強(qiáng)核心競(jìng)爭(zhēng)優(yōu)勢(shì)...

關(guān)鍵字: 通信 BSP 電信運(yùn)營(yíng)商 數(shù)字經(jīng)濟(jì)

北京2024年8月27日 /美通社/ -- 8月21日,由中央廣播電視總臺(tái)與中國(guó)電影電視技術(shù)學(xué)會(huì)聯(lián)合牽頭組建的NVI技術(shù)創(chuàng)新聯(lián)盟在BIRTV2024超高清全產(chǎn)業(yè)鏈發(fā)展研討會(huì)上宣布正式成立。 活動(dòng)現(xiàn)場(chǎng) NVI技術(shù)創(chuàng)新聯(lián)...

關(guān)鍵字: VI 傳輸協(xié)議 音頻 BSP

北京2024年8月27日 /美通社/ -- 在8月23日舉辦的2024年長(zhǎng)三角生態(tài)綠色一體化發(fā)展示范區(qū)聯(lián)合招商會(huì)上,軟通動(dòng)力信息技術(shù)(集團(tuán))股份有限公司(以下簡(jiǎn)稱"軟通動(dòng)力")與長(zhǎng)三角投資(上海)有限...

關(guān)鍵字: BSP 信息技術(shù)
關(guān)閉
關(guān)閉