在线观看www成人影院-在线观看www日本免费网站-在线观看www视频-在线观看操-欧美18在线-欧美1级

0
  • 聊天消息
  • 系統消息
  • 評論與回復
登錄后你可以
  • 下載海量資料
  • 學習在線課程
  • 觀看技術視頻
  • 寫文章/發帖/加入社區
會員中心
創作中心

完善資料讓更多小伙伴認識你,還能領取20積分哦,立即完善>

3天內不再提示

在ELF 1 開發板上實現讀取攝像頭視頻進行目標檢測

ElfBoard ? 2024-01-24 10:38 ? 次閱讀

當前,將AI深度學習算法(如分類、目標檢測和軌跡追蹤)部署到嵌入式設備,進而實現邊緣計算,正成為輕量級深度學習算法發展的一個重要趨勢。今天將與各位小伙伴分享一個實際案例:在ELF 1開發板上成功部署深度學習模型的項目,該項目能夠實時讀取攝像頭視頻流并實現對畫面中的物體進行精準的目標檢測。

項目所需的硬件設備:1、基于NXP(恩智浦)i.MX6ULL的ELF 1開發板,2、網線,3、USB攝像頭。


獲取開發板攝像頭文件路徑

本次項目開發使用的為普通的USB攝像頭,將攝像頭插在開發板任一USB口均可。

wKgaomWwc62AdHkFAA84k1aIyk4789.png

Linux開發板中使用USB攝像頭,通常會涉及到一些基本的命令行操作。這些操作主要是通過 Video4Linux (V4L2)內核框架API進行的。以下是一些常用的命令和概念:

1. 列出所有攝像頭設備: 使用 ls /dev/video* 命令可以列出所有已連接的視頻設備。這些設備通常顯示為 /dev/video0 , /dev/video1 等。如下圖,開發板中對應的攝像頭為/dev/video2(插入哪個USB口都是一樣的)。

wKgZomWwc9aAS0PnAAFY7oKBqK0923.png

2. 查看攝像頭信息: 使用v4l2-ctl --all -d /dev/video2可以查看特定攝像頭(例如/dev/video2)的所有信息,包括支持的格式、幀率等??梢钥吹綀D象尺寸為640×480,為了和后續的目標檢測輸入圖像大小匹配,需要在程序中進行resize。

wKgZomWwc_yADzB3AAMBo4JfDFE785.png

編寫程序,讀取取攝像頭視頻進行檢測

并傳遞檢測結果到上位機

編寫在開發板中運行的程序,開發板中運行的程序主要有兩個功能:1. 讀取攝像頭捕捉的視頻并進行檢測,2. 將檢測結果通過網絡通信傳遞到上位機中。

首先是第一個功能,因為一邊要讀取視頻,一邊要進行圖片檢測,為了提高檢測速度,使用多線程來編寫相應的程序。線程間通訊采用隊列,為避免多線程間的競態,在訪問共享資源時需要添加互斥鎖。

第二個功能,采用socket通信,將檢測后的圖像發送到上位機中即可。

下面是完整的程序實現:

/*命名為 squeezenetssd_thread.cpp */ #include "net.h" #include

#include

#include #include #include #include #include #include

#include /*增加多線程代碼*/ #include #include #include #include /*隊列通信,全局變量*/ std::queue frameQueue; std::mutex queueMutex; std::condition_variable queueCondVar; bool finished = false; const size_t MAX_QUEUE_SIZE = 2; // 設為兩個,因為檢測速度實在太慢,多了意義不大

struct Object { cv::Rect_ rect; int label; float prob; }; ncnn::Net squeezenet; int client_sock; static int detect_squeezenet(const cv::Mat& bgr, std::vector& objects)

{ const int target_size = 300; int img_w = bgr.cols; int img_h = bgr.rows; ncnn::Mat in = ncnn::Mat::from_pixels_resize(bgr.data, ncnn::Mat::PIXEL_BGR, bgr.cols, bgr.rows, target_size, target_size);

const float mean_vals[3] = {104.f, 117.f, 123.f};

in.substract_mean_normalize(mean_vals, 0); ncnn::Extractor ex = squeezenet.create_extractor(); ex.input("data", in); ncnn::Mat out; ex.extract("detection_out", out); // printf("%d %d %d\n", out.w, out.h, out.c); objects.clear(); for (int i = 0; i < out.h; i++)?

{ const float* values = out.row(i); Object object; object.label = values[0]; object.prob = values[1];

object.rect.x = values[2] * img_w; object.rect.y = values[3] * img_h; object.rect.width = values[4] * img_w - object.rect.x; object.rect.height = values[5] * img_h - object.rect.y; objects.push_back(object); } return 0; } static void draw_objects(cv::Mat& bgr, const std::vector& objects)

{ static const char* class_names[] = {"background", "aeroplane", "bicycle", "bird", "boat", "bottle", "bus", "car", "cat", "chair", "cow", "diningtable", "dog", "horse", "motorbike", "person", "pottedplant", "sheep", "sofa", "train", "tvmonitor" }; //cv::Mat image = bgr.clone(); //cv::Mat& image = bgr; for (size_t i = 0; i < objects.size(); i++) { const Object& obj = objects[i];?

fprintf(stderr, "%d = %.5f at %.2f %.2f %.2f x %.2f\n", obj.label, obj.prob, obj.rect.x, obj.rect.y, obj.rect.width, obj.rect.height);

cv::rectangle(bgr, obj.rect, cv::Scalar(255, 0, 0)); char text[256];

sprintf(text, "%s %.1f%%", class_names[obj.label], obj.prob * 100); int baseLine = 0; cv::Size label_size = cv::getTextSize(text, cv::FONT_HERSHEY_SIMPLEX, 0.5, 1, &baseLine); int x = obj.rect.x; int y = obj.rect.y - label_size.height - baseLine; if (y < 0) y = 0; if (x + label_size.width > bgr.cols) x = bgr.cols - label_size.width; cv::rectangle(bgr, cv::Rect(cv::Point(x, y), cv::Size(label_size.width, label_size.height + baseLine)), cv::Scalar(255, 255, 255), -1); cv::putText(bgr, text, cv::Point(x, y + label_size.height), cv::FONT_HERSHEY_SIMPLEX, 0.5, cv::Scalar(0, 0, 0)); } // cv::imshow("image", image); // cv::waitKey(0); } void send_to_client(const cv::Mat& image, int client_sock) { std::vector buffer; std::vector params = {cv::IMWRITE_JPEG_QUALITY, 80}; cv::imencode(".jpg", image, buffer, params); uint32_t len = htonl(buffer.size()); send(client_sock, &len, sizeof(len), 0);

send(client_sock, buffer.data(), buffer.size(), 0); } /*線程1工作函數,此線程是用來采集相機圖像的*/ static void captureThreadFunction(cv::VideoCapture& cap) { while (true) { cv::Mat frame; cap >> frame; if (frame.empty()) { finished = true; queueCondVar.notify_all(); break; } cv::rotate(frame, frame, cv::ROTATE_90_COUNTERCLOCKWISE); // 圖像旋轉90度 std::unique_lock lock(queueMutex); if (frameQueue.size() >= MAX_QUEUE_SIZE) { frameQueue.pop(); // 丟棄最舊的幀

} frameQueue.push(frame); queueCondVar.notify_one(); } } /* 線程2工作函數,此線程是用來檢測圖像*/

void processThreadFunction() { int frameCount = 0; while (true) { cv::Mat frame; { std::unique_lock lock(queueMutex); queueCondVar.wait(lock, []{ return !frameQueue.empty() || finished; }); if (finished && frameQueue.empty()) { // 退出前釋放鎖 return; // 使用 return 替代 break 來確保在持有鎖時不退出循環

} frame = frameQueue.front(); frameQueue.pop(); } // 鎖在這里被釋放 // 檢測代碼...

std::vector objects; // if (++frameCount % 5 == 0) { // detect_squeezenet(frame, objects); // frameCount = 0; // } detect_squeezenet(frame,objects); draw_objects(frame, objects); send_to_client(frame, client_sock); if (cv::waitKey(1) >= 0)

{ break; } } } int main() { int server_sock = socket(AF_INET, SOCK_STREAM, 0); if (server_sock < 0)?

{ perror("socket 創建失敗"); return -1; } struct sockaddr_in server_addr; server_addr.sin_family = AF_INET; server_addr.sin_port = htons(12345); server_addr.sin_addr.s_addr = INADDR_ANY; if (bind(server_sock, (struct sockaddr*)&server_addr, sizeof(server_addr)) < 0)?

{ perror("bind 失敗"); close(server_sock); return -1; } if (listen(server_sock, 1) < 0) { perror("listen 失敗");

close(server_sock); return -1; } printf("等待客戶端連接...\n"); struct sockaddr_in client_addr; socklen_t client_len = sizeof(client_addr); client_sock = accept(server_sock, (struct sockaddr*)&client_addr, &client_len); if (client_sock < 0) { perror("accept 失敗"); close(server_sock); return -1; }?

printf("客戶端已連接\n"); // ... [模型加載和初始化代碼] ... cv::VideoCapture cap("/dev/video2");

if (!cap.isOpened()) { fprintf(stderr, "攝像頭打開失敗\n"); return -1; } squeezenet.opt.use_vulkan_compute = true; // original pretrained model from https://github.com/chuanqi305/SqueezeNetSSD // squeezenet_ssd_voc_deploy.prototxt // https://drive.google.com/open?id=0B3gersZ2cHIxdGpyZlZnbEQ5Snc // the ncnn model https://github.com/nihui/ncnn-assets/tree/master/models if (squeezenet.load_param("squeezenet_ssd_voc.param")) exit(-1);

if (squeezenet.load_model("squeezenet_ssd_voc.bin")) exit(-1);

std::thread captureThread(captureThreadFunction, std::ref(cap)); std::thread processThread(processThreadFunction); captureThread.join(); processThread.join(); cap.release(); close(client_sock); close(server_sock); return 0; }

將上述程序,拷貝到ncnn目錄下,并更改CMakeLists.txt文件。

1、拷貝程序

wKgaomWwdPiAS4oeAALOyg8ZGRs995.png

2、更改CMakeLists.txt文件

wKgaomWwdR-AWsvVAAMdliYh20M564.png

wKgaomWwdTuAP9lYAAFc-1-BiPg034.pngwKgaomWwdU6AIqG7AAISuue24A4519.png

做好以上工作后,我們直接進入ncnn-master/build/examples/ 文件夾下進行編譯。編譯之前直接切換到ncnn-master/build 目錄輸入:

cmake -DCMAKE_TOOLCHAIN_FILE=../toolchains/arm-linux-gnueabihf.toolchain.cmake - DNCNN_SIMPLEOCV=ON -DNCNN_BUILD_EXAMPLES=ON -DCMAKE_BUILD_TYPE=Release ..

然后切換到ncnn-master/build/examples/ 目錄下輸入 make -j4 即可。

wKgZomWwd2-AM6VeAALgCsFSxBo812.png

可見編譯成功,拷貝到開發板中就行。

wKgaomWwd4uAbCsxAAESAXakkr4044.png

編寫上位機軟件

上位機軟件較為簡單,使用ChatGPT生成源碼即可,下面附上源碼:

import socket import cv2 import numpy as np client_socket = socket.socket(socket.AF_INET, socket.SOCK_STREAM) client_socket.connect(('192.168.0.232', 12345)) # Connect to the server while True: # Receive size of the frame size = client_socket.recv(4) size = int.from_bytes(size, byteorder='big') # Receive the frame buffer = b'' while len(buffer) < size: buffer += client_socket.recv(size - len(buffer)) # Decode and display the frame frame = np.frombuffer(buffer, dtype=np.uint8) frame = cv2.imdecode(frame, cv2.IMREAD_COLOR) cv2.imshow('Received Frame', frame) if cv2.waitKey(1) & 0xFF == ord('q'): break client_socket.close() cv2.destroyAllWindows()

聲明:本文內容及配圖由入駐作者撰寫或者入駐合作網站授權轉載。文章觀點僅代表作者本人,不代表電子發燒友網立場。文章及其配圖僅供工程師學習之用,如有內容侵權或者其他違規問題,請聯系本站處理。 舉報投訴
  • 嵌入式
    +關注

    關注

    5087

    文章

    19153

    瀏覽量

    306413
  • Linux
    +關注

    關注

    87

    文章

    11326

    瀏覽量

    209961
  • 攝像頭
    +關注

    關注

    60

    文章

    4853

    瀏覽量

    95968
  • 開發板
    +關注

    關注

    25

    文章

    5093

    瀏覽量

    97800
收藏 人收藏

    評論

    相關推薦

    ElfBoard技術貼|ELF 1開發板適配攝像頭詳解

    ELF1ELF1S開發板適配的OV5640攝像頭,集成了CMOS圖像傳感器,作為一款500萬像素級別的攝像頭,不僅能夠支持最高達2592x
    的頭像 發表于 12-27 10:16 ?689次閱讀
    ElfBoard技術貼|<b class='flag-5'>ELF</b> <b class='flag-5'>1</b><b class='flag-5'>開發板</b>適配<b class='flag-5'>攝像頭</b>詳解

    基于FPGA的攝像頭心率檢測裝置設計

    裝置, 通過網絡攝像頭獲取人臉視頻圖像,通過 FPGA 進行分析處理,得到心跳信號, 并將計算得出心率值實時顯示 HDMI 屏幕。 1.
    發表于 07-01 17:58

    基于TI AM437x 創龍開發板的OV2659攝像頭模塊測試

    視頻的實時采集,并將視頻保存在本地或者顯示LCD顯示屏。開發板圖如下:具體測試如下:1.本地
    發表于 05-15 09:40

    通過Dragonboard 410c開發板USB攝像頭進行移動偵測

    將我們的USB攝像頭、鼠標和鍵盤鏈接到dragonbaord 410c開發板即可,如果你使用的是有線的USB鼠標和鍵盤,USB鼠標和攝像頭可以共用一個。搭建好環境后,我們就可以來
    發表于 09-21 10:56

    【FPGA DEMO】Lab 4:攝像頭HDMI顯示(高速--HDMI&攝像頭)

    `項目名稱:攝像頭HDMI顯示。具體要求:攝像頭采集的視頻圖像數據通過HDMI實時顯示。 系統設計:Perf-V開發板可以連接高速口——HDMI&
    發表于 07-30 15:21

    OV13850攝像頭開發板的配置過程怎樣的?

    OV13850攝像頭開發板的配置過程怎樣的?
    發表于 03-07 08:06

    【合宙Air105開發板試用體驗】Ari105開發板開箱,及攝像頭使用

    ,直接上攝像頭了。要正常使用攝像頭,我們需要如下的準備:1. 連接好攝像頭2. 了解開發板的撥
    發表于 05-22 21:41

    一鍵實現V853開發板攝像頭自由

    視頻中所實現攝像頭UI控制效果,是通過全志V853開發板使用InoneGUI+mpp+Ai
    發表于 09-08 13:41

    RK3288開發板安卓5.1實現虛擬攝像頭

    1、RK3288下如何實現虛擬攝像頭  提示:由于項目技術要求,需要在RK3288開發板安卓5.1實現
    發表于 11-23 17:16

    ELF 1開發板試用】+ 3.2 USB攝像頭連接測試 + Ubutu SSH連接

    連接測試 本文繼續做一下連接接口的測試,本文使用USB攝像頭進行連接,以測試ELF 1 USB功能,以及其對應的攝像頭
    發表于 12-06 15:37

    ELF 1開發板試用】板載資源測試3:OV5640 攝像頭測試

    飛凌嵌入式ELF1開發板(以下簡稱為“開發板”)底板設計了一個攝像頭接口,正好手里邊有一個OV5640攝像頭,但由于沒有擴展板,手里邊也沒有
    發表于 12-15 22:49

    基于Dragonboard 410c開發板的USB攝像頭圖像保存實現

    前一個blog中跟大家分享了如何快速的編寫程序從連接在Dragonboard 410c開發板的USB攝像頭讀取圖像信息,給大家簡單介紹了一下如何搭建Dragonabord 410c
    發表于 02-17 10:19 ?1232次閱讀

    迅為RK3568開發板Debian系統使用python 進行攝像頭開發

    迅為RK3568開發板Debian系統使用python 進行攝像頭開發
    的頭像 發表于 09-14 16:58 ?1588次閱讀
    迅為RK3568<b class='flag-5'>開發板</b>Debian系統使用python <b class='flag-5'>進行</b><b class='flag-5'>攝像頭</b><b class='flag-5'>開發</b>

    項目分享|基于ELF 1開發板的遠程監測及人臉識別項目

    小伙伴詳盡展示這一項目的相關細節。項目實現步驟1.視頻監控這一步驟中需要實現兩個程序:(1
    的頭像 發表于 03-13 16:41 ?551次閱讀
    項目分享|基于<b class='flag-5'>ELF</b> <b class='flag-5'>1</b><b class='flag-5'>開發板</b>的遠程監測及人臉識別項目
    主站蜘蛛池模板: 成人午夜免费剧场| 欧美黄色tv| 男女那啥的视频免费| 老师在办公室被躁得舒服小说| 秋霞麻豆| 黄色午夜剧场| 天天操夜操| 99视频精品全国免费| 欧美18videosex性欧美1819| 五月婷花| 日本成人a视频| 2021久久精品免费观看| 欧美精品区| 国产资源视频| 日本人善交69xxx| good韩国理论在线三级| 激情综合网站| 色网站在线播放| 日本一区二区三区欧美在线观看| 最近2018年中文字幕在线| 天天干夜夜玩| 一区二区三区欧美在线| 在线麻豆国产传媒60在线观看| 在线黄色免费网站| 日韩免费无砖专区2020狼| 久久久久久噜噜噜久久久精品 | 69xxxxtube日本免费| 六月丁香啪啪| 男男h啪肉np文总受| 四虎网址在线观看| 四虎影院永久免费| 婷婷激情综合五月天| 欧美生活性色| 免费看国产一级特黄aa大片| 国产成人mv在线观看入口视频| 精品久久久久久婷婷| 中文天堂资源在线www| 影音先锋五月天| 午夜在线观看免费高清在线播放| 哪里可以看免费毛片| 久久天天躁狠狠躁夜夜爽|