在线观看www成人影院-在线观看www日本免费网站-在线观看www视频-在线观看操-欧美18在线-欧美1级

0
  • 聊天消息
  • 系統消息
  • 評論與回復
登錄后你可以
  • 下載海量資料
  • 學習在線課程
  • 觀看技術視頻
  • 寫文章/發帖/加入社區
會員中心
創作中心

完善資料讓更多小伙伴認識你,還能領取20積分哦,立即完善>

3天內不再提示

使用myCobot 280 Jeston Nano進行物體精確識別追蹤

大象機器人科技 ? 來源:大象機器人科技 ? 作者:大象機器人科技 ? 2023-05-24 18:20 ? 次閱讀

前言

我們在YouTube上看到有人使用機械臂實現物體跟蹤功能的視頻時,深受啟發,對這個項目產生了濃厚的興趣,并決定獨立開發一個類似的程序。

我們的目標是開發一個能夠準確識別和跟蹤物體的機械臂系統,以便在實際應用中發揮作用,這個項目涉及到許多技術和算法,包括視覺識別、手眼協同和機械臂控制等方面。

機械臂的介紹 mycobot280-JetsonNano

操作使用的機械臂是myCobot280-Jetson Nano

這是一款大象機器人公司生產的小六軸機械臂,以JetsonNano為微處理器ESP32為輔助控制,UR協作形結構。myCobot280 JetsonNano,本體重量1030g, 負載250g,工作半徑280mm,設計緊湊便攜,小巧但功能強大,操作簡單,能與人協同、安全工作。

Jetson Nano

Jetson Nano是英偉達推出的一款嵌入式人工智能計算機,它采用了NVIDIA Maxwell GPU和四核ARM Cortex-A57處理器,性能強大。Jetson Nano支持多種人工智能框架和工具,如TensorFlow、PyTorch、Caffe和MXNet等。此外,Jetson Nano還具有多種輸入輸出接口,如HDMIUSB、GPIO等,方便開發人員進行硬件連接和控制。

由于Jetson Nano具有強大的計算性能和專門為人工智能開發設計的特點,支持多種深度學習框架,如TensorFlow、PyTorch和Caffe等,可以更方便地進行人工智能應用開發,它成為了開發人員進行人工智能應用開發的理想平臺之一。

開發過程

下圖是項目的開發流程圖

相機捕捉目標

在我開始開發之前,我首先進行了一些調研和實驗。我使用了一個相機來捕捉物體的圖像,并使用OpenCV庫來識別和跟蹤Aruco碼。嘗試過多種的方法,物體的識別需要讓機器進行學習,我們要識別的目標,這樣會增加項目開發的時間,最后決定用aruco碼來進行識別,這樣可以快速捕捉到aruco碼,進行下一步開發。

Aruco碼

下面是實現的代碼:

def show_video_v2(self):
        # self.robot.init_robot()
        xyz = np.array([0,0,0])
        LIST = []
        num_count = 0
        list_len = 5
        # cmax = [180, 80, 240]
        # cmin = [130, -80, 200]
        cmax = [150, -150, 300]
        cmin = [-150, -250, 200]

        while cv2.waitKey(1) < 0:
            success, img = self.cap.read()
            if not success:
                print("It seems that the image cannot be acquired correctly.")
                break
            # transfrom the img to model of gray
            gray = cv2.cvtColor(img, cv2.COLOR_BGR2GRAY)
            # Detect ArUco marker.
            corners, ids, rejectImaPoint = cv2.aruco.detectMarkers(
                gray, self.aruco_dict, parameters=self.aruco_params
            )

            if len(corners) > 0:
                if ids is not None:
                    # get informations of aruco
                    ret = cv2.aruco.estimatePoseSingleMarkers(
                        # '''https://stackoverflow.com/questions/53303730/what-is-the-value-for-markerlength-in-aruco-estimateposesinglemarkers'''
                        corners, 0.025, self.camera_matrix, self.dist_coeffs
                    )
                    # rvec:rotation offset,tvec:translation deviator
                    (rvec, tvec) = (ret[0], ret[1])

                    (rvec - tvec).any()
                    xyz = tvec[0, 0, :] * 1000
                    rpy = rvec[0,0,:]

                    camera = np.array([xyz[0], xyz[1], xyz[2]])

                    if num_count > list_len:
                        target = model_track(camera)
                        print("target", target)

                        for i in range(3):
                            if target[i] > cmax[i]:
                                target[i] = cmax[i]
                            if target[i] < cmin[i]:
                                target[i] = cmin[i]

                        pose = np.array([-103, 8.9, -164])
                        coord = np.concatenate((target.copy(), pose), axis=0)

                        # q1 = math.atan(xyz[0] / xyz[2])*180/np.pi
                        mc.send_coords(coord,50,0)


                        # print('target', coord)
                        num_count = 1
                    else:
                        num_count = num_count + 1


                    for i in range(rvec.shape[0]):
                        # draw the aruco on img
                        cv2.aruco.drawDetectedMarkers(img, corners)
            cv2.imshow("show_video", img)

手眼標定

手眼標定是指在機器人領域中,確定機器人末端執行器(例如機械手臂)相對于機器人基座坐標系的位置和姿態。這個過程涉及到將機器人末端執行器與相機進行配對,然后通過捕捉執行器在相機視野中的位置和姿態來確定它在機器人基座坐標系中的位置和姿態。

手眼標定通常涉及到在機器人末端執行器和相機之間進行一系列的運動,以便收集足夠的數據來計算出它們之間的變換矩陣。這個變換矩陣描述了機器人末端執行器相對于相機的位置和姿態,從而可以用來控制機器人的運動,使其能夠準確地執行所需的任務。

在"eye-to-hand"手眼標定中,相機被視為一個不動的觀察者("eye"),而機器人末端執行器則被視為在相機視野中移動的物體("hand")。機器人末端執行器在相機周圍移動時,會收集到一系列的圖像,這些圖像包含了機器人末端執行器在不同位置和姿態下的圖像信息。通過分析這些圖像,可以計算出機器人末端執行器相對于相機的位置和姿態,從而完成手眼標定。

下面是處理坐標之間轉換數據的代碼

#函數用于計算相機間的相似性
def calculate_similarity(camera):
    n = camera.shape[0]
    total_similarity = 0
    for i in range(n):
        for j in range(i+1, n):
            vector_a = camera[i]
            vector_b = camera[j]
            dot_product = np.dot(vector_a, vector_b)
            norm_a = np.linalg.norm(vector_a)
            norm_b = np.linalg.norm(vector_b)
            similarity = dot_product / (norm_a * norm_b)
            total_similarity += similarity
    return total_similarity/n
#函數用于計算相似性的變化率
def similarity_change_rate(new_similarity):
    global prev_similarity
    if prev_similarity is None:
        prev_similarity = new_similarity
        return 0
    else:
        change_rate = (new_similarity - prev_similarity) / prev_similarity
        prev_similarity = new_similarity
        return change_rate

#函數用于將旋轉矩陣轉換為歐拉角
def CvtRotationMatrixToEulerAngle(pdtRotationMatrix):
    pdtEulerAngle = np.zeros(3)

    pdtEulerAngle[2] = np.arctan2(pdtRotationMatrix[1, 0], pdtRotationMatrix[0, 0])

    fCosRoll = np.cos(pdtEulerAngle[2])
    fSinRoll = np.sin(pdtEulerAngle[2])

    pdtEulerAngle[1] = np.arctan2(-pdtRotationMatrix[2, 0], (fCosRoll * pdtRotationMatrix[0, 0]) + (fSinRoll * pdtRotationMatrix[1, 0]))
    pdtEulerAngle[0] = np.arctan2((fSinRoll * pdtRotationMatrix[0, 2]) - (fCosRoll * pdtRotationMatrix[1, 2]), (-fSinRoll * pdtRotationMatrix[0, 1]) + (fCosRoll * pdtRotationMatrix[1, 1]))

    return pdtEulerAngle
#函數用于將歐拉角轉換為旋轉矩陣
def CvtEulerAngleToRotationMatrix(ptrEulerAngle):
    ptrSinAngle = np.sin(ptrEulerAngle)
    ptrCosAngle = np.cos(ptrEulerAngle)

    ptrRotationMatrix = np.zeros((3, 3))
    ptrRotationMatrix[0, 0] = ptrCosAngle[2] * ptrCosAngle[1]
    ptrRotationMatrix[0, 1] = ptrCosAngle[2] * ptrSinAngle[1] * ptrSinAngle[0] - ptrSinAngle[2] * ptrCosAngle[0]
    ptrRotationMatrix[0, 2] = ptrCosAngle[2] * ptrSinAngle[1] * ptrCosAngle[0] + ptrSinAngle[2] * ptrSinAngle[0]
    ptrRotationMatrix[1, 0] = ptrSinAngle[2] * ptrCosAngle[1]
    ptrRotationMatrix[1, 1] = ptrSinAngle[2] * ptrSinAngle[1] * ptrSinAngle[0] + ptrCosAngle[2] * ptrCosAngle[0]
    ptrRotationMatrix[1, 2] = ptrSinAngle[2] * ptrSinAngle[1] * ptrCosAngle[0] - ptrCosAngle[2] * ptrSinAngle[0]
    ptrRotationMatrix[2, 0] = -ptrSinAngle[1]
    ptrRotationMatrix[2, 1] = ptrCosAngle[1] * ptrSinAngle[0]
    ptrRotationMatrix[2, 2] = ptrCosAngle[1] * ptrCosAngle[0]

    return ptrRotationMatrix

機械臂控制

在這之后就是物體檢測和機械臂的控制,將識別到的物體的坐標轉換成機械臂的運動指令,這里用到的是pymycobot庫來進行對機械臂的控制。

#用于進行視覺追蹤并計算目標位置
def Visual_tracking280(coord, camera):
    pose_camera = camera[:3]
    angle_camear = camera[3:]
    r = CvtEulerAngleToRotationMatrix(angle_camear)
    # r = np.array([[1, 0, 0],
    #                  [0, 1, 0],
    #                  [0, 0, 1]])
    euler = np.radians(coord[3:])
    R = CvtEulerAngleToRotationMatrix(euler)
    offset = np.array([0, 0, -250])
    Roff = np.array([[1, 0, 0],
                     [0, -1, 0],
                     [0, 0, -1]])
    # Roff = np.array([[1, 0, 0],
    #                  [0, 1, 0],
    #                  [0, 0, 1]])
    vector = pose_camera + offset
    # print("R", R)
    # print("r", r)

    move_pos = np.dot(np.dot(R, r), Roff).dot(vector)
    pos = coord[:3] + move_pos
    # angle = np.array(CvtRotationMatrixToEulerAngle(np.dot(np.dot(R, r), Roff))) * 180/np.pi
    angle =  coord[3:]
    target = np.concatenate((pos, angle))
    return target

#根據相機坐標計算目標位置
    def model_track(camera):
    model_pos = np.array([-camera[0], -camera[2], -camera[1]])
    camera_pos = np.array([-37.5, 416.6, 322.9])
    target_pos = model_pos + camera_pos
    # print("model_pos", model_pos)
    # print("target_pos", target_pos)
    return target_pos

最后整理一下項目的邏輯關系,

讓我們來看下效果如何。

總結:

在調試的過程中,我們發現跟蹤的效果并不是非常流暢和靈敏。我們通過控制檢測周期來調整流暢性,但是需要緩慢移動被跟蹤的物體目標,才能達到更好的效果。仍然還有一些不足的地方,在相機固定的情況下,機械臂的本體可能會遮擋相機的視野,導致沒有辦法進行下一步跟蹤,想到的解決方案是相機換個位置不被遮擋的位置(坐標換算那些都得重新計算)。如果你有更好的想法歡迎跟我們溝通!感謝你的耐心觀看。

審核編輯 黃宇

聲明:本文內容及配圖由入駐作者撰寫或者入駐合作網站授權轉載。文章觀點僅代表作者本人,不代表電子發燒友網立場。文章及其配圖僅供工程師學習之用,如有內容侵權或者其他違規問題,請聯系本站處理。 舉報投訴
  • 機器人
    +關注

    關注

    211

    文章

    28418

    瀏覽量

    207102
  • 人工智能
    +關注

    關注

    1791

    文章

    47279

    瀏覽量

    238511
  • 視覺識別
    +關注

    關注

    3

    文章

    89

    瀏覽量

    16737
  • 機械臂
    +關注

    關注

    12

    文章

    515

    瀏覽量

    24588
收藏 人收藏

    評論

    相關推薦

    【VEML6040環境顏色檢測試用申請】識別跟蹤具有色塊物體

    物體模塊從雙色、三色到較為復雜的多色進行測試自動跟蹤[跟蹤物體移動、追蹤物移動]4.寫出每一步的實驗結果、分享代碼和資料共同學習提高。
    發表于 03-20 18:09

    機器視覺識別追蹤

    對運動過程中的物體進行實時識別追蹤。對于1080p的圖像理論速度可以達到330幀每秒對于720p的圖像理論速度則可以達到550幀每秒。鏡頭可以穿過熱成像儀清楚的拍出人像圖像。這項技術
    發表于 08-21 11:23

    光線追蹤技術的作用

    ,雖然可以實現很美觀的效果,但其始終受限于一個事實,即這些技術僅僅是在模擬光照。光線追蹤技術則是模擬光照在真實世界中如何表現,以創建更精確、更程序化的反射、透明、發光和材質圖像。在現實生活中,光源發出
    發表于 11-02 08:21

    OpenMV簡單實現物體追蹤

    工智能攝像頭,自帶很多ai算法,有很多應用的場景,今天我來教大家如何使用open_mv實現物體追蹤、色塊識別,并且把識別到的物品坐標信息通過串口傳輸給單片機等處理器。如果你還沒用過Op
    發表于 11-30 06:59

    使用LabVIEW進行物體追蹤圖像處理分析

    使用LabVIEW進行物體追蹤圖像處理分析 近年來,伴隨著科技的進步,生物科技也成為一個相當熱門的研究,其中包含了藥物學、行為科學…等多項領域。而不論是哪一項領域的研究,都必須由大量的動物實驗來探討
    發表于 02-22 20:10

    CSK6011與NVIDIA Jetson Nano開發板對比

    TensorFlow、Keras、PyTorch、Caffe等,支持NVIDIA JetPack,支持多個神經網絡并行運行實現圖像分類、人臉識別、語音處理、目標檢測及物體識別追蹤等,適
    發表于 02-14 14:19

    怎么用OV5640進行識別特定顏色物體

    怎么用 OV5640進行識別特定顏色物體
    發表于 10-13 06:04

    英偉達:發布Jeston Nano計算模塊,追逐樹莓派市場

    在機器人領域,英偉達發布了一款小巧便宜的基于Tegra X1的Jetson計算模塊——Jeston Nano,模塊本身只不過是SoC,RAM,NAND和VRM組合。它不同之前發布的嵌入式高性能利器
    的頭像 發表于 03-21 18:06 ?1.3w次閱讀

    使用myCobot280 M5Stack控制器

    電子發燒友網站提供《使用myCobot280 M5Stack控制器.zip》資料免費下載
    發表于 10-18 17:28 ?0次下載
    使用<b class='flag-5'>myCobot280</b> M5Stack控制器

    使用 Python 和可視化編程控制樹莓派機械臂myCobot

    進行編程,簡單易用,功能豐富。適合那些有興趣學習如何對機械臂進行編程控制和項目開發的人。 myCobot 280 Pi開箱 myCobot
    的頭像 發表于 11-30 14:56 ?5193次閱讀
    使用 Python 和可視化編程控制樹莓派機械臂<b class='flag-5'>myCobot</b>

    基于Arduino Nano物體回避機器人alseTv

    電子發燒友網站提供《基于Arduino Nano物體回避機器人alseTv.zip》資料免費下載
    發表于 12-19 10:25 ?0次下載
    基于Arduino <b class='flag-5'>Nano</b>的<b class='flag-5'>物體</b>回避機器人alseTv

    大象機器人myCobot 280 2023版全新功能展示

    大象機器人mycobot 280 2023版全新功能
    的頭像 發表于 03-10 18:46 ?1400次閱讀
    大象機器人<b class='flag-5'>myCobot</b> <b class='flag-5'>280</b> 2023版全新功能展示

    探索 Jetson NanomyCobot 280 提供的強大功能

    。機器人已經成為我們生活中必不可少的一部分,從送貨機器人到智能家居語音助手。 在本文中,我們將討論myCobot 280 Jetson Nano,這是一種能夠進行科學實驗和教育方面的機
    的頭像 發表于 04-06 15:46 ?1050次閱讀
    探索 Jetson <b class='flag-5'>Nano</b> 為 <b class='flag-5'>myCobot</b> <b class='flag-5'>280</b> 提供的強大功能

    myCobot Pro600六軸機械臂與3D深度視覺:物體精確識別抓取堆疊

    myCobot pro 600機械臂,我主要是想要用它來學習機械臂相關得控制以及機器視覺的項目,給以后的實踐中在本文中,我將記錄使用myCobot pro 600結合深度相機來實現物體得跟蹤以及抓取。 接下來
    的頭像 發表于 09-12 10:51 ?1414次閱讀
    <b class='flag-5'>myCobot</b> Pro600六軸機械臂與3D深度視覺:<b class='flag-5'>物體</b><b class='flag-5'>精確</b><b class='flag-5'>識別</b>抓取堆疊

    開源六軸機械臂myCobot 280末端執行器實用案例解析

    Intrduction 大家好,今天這篇文章的主要內容是講解以及使用一些myCobot 280 的配件,來了解這些末端執行器都能夠完成哪些功能,從而幫助大家能夠正確的選擇一款適合的配件來進行
    的頭像 發表于 10-16 16:28 ?1263次閱讀
    開源六軸機械臂<b class='flag-5'>myCobot</b> <b class='flag-5'>280</b>末端執行器實用案例解析
    主站蜘蛛池模板: 成人在线免费网站| 成 人色 网 站999| 天天色天天操天天射| japanesexxx日本69| 网友偷自拍原创区| 黄色aaa大片| 久久精品夜夜夜夜夜久久| 深夜福利欧美| 人与牲动交xxxxbbbb高清| 在线视免费频观看韩国aaa| 奇米影视四色首页手机在线| 午夜免费看片| 成 人在线观看视频网站| 视频在线免费观看网址| 四虎影院观看视频| a天堂中文在线| 国产黄色片网站| 日本一区二区三区四区在线观看 | 久久伊人精品青青草原高清| 日本free护士姓交| 中文字幕在线观看第一页| 久草免费新视频| 成人午夜剧场| 色五月激情五月| 婷婷久久五月天| 久久99久久99精品免观看| 久久久噜噜噜久久久午夜| 久久dvd| 一区二区三区影院| 爱婷婷网站在线观看| 一区二区免费播放| 久久88色综合色鬼| 日本xxxxxxxxx68| 欧洲性freefree大白屁股| 欧美又黄又嫩大片a级| 一级待一黄aaa大片在线还看| 成人欧美一区二区三区黑人3p| 中文字幕在线一区| 黄色网址你懂得| japan日韩xxxx69hd| 巨乳色网址|