在线观看www成人影院-在线观看www日本免费网站-在线观看www视频-在线观看操-欧美18在线-欧美1级

0
  • 聊天消息
  • 系統消息
  • 評論與回復
登錄后你可以
  • 下載海量資料
  • 學習在線課程
  • 觀看技術視頻
  • 寫文章/發帖/加入社區
會員中心
創作中心

完善資料讓更多小伙伴認識你,還能領取20積分哦,立即完善>

3天內不再提示

OrangePi KunPeng Pro部署AI模型介紹

嵌入式小生 ? 來源:嵌入式小生 ? 2024-11-16 11:03 ? 次閱讀

一、OrangePi Kunpeng Pro簡介

OrangePi Kunpeng Pro是一款香橙派聯合華為精心打造的高性能板卡,搭載了鯤鵬處理器,可提供8TOPS INT8計算能力,板卡設計很精致,板載資源也非常多:

?擁有以太網、Wi-Fi+藍牙功能,提供多種可選擇的網絡接入方式。

? 2個USB3.0 Host、1個支持USB3.0的Type-C接口:可接入鼠標、鍵盤、USB攝像頭等設備,方便板卡操作。

? 2個HDMI接口、1 個 MIPI DSI 2 Lane接口,提供兩種顯示方案。

?引出了40 pin 擴展口,可擴展UART、I2C、SPI、PWM 和 GPIO 等接口功能。板卡完整接口如下圖所示:

6df431fa-9072-11ef-a511-92fbcf53809c.png

板卡擴展出的功能很多,能夠滿足很多應用場景和行業的開發需求,本文將描述使用OrangePi Kunpeng Pro來部署AI大模型,記錄分析模型運行期間板卡的狀態和模型運行效果。

二、環境搭建

(1)首先取出板卡,為板卡接入一個HDMI顯示屏、一個無線藍牙鼠標、一個有線鍵盤,接著接通電源,完成后如下圖所示:

6e24a308-9072-11ef-a511-92fbcf53809c.png

(2)隨后板卡將自動啟動運行openEuler操作系統,接著我們進入終端:

6e526c20-9072-11ef-a511-92fbcf53809c.png

(3)查看下存儲容量:

6e8af194-9072-11ef-a511-92fbcf53809c.png

從上圖可知目前可用容量很大,可滿足小量級離線模型的存儲。

板卡運行openEuler非常流暢,使用體驗感非常好。

(4)選擇網絡接入方式,本文使用Wifi接入。

(5)更改CPU為AI CPU

6eb4ec10-9072-11ef-a511-92fbcf53809c.png

從上圖中可知目前板卡有3個AI CPU和1個control CPU。

接著就進行模型運行環境搭建和模型部署了。

三、模型運行環境搭建

(1)下載Ollama用于啟動并運行大型語言模型

由于在線下載Ollama速度較慢,故而使用手動方式安裝Ollama,首先從下列地址下載Ollama:

https://ollama.com/download/ollama-linux-arm64

6ed951ea-9072-11ef-a511-92fbcf53809c.png

完成后將其通過ssh方式傳輸到板卡。接著將其重名為ollama,便于命令操作,然后將ollama復制到/usr/bin目錄中并賦予可執行權限:

sudochmod+x/usr/bin/ollama

(2)配置ollama系統服務

使用以下命令創建ollama服務描述文件:

sudotouch/etc/systemd/system/ollama.service

并在文件中編輯如下內容:

[Unit]
Description=OllamaService
After=network-online.target

[Service]
ExecStart=/usr/bin/ollamaserve
User=root
Group=root
Restart=always
RestartSec=3

[Install]
WantedBy=default.target

(3)啟動ollama服務

使用下述命令啟動ollama服務:

sudosystemctldaemon-reload
sudosystemctlenableollama

(4)啟動ollama

使用下述命令啟動ollama:

sudosystemctlstartollama

(5)查看ollama運行狀態

使用如下命令查看ollama運行狀態:

systemctlstatusollama.service

6ef59292-9072-11ef-a511-92fbcf53809c.png

從上圖可知目前ollama啟動成功。

四、模型部署

通過上述第三小節的步驟后,Ollama模型運行環境就搭建完成,本小節將部署五個模型:1.8b的qwen、2b的gemma、3.8b的phi3、4b的qwen和7b的llama2,測試OrangePi Kunpeng Pro運行模型的實際效果。模型細節如下表所示:

序號 模型 參數 描述
1 qwen 1.8b Qwen是阿里云開發的大型語言模型,1.8b,1.1GB
2 gemma 2b Gemma是由Google DeepMind構建的一系列輕量級的開放模型,大小1.7GB
3 phi3 3.8b phi3是微軟開發的開放AI模型系列,3.8b為Mini系列,大小2.4GB
4 qwen 4b Qwen是阿里云開發的大型語言模型,4b,大小2.3GB
5 llama2 7b Llama 2是由Meta平臺公司發行的基礎語言模型,大小3.8GB

(1)部署1.8b的qwen

使用ollama run qwen:1.8b部署1.8b的qwen模型:

6f199cdc-9072-11ef-a511-92fbcf53809c.png

上述模型部署完成后,對其進行問答測試,如下圖所示:

6f313e78-9072-11ef-a511-92fbcf53809c.png

效果:運行1.8b的qwen模型,CPU負載沒有占滿,進行問答測試,回答速度較快,效果很好!

(2)部署2b的gemma

使用ollama run gemma:2b部署2b的gemma模型:

6f67321c-9072-11ef-a511-92fbcf53809c.png

上述模型部署完成后,對其進行問答測試,如下圖所示:

6f85ad0a-9072-11ef-a511-92fbcf53809c.png

效果:運行2b的gemma模型和運行1.8b的qwen模型效果相似,CPU負載同樣沒有占滿,進行問答測試,回答速度快,效果好!

(3)部署3.8的phi3

使用ollama run phi3:3.8b部署3.8b的phi3模型:

6fb6d8bc-9072-11ef-a511-92fbcf53809c.png

上述模型部署完成后,對其進行問答測試,如下圖所示:

6fdb60c4-9072-11ef-a511-92fbcf53809c.png

效果:運行3.8b的phi3模型,進行問答測試,回答速度變慢了。

(4)部署4b的qwen

使用ollama run qwen:4b部署4b的qwen模型:

701cdf18-9072-11ef-a511-92fbcf53809c.png

上述模型部署完成后,對其進行問答測試,如下圖所示:

70679116-9072-11ef-a511-92fbcf53809c.png

效果:運行4b的qwen模型,進行問答測試,回答問題速度明顯變慢:計算生成答案的速度變慢,打印文字的速度也變慢了。

(5)部署7b的llama2

使用ollama run llama2:7b部署7b的llama2模型:

709d60a2-9072-11ef-a511-92fbcf53809c.png

上述模型部署完成后,對其進行問答測試,如下圖所示:

70b46414-9072-11ef-a511-92fbcf53809c.png

效果:運行7b的llama2模型,CPU滿負載了,進行問答測試,回答問題速度也明顯變得很慢:計算生成答案的速度變慢,打印文字的速度也變慢了。

五、實際效果

上述第四小節描述了運行五個模型的實際使用效果,本小節附上運行2b的gemma模型的效果,如下圖所示:

(注:因gif圖對視頻有所處理,以實際運行效果為準?。?/p>

六、總結

OrangePi Kunpeng Pro板卡是一塊擁有較高計算性能的板卡,本文使用該板卡部署了五個模型(以本文所描述模型為參考),對于1.8b和2b量級的模型來說運行效果還可以,體驗較好;對于3.8b和4b量級的模型來說,體驗感有所下降,一是計算生成答案的過程變長,二是文字輸出存在斷續;對于7b量級的模型,體驗感更是降了一個層次,文字輸出存在明顯的斷續了。

體驗感是一個非理性的名詞,因人而異,不同的場景和模型,不同的使用者都可能存在不同的體驗,本文所有內容僅供參考和評測!

聲明:本文內容及配圖由入駐作者撰寫或者入駐合作網站授權轉載。文章觀點僅代表作者本人,不代表電子發燒友網立場。文章及其配圖僅供工程師學習之用,如有內容侵權或者其他違規問題,請聯系本站處理。 舉報投訴
  • AI
    AI
    +關注

    關注

    87

    文章

    31262

    瀏覽量

    269620
  • 板卡
    +關注

    關注

    3

    文章

    116

    瀏覽量

    16848
  • 模型
    +關注

    關注

    1

    文章

    3279

    瀏覽量

    48970

原文標題:玩玩OrangePi KunPeng Pro部署AI模型

文章出處:【微信號:嵌入式小生,微信公眾號:嵌入式小生】歡迎添加關注!文章轉載請注明出處。

收藏 人收藏

    評論

    相關推薦

    企業AI模型部署攻略

    當下,越來越多的企業開始探索和實施AI模型,以提升業務效率和競爭力。然而,AI模型部署并非易事,需要企業在多個層面進行細致的規劃和準備。下
    的頭像 發表于 12-23 10:31 ?147次閱讀

    AI模型部署邊緣設備的奇妙之旅:目標檢測模型

    并非易事,它涉及到從選擇合適的算法架構到針對特定硬件平臺進行優化等一系列復雜的工作。 接下來,我們將詳細介紹如何在資源受限的邊緣設備上成功部署目標檢測模型,探索其背后的原理和技術,并討論解決該領域內常見
    發表于 12-19 14:33

    AI模型部署邊緣設備的奇妙之旅:如何實現手寫數字識別

    處理,而不必傳輸到外部服務器,這有助于更好地保護用戶隱私和數據安全。 然而,邊緣計算也帶來了獨特的挑戰,特別是在資源受限的嵌入式系統中部署復雜的AI模型時。為了確保神經網絡模型能夠在邊
    發表于 12-06 17:20

    AI模型部署和管理的關系

    AI模型部署與管理是AI項目成功的兩大支柱,它們之間既相互獨立又緊密相連,共同推動著AI技術從實驗室走向實際應用。
    的頭像 發表于 11-21 10:02 ?186次閱讀

    如何在STM32f4系列開發板上部署STM32Cube.AI,

    已下載STM32Cube.AI擴展包,但是無法使用,感覺像是沒有部署AI模型,我是想要通過攝像頭拍照,上傳圖像后,經過開發板處理器進行AI
    發表于 11-18 09:39

    在設備上利用AI Edge Torch生成式API部署自定義大語言模型

    ,從而無縫地將新的設備端生成式 AI 模型部署到邊緣設備上。本文是 Google AI Edge 博客連載的第二篇。上一篇文章為大家介紹
    的頭像 發表于 11-14 10:23 ?491次閱讀
    在設備上利用<b class='flag-5'>AI</b> Edge Torch生成式API<b class='flag-5'>部署</b>自定義大語言<b class='flag-5'>模型</b>

    AI模型托管原理分析

    AI模型托管是指將訓練好的AI模型部署在云端或邊緣服務器上,由第三方平臺提供模型運行、管理和優化
    的頭像 發表于 11-07 09:33 ?219次閱讀

    企業AI模型部署怎么做

    AI模型部署作為這一轉型過程中的關鍵環節,其成功實施對于企業的長遠發展至關重要。在此,AI部落小編為您介紹企業
    的頭像 發表于 11-04 10:15 ?170次閱讀

    香橙派OrangePi?5 Pro性能全面測試!

    ,OrangePi5Pro顯然是RaspberryPi5的替代產品。讓我們看看它的價格、性能和可用性如何。OrangePi5Pro的硬件參數我就不具體介紹了,大家可以在香橙
    的頭像 發表于 10-08 15:58 ?568次閱讀
    香橙派<b class='flag-5'>OrangePi</b>?5 <b class='flag-5'>Pro</b>性能全面測試!

    利用恩智浦云實驗室部署AI模型

    如今,人工智能(AI)非?;鸨@個風口該如何把握?作為一個電子工程師,和AI最主要的交集應該就是邊緣計算了,具體來講,就是在一些性能、功耗以及價格相對較低的嵌入式平臺上部署和運行AI
    的頭像 發表于 08-02 11:46 ?2808次閱讀
    利用恩智浦云實驗室<b class='flag-5'>部署</b><b class='flag-5'>AI</b><b class='flag-5'>模型</b>

    英偉達推出Flextron AI框架:賦能靈活高效的AI模型部署

    在人工智能與機器學習領域,隨著技術的不斷演進,模型的高效部署與適應性成為研究的新熱點。近日,英偉達與德克薩斯大學奧斯汀分校攜手宣布了一項重大突破——推出了一種名為FLEXTRON的新型靈活模型架構及訓練后優化框架,這一創新成果為
    的頭像 發表于 07-18 15:22 ?2885次閱讀

    PerfXCloud大模型開發與部署平臺開放注冊

    PerfXCloud?介紹 PerfXCloud是澎峰科技為開發者和企業量身打造的AI開發和部署平臺。它專注于滿足大模型的微調和推理需求,為用戶提供極致便捷的一鍵
    的頭像 發表于 07-02 10:27 ?396次閱讀
    PerfXCloud大<b class='flag-5'>模型</b>開發與<b class='flag-5'>部署</b>平臺開放注冊

    樹莓派5最大的競爭對手OrangePi 5 Pro?,新增4GB/8GB版本

    OrangePi5Pro被稱為樹莓派5最大的競爭對手。繼OrangePi5Pro(16GB)版本發布一個月之后,香橙派近日再推出OrangePi5Pro4GB/8GB版本。除了在運行內存方面有所差異
    的頭像 發表于 05-07 10:00 ?804次閱讀
    樹莓派5最大的競爭對手<b class='flag-5'>OrangePi</b> 5 <b class='flag-5'>Pro</b>?,新增4GB/8GB版本

    OrangePi?5 Pro正式開售,樹莓派5真正的挑戰者來了

    在剛剛舉行不久的3.24香橙派開發者大會上,香橙派發布了一款重磅產品OrangePi5Pro,該產品在OrangePi5系列前代產品的基礎上煥然升級,以其性能引領性、價格顛覆性再次改變全球開發板市場
    的頭像 發表于 04-08 13:54 ?819次閱讀
    <b class='flag-5'>OrangePi</b>?5 <b class='flag-5'>Pro</b>正式開售,樹莓派5真正的挑戰者來了

    使用CUBEAI部署tflite模型到STM32F0中,模型創建失敗怎么解決?

    看到CUBE_AI已經支持到STM32F0系列芯片,就想拿來入門嵌入式AI。 生成的模型很小,是可以部署到F0上的,但是一直無法創建成功。 查閱CUBE
    發表于 03-15 08:10
    主站蜘蛛池模板: 免费啪啪网| 特黄aaaaaa久久片| 欧美午夜精品一区二区三区| 午夜手机福利| 欧美一级高清黄图片| 加勒比一到三区| aa在线免费观看| 很黄很黄的网站免费的| 亚洲一区二区三区四区在线| 男女在线视频| 国产馆精品推荐在线观看 | 手机看片91| 奇米奇米| 成年人黄色免费网站| 一级看片免费视频囗交| 天天干夜夜操| 国产不卡毛片| 202z欧美成人| 国产亚洲精品免费| 五月婷婷综合在线| 日本久久综合视频| 好色999| 一级午夜免费视频| 哪里可以看免费毛片| 2019天天操夜夜操| 国产69久久精品成人看| 婷婷综合七月激情啪啪| 欧美三级视频在线播放| 国产片无遮挡在线看床戏| 天天综合天天综合| 人人草草| 亚洲三级在线免费观看| 欧美爽爽网| cijilu刺激 国产免费的| 看黄a大片 免费| 97dyy影院理论片| 亚洲电影一区二区| 久久精品视频观看| 天天操网| 亚洲日本视频| 日本特级黄色大片|