在线观看www成人影院-在线观看www日本免费网站-在线观看www视频-在线观看操-欧美18在线-欧美1级

0
  • 聊天消息
  • 系統消息
  • 評論與回復
登錄后你可以
  • 下載海量資料
  • 學習在線課程
  • 觀看技術視頻
  • 寫文章/發帖/加入社區
會員中心
創作中心

完善資料讓更多小伙伴認識你,還能領取20積分哦,立即完善>

3天內不再提示

在算力魔方上本地部署Phi-4模型

jf_23871869 ? 來源:jf_23871869 ? 作者:jf_23871869 ? 2025-01-15 11:05 ? 次閱讀

?作者:算力魔方創始人/英特爾邊緣計算創新大使 劉力

前面我們分享了《Meta重磅發布Llama 3.3 70B:開源AI模型的新里程碑》,Llama 3.3 70B模型的發布,標志著開源AI模型在智能水平上的一大飛躍。它不僅達到了之前只有Llama 3.1 405B模型才具備的智能水平,而且還超越了11月發布的GPT-4o模型。

wKgZPGeHLW-ABC3FAAFm4cCBsoA793.png

本文我們將分享微軟剛剛發布的Phi-4模型,其模型參數只有14B,是Llama3.3 70B的五分之一,但性能卻跟Llama 3.3 70B模型差不多,甚至在GPQA和MATH兩項上還超越了Llama3.3 70B!

參考鏈接:https://arxiv.org/pdf/2412.08905

本文將分享Phi-4 14B模型在算力魔方4060版上的部署過程。

一,算力魔方?簡介

算力魔方?是一款可以DIY的迷你主機,采用了抽屜式設計,后續組裝、升級、維護只需要拔插模塊。通過選擇不同算力的計算模塊,再搭配不同的 IO 模塊可以組成豐富的配置,適應不同場景。

性能不夠時,可以升級計算模塊提升算力;IO 接口不匹配時,可以更換 IO 模塊調整功能,而無需重構整個系統。

本文以下所有步驟將在帶有英特爾i7-1265U處理器算力魔方?上完成驗證。

二,安裝Ollama

請按照《Gemma 2+Ollama在算力魔方上幫你在LeetCode解題》安裝Ollama。

wKgZPGeHJcmAGKTfAAPzdFi2bXk106.png

三,運行Phi-4

使用下面的命令完成運行Phi-4:

ollama run phi4
wKgZPGeHJeuAN609AAGomLXNOs0320.png

四,測試Phi-4數學能力

輸入下面的數學問題,測試Phi-4的數學能力:

A farmer has a rectangular field with a length of 2x + 5 meters and a width of x - 3 meters.

Part A: Find the area of the field in terms of x.

Part B: If the area of the field is 150 square meters, determine the value of x.

Part C: Calculate the perimeter of the field.

五,總結

使用Ollama可以方便快捷的將Phi-4模型本地化部署在算力魔方?上。

如果你有更好的文章,歡迎投稿!

稿件接收郵箱:nami.liu@pasuntech.com

更多精彩內容請關注“算力魔方?”!

?審核編輯 黃宇

聲明:本文內容及配圖由入駐作者撰寫或者入駐合作網站授權轉載。文章觀點僅代表作者本人,不代表電子發燒友網立場。文章及其配圖僅供工程師學習之用,如有內容侵權或者其他違規問題,請聯系本站處理。 舉報投訴
  • 模型
    +關注

    關注

    1

    文章

    3291

    瀏覽量

    49028
  • 算力
    +關注

    關注

    1

    文章

    1009

    瀏覽量

    14899
收藏 人收藏

    評論

    相關推薦

    趕緊本地運行與OpenAI-o1能力近似的DeepSeek-R1模型

    ?作者:魔方創始人/英特爾邊緣計算創新大使 劉 前面我們分享了《
    的頭像 發表于 01-21 14:29 ?313次閱讀
    趕緊<b class='flag-5'>在</b><b class='flag-5'>本地</b>運行與OpenAI-o1能力近似的DeepSeek-R1<b class='flag-5'>模型</b>

    如何在邊緣端獲得GPT4-V的能力:魔方+MiniCPM-V 2.6

    作者:魔方創始人/英特爾邊緣計算創新大使 劉 前面我們分享了《
    的頭像 發表于 01-20 13:40 ?65次閱讀
    如何在邊緣端獲得GPT<b class='flag-5'>4</b>-V的能力:<b class='flag-5'>算</b><b class='flag-5'>力</b><b class='flag-5'>魔方</b>+MiniCPM-V 2.6

    機器人“大腦+小腦”范式:魔方賦能智能自主導航

    和實時調整。 這種分工明確的架構不僅提高了機器人的自主性和適應性,還為機器人在復雜環境中的應用提供了更多可能。 一, 魔方 ? : 機 器人“大腦”的強大
    的頭像 發表于 01-20 13:35 ?36次閱讀

    科技云報到:要更要“利”,“精裝”觸發大模型產業新變局?

    科技云報到:要更要“利”,“精裝”觸發大模型產業新變局?
    的頭像 發表于 01-16 10:24 ?85次閱讀

    魔方本地部署Phi-4模型

    模型
    jf_23871869
    發布于 :2025年01月15日 11:06:15

    用Ollama輕松搞定Llama 3.2 Vision模型本地部署

    Ollama 是一個開源的大語言模型服務工具,它的核心目的是簡化大語言模型(LLMs)的本地部署和運行過程,請參考《Gemma 2+Ollama
    的頭像 發表于 11-23 17:22 ?1400次閱讀
    用Ollama輕松搞定Llama 3.2 Vision<b class='flag-5'>模型</b><b class='flag-5'>本地</b><b class='flag-5'>部署</b>

    從零開始訓練一個大語言模型需要投資多少錢?

    關于訓練技巧和模型評估的文章,但很少有直接告訴你如何估算訓練時間和成本的。前面分享了一些關于大模型/本地知識庫的安裝部署方法,無需編寫代碼,即可使用 Ollama+AnythingLL
    的頭像 發表于 11-08 14:15 ?287次閱讀
    從零開始訓練一個大語言<b class='flag-5'>模型</b>需要投資多少錢?

    使用OpenVINO 2024.4魔方部署Llama-3.2-1B-Instruct模型

    前面我們分享了《三步完成Llama3魔方本地量化和部署》。2024年9月25日,Meta
    的頭像 發表于 10-12 09:39 ?665次閱讀
    使用OpenVINO 2024.4<b class='flag-5'>在</b><b class='flag-5'>算</b><b class='flag-5'>力</b><b class='flag-5'>魔方</b>上<b class='flag-5'>部署</b>Llama-3.2-1B-Instruct<b class='flag-5'>模型</b>

    英特爾酷睿Ultra7處理器優化和部署Phi-3-min模型

    2024年4月23日,微軟研究院公布Phi-3系列AI大模型,包含三個版本:mini(3.8B參數)、small(7B參數)以及medium(14B參數)。phi-3-mini是一個擁
    的頭像 發表于 08-30 16:58 ?672次閱讀
    <b class='flag-5'>在</b>英特爾酷睿Ultra7處理器<b class='flag-5'>上</b>優化和<b class='flag-5'>部署</b><b class='flag-5'>Phi</b>-3-min<b class='flag-5'>模型</b>

    模型時代的需求

    現在AI已進入大模型時代,各企業都爭相部署模型,但如何保證大模型,以及相關的穩定性和性能
    發表于 08-20 09:04

    llm模型本地部署有用嗎

    ,將這些模型部署本地環境可能會帶來一些挑戰和優勢。 1. LLM模型概述 大型語言模型(LLM)通常是基于深度學習的神經網絡
    的頭像 發表于 07-09 10:14 ?565次閱讀

    AI核心板:Core-1688JD4

    模型私有化部署,提供一站式深度學習開發工具包SOPHONSDK,工具鏈完備易用度高,可輕松進行AI算法的本地部署適用于智服務器、邊緣智
    的頭像 發表于 05-15 08:02 ?1500次閱讀
    AI<b class='flag-5'>算</b><b class='flag-5'>力</b>核心板:Core-1688JD<b class='flag-5'>4</b>

    Optimum Intel三步完成Llama3魔方本地量化和部署

    Llama3 是Meta最新發布的開源大語言模型(LLM), 當前已開源8B和70B參數量的預訓練模型權重,并支持指令微調。
    的頭像 發表于 05-10 10:34 ?1108次閱讀
    Optimum Intel三步完成Llama3<b class='flag-5'>在</b><b class='flag-5'>算</b><b class='flag-5'>力</b><b class='flag-5'>魔方</b>的<b class='flag-5'>本地</b>量化和<b class='flag-5'>部署</b>

    能RADXA微服務器試用體驗】Radxa Fogwise 1684X Mini 規格

    通過網絡可以了解到,能RADXA微服務器的具體規格: 處理器:BM1684X :高達32Tops INT8峰值 內存:16GB L
    發表于 02-28 11:21

    智能規模超通用,大模型對智能提出高要求

    電子發燒友網報道(文/李彎彎)是設備通過處理數據,實現特定結果輸出的計算能力,常用FLOPS作為計量單位。FLOPS是Floating-point Operations Per Second
    的頭像 發表于 02-06 00:08 ?6473次閱讀
    主站蜘蛛池模板: 亚洲国产日韩欧美在线as乱码| 亚洲 午夜在线一区| 天天做夜夜爱| 天天干视频网站| 日韩 ed2k| 九九天天影视| 亚洲欧美卡通 动漫 丝袜| 国产成人啪午夜精品网站男同| 91大神视频在线播放| 久久精品国产99精品最新| 在线观看色视频| 婷婷综合久久中文字幕蜜桃三| 色婷婷在线观看视频| 欧美狠狠| 成人网久久| 天天性综合| 国产精品久久精品福利网站| 看视频免费网址| xxxxxx性bbbbbb| 速度与激情在线| 久久精品国产四虎| 亚洲午夜精品在线| 国产自产视频在线观看香蕉| www.亚洲5555.com| 亚洲香蕉视频| 男人的天堂色偷偷| bt天堂网在线资源www| 狼人 成人 综合 亚洲| 中文字幕亚洲一区二区va在线 | 午夜免费福利在线| 一级毛片一片毛| 天堂在线视频网站| 免费黄色大片网站| 欧美成人 一区二区三区| 国产婷婷综合丁香亚洲欧洲| 偷自在线| 天堂在线视频| 亚洲色网址| 亚洲狠狠综合久久| 老色批午夜免费视频网站| 一级录像|