18video性欧美19sex,欧美高清videosddfsexhd,性少妇videosexfreexxx片中国,激情五月激情综合五月看花,亚洲人成网77777色在线播放

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評(píng)論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會(huì)員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識(shí)你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

使用OpenVINO 2024.4在算力魔方上部署Llama-3.2-1B-Instruct模型

英特爾物聯(lián)網(wǎng) ? 來源:英特爾物聯(lián)網(wǎng) ? 2024-10-12 09:39 ? 次閱讀
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

作者:

劉力 算力魔方創(chuàng)始人

前面我們分享了《三步完成Llama3在算力魔方的本地量化和部署》。2024年9月25日,Meta又發(fā)布了Llama3.2:一個(gè)多語言大型語言模型(LLMs)的集合,其中包括:

大語言模型:1B和3B參數(shù)版本,僅接收多種語言文本輸入。

多模態(tài)模型:11B和90B參數(shù)版本,既能接收文本輸入又能接收?qǐng)D像輸入。

本文將介紹使用OpenVINO 2024.4在算力魔方上部署Llama-3.2-1B-Instruct模型。

1.1Llama 3.2簡(jiǎn)介

Llama 3.2的1B和3B參數(shù)版本是一個(gè)支持多種語言大型語言模型,其指令調(diào)優(yōu)純文本模型Llama-3.2-1B-Instruct和Llama-3.2-3B-Instruct,針對(duì)多語言對(duì)話用例進(jìn)行了優(yōu)化,包括代理檢索和摘要任務(wù),性能參數(shù)如下圖所示。

3bc8c1f6-877f-11ef-b8af-92fbcf53809c.png

Llama3.2官方正式支持的語言包括英語、德語、法語、意大利語、葡萄牙語、印地語、西班牙語和泰語。

請(qǐng)讀者用下面的命令把Llama-3.2-1B-Instruct模型的預(yù)訓(xùn)練權(quán)重下載到本地待用。

git clone https://www.modelscope.cn/LLM-Research/Llama-3.2-1B-Instruct.git

1.2算力魔方簡(jiǎn)介

算力魔方是一款可以DIY的迷你主機(jī),采用了抽屜式設(shè)計(jì),后續(xù)組裝、升級(jí)、維護(hù)只需要拔插模塊。通過選擇不同算力的計(jì)算模塊,再搭配不同的 IO 模塊可以組成豐富的配置,適應(yīng)不同場(chǎng)景。

性能不夠時(shí),可以升級(jí)計(jì)算模塊提升算力;IO 接口不匹配時(shí),可以更換 IO 模塊調(diào)整功能,而無需重構(gòu)整個(gè)系統(tǒng)。

本文以下所有步驟將在帶有英特爾i7-1265U處理器的算力魔方上完成驗(yàn)證。

1.3三步完成Llama-3.2-1B-Instruct的INT4量化和本地部署

把Llama-3.2-1B-Instruct模型的預(yù)訓(xùn)練權(quán)重下載到本地后,接下來本文將依次介紹基于Optimum Intel工具將Llama-3.2-1B-Instruct進(jìn)行INT4量化,并完成本地部署。

Optimum Intel作為Transformers和Diffusers庫與Intel提供的各種優(yōu)化工具之間的接口層,它給開發(fā)者提供了一種簡(jiǎn)便的使用方式,讓這兩個(gè)庫能夠利用Intel針對(duì)硬件優(yōu)化的技術(shù),例如:OpenVINO、IPEX等,加速基于Transformer或Diffusion構(gòu)架的AI大模型在英特爾硬件上的推理計(jì)算性能。

Optimum Intel代碼倉連接:https://github.com/huggingface/optimum-intel

1.3.1 第一步,搭建開發(fā)環(huán)境

請(qǐng)下載并安裝Anaconda,然后用下面的命令創(chuàng)建并激活名為llama32的虛擬環(huán)境:

conda create -n llama32 python=3.11#創(chuàng)建虛擬環(huán)境
conda activate llama32#激活虛擬環(huán)境
python -m pip install --upgrade pip #升級(jí)pip到最新版本

然后安裝Optimum Intel和其依賴項(xiàng)OpenVINO:

pip install optimum-intel[openvino]

1.3.2 第二步,用optimum-cli對(duì)Llama-3.2-1B-Instruct模型進(jìn)行INT4量化

optimum-cli是Optimum Intel自帶的跨平臺(tái)命令行工具,可以不用編寫量化代碼,實(shí)現(xiàn)對(duì)Llama-3.2-1B-Instruct模型的量化。

執(zhí)行命令將Llama-3.2-1B-Instruct模型量化為INT4 OpenVINO格式模型:

optimum-cli export openvino --model D:llama3Meta-Llama-3-8B --task text-generation-with-past --weight-format int4 --group-size 128 --ratio 0.8 --sym llama3_int4_ov_model

3c14a5e4-877f-11ef-b8af-92fbcf53809c.png

1.3.3第三步:編寫推理程序llama3_2_int4_ov_infer.py

基于Optimum Intel工具包的API函數(shù)編寫Llama3的推理程序,非常簡(jiǎn)單,只需要調(diào)用五個(gè)API函數(shù):

編譯并載入Llama-3.2模型到指定DEVICE:OVModelForCausalLM.from_pretrained()

實(shí)例化Llama-3.2模型的Tokenizer:tok=AutoTokenizer.from_pretrained()

將自然語言轉(zhuǎn)換為Token序列:tok(question, return_tensors="pt", **{})

生成答案的Token序列:ov_model.generate()

將答案Token序列解碼為自然語言:tok.batch_decode()

完整范例程序如下所示下載鏈接:git clone

https://gitee.com/Pauntech/llama3.git

import openvino as ov
from transformers import AutoConfig, AutoTokenizer
from optimum.intel.openvino import OVModelForCausalLM


ov_config = {"PERFORMANCE_HINT": "LATENCY", "NUM_STREAMS": "1", "CACHE_DIR": ""}
model_dir = "d:\llama3_2_1B_int4" #llama3.2 1B int4模型路徑
DEVICE = "CPU" #可更換為"GPU", "AUTO"...


# 編譯并載入Llama3.2模型到指定DEVICE
ov_model = OVModelForCausalLM.from_pretrained(
  model_dir,
  device=DEVICE,
  ov_config=ov_config,
  config=AutoConfig.from_pretrained(model_dir, trust_remote_code=True),
  trust_remote_code=True,
)


# 實(shí)例化Llama3.2模型的Tokenizer
tok = AutoTokenizer.from_pretrained(model_dir, trust_remote_code=True)
# 設(shè)置問題
question = "What's the OpenVINO?" 
# 將自然語言轉(zhuǎn)換為Token序列
input_tokens = tok(question, return_tensors="pt", **{})
# 生成答案的Token序列
answer = ov_model.generate(**input_tokens, max_new_tokens=128)
# 將答案Token序列解碼為自然語言
print(tok.batch_decode(answer, skip_special_tokens=True)[0])

運(yùn)行l(wèi)lama3_2_int4_ov_infer.py:

python llama3_2_int4_ov_infer.py

運(yùn)行結(jié)果,如下所示:

3c430b6e-877f-11ef-b8af-92fbcf53809c.png

1.4總結(jié)

Optimum Intel工具包簡(jiǎn)單易用,僅需三步即可完成開發(fā)環(huán)境搭建、Llama-3.2-1B-Instruct模型INT4量化和推理程序開發(fā)。基于Optimum Intel工具包開發(fā)Llama3推理程序僅需調(diào)用五個(gè)API函數(shù),方便快捷的實(shí)現(xiàn)將Llama-3.2-1B-Instruct本地化部署在基于英特爾處理器的算力魔方上。

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點(diǎn)僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場(chǎng)。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問題,請(qǐng)聯(lián)系本站處理。 舉報(bào)投訴
  • 模型
    +關(guān)注

    關(guān)注

    1

    文章

    3618

    瀏覽量

    51543
  • Meta
    +關(guān)注

    關(guān)注

    0

    文章

    314

    瀏覽量

    12186
  • 算力
    +關(guān)注

    關(guān)注

    2

    文章

    1336

    瀏覽量

    16486
  • OpenVINO
    +關(guān)注

    關(guān)注

    0

    文章

    116

    瀏覽量

    688

原文標(biāo)題:三步完成Llama3.2在算力魔方的INT4量化和部署|開發(fā)者實(shí)戰(zhàn)

文章出處:【微信號(hào):英特爾物聯(lián)網(wǎng),微信公眾號(hào):英特爾物聯(lián)網(wǎng)】歡迎添加關(guān)注!文章轉(zhuǎn)載請(qǐng)注明出處。

收藏 人收藏
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

    評(píng)論

    相關(guān)推薦
    熱點(diǎn)推薦

    LabVIEW+OpenVINOCPU上部署新冠肺炎檢測(cè)模型實(shí)戰(zhàn)(含源碼)

    使用LabVIEW+OpenVINOCPU上部署新冠肺炎CT圖像病害分割
    的頭像 發(fā)表于 03-23 13:34 ?2271次閱讀
    LabVIEW+<b class='flag-5'>OpenVINO</b><b class='flag-5'>在</b>CPU<b class='flag-5'>上部署</b>新冠肺炎檢測(cè)<b class='flag-5'>模型</b>實(shí)戰(zhàn)(含源碼)

    模型時(shí)代的需求

    現(xiàn)在AI已進(jìn)入大模型時(shí)代,各企業(yè)都爭(zhēng)相部署模型,但如何保證大模型,以及相關(guān)的穩(wěn)定性和性能
    發(fā)表于 08-20 09:04

    使用 NPU 插件對(duì)量化的 Llama 3.1 8b 模型進(jìn)行推理時(shí)出現(xiàn)“從 __Int64 轉(zhuǎn)換為無符號(hào) int 的錯(cuò)誤”,怎么解決?

    安裝了 OpenVINO? GenAI 2024.4。 使用以下命令量化 Llama 3.1 8B 模型: optimum-cli exp
    發(fā)表于 06-25 07:20

    介紹STM32cubeIDE上部署AI模型的系列教程

    介紹STM32cubeIDE上部署AI模型的系列教程,開發(fā)板型號(hào)STM32H747I-disco,值得一看。MCUAI原文鏈接:【嵌入式AI開發(fā)】篇四|部署篇:STM32cubeID
    發(fā)表于 12-14 09:05

    使用OpenVINO?魔方上加速stable diffusion模型

    魔方一款可以DIY的迷你主機(jī),采用了抽屜式設(shè)計(jì),后續(xù)組裝、升級(jí)、維護(hù)只需要拔插模塊。通過選擇計(jì)算模塊的版本,再搭配不同額IO模塊可以組成豐富的配置,適應(yīng)不同場(chǎng)景。
    的頭像 發(fā)表于 05-25 14:34 ?1305次閱讀
    使用<b class='flag-5'>OpenVINO</b>?<b class='flag-5'>在</b><b class='flag-5'>算</b><b class='flag-5'>力</b><b class='flag-5'>魔方</b>上加速stable diffusion<b class='flag-5'>模型</b>

    OpenNCC上部署人臉檢測(cè)模型

    電子發(fā)燒友網(wǎng)站提供《OpenNCC上部署人臉檢測(cè)模型.zip》資料免費(fèi)下載
    發(fā)表于 06-27 10:34 ?0次下載
    <b class='flag-5'>在</b>OpenNCC<b class='flag-5'>上部署</b>人臉檢測(cè)<b class='flag-5'>模型</b>

    NNCF壓縮與量化YOLOv8模型OpenVINO部署測(cè)試

    OpenVINO2023版本衍生出了一個(gè)新支持工具包NNCF(Neural Network Compression Framework – 神經(jīng)網(wǎng)絡(luò)壓縮框架),通過對(duì)OpenVINO IR格式模型的壓縮與量化更好的提升
    的頭像 發(fā)表于 11-20 10:46 ?2298次閱讀
    NNCF壓縮與量化YOLOv8<b class='flag-5'>模型</b>與<b class='flag-5'>OpenVINO</b><b class='flag-5'>部署</b>測(cè)試

    Optimum Intel三步完成Llama3魔方的本地量化和部署

    Llama3 是Meta最新發(fā)布的開源大語言模型(LLM), 當(dāng)前已開源8B和70B參數(shù)量的預(yù)訓(xùn)練模型權(quán)重,并支持指令微調(diào)。
    的頭像 發(fā)表于 05-10 10:34 ?1737次閱讀
    Optimum Intel三步完成<b class='flag-5'>Llama</b>3<b class='flag-5'>在</b><b class='flag-5'>算</b><b class='flag-5'>力</b><b class='flag-5'>魔方</b>的本地量化和<b class='flag-5'>部署</b>

    Meta發(fā)布Llama 3.2量化版模型

    近日,Meta開源Llama 3.21B與3B模型后,再次為人工智能領(lǐng)域帶來了新進(jìn)展。10月
    的頭像 發(fā)表于 10-29 11:05 ?1061次閱讀

    用Ollama輕松搞定Llama 3.2 Vision模型本地部署

    Ollama 是一個(gè)開源的大語言模型服務(wù)工具,它的核心目的是簡(jiǎn)化大語言模型(LLMs)的本地部署和運(yùn)行過程,請(qǐng)參考《Gemma 2+Ollama
    的頭像 發(fā)表于 11-23 17:22 ?4300次閱讀
    用Ollama輕松搞定<b class='flag-5'>Llama</b> <b class='flag-5'>3.2</b> Vision<b class='flag-5'>模型</b>本地<b class='flag-5'>部署</b>

    使用NVIDIA TensorRT提升Llama 3.2性能

    Llama 3.2 模型集擴(kuò)展了 Meta Llama 開源模型集的模型陣容,包含視覺語言
    的頭像 發(fā)表于 11-20 09:59 ?1152次閱讀

    魔方上本地部署Phi-4模型

    ?作者:魔方創(chuàng)始人/英特爾邊緣計(jì)算創(chuàng)新大使 劉 前面我們分享了《Meta重磅發(fā)布Llama 3.3 70
    的頭像 發(fā)表于 01-15 11:05 ?674次閱讀
    <b class='flag-5'>在</b><b class='flag-5'>算</b><b class='flag-5'>力</b><b class='flag-5'>魔方</b>上本地<b class='flag-5'>部署</b>Phi-4<b class='flag-5'>模型</b>

    如何在邊緣端獲得GPT4-V的能力:魔方+MiniCPM-V 2.6

    作者:魔方創(chuàng)始人/英特爾邊緣計(jì)算創(chuàng)新大使 劉 前面我們分享了《
    的頭像 發(fā)表于 01-20 13:40 ?971次閱讀
    如何在邊緣端獲得GPT4-V的能力:<b class='flag-5'>算</b><b class='flag-5'>力</b><b class='flag-5'>魔方</b>+MiniCPM-V 2.6

    C#中使用OpenVINO?:輕松集成AI模型

    作者:魔方創(chuàng)始人/英特爾創(chuàng)新大使劉 C#不僅在PC游戲開發(fā)、大型商業(yè)系統(tǒng)領(lǐng)域應(yīng)用廣泛,還成為開源測(cè)控、機(jī)器視覺與運(yùn)動(dòng)控制,以及PC數(shù)集與分析領(lǐng)域中的主流開發(fā)語言!
    的頭像 發(fā)表于 02-07 14:05 ?1403次閱讀
    C#中使用<b class='flag-5'>OpenVINO</b>?:輕松集成AI<b class='flag-5'>模型</b>!

    基于魔方與PP-OCRv5的OpenVINO智能文檔識(shí)別方案

    )團(tuán)隊(duì)最新推出的PP-OCRv5模型精度和效率上實(shí)現(xiàn)了顯著突破,結(jié)合Intel OpenVINO工具套件的硬件加速能力,能夠?yàn)楦黝愇臋n處理場(chǎng)景提供更強(qiáng)大的支持。 二,
    的頭像 發(fā)表于 06-12 21:19 ?1190次閱讀
    基于<b class='flag-5'>算</b><b class='flag-5'>力</b><b class='flag-5'>魔方</b>與PP-OCRv5的<b class='flag-5'>OpenVINO</b>智能文檔識(shí)別方案