近日,Meta在開源Llama 3.2的1B與3B模型后,再次為人工智能領(lǐng)域帶來了新進(jìn)展。10月24日,Meta正式推出了這兩個模型的量化版本,旨在進(jìn)一步優(yōu)化模型性能,拓寬其應(yīng)用場景。
據(jù)Meta介紹,量化后的Llama 3.2模型在大小上平均減少了56%,RAM使用量也平均降低了41%。這一顯著的優(yōu)化使得模型在運(yùn)行過程中能夠占用更少的資源,同時速度提高了2至4倍。此外,量化后的模型還降低了功耗,這對于將其部署到移動設(shè)備上具有重要意義。
此次Meta推出的量化版Llama 3.2模型,不僅展示了其在人工智能領(lǐng)域的持續(xù)創(chuàng)新能力,也為更多開發(fā)者提供了高效、便捷的工具。隨著這些模型在移動設(shè)備上的廣泛應(yīng)用,人工智能將更深入地融入人們的日常生活,為社會帶來更多的便利和可能性。
-
人工智能
+關(guān)注
關(guān)注
1813文章
49536瀏覽量
259359 -
開源
+關(guān)注
關(guān)注
3文章
3892瀏覽量
45356 -
Meta
+關(guān)注
關(guān)注
0文章
314瀏覽量
12187
發(fā)布評論請先 登錄
使用 NPU 插件對量化的 Llama 3.1 8b 模型進(jìn)行推理時出現(xiàn)“從 __Int64 轉(zhuǎn)換為無符號 int 的錯誤”,怎么解決?
瑞芯微模型量化文件構(gòu)建
今日看點(diǎn)丨臺積電、Intel合資運(yùn)營代工業(yè)務(wù);韓國計(jì)劃向當(dāng)?shù)仄囆袠I(yè)注入3萬億韓元援助
IBM發(fā)布全新Granite 3.2 AI模型
無法在OVMS上運(yùn)行來自Meta的大型語言模型 (LLM),為什么?
普渡機(jī)器人接入DeepSeek滿血版模型
Meta組建四大專研小組,深入探索DeepSeek模型
在算力魔方上本地部署Phi-4模型
Meta重磅發(fā)布Llama 3.3 70B:開源AI模型的新里程碑
Meta發(fā)布新AI模型Meta Motivo,旨在提升元宇宙體驗(yàn)
Meta推出Llama 3.3 70B,AI大模型競爭白熱化
用Ollama輕松搞定Llama 3.2 Vision模型本地部署

Meta發(fā)布Llama 3.2量化版模型
評論