首頁|必讀|視頻|專訪|運營|制造|監(jiān)管|大數(shù)據(jù)|物聯(lián)網(wǎng)|量子|低空經(jīng)濟|智能汽車|特約記者
手機|互聯(lián)網(wǎng)|IT|5G|光通信|人工智能|云計算|芯片|報告|智慧城市|移動互聯(lián)網(wǎng)|會展
首頁 >> 移動互聯(lián)網(wǎng) >> 正文

首發(fā)即支持!昇思MindSpore 0day 支持智譜開源GLM-4-0414全部6個模型

2025年4月15日 16:54  CCTIME飛象網(wǎng)  

4月15日,昇思MindSpore開源社區(qū)、魔樂社區(qū)第一時間上架智譜新開源的GLM-4-0414 32B/9B模型,并完成性能測試。智譜GLM-4-0414擁有 32B/9B兩個尺寸,涵蓋基座、推理、沉思模型,均遵循 MIT 許可協(xié)議。其中,推理模型 GLM-Z1-32B-0414 性能媲美 DeepSeek-R1 等頂尖模型,實測推理速度可達 200 Tokens/秒。

模型介紹:

基座模型 GLM-4-32B-0414 擁有 320 億參數(shù),其性能可與國內(nèi)、外參數(shù)量更大的主流模型相媲美。該模型利用 15T 高質(zhì)量數(shù)據(jù)進行預(yù)訓(xùn)練,特別納入了豐富的推理類合成數(shù)據(jù),為后續(xù)的強化學(xué)習(xí)擴展奠定了基礎(chǔ)。在后訓(xùn)練階段,除了進行面向?qū)υ拡鼍暗娜祟惼脤R,還通過拒絕采樣和強化學(xué)習(xí)等技術(shù),重點增強了模型在指令遵循、工程代碼生成、函數(shù)調(diào)用等任務(wù)上的表現(xiàn),以強化智能體任務(wù)所需的原子能力。

GLM-4-32B-0414 在工程代碼、Artifacts 生成、函數(shù)調(diào)用、搜索問答及報告撰寫等任務(wù)上均表現(xiàn)出色,部分 Benchmark 指標(biāo)已接近甚至超越 GPT-4o、DeepSeek-V3-0324(671B)等更大模型的水平。

GLM-Z1-32B-0414 是一款具備深度思考能力的推理模型。該模型在 GLM-4-32B-0414 的基礎(chǔ)上,采用了冷啟動與擴展強化學(xué)習(xí)策略,并針對數(shù)學(xué)、代碼、邏輯等關(guān)鍵任務(wù)進行了深度優(yōu)化訓(xùn)練。與基礎(chǔ)模型相比,GLM-Z1-32B-0414 的數(shù)理能力和復(fù)雜問題解決能力得到顯著增強。此外,訓(xùn)練中整合了基于對戰(zhàn)排序反饋的通用強化學(xué)習(xí)技術(shù),有效提升了模型的通用能力。

在部分任務(wù)上,GLM-Z1-32B-0414 憑借 32B 參數(shù),其性能已能與擁有 671B 參數(shù)的 DeepSeek-R1 相媲美。通過在 AIME 24/25、LiveCodeBench、GPQA 等基準(zhǔn)測試中的評估,GLM-Z1-32B-0414 展現(xiàn)了較強的數(shù)理推理能力,能夠支持解決更廣泛復(fù)雜任務(wù)。

GLM-Z1-9B-0414 是沿用了上述一系列技術(shù),訓(xùn)練出的一個 9B 的小尺寸模型。雖然參數(shù)量更少,但GLM-Z1-9B-0414 在數(shù)學(xué)推理及通用任務(wù)上依然表現(xiàn)出色,整體性能已躋身同尺寸開源模型的領(lǐng)先水平。特別是在資源受限的場景下,該模型可以很好地在效率與效果之間取得平衡,為需要輕量化部署的用戶提供強有力的選擇。

沉思模型GLM-Z1-Rumination-32B-0414 代表了智譜對 AGI 未來形態(tài)的下一步探索。與一般推理模型不同,沉思模型通過更多步驟的深度思考來解決高度開放與復(fù)雜的問題。其關(guān)鍵創(chuàng)新在于,它能在深度思考過程中整合搜索工具處理復(fù)雜任務(wù),并運用多種規(guī)則型獎勵機制來指導(dǎo)和擴展端到端的強化學(xué)習(xí)訓(xùn)練。該模型支持“自主提出問題—搜索信息—構(gòu)建分析—完成任務(wù)”的完整研究閉環(huán),從而在研究型寫作復(fù)雜檢索任務(wù)上的能力得到了顯著提升。

歡迎廣大開發(fā)者下載體驗!

魔樂社區(qū)下載鏈接:

https://modelers.cn/models/MindSpore-Lab/GLM-4-32B-Base-0414https://modelers.cn/models/MindSpore-Lab/GLM-Z1-Rumination-32B-0414https://modelers.cn/models/MindSpore-Lab/GLM-Z1-32B-0414https://modelers.cn/models/MindSpore-Lab/GLM-Z1-9B-0414https://modelers.cn/models/MindSpore-Lab/GLM-4-32B-0414https://modelers.cn/models/MindSpore-Lab/GLM-4-9B-0414

以下為手把手教程:

(以GLM-Z1-9B-0414+昇思MindSpore基于昇騰推理為例)

# 01

快速開始

GLM-Z1-9B-0414推理至少需要1臺(1卡)Atlas 800T A2(64G)服務(wù)器(基于BF16權(quán)重)。昇思MindSpore提供了GLM-Z1-9B-0414推理可用的Docker容器鏡像,供開發(fā)者快速體驗。

1、下載昇思 MindSpore 推理容器鏡像

執(zhí)行以下 Shell 命令,拉取昇思 MindSpore GLM-Z1 推理容器鏡像:

docker pull swr.cn-central-221.ovaijisuan.com/mindformers/mindspore_glm_z1:20250414

1、啟動容器

docker run -it --privileged  --name=GLM-Z1 --net=host \

--shm-size 500g \

--device=/dev/davinci0 \

--device=/dev/davinci1 \

--device=/dev/davinci2 \

--device=/dev/davinci3 \

--device=/dev/davinci4 \

--device=/dev/davinci5 \

--device=/dev/davinci6 \

--device=/dev/davinci7 \

--device=/dev/davinci_manager \

--device=/dev/hisi_hdc \

--device /dev/devmm_svm \

-v /usr/local/Ascend/driver:/usr/local/Ascend/driver \

-v /usr/local/Ascend/firmware:/usr/local/Ascend/firmware \

-v /usr/local/sbin/npu-smi:/usr/local/sbin/npu-smi \

-v /usr/local/sbin:/usr/local/sbin \

-v /etc/hccn.conf:/etc/hccn.conf \

swr.cn-central-221.ovaijisuan.com/mindformers/mindspore_glm_z1:20250414

/bin/bash

注意事項:

● 如果部署在多機上,每臺機器中容器的hostname不能重復(fù)。如果有部分宿主機的hostname是一致的,需要在起容器的時候修改容器的hostname。

● 后續(xù)所有操作均在容器內(nèi)操作。

2、模型下載

執(zhí)行以下命令為自定義下載路徑 /home/work/GLM-Z1-9B-0414 添加白名單:

export HUB_WHITE_LIST_PATHS=/home/work/GLM-Z1-9B-0414

執(zhí)行以下 Python 腳本從魔樂社區(qū)下載昇思 MindSpore 版本的 GLM-Z1-9B-0414 文件至指定路徑 /home/work/GLM-Z1-9B-0414 。下載的文件包含模型代碼、權(quán)重、分詞模型和示例代碼,占用約18GB 的磁盤空間:

from openmind_hub import snapshot_download

snapshot_download(

repo_,

local_dir="/home/work/GLM-Z1-9B-0414",

local_dir_use_symlink=False

)

下載完成的 /home/work/GLM-Z1-9B-0414 文件夾目錄結(jié)構(gòu)如下:

GLM-Z1-9B-0414

├── config.json                               # 模型json配置文件

├── tokenizer.model                           # 詞表model文件

├── tokenizer_config.json                     # 詞表配置文件

├── predict_glm4_z1_9b.yaml                   # 模型yaml配置文件

└── weights

├── model-xxxxx-of-xxxxx.safetensors    # 模型權(quán)重文件

├── tokenizer.json                      # 模型詞表文件

├── xxxxx                               # 若干其他文件

└── model.safetensors.index.json        # 模型權(quán)重映射文件

注意事項:

● /home/work/GLM-Z1-9B-0414  可修改為自定義路徑,確保該路徑有足夠的磁盤空間(約 18GB)。

● 下載時間可能因網(wǎng)絡(luò)環(huán)境而異,建議在穩(wěn)定的網(wǎng)絡(luò)環(huán)境下操作。

# 02

服務(wù)化部署

1、修改模型配置文件

在 predict_glm_z1_9b.yaml 中對以下配置進行修改(若為默認路徑則無需修改):

load_checkpoint: '/home/work/GLM-Z1-9B-0414/weights'         # 配置為實際的模型絕對路徑

auto_trans_ckpt: True                                  # 打開權(quán)重自動切分,自動將權(quán)重轉(zhuǎn)換為分布式任務(wù)所需的形式

load_ckpt_format: 'safetensors'

processor:

tokenizer:

vocab_file: "/home/work/GLM-Z1-9B-0414/tokenizer.model"  # 配置為tokenizer文件的絕對路徑

2、一鍵啟動MindIE

MindSpore Transformers提供了一鍵拉起MindIE腳本,腳本中已預(yù)置環(huán)境變量設(shè)置和服務(wù)化配置,僅需輸入模型文件目錄后即可快速拉起服務(wù)。進入 mindformers/scripts 目錄下,執(zhí)行MindIE啟動腳本

cd /home/work/mindformers/scripts

bash run_mindie.sh --model-name GLM-Z1-9B-0414 --model-path /home/work/GLM-Z1-9B-0414 --max-prefill-batch-size 1

參數(shù)說明:

● --model-name:設(shè)置模型名稱

● --model-path:設(shè)置模型目錄路徑

查看日志:

tail -f output.log

當(dāng)log日志中出現(xiàn) `Daemon start success!` ,表示服務(wù)啟動成功。

3、執(zhí)行推理請求測試

執(zhí)行以下命令發(fā)送流式推理請求進行測試:

curl -w "\ntime_total=%{time_total}\n" -H "Accept: application/json" -H "Content-type: application/json" -X POST -d '{"inputs": "請介紹一個北京的景點", "parameters": {"do_sample": false, "max_new_tokens": 128}, "stream": false}' http://127.0.0.1:1025/generate_stream &```

# 03

聲明

本文檔提供的模型代碼、權(quán)重文件和部署鏡像,當(dāng)前僅限于基于昇思MindSpore AI框架體驗GLM-Z1-9B-0414 的部署效果,不支持生產(chǎn)環(huán)境部署。

相關(guān)使用問題請反饋至ISSUE(鏈接:https://gitee.com/mindspore/mindformers/issues)。

昇思MindSpore AI框架將持續(xù)支持相關(guān)主流模型演進,并根據(jù)開源情況面向全體開發(fā)者提供鏡像與支持。

編 輯:T01
飛象網(wǎng)版權(quán)及免責(zé)聲明:
1.本網(wǎng)刊載內(nèi)容,凡注明來源為“飛象網(wǎng)”和“飛象原創(chuàng)”皆屬飛象網(wǎng)版權(quán)所有,未經(jīng)允許禁止轉(zhuǎn)載、摘編及鏡像,違者必究。對于經(jīng)過授權(quán)可以轉(zhuǎn)載,請必須保持轉(zhuǎn)載文章、圖像、音視頻的完整性,并完整標(biāo)注作者信息和飛象網(wǎng)來源。
2.凡注明“來源:XXXX”的作品,均轉(zhuǎn)載自其它媒體,在于傳播更多行業(yè)信息,并不代表本網(wǎng)贊同其觀點和對其真實性負責(zé)。
3.如因作品內(nèi)容、版權(quán)和其它問題,請在相關(guān)作品刊發(fā)之日起30日內(nèi)與本網(wǎng)聯(lián)系,我們將第一時間予以處理。
本站聯(lián)系電話為86-010-87765777,郵件后綴為cctime.com,冒充本站員工以任何其他聯(lián)系方式,進行的“內(nèi)容核實”、“商務(wù)聯(lián)系”等行為,均不能代表本站。本站擁有對此聲明的最終解釋權(quán)。
推薦新聞              
 
人物
高通徐晧:利用6G和AI重塑移動連接的未來
精彩視頻
全球6G大會|高通展示三大6G原型系統(tǒng) 更好服務(wù)智能時代
6G技術(shù)新突破!6G全息超表面寬帶移動通信系統(tǒng)樣機發(fā)布
全球6G大會 | 中國通信標(biāo)準(zhǔn)化協(xié)會聞庫:5G垂直應(yīng)用痛點值得挖掘,設(shè)計6G時要加以考慮
全球6G大會 | 高通徐晧:“人工智能+6G”帶來更多應(yīng)用場景 中國6G占據(jù)優(yōu)勢
精彩專題
通信產(chǎn)業(yè)2024年業(yè)績盤點
3·15權(quán)益日 | 共筑滿意消費 守護信息通信安全防線
聚焦2025全國兩會
2025年世界移動通信大會
關(guān)于我們 | 廣告報價 | 聯(lián)系我們 | 隱私聲明 | 本站地圖
CCTIME飛象網(wǎng) CopyRight © 2007-2024 By CCTIME.COM
京ICP備08004280號-1  電信與信息服務(wù)業(yè)務(wù)經(jīng)營許可證080234號 京公網(wǎng)安備110105000771號
公司名稱: 北京飛象互動文化傳媒有限公司
未經(jīng)書面許可,禁止轉(zhuǎn)載、摘編、復(fù)制、鏡像