查看: 71|回复: 0
收起左侧

[IT业界] GLM-5大模型官宣支持7大国产芯片平台:华为、寒武纪、摩尔线程等在列

[复制链接]
anyangmo
发表于 1 小时前 | 显示全部楼层 |阅读模式
本帖最后由 anyangmo 于 2026-2-23 08:42 编辑

GLM-5大模型官宣支持7大国产芯片平台:华为、寒武纪、摩尔线程等在列

快科技2月22日消息,春节期间国产AI大模型轮番登场,除了DeepSeek V4还在低调之外,几家热门模型都来了,其中智谱的GLM-5是其中热度最高的之一。

从智谱官网介绍来看,GLM-5重点就是提升编程与智能体能力,其参数量达到了7440亿,是上代GLM-4.X的2倍左右,性能提升很明显。

此前有海外的AI博主测试其代{过}{滤}理编程能力世界第一,综合编程能力世界第三,仅次于Opus 4.6及Gemini 3 Pro,但超越了Opus 4.5。

发布之后由于太受欢迎,导致GLM-5需求暴涨,甚至导致算力不够,用户体验下滑,为此智谱还发布了道歉信,并给出了补偿方案,其能力表现可见一斑。


今天智谱还发布了GLM-5大模型的技术报告,特别提到了性能提升主要来自于四大技术创新,具体如下:

1、引入DSA稀疏注意力机制(DeepSeek Sparse Attention, DSA),极大降低了训练与推理成本。

此前的GLM-4.5依赖标准MoE架构提升效率,而DSA机制则使GLM-5能够根据Token的重要性动态分配注意力资源。在不折损长上下文理解和推理深度的前提下,算力开销得以大幅削减。

得益于此,智谱将模型参数规模扩展至 744B,同时将训练Token规模提升至28.5T。

2、构建全新的异步RL基础设施

基于GLM-4.5时期 slime 框架“训练与推理解耦”的设计,智谱的新基建进一步实现了“生成与训练”的深度解耦,将GPU利用率推向极致。系统支持模型开展大规模的智能体(Agent)轨迹探索,大幅减缓了以往拖慢迭代速度的同步瓶颈,让RL后训练流程的效率实现了质的飞跃。

3、提出全新的异步Agent RL算法

该算法旨在全面提升模型的自主决策质量。GLM-4.5曾依靠迭代自蒸馏和结果监督来训练Agent;而在GLM-5中,研发的异步算法使模型能够从多样化的长周期交互中持续学习。

这一算法针对动态环境下的规划与自我纠错能力进行了深度优化,这也正是GLM-5能够在真实编程场景中表现卓越的底层逻辑。

4、全面拥抱国产算力生态

从模型发布伊始,GLM-5就原生适配了中国GPU生态。智谱已完成从底层内核到上层推理框架的深度优化,全面兼容七大主流国产芯片平台:华为昇腾、摩尔线程、海光、寒武纪、昆仑芯、天数智芯与燧原。

据介绍,GLM-5在单台国产算力节点上的性能表现,已足可媲美由两台国际主流GPU组成的计算集群,不仅如此,在长序列处理场景下,其部署成本更是大幅降低了 50%。





您需要登录后才可以回帖 登录 | 快速注册

本版积分规则

手机版|杀毒软件|软件论坛| 卡饭论坛

Copyright © KaFan  KaFan.cn All Rights Reserved.

Powered by Discuz! X3.4( 沪ICP备2020031077号-2 ) GMT+8, 2026-2-23 10:39 , Processed in 0.083996 second(s), 3 queries , Redis On.

卡饭网所发布的一切软件、样本、工具、文章等仅限用于学习和研究,不得将上述内容用于商业或者其他非法用途,否则产生的一切后果自负,本站信息来自网络,版权争议问题与本站无关,您必须在下载后的24小时之内从您的电脑中彻底删除上述信息,如有问题请通过邮件与我们联系。

快速回复 客服 返回顶部 返回列表