当前位置:
易索资讯
>>
易索论坛
>>
[生活/情感/求助]
易索风格
旧易索风格
通用风格
旧易索风格
易索风格
通用风格
经典蓝色
默认主题
浓浓绿意
主题
正在载入……
澡盆
于 2026-3-13 15:38 发布于
[生活/情感/求助]
点击:37 回复:1
蚂蚁全部切换到国产算力,大模型训练还比英伟达卡成本降20%
正文
收藏本帖[0]
PM
信息
回复
编辑
删除
管理
清空缓存
蚂蚁的Ling团队发了一篇论文,标题挺长,我记个大概——《每一个FLOP都至关重要:无需高级GPU即可扩展3000亿参数混合专家LING大模型》。核心结论就一个:用国产芯片训练3000亿参数的MoE大模型,训练1万亿Token的成本是508万;用高性能进口设备,成本是635万。省了将近20%。
点亮
0
收藏
0
复印
1
此贴已被 澡盆 于 [2026/3/13 15:38:03] 编辑过
———————————————以下为[澡盆]的签名—————————————————
主题列表
查看全部
只看作者回帖
只看我的回帖
回复主题
蚂蚁全部切换到国产算力,大模型训练还比英伟达卡成本降20%
澡盆
2026-3-13 15:38
[
回
删
锁
滤
]
<1342字>
亮
0
复印
1
蚂蚁全部切换到国产算力,大模型训练还比英伟达卡成本降20%
10010
2026-3-13 16:12
[
回
删
锁
滤
]
<1342字>
亮
0
复印
0
您未登录,不能回复主题,点击登录并回复此主题