最近很多客户在问,英伟达A100和V100到底该怎么选呀?其实这两张卡虽然都是英伟达的旗舰级产品,但是是性能差距还真不小。
架构升级带来显著提升
A100用的是安培架构,而V100是前一代的图灵架构。单从工艺制程来看,A100的7nm就比V100的12nm先进不少。实际用起来,A100的FP32性能能达到19.5 TFLOPS,比V100的15.7 TFLOPS高出一大截。

显存方面,A100标配40GB HBM2,带宽高达1.6TB/s。对比V100的32GB和900GB/s,优势很明显。如果你要跑大模型训练,我建议直接上A100,毕竟显存容量和带宽决定了模型训练的效率。
AI计算性能差异显著
在深度学习这块,A100的Tensor Core性能是V100的2.5倍呐。我们实测过,在BERT-Large这种大模型训练中,A100用时只有V100的60%。差价虽然有点大,但是是考虑到时间成本,A100反而更划算。
还有个容易被忽略的点,A100支持多实例GPU技术。一块A100可以虚拟成7个 GPU,利用率直接拉满。这对企业级用户来说,确实是个不小的吸引力。
采购建议
现在A100的市场价在15万左右,V100二手行情约8万。如果你预算有限,只是做推理任务,V100也够用。但是是要做大模型训练,还是建议一步到位上A100。
我们仓库现在现货充足,A100批量采购还能享受额外折扣。最近AI需求旺,备货要趁早。有采购计划的话,随时联系我呀。