一下事实大家可以多角度反复求证。
1 H20 级别的国产算力卡很多了。
2 但是 H20 级别的国产算力卡集群,训练能力还是不如英伟达集群。
3 主要还是 cuda 太好用了,国内模型团队,其实还是非常需要 cuda ,包括 deepseek。
4 国产算力卡集群要想有 cuda 级别的软件生态,任重道远,需要支持和保护。
5 H20 开放,那么其实价格优势并不重要,ai 人才很贵,而且依赖 cuda,软件生态完整,节省大量调试和 debug 成本,对于模型公司来说才是便宜。
6 cuda 受到基于美国法律的全球长臂管辖。
结论我不总结了,会被夹。