|
|
|
|
复制本帖HTML代码
|
高亮:
今天贴
X 昨天贴
X 前天贴
X |
尤其是FP 64 只有 1TFlops. 问题是没谁用FP64 去训练AI 模型,英伟达就是糊弄美国政府呢。
其它指标比如 FP32 和 FP16 跟 H800 跟H100 一样。据说 Deepseek 用了2000块 H800 训练了 R1, 这个数量跟OpenAI 和 Meta、谷歌的动辄上万的集群没法比。我猜不是Deepseek 不想,而是实在是没有那么多的H800卖给它
Deepseek 到底怎么样我不清楚,以后有很多机会 去验证它,现在也用不急着下结论。
.
|
欢迎来到华新中文网,踊跃发帖是支持我们的最好方法! |
![](skin/bbs/images/sigline.gif)
|
|