我只能说,国内外(主要是指中美)的算力差距在禁售下越来越大了。

英伟达皮衣黄在GTC上发布的BlackWell芯片B200,和其它芯片比大概是这样的:
1、B200: 2080亿晶体管 ,8位精度算力9P FLOPS。(不卖给兔子)
2、H100: 800亿晶体管,8位精度算力1513T FLOPS。(不卖给兔子)
3、A100: 283亿晶体管,8位精度算力642T FLOPS。(不卖给兔子)
4、民用3090:8位精度算力35.6T FLOPS。(芯片不给你,只能买成品)
注:1PFLOPS=1024TFLOPS 1TFLOPS=1024GFLOPS
国内典型的算力如下(台积电是不是给代工不知道,反正壁仞在23年10月被制裁,华为不说了)
1、壁刃 104P ,8位精度算力 1024T FLOPS,BR—100OAM数据2048T。
2、著名的昇腾910A,8位精度算力 640T FLOPS
3、赛武纪思元370,8位精度算力 256T FLOPS
差距有多大呢?B200上市以后,我们的非超算单卡算力和老美的单卡算力差距4-9倍左右,壁刃大概1P—2P ,B200 9P 。
有人问,国内超算中心可以有算力吗?可以啊,但要经过复杂适配。国家超级计算天津中心的《面向生成式智能的国产算力创新环境》一文表示,我们超算也提供人工智能算力,但是多少没说。
对了,当年阿尔发狗算力大概3P,天河一号算力大概2.566P,现在人家一张卡搞定。
如果皮衣黄把B200成本降下来,老美的算力就超我们很多了。
如果差距继续拉开,最后老美在做实时大模型生成,我们这里大部分情况还只能异步后台生成。
强大的算力没有,再好的结果也出不来。。。
有评论说,我们可以设计更高级的GPU。可以啊,比如海思,但问题是高性能要高制程,我们7nm设备没有,台积电是不是可以代工还不好说,要看老美的脸色。
所以,中国集成电路的卡脖子问题还真的限制了AI产业的发展。
苦。