19个回答含有被封锁的答案2个

英伟达宣布推出最强 AI 芯片,成本和能耗较前代改善 25 倍,哪些信息值得关注?

每日经济新闻
156个点赞 👍

我只能说,国内外(主要是指中美)的算力差距在禁售下越来越大了。

英伟达皮衣黄在GTC上发布的BlackWell芯片B200,和其它芯片比大概是这样的:

1、B200: 2080亿晶体管 ,8位精度算力9P FLOPS。(不卖给兔子)

2、H100: 800亿晶体管,8位精度算力1513T FLOPS。(不卖给兔子)

3、A100: 283亿晶体管,8位精度算力642T FLOPS。(不卖给兔子)

4、民用3090:8位精度算力35.6T FLOPS。(芯片不给你,只能买成品)

注:1PFLOPS=1024TFLOPS 1TFLOPS=1024GFLOPS

国内典型的算力如下(台积电是不是给代工不知道,反正壁仞在23年10月被制裁,华为不说了)

1、壁刃 104P ,8位精度算力 1024T FLOPS,BR—100OAM数据2048T。

2、著名的昇腾910A,8位精度算力 640T FLOPS

3、赛武纪思元370,8位精度算力 256T FLOPS

差距有多大呢?B200上市以后,我们的非超算单卡算力和老美的单卡算力差距4-9倍左右,壁刃大概1P—2P ,B200 9P 。

有人问,国内超算中心可以有算力吗?可以啊,但要经过复杂适配。国家超级计算天津中心的《面向生成式智能的国产算力创新环境》一文表示,我们超算也提供人工智能算力,但是多少没说。

对了,当年阿尔发狗算力大概3P,天河一号算力大概2.566P,现在人家一张卡搞定。

如果皮衣黄把B200成本降下来,老美的算力就超我们很多了。

如果差距继续拉开,最后老美在做实时大模型生成,我们这里大部分情况还只能异步后台生成。

强大的算力没有,再好的结果也出不来。。。

有评论说,我们可以设计更高级的GPU。可以啊,比如海思,但问题是高性能要高制程,我们7nm设备没有,台积电是不是可以代工还不好说,要看老美的脸色。

所以,中国集成电路的卡脖子问题还真的限制了AI产业的发展。

苦。

编辑于 2024-03-19 17:57・IP 属地上海
知乎用户
自由评论 (0)
分享
Copyright © 2022 GreatFire.org