2023-08-31 05:30:02 来源: 科技plus
众所周知,自从ChatGPT火爆之后,很多人都在反思,为什么ChatGPT这样的业务不是从中国诞生,而是在美国诞生的。
很多人表示,这是因为中美GPU差距相差10年以上,而GPU芯片才是ChatGPT的核心,因为ChatGPT需要高性能、高算力。
(相关资料图)
按照机构的说法,GPT-3训练时大概用到了20000个NVIDIA A100 GPU左右的算力,而ChatGPT商业化后所需的GPU数量将达到30000个以上。
而中国的GPU与美国的GPU差距太大,再加上美国不准A100这样的GPU芯片卖到中国来。
所以中国不太可能基于美国的GPU,在没有没有搞出ChatGPT的情况下,中国首发ChatGPT这样的业务出来。
那么中国的GPU落后美国10年么?近日科大讯飞表示不服,他说华为的GPU芯片,已经对标英伟达的A100了。
科大讯飞搞了一个星火大模型这样的AI产品,类似于ChatGPT。而科大讯飞表示,到今年 10 月 24 日,科大讯飞将发布通用大模型,全面对标 ChatGPT ,且要实现中文全面超越。
而科大讯飞的大模型,是基于华为的GPU芯片的,所以科大讯飞才敢说,华为的 GPU 能力现在已经跟英伟达 A100 一样了。
A100是英伟达2020 年发布的AI芯片,采用了全新的Ampere架构,7nm工艺,配备了6912个CUDA核心,算力高达19.5 TFLOPS。
在A100上,采用了新一代的HBM2E内存,拥有40GB高速内存,传输带宽达到1.6TB/s,也是目前众多AI大模型采用的芯片。
另外英伟达今年还推出了H100,不过H100太贵太高端了,所以A100相对而言,更为抢手,至于中国大陆,由于A100不能卖,所以英伟达推出的是A800这一款阉割版,相比A100,性能稍弱一些,但也一卡难求,非常难买到。
如今,科大讯飞说华为的GPU,已经对标英伟达的A100,那么也意味着,国产AI大模型,完全不必依赖英伟达的GPU芯片了,国产GPU已经站起来了,我们在GPU芯片上,与美国的差距,绝对没有10年这么大,你觉得呢?