显卡
芯片有很多种,简单地说,就是凡是跟计算有关的电子器件,都算是芯片。
比如手机里的声音感知器,可以感知到外部的声音,然后把声音信号通过计算,改变为数字信号传给中央处理器。这种东西也叫芯片,叫做感知芯片。
又比如电量的消耗。
运行一款程序,需要给予多少电量的支持?这也需要计算来得出,计算这个单元的器件,叫做电源芯片。
又比如蓝牙、WiFi、USB接口等等,这些连接的过程都需要计算,通过计算来对接,就都有相应的通信芯片来对接。
不过,这些芯片大多技术含量不高,计算量很小,不算什么核心科技。
真正最广为人知的芯片,是处理器芯片,也就是CPU。在一款产品里,CPU就相当于人的大脑,几乎负责了所有的计算,大量的复杂计算。
人工智能也需要大量计算。
所以过去行业对人工智能的理解,也是这样的逻辑。在处理人工智能的大量计算的时候,也是通过CPU来计算各种AI算法。
这是行业常识。
可是直到这个月……其实也就是前几天,整个人工智能行业,才终于恍然醒悟,产生了一种全新的行业认识。
在处理人工智能计算的时候,不应该使用CPU芯片!
而应该使用GPU芯片!
GPU,也就是大众熟知的显卡。
之所以能做出这样的转变,就是上周才发生的震惊世界的围棋行业的Rokid-go所发起的“人机大战”!
Rokid-go背后的庞大数据处理,依靠的就是大量的GPU的运行。
同样规格的CPU和GPU,在处理AI计算的时候,GPU的算力可以超过CPU的100倍!而能耗,还不足CPU的5%!
Rokid-go大获成功之后,近期连续发表了7篇很多这方面的论文。又有过“人机大战”的实践证实,可以说紫微星已经引领了全球人工智能计算的行业大转向。
人工智能,将会在紫微星的带领下,真正地走进GPU的时代!
而这也进一步地提高了做人工智能科研的门槛。
因为过去的那种靠着暴力地堆积大量CPU来提高算力的模式,在人工智能领域算是彻底的行不通了。
就比如超级计算机。
超级计算机,就是有着超级计算能力的电脑,在这个领域,国内有着很强大的实力,不比美国差多少。
为什么?
因为CPU的叠加属性。
CPU的计算,绝大多数都是线性的,就像流水线上的工人,是一个任务一个任务的去执行。美国有最好的CPU芯片,最多就是流水线工人的干活水平高了,单体工作能力比较强。
国内的CPU芯片比较差,却可以用暴力堆积的方法来解决算力缺陷。
工人的单体能力差,但是没关系,多在流水线上安排一些工人就好了。美国的超算用1000个芯片,我们的用1万个芯片,总能跟他们达到同样的算力了吧?
无非就是多费点电而已。
在国家战略面前,电费才几个钱?
一台超级计算机,主机可以装满一层大楼,没有空间限制,就可以无限地堆积算力低下的CPU,靠着无数CPU芯片的堆积,来达到超算的效果。
所以联想、曙光、浪潮,包括一些高校和军方,都可以开发出自研知识产权的超级计算机,在这个领域打破技术壁垒。
可是,GPU就不行了。
GPU之所以能取代CPU成为人工智能计算的主要工作,就是因为GPU主要是以处理并行计算为主。
而人工智能的神经网络算法趋势,所需要的就是并行计算,刚好和GPU相匹配。
一旦是并行计算了,就没法像流水线工人那样,靠着堆积数量去提高生产力了,这就得靠着实打实的硬实力了。
比如一个博士生和一个小学生算数学题,小学生根本不行。哪怕把一万、十万个小学生组合起来,也不可能是一个博士生的对手。
这就是高通、英特尔这些主要以销售CPU为主的公司,市值最高也就是几千亿美元,而以卖GPU为主的英伟达,市值却能冲上5000亿美元、1万亿美元、2万亿美元甚至更高的原因。
CPU再是核心技术,也有可替代性。
GPU却没法靠着堆量的方法来替代。
没有顶级的GPU,就无法提供顶级的算力,就不可能成为顶级的人工智能公司。
就像十年后的2023年国内的人工智能现状。
世界上最好的GPU芯片是英伟达的H100,售价4万美元一块。其次是英伟达的A100,售价1万美元一块。
再多的A100堆积,也无法量变产生质变,去达到H100的AI算力,这是由芯片结构的字