边缘不“边”,AI芯片卖点再迁移

与非网eefocus
“算力”是一个广义的词汇,该如何对算力设备进行评估?比较重要的有两个:理论峰值算力和真实有效算力。理论算力是指通过公式推导出的理论上的算力;而有效算力是指设备在实际运作过程中能真实输出的算力,是设备实际算力效能的体现。

越是智能化发展,越需要调用大量数据,对算力的需求也就越大,于是,算力提升成为云、边、端的共同趋势。一些观点认为,在云计算占据计算主导地位的当下,边缘计算会是云计算的延伸和补充。但事实上,无论是延伸还是补充,都不足以反映边缘计算的巨大潜力。

在传统产业如火如荼进行数字化转型的背后,除了5G、IoT之外,边缘计算是一股不容忽视的重要力量。在规模和增速方面,CB Insights估算,到2023年全球边缘计算行业,整体市场容量有望达到340亿美元。Technavio估计,从2018年到2022年,边缘计算技术的应用量将以每年近20%的速度增长。Grand View Research更是预测,2016-2025年期间,亚太区边缘计算市场的复合增长率将高达46.7%。

不过,在边缘计算受到越来越多关注的同时,我们看到,终端设备的算力也在不断提升,甚至一些可媲美边缘设备。端、边的界限一定程度上是否在变模糊?边缘计算的核心能力该如何评定?对算力经济“虎视眈眈”的国产AI芯片er们,对这一巨大的新兴领域,是否准备好了?

边缘计算的“边界”在哪里?

2345截图20220311140700.png

图源|salientglobaltech.com

时擎科技总裁于欣认为,云、边、端更多是从应用场景来划分的,而不仅仅是依据性能。从这个意义来说,云、边、端的场景还是比较明确的。当然,从任务处理的角度,确实有把更多的推理任务下放到边缘和终端的趋势,也将有更多的云边端融合协同的场景。不过,对于端、边的设备来说,会有更多的成本和功耗限制,提高“算力的效率”是更为关键的指标,包括单位算力的成本和实际可达的应用效果。

灵汐科技副总经理华宝洪表示,终端侧与边缘侧从诞生伊始,就各自承担着不同的使命。终端作为与用户直接交互的设备,以感知作为首要功能,低功耗、低延时是基本要求,也相应地会在计算能力上进行权衡。一般来说,端侧设备的计算能力弱于边缘侧的算力水平。他强调,“对于终端厂商宣称的算力,需要明确究竟是理论算力还是有效算力。只有终端与边缘侧的有效算力相媲美时,才是真正达到边缘设备的算力级别。”

上海雪湖科技有限公司副总裁赵小吾从应用场景和未来趋势方面给出了他的见解。“云边端的定义,本身就是因为受制于芯片算力和通讯传输能力的局限产生的边界。一定程度上,边、端的界限确实变模糊,但是针对不同应用场景对性能的要求,边界的定义可能不太一样。对算力要求不高的场景,终端设备的性能是足够的,可能就不需要专门的边缘计算设备;对算力要求高的场景,比如车路协同、智慧交通等,终端传感器设备是无法满足需求的,就需要用边缘计算设备来处理摄像头、激光雷达和毫米波雷达的数据,来实现全息感知的功能”,他表示,“随着芯片和通讯传输技术的迭代,相信这样的边界会时而模糊时而清晰。”

“核心指标”是什么?

2345截图20220311140700.png

图源|Electronic Design

“算力”是一个广义的词汇,该如何对算力设备进行评估?比较重要的有两个:理论峰值算力和真实有效算力。理论算力是指通过公式推导出的理论上的算力;而有效算力是指设备在实际运作过程中能真实输出的算力,是设备实际算力效能的体现。灵汐科技华宝洪还给出了以下六大评估指标:

计算芯片的峰值算力

理论计算得出的、理想状况下的峰值算力。具体通过计算核的主频、核数量、单核运算能力等来输出理论峰值,与实际场景中的真实有效处理能力有很大差距。

计算芯片的有效算力

设备在实际运作过程中能真实输出的算力。比如ResNet50在浮点16位精度下,推理一次的计算量是7.8Gflops左右,芯片每秒钟处理的ResNet50的帧率乘以7.8G就是真实有效的输出算力。如果推理帧率是400fps,真实算力是400*7.G=3Tflops。

计算芯片的有效利用率

代表了芯片真实输出的运算能力。其计算方式为:真实有效的输出算力/理论算力。计算结果值越高,表明该芯片工作越高效。实际应用场景中,多数传统架构计算芯片,有效利用率一般在30%左右,而新型架构的计算芯片,芯片有效利用率可以到50%以上。领启KA200异构众核、存算一体芯片有效利用率可达60%以上。

计算芯片对主流神经网络的支持程度

下一代人工智能有两个不同的发展线路图,一个是以深度学习算法为代表的传统计算科学,一个是以生物神经网络为代表脑科学。多数计算芯片只能支持二者之一。是否能将二者兼并支持,也是衡量计算芯片的核心指标之一,异构融合是达到这一指标的重要途径之一。

芯片能效比

计算方式为:典型网络(如ResNet50)的推理能力/芯片的功耗,单位:推理帧率(fps/w)。

芯片的性价比

每平方毫米推理的帧率数,计算方式为:典型网络(如ResNet50)的推理能力/芯片的面积。

异构“精髓”——有的放矢

2345截图20220311140700.png

图源|Network World

在边缘计算领域,多样的应用催生了多种多样的计算需求,往往需要权衡算力、功耗、体积等问题,出于资源的优化考虑,异构计算逐渐成为业界共识。在算力需求猛增的第一阶段,以CPU、GPU为代表的芯片率先迎来强劲增长。这些由先进半导体技术打造的算力设备往往具备极强的性能表现以及良好的兼容性,占据了异构计算领域的主流地位。

时擎于欣表示,所谓异构计算,实际上是希望有不同的处理器形态来针对不同的算法进行更高效的处理。相对于通用算力来说,“异构”的目的应该是相对于某种或某类特定应用来定义的,因而需要更有针对性,更有的放矢。他强调,“为了异构而异构,意义不大。”

从指令集架构角度来看,业界已形成了各自的“势力范围”。于欣认为,从技术角度来说并没有那么绝对,它们之间也会相互渗透,比如Arm架构也有服务器和PC应用,RISC-V也会越来越多向高性能方向尝试。未来更多的还是老生常谈的“生态”问题,恰恰因为技术角度没有那么大的差异,生态就尤为重要,不过,先入为主之后的替代成本和门槛很高,这个过程会比较漫长。

Imagination计算业务产品管理总监Rob Fisher表示,随着对性能的需求日益增加,系统功耗等级需要不断降低,这是异构架构真正体现价值的地方。

关于未来异构计算的发展趋势,他认为,最密集的计算部分将定位在一个加速器上,该加速器能够高效运行,提供性能并管理功耗。不过,这只有在加速器能够扩展、满足应用的性能需求时才能发挥作用,也就是说,可扩展性是未来架构的重点。除了在单一维度上进行扩展之外,复杂计算工作负载还必须在多个维度上实现可扩展性,从而改变计算资源组合以适应需求。

雪湖科技赵小吾也认为,异构计算平台主流的发展方向,一定是能够更有效地获取高性能计算能力架、构灵活性高、可扩展性好、计算资源利用率更高。由于不同的计算架构各有优势,场景也在变得更加多元和复杂,要更深入地分析不同计算架构和不同芯片的优势,设计出适合特定应用场景下的异构计算方案。

灵汐科技华宝洪则强调了对新型计算架构进行探索的紧迫性。传统冯·诺依曼架构当前正面临诸多瓶颈,如存储墙、芯片利用率低,由于半导体工艺发展带来的摩尔定律失效,更是给算力芯片的发展蒙上阴影。

他认为,这就催生了新型颠覆性计算架构的发展,类脑计算和量子计算就是两个典型代表,这两个前沿战略方向已经列入国家十四五规划和2035年远景规划。类脑计算将计算机的刚性和人脑的弹性结合起来,在取得高算力的同时,也保证了低功耗和低延时等。

随着新型架构的不断出现,未来的异构计算必定会出现CPU、GPU和新型计算架构融合的局面,即传统冯·诺依曼架构和非冯·诺依曼架构的融合,而不仅是当前的CPU和XPU之间的融合。

写在最后

“边缘计算”正在成为千行百业进行数字化转型、智能升级的重要底座,它所承载的功能、以及对行业的赋能作用越来越关键。AI芯片作为核心的算力提供方之一,也必将在当前的技术革新和未来的商业化实践中,取得长足的发展。

对于正处于百花齐放阶段的国产AI芯片来说,这是成长的沃土。尽管传统通用处理器已占据发展先机,但是也存在着高功耗、高价格、低能效等问题。CPU一统天下的计算时代一去不复返,计算多样性所催生的“异构、灵活、可扩展”的架构是未来计算时代的主旋律。正如几位受访人一致认同的观点,“提升能效比是计算架构发展的不懈追求”。

THEEND

最新评论(评论仅代表用户观点)

更多
暂无评论