过去五年,大模型在全社会掀起了巨大的人工智能浪潮。ChatGPT、文心一言、通义千问、讯飞星火……国内外涌现了大量大模型。“可以看到,这几年我国在算法上有巨大革新,在算力上有极大爆发,更重要的是中国有独特的数据优势。”李肯立说。
(原标题:Arm提出到2025年底将支持超千亿台AI设备,还有哪些挑战?)
21世纪经济报道记者骆轶琪 深圳报道
AI大模型的兴起正为移动终端产业链带来新发展机会,但更大的算力需求、更多元化的设备品类也带来新挑战。
近日举行的Arm Tech Symposia年度技术大会上,Arm终端事业部产品管理副总裁James McNiven在演讲中指出,随着与合作伙伴紧密合作,Arm预计到2025年底,全球将有超过1000亿台具备AI能力的Arm设备。
“这是指累计数据,涵盖从Cortex-M到Cortex-A驱动的AI推理任务设备,包括从物联网到基础设施,再到汽车和终端等各个领域。”受访时他进一步分析,为此,Arm分别从硬件架构更新、软件工具完善、生态部署等方面推进。
随着摩尔定律走向放缓、AI大模型快速探路发展,芯片行业正迎来快速迭代周期。
James McNiven分析道,在新需求下,无论是算力、性能、能效,还是上市时间的需求都在不断提升。“构建计算的方式必须随之演变,芯片不再是一个由离散模块或组件以模块化方式构建的简单集合,这种方法无法充分释放性能或能效。我们需要从整体解决方案的角度进行设计。这需要更深度地集成,更多功能需要协作共存,以实现更低延迟、更高带宽、更高能效。”
整个芯片行业也在探索一系列技术以应对挑战。例如在封装层面,2.5D和3D封装为异构集成的芯片带来便利,但复杂度显然大幅提高。
James McNiven进一步分析,“首先,在2.5D和3D芯片封装技术之下,我们需要在更小尺寸空间内集成更多的功能和组件,这加剧了对更紧密集成技术的迫切需求。其次,随着工艺节点和封装技术的不断革新,制造流程变得更加复杂且耗时更长。同时,先进的半导体制造工艺成本高昂,为了充分发挥这些工艺技术的价值,我们必须确保芯片在性能和能效上达到最优水平。应对这些艰巨挑战,是我们必须直面的任务。”
尤其是AI大模型驱动高性能计算需求快速涌现,指向更高算力、更大内存带宽等发展趋势。
仅中国市场就有旺盛诉求,第三方机构Counterpoint预计,到2026年底,中国道路上预计将有超过100万辆搭载L3级别ADAS(高级驾驶辅助系统)的汽车。IDC预计,到今年底中国将有1.7亿台以上支持AI的智能手机,55%的PC将支持AI功能。
James McNiven分析,要充分释放AI的潜力,需从系统层面思考问题,将硬件、软件和生态无缝集成到一个全面的解决方案中,使其具备更好可扩展性、性能和能效,并且能够加速产品上市。
“我们通常需要异构计算的方式,以实现对系统多种计算要素的优化协作;为了管理不同应用程序中的工作负载,需要一种能够高效率编写软件的方式,让开发者能够针对该硬件进行开发;还需要谨慎考虑如何将这些计算组件结合在一起。因此推出了Arm计算子系统 (CSS)。”他续称。
面向AI时代也需要更优化的架构支撑。Armv9就被称为是适应于AI时代的计算架构。
James McNiven介绍,Armv9近期新增了两大支持AI计算的关键技术:可伸缩向量扩展 (SVE)和可伸缩矩阵扩展 (SME)。“例如,SVE2已应用于一些领先的计算产品中,如全新天玑9400,可加速工作负载、惠及开发者和终端用户,其提升了视频和图像处理等能力。SME方面,新一代架构功能将为开发者提供通用指令集,使其能够一次在多个硬件平台上实现Arm架构中的加速效果。”
软件地位也快速提升。据介绍,Arm团队拜访了众多AI创业公司,发现在AI热潮兴起前的初创公司中,硬件和软件工程师比例大约是50:50。但现在变成了10:90,即10%的硬件工程师和 90%的软件工程师。软件地位已经压倒性提升,围绕软件构建的复杂性也在持续增长。
“我们需要以软件为中心的思维来思考硬件设计,目前已有2000万名开发者在Arm平台上进行软件开发。”James McNiven指出。
除了对软硬件能力升级外,构建紧密的生态合作伙伴以应对复杂的芯片设计需求日益重要。
21世纪经济报道记者发现,这种合作形式愈发深入和多样化。例如近期,vivo Arm联合实验室揭牌。
对此,James向21世纪经济报道记者表示,联合实验室的建立表明了双方将进一步合作。“多年来,Arm在基准测试等方面表现出色,而OEM厂商对他们客户和终端用户需求的理解会更加深入,vivo能够为我们带来对真实用户场景的深入洞察,帮助我们持续改进产品和解决方案,最终为vivo的手机用户带来更优异的移动体验。”
除了Arm的传统优势项目手机之外,AI PC、AR/VR、智能汽车等都是AI大模型时代被寄予更高成长空间的终端市场,这也意味着平台设计更为碎片化和复杂化。
James McNiven受访时指出,端侧的确面临因使用不同API和平台而导致的碎片化挑战。
“Arm Kleidi就是一个重要解决思路。我们需要思考如何打造一个软件库,通过将其集成到合作伙伴的软件中,让这些应用能够在包括移动终端在内的端侧领域,充分发挥Arm CPU的性能优势。同时,我们也持续投入软件,例如,在企业场景中提供支持,通过与Linaro的合作,持续强化对Linux的支持,在固件标准(如UEFI)上作出贡献,以及对一些开源工具进行支持等。这些都是我们持续进行的工作任务,目标是尽可能减少产业碎片化。个人认为,在终端领域Arm现在进展非常不错。”他分析道。
近日,Arm宣布与腾讯合作,通过Kleidi与腾讯混元大模型进行集成,令混元大模型的预填充部分加速了100%,解码器速度提高了10%。这些性能改善有助于在端侧实现更快、更高效的AI操作。“此外,我们在不到24小时内就将Kleidi集成到了Llama 3中。”James McNiven进一步举例道。
James McNiven介绍,Arm也在积极与开源社区进行合作。特别在中国市场,其与龙蜥社区、欧拉社区、OpenCloud OS都在开展合作。
随着AI大模型持续演进优化,终端对功耗和能效仍有旺盛需求,技术走向仍有不确定性,那么该如何应对AI不确定性浪潮?
James McNiven分析,AI 工作负载正在急剧增长,但具体增长到什么程度尚未可知。“毕竟,就像两年前,我们可能还没有预想到会有今天涌现的一些用例。但我们认为,未来需要支持更多处理能力,并需要关注对新型数据类型的支持。”
他进一步举例,“我们已经见证了图像生成和音乐生成技术的蓬勃发展,而视频生成是既充满挑战又激动人心的未来趋势,特别是当它与AR/VR结合时。好消息是,对整个生态系统而言,意味着需要大幅提升性能、提高效率配资融券公司,并加速产品迭代,这是Arm擅长之处,也将为我们带来前所未有的巨大机遇。”