7月18日,第五届RISC-V中国峰会在上海举行。在人工智能分论坛上,知合计算解决方案总监黄怡皓发表了题为《大模型在RISC-V架构上的技术创新与应用》的演讲,深入探讨了RISC-V架构在大模型领域的创新实践以及未来发展方向。
自2017年6月Google团队发表《Attention Is All You Need》论文,提出自注意力机制以来,Transformer架构彻底改变了人工智能的发展轨迹。它摒弃了传统的RNN和CNN,凭借高度并行化的特点,极大地提升了人工智能训练速度。
ChatGPT的横空出世,更是让人工智能摆脱了“人工智障”的刻板印象,开启了新的发展高潮。而今年1月份DeepSeek的出现,又将国产化及开源大模型的认知提升到了新的高度。尽管大模型在这些年的发展过程中经历了诸多变化,但其底层架构始终是Transformer。
从最早的GPT-2到通义千问以及DeepSeek R1模型,这些模型的架构都非常统一,变化主要集中在具体架构内部,而没有改变整个Transformer的结构。其算子数量也基本趋同,大致在22个左右。以DeepSeek 7B模型为例,其核心算子共11个,其中Matmul计算量占比约95%。这表明大模型的算力需求高度集中,核心算子的优化对于提升大模型性能至关重要。
RISC-V作为一种开源的指令集,具有强大的可扩展性。知合计算在其基础上集成了AME指令,完美适配了Matmul算子。除了3个算子外,其他算子均可采用AME进行优化。AME算子指令能够支持矩阵大小为16行,每行约512bit,一次可处理相当于一个字节的矩阵大小。
这种优化能力使得RISC-V架构在大模型算子处理上具有显著优势。随着大模型的发展,算子的数据格式也在不断调整,从最早的FP32到现在的FP8等,RISC-V架构均能提供支持。这种灵活性和可扩展性使得RISC-V在大模型算子优化方面具有广阔的应用前景。
黄怡皓指出,目前AI在视觉方面已经从单纯的识别功能走向了更为高阶的认知功能。传统卷积算法只能实现对图像中物体的识别,例如人、动物、汽车等,但无法判断物体之间的关系。而基于Transformer的大模型则可以进一步判断不同物体之间的动作及相互关系,例如“熊猫吃竹子”“植物上的昆虫”等场景。
知合计算与客户合作的家庭场景项目也验证了这一点。传统卷积算法需要经过复杂的流程才能判断视图中的小孩子是在学习还是在玩手机,而基于Transformer算法的大模型只需通过搜索“儿童玩手机”的指令,即可快速、准确地分辨。
知合计算推出的首代通推一体CPU产品A210,支持Transformer架构,算力达到12TOPS,采用自研Torq架构实现算子抽象,通过自研Zmedia架构实现多媒体抽象。基于A210平台的AI智能体可以实现流畅的点餐等复杂指令执行,展现了强大的AI处理能力。
然而,黄怡皓也指出,作为端测芯片,A210更适合用于标准化的细分场景的AI智能体。随着人工智能的发展,通用计算和AI推理都需要更加高效。在算子趋同的背景下,原本在生态方面不如ARM的RISC-V,如今与ARM站在了同一起跑线上。
得益于开源的特点,开发团队对算子的优化将更加直接和迅速。黄怡皓强调,目前AI能力已经开始从“识别”走向“认知”,如何将新的AI能力与通用计算能力结合起来,是知合计算未来主要推进的方向。RISC-V架构的开源性和可扩展性为这一目标的实现提供了坚实的基础。
在人工智能快速发展的当下,RISC-V架构凭借其开源、灵活、可定制的特点,正在成为构建自主AI算力基石的战略支点。知合计算通过在RISC-V架构上的创新实践,展示了其在大模型技术创新与应用方面的强大实力。随着AI从识别走向认知,RISC-V与通用计算的结合将为人工智能的发展带来更多的可能性,推动AI技术在更多领域的落地应用,为人类社会的发展带来更大的价值。