新闻中心

昆仑芯与百度联合发起飞桨+文心大模型硬件生态共创计划

芯进展 发布于 2023-08-17 19:00

8月16日,昆仑芯在Wave Summit 2023深度学习开发者大会上正式宣布与百度联合发起飞桨+文心大模型硬件生态共创计划。双方将强强联合,进一步推进在昆仑芯硬件上与飞桨+文心大模型的适配。

 

飞桨+文心大模型硬件生态共创计划发布仪式

 

昆仑芯和飞桨的适配自2018年启动。2019年,昆仑芯进入飞桨社区(Paddle Lite)。随着双方产品的不断成熟,2020年“昆仑芯+飞桨”方案实现了小流量上线,同年,飞桨框架v2.0RC发布,可支持昆仑芯训练。2021年,昆仑芯与飞桨共同实现了实时在线推理服务、超大规模部署。2022年,昆仑芯加入飞桨“硬件生态共创计划”,双方共同完成了III级适配,兼容性测试完成了51个模型的验证,覆盖计算机视觉、自然语言处理、智能语音、智能推荐、强化学习共5个技术领域。

 

基于双方的深度适配,在一些场景下能够做到仅切换一行代码便可指定到昆仑芯XPU的后端,低成本地从GPU切换到昆仑芯,进一步降低迁移成本和算力成本。

 

今年,昆仑芯与飞桨的生态合作再度升级,昆仑芯已入驻飞桨AI Studio硬件生态专区(https://aistudio.baidu.com/cooperate/Kunlunxin/1),并联合百度发起飞桨+文心大模型硬件生态共创计划,持续完善大模型硬件底层的开发环境。

 

从底层AI算力组件到AI服务器,再到操作系统,进一步到昆仑芯SDK,四年来,昆仑芯和飞桨携手共同完成了一套端到端的AI计算系统解决方案,并致力于携手打造一个全栈式软硬一体的AI生态。目前,“昆仑芯+飞桨”方案已在智慧金融、工业质检等领域成功部署落地,帮助客户降本增效,加速千行百业智能化升级。

 

此次昆仑芯与百度联合发起飞桨+文心大模型硬件生态共创计划,将充分发挥昆仑芯高性能产品力、完备生态、落地成果丰富等优势,夯实大模型时代的算力基础设施建设。昆仑芯政企/智算中心业务总经理徐臻表示:“未来,昆仑芯将进一步和百度飞桨等上下游伙伴加强协同,提升软硬件创新能力,积极推进产品适配,以端到端解决方案助力大模型切实发挥产业价值,共拓AI’芯’生态。”

 

昆仑芯政企/智算中心业务总经理 徐臻

 

本次大会上,徐臻带来了“昆仑芯x飞桨:端到端优化,打造大模型时代AI‘芯’势力”主题分享。他表示,大模型正加速迭代,并向通用底座大模型的趋势发展,对AI芯片的算力、内存、互联带宽提出更高要求。昆仑芯凭借领先性能优势赋能大模型生产和部署的各个环节,并积极与飞桨进行深度适配,打造针对不同参数量级的端到端解决方案,助力大模型在能源、工业等行业的应用落地。

 

当前,超级AI算力+大模型算法正在成为国家和产业战略核心竞争力。昆仑芯与飞桨+文心大模型将持续携手,聚生态之力,共同打造软硬一体的人工智能大模型平台,促进人工智能产业链高质量发展。