昆仑芯亮相北京智源大会,展示大模型时代强大算力基础设施
芯见闻 发布于 2023-06-12 19:40
近日,为期两天的2023北京智源大会圆满落幕。作为AI芯片领域的领军企业,昆仑芯受邀深度参与本次大会,携两代芯片产品重磅亮相展区,并在“AI系统论坛”上带来了《大模型时代的算力机遇和实践》主题演讲,获得广泛关注。
北京智源大会是智源研究院主办的年度国际性人工智能高端专业交流活动,定位于“AI内行顶级盛会”,以“国际视野、技术前沿、思想激荡、洞见未来”为特色,已连续举办5届。本次大会是首个大模型领域的国际内行盛会,聚焦人工智能发展前沿与热点议题,邀请了200余位人工智能顶尖专家参会,从国际视角共同探讨通用人工智能发展面临的机遇与挑战。
大会期间,昆仑芯以多媒体形式生动展示芯片产品的领先性能优势,现场工作人员为嘉宾详细介绍了昆仑芯赋能千行百业的落地成果。
目前,昆仑芯两代芯片产品均已实现量产,在互联网、智慧工业、智慧金融等领域扎实落地数万片。面向当前市场需求迫切的大模型场景,昆仑芯即将推出一款加速器组解决方案,并将于6月21日“芯极速 至未来”XceedCon2023人工智能芯片生态大会暨昆仑芯周年庆上重磅发布。
昆仑芯研发总监 罗航
“AI系统论坛”上,昆仑芯研发总监罗航从计算产业发展趋势出发,介绍了十余年来昆仑芯的发展历程,并介绍了公司围绕大模型打造的多层级产品矩阵及落地实践。罗航指出,“AI时代,旧的秩序被颠覆后涌现出大量新的机会,这是大模型的机会,同时也是AI芯片的机会”。昆仑芯始终紧密关注市场需求变化,持续推动软硬协同技术创新,领跑大模型产业落地。
针对大模型场景,昆仑芯打造了多层级产品矩阵,可支持从十亿到千亿级别的大模型,性能优于主流GPU产品。同时,昆仑芯提供了支持大模型的软件栈及昆仑芯加速库(XFT),可进行数据标注、数据训练,及基于其他开源生态学习框架构建框架级生态。
随着参数规模的指数级增长,昆仑芯可为千亿级大模型提供多机多卡的算力支撑。在集成了8个昆仑芯2代AI芯片的AI加速器组中,通过拓扑结构互联可实现良好的大模型训练效果。如果是多台AI加速器组组成的算力集群,昆仑芯可同时提供集群纳管的框架,构建高可扩展的MaaS层。
基于百度丰富的AI生态,昆仑芯已与飞桨完成III级适配,并携手打磨大模型优化方案,包括数据并行、模型并行、分组切片、流水线并行及参数分级存储等,极大提升大模型性能与算力利用率,降低整体调度成本。
此外,昆仑芯与智源研究院也有深厚的合作基础。针对智源大模型,昆仑芯已在Aquila大语言模型上完成了大规模推理性能验证,在eva系列视觉大模型上也实现了全量适配。
去年6月,智源研究院联合昆仑芯等多家国内AI芯片公司,北大、清华、中科院计算所等相关科研团队,共建AI开放生态实验室,旨在加速国内AI芯片的生态发展和应用落地,将有助于拉动AI芯片对相关重大科研计算范式的优化,加速完善芯片软件生态建设。
今年双方合作再度升级,昆仑芯已正式加入北京智源人工智能研究院的FlagOpen(飞智)大模型技术开源体系,携手多家顶尖硬件企业与高校科研团队,继续协力共建“北京国家新一代人工智能创新发展试验区AI开放生态实验室”。目前,昆仑芯实现了对FlagPerf的完整适配,支持10个以上模型评测生态,提供了很好的benchmark的测试标准。
未来,昆仑芯将继续深化与智源研究院等AI产业上下游的生态合作,携手共建软硬一体的AI芯片生态,以应对AI系统和芯片领域的挑战,助力大模型产业化落地。
昆仑芯公众号
扫码关注昆仑芯科技公众号