本报资料图片
大模型基础设施创业公司无问芯穹(Infinigence AI)今天宣布完成近5亿元A轮融资。至此,成立至今仅16个月的无问芯穹累计已完成近 10 亿元融资。
无问芯穹联合创始人、CEO夏立雪认为,AI2.0浪潮带来的新“二八定律”,只需解决20%的关键技术问题即可支撑80%的垂直场景泛化,中国算力生态正面临着供需不平衡、资源分布不均等现状,这无疑给无问芯穹拉动上下游协力实现多元异构算力的高效整合创造了时代机遇。
无问芯穹表示,本次融资募集的资金将用于加强技术人才吸纳与技术研发,保持软硬协同、多元异构的技术领先优势;深入推动产品商业化发展,保持Infini-AI异构云平台产品与市场间的紧密嵌合;强化生态合作,激活异构集群算力资源,构建支撑“M种模型”和“N种芯片”的AI算力底座,做AI模型算力的“超级放大器”……无问芯穹将致力于成为大模型时代首选的“算力运营商”。
做AI模型算力的“超级放大器”
大模型能够支撑的实际产业规模,取决于AI模型的实际可用算力。无问芯穹认为大模型的实际可用算力不仅取决于芯片的理论算力,还可通过优化系数放大算力利用效率,通过集群规模放大整体算力规模,由此,无问芯穹提出“芯片算力×优化系数(软硬协同)×集群规模(多元异构)=AI模型算力”公式。遵循这一公式,无问芯穹将通过软硬件联合优化技术,持续提升芯片算力在大模型任务中的利用率,并通过多元异构算力适配技术,提升集群算力利用率,扩大行业整体算力供给。
在软硬件联合优化方面,无问芯穹通过自研的推理加速技术FlashDecoding++大幅提升主流硬件和异构硬件的利用率,超越在先SOTA,完成多个主流开源大模型在AMD、华为昇腾、壁仞、寒武纪、燧原、海光、天数智芯、沐曦、摩尔线程、NVIDIA等10余种计算卡上的适配,并在部分计算卡上实现了行业第一的推理加速成果,高效满足各行业愈发高涨的大模型推理需求。基于这一方案取得的优化效果,无问芯穹已与AMD签署战略合作,携手推动商用AI应用的性能提升。
在多元异构算力适配方面,无问芯穹也拥有业界稀缺的异构适配与集群能力禀赋,7月发布的大规模异构分布式混合训练系统HETHUB,是业内首次在华为昇腾、天数智芯、沐曦、摩尔线程和AMD、NVIDIA共六种芯片“4+2”组合间实现了千卡规模的异构算力混合训练,集群算力利用率最高达到97.6%,平均高出基准方案约30%,这意味着,在相同的多元芯片机房条件或者集群条件下,无问芯穹可将训练总时长压缩30%。
提供异构算力利用到大模型应用开发的全栈式能力
近年来,国际上模型层与芯片层逐渐形成“双头收敛”格局,而中国的模型层与芯片层依然持续呈现由“M种模型”和“N种芯片”构成的“M×N”格局。然而,不同硬件平台需要适配不同软件栈和工具链,异构芯片间长久存在着难以兼用的“生态竖井”现象。随着越来越多国产异构算力芯片被应用于全国各地方算力集群,异构算力难以被有效利用的问题日益严峻,逐渐成为中国大模型产业发展的瓶颈。
无问芯穹依托软硬协同、多元异构技术优势,已基于多元芯片算力底座打造出Infini-AI异构云平台。该平台向下兼容多元异构算力芯片,可有效激活全国各地沉睡异构算力,现已运营的算力覆盖全国15座城市。此外,Infini-AI异构云平台还包含一站式AI平台(AIStudio)和大模型服务平台(GenStudio)。自平台上线以来,已有Kimi、LiblibAI、猎聘、生数科技、智谱AI等多个大模型行业头部客户在Infini-AI异构云平台上稳定使用异构算力,并享受无问芯穹提供的大模型开发工具链服务。
Infini-AI异构云平台不仅可帮助下游客户轻松屏蔽硬件差异,无感高效地使用底层异构算力的强大能力,还将有力打破国内异构算力的生态困境,加速上层应用逐渐向异构算力基座迁移,有效整合并扩大国内大模型产业可用算力的规模,真正将异构算力转化为能用、够用、好用的大算力,助力构建具有中国特色的本土化异构算力生态。
作者:沈湫莎
文:沈湫莎 图:受访者提供 编辑:沈湫莎 责任编辑:任荃
转载此文请注明出处。