当前位置: 首页 » 资讯 » 新科技 » 正文

无问芯穹获近10亿元累计融资 上海跑出潜在大模型“算力运营商”

IP属地 北京 编辑:郑浩 IT时报 时间:2024-09-03 15:55:22

记者 孙妍

2024 年 9 月 2 日,无问芯穹(Infinigence AI)宣布完成近 5 亿元 A 轮融资,至此,在成立短短 1 年 4 个月内,无问芯穹累计完成近 10 亿元融资。

无问芯穹的定位是构建异构算力集群,成为支撑“M种模型”和“N种芯片”的AI算力底座,做AI模型算力的“超级放大器”,想要成为大模型时代的首选“算力运营商”。除了进一步加强生态合作外,无问芯穹本次融资募集的资金将用于加强技术人才吸纳与技术研发,保持软硬协同、多元异构的技术领先优势;深入推动产品商业化发展,保持Infini-AI异构云平台产品与市场间的紧密嵌合。

无问芯穹本轮融资联合领投方为社保基金中关村自主创新专项基金(君联资本担任管理人)、启明创投和洪泰基金,跟投方包括联想创投、小米、软通高科等战略投资方,国开科创、上海人工智能产业投资基金(临港科创投担任管理人)、徐汇科创投等国资基金,以及顺为资本、达晨财智、德同资本、尚势资本、森若玉坤、申万宏源、正景资本等财务机构。

无问芯穹的过往投资方还包括百度、智谱、同歌创投等战略股东以及红杉中国、砺思资本、徐汇资本、北极光创投、真格基金、惠隆创投、经纬创投、无限基金 SEE Fund、金沙江创投、星连资本、绿洲资本、南山资本、光源资本、七熹投资等众多投资机构。

“感谢多方资本对无问芯穹的青睐,让我们在‘天时、地利、人和’的创业征途上多了一份不负厚望的笃定。”无问芯穹联合创始人、CEO夏立雪表示,AI 2.0浪潮带来的新“二八定律”,Transformer 架构统一了新的技术范式,意味着只需解决20%的关键技术问题即可支撑80%的垂直场景泛化,给软硬件联合优化技术的标准化和规模化提供了难得的机遇;中国算力生态正面临的供需矛盾以及资源分布不均的现状,为拉动上下游协力实现多元异构算力的高效整合创造了时代机遇;而无问芯穹源于清华电子系的深厚底蕴、十余年技术积累和丰富产业经验所形成的产研结合的复合型团队,更成为AI领域的人才“引力井”,构成了无问芯穹独特的人才竞争力。

AI模型算力的“超级放大器”

大模型能够支撑的实际产业规模,取决于AI模型的实际可用算力,是一个壁垒更高、玩家更稀缺、价值量更高的领域。无问芯穹超前判断大模型的实际可用算力不仅取决于芯片的理论算力,还可通过优化系数放大算力利用效率,利用集群规模放大整体算力规模,由此,无问芯穹提出“芯片算力×优化系数(软硬协同)×集群规模(多元异构)=AI模型算力”公式。遵循这一公式,无问芯穹通过软硬件联合优化技术,提升芯片算力在大模型任务中的利用率,同时通过多元异构算力适配技术,再提升集群算力利用率,扩大行业整体算力供给。

在软硬件联合优化方面,无问芯穹通过自研的推理加速技术FlashDecoding++大幅提升主流硬件和异构硬件的利用率,超越在先SOTA,完成多个主流开源大模型在AMD、华为昇腾、壁仞、寒武纪、燧原、海光、天数智芯、沐曦、摩尔线程、NVIDIA等10余种计算卡上的适配,并在部分计算卡上实现了行业第一的推理加速成果,高效满足各行业愈发高涨的大模型推理需求。值得一提的事,无问芯穹已与AMD签署战略合作,共同推动商用AI应用的性能提升。

今年7月,无问芯穹发布了大规模异构分布式混合训练系统HETHUB,是业内首次在华为昇腾、天数智芯、沐曦、摩尔线程和AMD、NVIDIA共六种芯片“4+2”组合间实现了千卡规模的异构算力混合训练,集群算力利用率最高达到97.6%,平均高出基准方案约30%,这意味着,在相同的多元芯片机房条件或者集群条件下,无问芯穹可将训练总时长压缩30%。

突破异构芯片“生态竖井”

近年来,国际上模型层与芯片层逐渐形成“双头收敛”格局,而中国的模型层与芯片层依然持续呈现由“M种模型”和“N种芯片”构成的“M×N”格局。然而,不同硬件平台需要适配不同软件栈和工具链,异构芯片间长久存在着难以兼用的“生态竖井”现象。随着越来越多国产异构算力芯片被应用于全国各地方算力集群,异构算力难以被有效利用的问题日益严峻,逐渐成为中国大模型产业发展的瓶颈。

无问芯穹已基于多元芯片算力底座打造出Infini-AI异构云平台,该平台向下兼容多元异构算力芯片,可激活全国各地沉睡异构算力,现已运营的算力覆盖全国15座城市。

此外,Infini-AI异构云平台还包含一站式AI平台(AIStudio)和大模型服务平台(GenStudio)。其中,AIStudio一站式AI平台为机器学习开发者提供高性价比的开发调试、分布式训练与高性能推理工具,覆盖从数据托管、代码开发、模型训练、模型部署的全生命周期。GenStudio大模型服务平台则为大模型应用开发者提供高性能、易上手、安全可靠的多场景大模型服务,全面覆盖从大模型开发到服务化部署的全流程,有效降低开发成本和门槛。

自平台上线以来,已有Kimi、LiblibAI、猎聘、生数科技、智谱AI等多个大模型行业头部客户在Infini-AI异构云平台上稳定使用异构算力,并使用无问芯穹提供的大模型开发工具链服务。

想做大模型时代的“算力运营商”

无问芯穹构建的 Infini-AI异构云平台不仅帮助用户屏蔽硬件差异,无感高效地使用底层异构算力,还将有力打破国内异构算力的生态困境,加速上层应用逐渐向异构算力基座迁移,真正将异构算力转化为能用、够用、好用的大算力,构建具有中国特色的本土化异构算力生态。

端侧大模型的爆发将是必然趋势,AI PC、AI手机将成为未来人机交互的重要接口,将助力每一个终端实现AGI级别的智能涌现。无问芯穹在端侧大模型和LPU IP领域亦有超前布局,打造“端模型+端芯片”闭环能力。

无问芯穹想要成为大模型时代首选的“算力运营商”,目前正在推进标准化、批量化复制,通过激活多元异构算力和软硬件联合优化,让大模型的落地成本降低10000倍,如同“水电煤”一般,加速AGI的普惠进程。

“无问芯穹拥有一支行业稀缺且具有深厚学术积淀和丰富产业经验的‘复合型’队伍,以行业独有的大规模异构算力软硬联合优化技术,极大地推动了国产异构算力生态发展,构建中国本土化AI 基础设施竞争力。”君联资本总裁李家庆表示。

启明创投主管合伙人周志峰认为,无问芯穹是行业少有对AI基础设施的发展脉络和行业格局拥有先见性和敏锐性的企业,在AI 2.0时代基于“推理加速、多元异构”的核心能力,为芯片硬件、智算中心、大模型和AI应用等产业上下游的每一个环节都提供了多快好省的解决方案,为大模型的降本增效带来更好的效果,在技术、产品和商业模式上都具有独到优势。

洪泰基金执行董事虞扬表示:“无问芯穹是我们在生成式AI领域的战略布局。自Transformer架构统一了模型结构以来,全球算力需求剧增,而硬件性能的提升速度却难以匹配计算需求的增长速度,使开发者受限于高昂的推理成本。无问芯穹打造了AI 2.0时代的异构云平台,统一了异构芯片与算法框架之间的接口,并在云端构建了一系列经过软硬件优化的中间件,实现了行业SOTA的性能表现。未来我们坚信无问芯穹能够构建出色的AI Native基础设施。”

免责声明:本网信息来自于互联网,目的在于传递更多信息,并不代表本网赞同其观点。其内容真实性、完整性不作任何保证或承诺。如若本网有任何内容侵犯您的权益,请及时联系我们,本站将会在24小时内处理完毕。