2月13日消息,字节跳动豆包大模型Foundation团队近日宣布了一项重要创新成果——UltraMem稀疏模型架构。这一架构通过将计算和参数解耦,在保证模型效果的同时,有效解决了推理过程中的访存问题,为人工智能领域带来了新的突破。
据了解,UltraMem架构主要针对的是当前混合专家(MoE)模型在推理时面临的高额访存问题。这一问题一直是制约MoE模型广泛应用的关键因素之一。而UltraMem架构通过其独特的设计,成功克服了这一难题,使得推理速度相较于传统的MoE架构有了显著提升,提升幅度达到了2至6倍。同时,该架构还大大降低了推理成本,最高可降低83%。(纯钧)