当前位置: 首页 » 资讯 » 新科技 » 正文

iPhone 15 也可运行,Hugging Face 推出“SmolLM”小语言模型

IP属地 北京 编辑:刘敏 IT之家 时间:2024-07-20 15:16:17

7 月 20 日消息,如今小语言模型开始升温,许多厂商开始推出适用于手机等轻量级设备的“小模型”,本周 Hugging Face 便公布了“SmolLM”小语言模型家族,其中包含 1.35 亿、3.6 亿及 17 亿参数模型,附项目如下(点此访问)。

据介绍,这些模型号称是以精心策划的高质量训练数据集训练而成,号称在 Python 程序编写性能上相当强大,团队指出他们重点优化了模型所需的RAM用量,“即使是在6GB RAM的iPhone 15 上也能运行”。

在训练方面,Hugging Face 团队首先建立了一款名为 SmolLM-Corpus 的数据集(数据集地址点此访问),该数据集主要包含 Python 教学内容 Python-Edu、Web 教育内容 FineWeb-Edu 以及使用 Mixtral-8x7B-Instruct-v0.1 和 Cosmopedia v2两款模型生成的常识内容,token 量总计 6000 亿。此后 Hugging Face 团队便使用 SmolLM-Corpus 数据集训练了“SmolLM”小语言模型。

Hugging Face 团队将开发出的 SmolLM 模型与相同参数量的其他模型进行了基准测试,其中 SmolLM-135M 在多项测试中超越了小于 2 亿参数的其他模型;而 SmolLM-360M 的测试成绩优于所有小于 5 亿参数以下的模型,不过某些项目逊于 meta 刚刚公布的 MobileLLM-350M;SmolLM-1.7B 模型则超越了所有参数量小于 20 亿参数的模型,包括微软 Phi-1.5、MobileLLM-1.5B 及 Qwen2。

免责声明:本网信息来自于互联网,目的在于传递更多信息,并不代表本网赞同其观点。其内容真实性、完整性不作任何保证或承诺。如若本网有任何内容侵犯您的权益,请及时联系我们,本站将会在24小时内处理完毕。