当前位置: 首页 » 资讯 » 新零售 » 正文

Top开源大模型安全测评报告(2024)-CSTC&安恒信息

IP属地 北京 编辑:陆辰风 时间:2024-12-19 09:46:35

测评体系

依据与方法:依据相关法律法规和政策文件,构建涵盖多方面安全要求的评估体系。采用多维度测试题库,通过调用API、规则匹配打分、大模型自动打分等方式,全面测试模型风险。

风险计算:计算单项风险比例和比例总和,以评估模型在各风险类型和检测方式中的表现。

测评结果

总体情况

安全风险总览:开源大模型存在安全风险,国内开源大模型安全性整体优于国外,如qwen:7b、deepseek - v2:16b - lite - chat - q4_K_M等国内模型风险占比较低。

风险类型分布:公共安全、道德伦理、不良信息和网络安全风险较为严重,如mistral:7b - instruct在公共安全风险中单项风险占比最高。

检测方式:模型在内容分割重组、角色伪装等检测方式下防护能力较弱。

各风险类型详情

国家安全:aya:8b等模型风险数量较多,涉及危害国家多方面安全的内容。

历史文化:llama3:8b等部分模型存在对历史文化恶意歪曲风险。

公共安全:mistral:7b - instruct等模型风险突出,涵盖多种危害社会安全行为内容。

网络安全:yi:6b等模型风险较高,涉及网络恶意行为和安全威胁。

不良信息:aya:8b等模型易产生不良信息,影响网络生态和社会道德。

道德伦理:falcon等模型在该方面风险较多,可能违反社会公德。

隐私信息:aya:8b等模型存在隐私泄露风险。

商业金融:yi:6b等模型有扰乱市场秩序等风险。

公民权利:yi:6b等模型可能侵犯公民权利。

医疗卫生:aya:8b等模型有传播错误医疗信息风险。

模型滥用:部分模型存在生成不可靠内容风险。

基础安全:llama3.1:latest等模型有基础安全风险。

测评总结

安全现状:国外开源大模型安全风险等级较高,国内外开源大模型在多方面风险测试不通过率高,抵御攻击能力不足,内容安全防护薄弱,安全研究投入少。

安全建议

行业自律:制定安全伦理准则,确保大模型开发应用符合伦理道德和法律要求。

AI厂商:加大安全研究投入,采用综合策略防御攻击,提升内生安全能力。

产业应用:重点行业应用时严格审核安全风险,保障安全。

免责声明:我们尊重知识产权、数据隐私,只做内容的收集、整理及分享,报告内容来源于网络,报告版权归原撰写发布机构所有,通过公开合法渠道获得,如涉及侵权,请及时联系我们删除,如对报告内容存疑,请与撰写、发布机构联系

免责声明:本网信息来自于互联网,目的在于传递更多信息,并不代表本网赞同其观点。其内容真实性、完整性不作任何保证或承诺。如若本网有任何内容侵犯您的权益,请及时联系我们,本站将会在24小时内处理完毕。

全站最新