当前位置: 首页 » 资讯 » 新金融 » 正文

中央财经大学教授黄震:呼吁加快《人工智能法》等立法进程

IP属地 北京 编辑:顾雨柔 大河财立方 时间:2025-03-28 12:30:17

3月27日下午,中原金融博物馆内,人声鼎沸。这一天,第三十五期中原金融大讲堂(总第240期博物馆金融大讲堂)在这里举行,吸引了来自金融、科技、法律等多个领域的专家学者和行业精英。

本次大讲堂的特邀嘉宾是中央财经大学教授、博士生导师,金融法研究所所长黄震,他以“人工智能在金融领域的应用及其风险防控”为主题,为现场及线上观众带来了一场思想盛宴。

AI浪潮涌动,

金融科技焕发新生

黄震首先回顾了人工智能的思想渊源与发展历程。从古希腊哲学家的智慧火花,到现代深度学习革命,AI技术的每一次飞跃都凝聚着人类对智能的无限追求。“随着DeepSeek等人工智能大模型的横空出世,中国金融科技领域正步入一个全新的发展阶段。”

他详细阐述了2000年以来中美人工智能研发与应用的巅峰对决。从初期的技术跟随,到中期的生态构建,再到如今的技术反超,中国AI发展路径清晰而坚定。特别是在金融科技领域,AI技术已从最初的技术辅助工具,逐步成长为驱动行业变革的核心引擎。通过一系列生动的案例,如工商银行、邮储银行等金融机构在AI大模型应用方面的实践探索,展示了AI在金融客服、信贷审批、反欺诈等场景中的巨大潜力。

在黄震看来,中国在第四次工业革命中凭借技术全面领先、全产业链整合、人才储备丰富以及新型举国体制等优势,已从“跟跑者”转变为“领跑者”。这一转变不仅体现在AI技术的研发与应用上,更体现在金融科技对实体经济的赋能作用上。通过AI技术,金融机构能够更高效地服务实体经济,促进资源优化配置,推动经济高质量发展。

风险与挑战并存,

AI金融应用需谨慎

然而,随着AI技术在金融领域的深入应用,一系列风险与挑战也随之而来。黄震说,数据隐私泄露、算法偏见、技术滥用等问题日益凸显,成为制约AI金融应用健康发展的瓶颈。

在数据隐私保护方面,他还强调了数据安全与隐私泄露的严重性。“金融AI依赖大量敏感数据,如用户交易记录、生物特征等,这些数据在采集、存储、处理过程中极易出现泄露或被逆向还原的风险。一旦数据泄露,不仅会对用户造成巨大损失,还会对金融机构的声誉和信誉造成严重打击。”

在算法偏见方面,他通过苹果高盛信用卡性别歧视等案例,揭示了算法偏见对金融决策的影响。

“当训练数据存在偏差时,AI模型可能会产生歧视性决策,对特定群体造成不公平对待。这不仅违背了金融公平的原则,还会加剧社会不平等现象。”

此外,技术依赖与漏洞攻击也是AI金融应用面临的重要风险。黄震认为,金融机构对第三方AI服务商的依赖可能引发“大而不能倒”的系统性风险。一旦第三方服务商出现问题,整个金融系统都可能受到波及。同时,开源框架断供、芯片漏洞、对抗样本攻击等威胁也可能导致AI系统瘫痪或服务中断。

多措并举,

构建AI金融应用风险防控体系

面对AI金融应用带来的风险与挑战,黄震提出了构建技术防御、法律完善、监管创新及行业协作等多维度风险防控体系的建议。

在技术防御方面,黄震认为要建立安全可控的技术体系。通过采用联邦学习、差分隐私等技术手段保护数据隐私与安全;通过实施对抗训练、模型集成等方法提升算法模型的鲁棒性与准确性;通过推动国产大模型在金融领域的私有化部署降低对外部供应商的依赖。

在法律完善方面,黄震呼吁加快《人工智能法》等立法进程,明确算法责任归属与数据跨境流通规则。同时,他还建议建立AI伦理审查委员会对高风险应用进行前置性伦理评估,确保AI技术的健康有序发展。

在监管创新方面,黄震提出实施分类监管与场景适配的差异化监管策略。对于高风险类AI金融应用如自动化交易等需通过“监管沙盒”测试后方可落地推广;对于基础类AI金融应用如智能客服等则可适当放宽监管要求。此外,还建议建立跨部门协同机制与国家级风险预警平台统筹应对技术、数据、网络等多维度风险。

在行业协作方面,他强调构建“数据方-技术方-场景方”合作生态的重要性。通过促进跨机构数据共享与风险联防提升整个行业的风险防控能力;通过加强金融机构能力建设与技术方协同创新推动AI金融应用的持续深化与拓展。

责编:陶纪燕 | 审校:李金雨 | 审核:李震 | 监审:万军伟

免责声明:本网信息来自于互联网,目的在于传递更多信息,并不代表本网赞同其观点。其内容真实性、完整性不作任何保证或承诺。如若本网有任何内容侵犯您的权益,请及时联系我们,本站将会在24小时内处理完毕。

全站最新