从智能客服“7×24”小时不间断为客户答疑解惑,到基于大数据分析的精准信贷评估,再到区块链技术保障的安全高效跨境支付,前沿科技正在金融行业的各个角落发挥作用,不断拓展金融服务的边界。
然而,机遇与挑战并存。技术迭代、数据跨境、算法伦理、监管适应及金融安全等新命题急需深入的理论探索与实践验证。
人工智能应用带来哪些隐患
当下,人工智能(AI)大模型在金融行业的应用场景正从简单到复杂加速分步推进,在支付清算、智能投研、内部研发、数据分析、威胁监测、资产管理等场景不断实践。
但是,技术赋能的同时也带来一定风险隐患。
金融业作为数据密集型产业,在日常业务中积累了海量用户及交易数据,与AI技术应用天然契合,却也面临多维风险。比如,在数据安全层面,风险集中于数据的获取、处理与合规性,训练模型所依赖的金融数据可能涉及敏感信息或来源不明,存在侵犯隐私、数据泄露或滥用风险。
“复杂的AI模型,决策过程往往缺乏透明度和可解释性,这可能引发公众信任的危机。此外,当众多金融机构依赖于相似的数据源和趋同的AI模型的时候,可能引发‘羊群效应’和模型的集体失灵,在极端的市场条件下诱发难以避让的连锁反应。最后,AI对海量高敏数据的苛求,使其成为网络攻击的高价值目标,数据泄漏、模型窃取、对抗性攻击等新型威胁层出不穷,对客户隐私保护和关键金融基础设施安全构成前所未有的挑战。”中关村金融科技产业发展联盟联席理事长、专委会副主任委员、北京大学计算机学院教授陈钟表示。
业界如何应对
面对AI带来的深刻变革与潜在风险,需要凝聚智慧,共同构建坚实的治理框架。
中关村金融科技产业发展联盟专委会副主任委员、中国社会科学院国家金融与发展实验室副主任杨涛认为,技术层面需破解模型“黑箱”导致的可解释性不足、幻觉引发的内容可信风险、数据安全与隐私风险及知识产权风险;金融风险层面则需警惕算法趋同加剧市场顺周期波动、操作风险升级及技术鸿沟扩大行业分化,同时防范系统性风险隐患。
“未来发展的关键在于构建大模型特定金融场景的分层次可解释性标准;重点解决幻觉问题、对齐问题提升大模型准确性;解决算法趋同带来的金融市场行为的模式化和集中化;破解大模型带来新的技术鸿沟的‘马太效应’及金融信创国产化部署问题等。”杨涛表示。
“金融业必须率先垂范制定并践行负责任的AI开发与应用准则,将公平性、可解释性、稳健性、问责制和人机协同等核心价值嵌入AI系统的全生命周期。此外,要构筑技术安全与韧性防线,投入研发AI模型安全测试,数据隐私保护核心技术,建立针对AI系统的全面网络安全防护和应急响应机制,确保金融基础设施的韧性。”陈钟认为,针对金融安全治理的难题,各方应紧密协作,共享最佳实践,共建测试基准,共育复合型人才,形成强大的治理合力。
“统筹发展与安全,既是方法论,更是实践论,强化风险防控,完善政策体系,平衡创新与监管,有助于提升金融服务实体经济质效,推动金融高质量发展。”清华大学五道口金融学院金融安全研究中心主任周道许表示。
责任编辑:杨喜亭