为了更好的体验,请使用竖屏浏览

应对AI风险 监管部门发声

国家金融监督管理总局表示加快监管数字化智能化转型

来源:南方都市报 作者:刘兰兰 05-30 00:10

  据国家金融监督管理总局消息,近日,金融监管总局党委理论学习中心组围绕“深入学习贯彻习近平经济思想,切实做好科技金融、数字金融‘大文章’,推动人工智能等新质生产力发展”主题举行集体学习暨专题调研活动。金融监管总局党委书记、局长李云泽在活动中强调,加强数字金融发展和监管有关政策的研究制定,有效防范应对人工智能发展带来的风险挑战。

  监管

  加强数字金融监管政策研究制定  

  李云泽在专题交流活动上谈道,加强数字金融发展和监管有关政策的研究制定,加快监管数字化智能化转型,稳妥推进人工智能在金融领域的应用,有效防范应对人工智能发展带来的风险挑战。要充分发挥金融服务实体经济作用,持续健全同科技创新相适应的科技金融体制机制,着力完善科技金融服务体系,纵深推进科技金融试点,坚持自立自强,更好服务推动我国人工智能等新质生产力朝着有益、安全、公平方向健康有序发展。

  关于金融业应用人工智能的影响,此前金融监管总局相关负责人也曾提及。在去年10月份召开的2024金融街论坛年会上,国家金融监督管理总局资管机构监管司副司长蒋则沈指出,人工智能不仅有助于提高金融机构的运营效率、降低成本,通过应用分析海量数据改进投资决策和风险管理,还将改善客户服务体验,提供个性化的解决方案,对金融服务方式、效率、范围和准确性将产生深远影响。但他同时提醒,人工智能应用也带来了模型的可解释性、公平性、责任归属以及潜在的系统性风险等挑战和问题。

  此外,去年11月,中国人民银行、金融监管总局等七部门曾联合印发《推动数字金融高质量发展行动方案》,其中也提到,强化模型和算法风险管理,健全模型安全评估和合规审计体系,及时披露算法信息,提升算法可解释性、公平性和安全性。  

  专家

  建议出台金融AI管理制度办法  

  人工智能正在深刻重塑金融业的方方面面。南都湾财社此前报道,自今年春节以来,DeepSeek的热风席卷证券基金业。在银行业,大模型应用场景也不断“上新”,南都相关报道也关注到大模型如何赋能金融产品创新和风险防控,并探讨其伴生的成本和模型风险管理难题。多位金融业人士指出,随着数字化转型提速、金融科技快速发展,以模型风险、数据风险等为代表的新型风险不断涌现、快速演变。

  兰台律师事务所高级合伙人康倩向南都湾财社记者分析称,从法律视角看,大模型在金融业的应用可能存在多方面的潜在风险:首先是数据安全问题,技术漏洞或第三方依赖可能导致客户隐私数据泄露;其次是合规问题,现有监管规则未涵盖AI决策可解释性、算法歧视等问题;此外,系统性风险传导问题也不容忽视。若多家金融机构共同依赖同一技术供应商,一旦该供应商出现故障,可能引发跨机构连锁反应。对于此类系统性风险的限制与追责,尚需探讨解决方案。

  她建议,从技术、政策和生态等多方面入手,以防范上述风险。在政策层面,目前国内数据安全法和个人信息保护法构成基础法律框架,相关法律规定与监管政策散见于银行业数字化、银行数据安全、移动互联网应用程序等相关的通知办法中。在大模型席卷金融业的当下,监管部门应尽快出台类似于《金融人工智能管理办法》相关制度,明确算法审计要求与责任追溯规则;其次,可以考虑建立动态风险评估模型,广泛征求监管创新意见;此外,在标准统一方面,建议制定大模型在金融领域应用的技术伦理标准,并强制要求披露训练数据的来源及决策逻辑。

  采写:南都·湾财社记者 刘兰兰