香港银行业人工智能转型不断深入,稳健的治理和信任机制已不可或缺
从客户生命周期管理(包括KYC/SOW和欺诈识别)到信用评分、财务和监管报告等领域,人工智能已经通过优化成本、改善运营和赋能客户/员工为香港银行带来了可量化的收益。然而,在更多核心流程在人工智能加持下得到增强的同时,银行必须充分解决治理、风险和信任方面的问题。建立可信人工智能系统对于维持公众信任及确保香港银行业系统的长期可持续发展至关重要。
在全球范围内,监管机构正密切关注数据隐私、知识产权、模型可解释性和算法偏见等重大风险。在香港,金管局已将人工智能治理列为战略监管重点,强调道德部署和客户数据保护。
随着人工智能在前、中、后台职能的使用倍增,银行应相应制定明确的战略愿景和合理的风险偏好。为此,他们应首先考虑以下基本问题:使用人工智能的目的是什么?哪些领域的应用最具价值?已经准备好应对哪些风险?银行还应具备符合本地和全球监管期望的治理框架。该框架的关键组成部分应包括:
1. 人工智能战略和风险偏好
将人工智能纳入企业战略规划,并明确定义对人工智能相关风险的承受能力。
2. 人工智能治理架构
建立由包括法律、风险、合规和技术方面的代表组成的跨职能委员会,直接向董事会报告。
3. 政策和标准
制定企业整体政策,以指导人工智能解决方案的开发、测试、部署和监控。
4. 模型风险管理
在部署前实施适当的评审和质疑流程,以评估模型的性能、偏见和可解释性。
5. 第三方风险管理
评估整个价值链的人工智能风险,特别是供应商和合作伙伴提供的技术所带来的风险。
银行数字基础设施的成熟度将决定其将人工智能纳入风险和控制框架的深度和速度。数字化程度越高的银行可能占据越有利的地位,而其他银行则可能需要在推广人工智能之前先解决基础差距问题。无论如何,金管局都希望银行能够证明其人工智能的使用符合其风险偏好声明和内部控制框架。
董事会监督和问责
随着风险格局的演变,如今董事会对人工智能的监督比以往任何时候都更加重要。对与人工智能相关的风险,如模型偏见、透明度不足和对第三方的依赖,都需要积极、明智地开展监督。金管局在其2024年关于生成式人工智能使用的通知中呼吁企业董事会应成立专门委员会来监督生成式人工智能,并确保对算法决策实施问责。
为此,各主要企业纷纷成立由法律、合规、技术、数据、网络安全和核心业务职能的专家构成的跨职能委员会。他们直接向董事会报告,这突出表明高级管理层仍应承担相关的最终责任,即使第三方也涉及其中。建议董事会应关注以下关键领域:
- 人工智能是否列为董事会常规议程项目?
- 人工智能治理委员会是否已经成立?
- 政策是否符合本地和全球监管期望?
- 第三方人工智能工具的风险评估是否充分?
- 人工智能模型是否经过独立验证?
- 银行的人工智能场景和数据来源是否具有透明度?
人才和企业文化
若缺乏适当的人才和企业文化,即使拥有最佳治理框架也可能无法发挥应有的作用。因此,银行应在内部各个层面提升人工智能素养。金管局已不断通过发布通告及指引,敦促银行为员工技能提升提供再培训,使他们能够在人工智能驱动的环境下,由负责手工操作转而承担监控及监测职能。
虽然许多银行已投入此类工作,但还应确保将培训范围扩展到运营之外的团队。董事会成员和高管必须了解人工智能的风险和收益,以便提供有效监督和战略指导。拥有一支理解并拥抱人工智能的员工队伍不仅有助于提高运营效率,也有助于实施稳健的风险管理和创新。