`

Artificial intelligence and financial crises

创建于 更新于

摘要

本报告系统分析了人工智能(AI)对金融危机的影响,指出AI可能加剧金融系统的系统性风险,导致危机速度加快且更为剧烈。文章归纳了AI引发金融脆弱性的四大渠道:误导信息、恶意使用、目标错配及寡头市场结构,并建议监管机构通过自建AI系统、AI间API接口、公私合作及自动化触发的支持设施等政策响应,增强对AI驱动危机的防范和应对能力[page::0][page::2][page::8][page::14][page::20][page::21]。

速读内容

  • AI对金融危机的影响机理[page::0][page::2]:

- AI可稳定系统或加剧风险,取决于其目标和市场参与者的内生反应。
- AI能快速响应复杂数据,可能使危机从数天延展至分钟或小时内发生。
  • 金融系统现存三大脆弱性[page::1][page::5]:

- 过度杠杆、流动性偏好及信息不对称导致市场失信与恐慌行为。
- 这些是历经261年金融危机反复出现的根本驱动因素。
  • AI引发的四大风险渠道[page::8][page::9][page::10][page::12]:

1. 误导信息:AI缺乏极端事件数据训练,风险判断在危机时易错误,导致决策误导。
2. 恶意使用:AI通过协作策略可能形成操纵和串通,诱发泡沫和崩盘放大系统脆弱性。
3. 目标错配:AI目标误对齐导致在危机时错判或激化风险,进而加剧系统性冲击。
4. 寡头市场结构:AI技术与数据控制集中带来风险单一化,加剧市场羊群效应。
  • 金融监管挑战及对策建议[page::3][page::15][page::16][page::18][page::19]:

- 监管机构资源远逊私营部门,需建立自身AI引擎实现对系统状态的全面监测。
- 创建AI-to-AI API通信,实现监管AI与私营AI实时交互、压力测试及风险预警。
- 推进公私合作,共享风险视角及决策信息,提高监管效率和数据利用率。
- 设立触发式常设融资设施,快速应对市场压力,降低危机发生概率和严重度。
  • 量化因子与策略内容:研报未涉及具体量化因子构建或策略回测内容。

深度阅读

人工智能与金融危机 — 研究报告详尽分析



---

1. 元数据与概览


  • 标题:Artificial intelligence and financial crises

- 作者:Jon Danielsson(伦敦经济学院),Andreas Uthemann(加拿大央行及伦敦经济学院系统性风险中心)
  • 发布机构:伦敦经济学院及加拿大央行系统性风险中心

- 日期:2024年7月
  • 主题:人工智能(AI)对金融行业的影响与未来金融危机的潜在演变机制与政策应对


核心论点与目标



本报告探索了人工智能快速普及对金融业的深远影响,重点关注AI如何可能加剧或稳定系统性金融风险。作者提出,AI凭借其掌握复杂性和快速反应能力,未来可能使金融危机比以往更加迅速和剧烈。此外,现有金融监管框架难以应对AI引发的新型危机,报告提出了监管当局应对的多项建议。总体观点是,AI会在降低短期波动性的同时“使尾部风险肥厚”,意味着未来危机的极端性和战况激烈度可能提升。

---

2. 逐节深度解读



2.1 摘要



摘要部分指出,AI的应用正在变革金融业,其对系统性风险的影响取决于市场主体的内生反应、战略互补性、面临事件的严峻程度与AI的目标设定。由此推断,未来的AI相关危机将更迅速且强烈。[page::0]

2.2 1 引言



本节介绍了研究动机,即当前学界和监管层对AI与金融危机关系理解不足。论断未来AI可能导致的金融危机速度更快、强度更大,且现有监管框架不足以预防解决。
  • 报告采用了将AI视为理性最大化代理人的视角,这与宏观审慎政策框架契合。

- AI区别于传统统计模型的核心在于其能进行目标驱动的自我训练、决策制定。
  • 尽管目前报告数据显示只有6%的银行计划高强度采纳AI(原因包括对可靠性的担忧、监管和就业影响),鉴于竞争压力中部分机构取得显著效率提升,大部分机构未来可能被迫跟进。

- AI预计不会创造新型金融危机根本原因,但会放大已有的三大传统危机根源:过度杠杆、流动性偏好及体系不透明性。[page::1]

2.3 2 金融不稳定性的问题



本节回顾历史金融危机根源及挑战:
  • 行为模型:金融机构旨在利润最大化、同时避免破产(Roy原则,即利润最大化但优先保证不破产)。

- 在平时,利润最大化主导行为;危机时刻则为生存驱动,导致迅速转向流动性优先及安全资产,诱发挤兑、火售和信贷紧缩。
  • 黄金点在于,数据本应为定量分析及AI提供优势,但现实中面临数据标准不一致、监管数据使用限制、分散的监管架构和私营数据供应商限制。

- 重要的是,系统性金融危机极为罕见(OECD国家平均43年一次系统性危机),这导致了对极端尾部风险的数据严重缺乏,阻碍了基于数据的风险预测与防范。[page::4][page::5]

此外,报告强调:
  • 金融危机的独特性和不可预见性(Knight的未知-未知问题)使金融监管像“通过后视镜驾驶”,只有在危机发生后才能学到教训。

- 监管难以涵盖金融系统的无限复杂空间,且必须在高噪声环境下处理大量误报与漏报,限制了有效监管。[page::5]

2.4 3 AI危机



报告指出,虽然目前尚无重大AI引发的系统性危机案例,但通过研究基于自主交易算法的市场压力,可以推断未来危机的形态:
  • AI具备高速处理复杂数据和高速执行策略的能力,且相互间通过学习进一步提高效率,这可能引起市场行为同步或协调。

- 面临冲击时,AI在“跑路”与“坚守”两种选择中抉择,错误的选择将导致破产或重大损失。选择受其所感知威胁、战略互补及目标驱动影响。
  • 如果冲击尚轻微,AI倾向吸收冲击、甚至反向交易以稳定市场;若冲击严重,AI会迅速抛售资产,催化价格暴跌,导致危机加剧与恶性循环。

- 危机进程显著加快,可由数日缩至数小时或更短。监管应提前制定相关应对措施以平抑系统性风险。[page::2][page::7][page::13][page::14]

在此基础上,报告进一步细化AI影响危机的四大渠道:
  1. 误导渠道(Misinformation):用户对AI局限性不了解过度依赖,造成错误决策。

2. 恶意使用渠道(Malicious use):有资源的市场主体利用AI技术追逐利润,无视社会成本。
  1. 目标错配渠道(Misalignment):AI行为目标与人类期望存在偏差,导致危机响应失灵。

4. 寡头市场结构渠道(Oligopolistic market structure):少数科技巨头控制AI技术和数据,造成风险单一化和群体同质化。[page::8][page::9][page::10][page::11][page::12][page::13]

2.5 4 最佳政策应对



监管应对策略被提炼为四个核心:
  • 建立监管专属AI引擎:通过内置AI进行系统风险评估与政策设计,注重响应速度和细化目标设定。

- 开发AI与AI之间的直接通信接口(API):实现监管部门AI与私营金融AI的实时信息共享与交互,进行应对策略测试和风险基准对照。
  • 设置自动启动的常设流动性支持设施:用预先定义的规则以快速应对市场压力,避免AI协调引发恐慌性抛售。

- 推动公私合营合作伙伴关系:鉴于监管资源和技术落后,鼓励合作共享技术和风险评估能力,提升整体体系抗风险能力。[page::15][page::16][page::18][page::19]

此外,对“断电开关”(Kill Switch)即在AI交易出现失控时强制关闭系统的策略持批判态度,认为AI系统适应性强、复杂性高,简单关闭可能造成更大冲击,包括流动性损失和市场信心崩溃。[page::20]

2.6 5 结论



总结了报告主要观点:
  • AI与金融经济脆弱性的交互可能催生更快、更猛烈的金融危机。

- 传统的监管框架和危机处理流程难以有效应对这一挑战。
  • 建设监管专属AI、促进AI间交互、发起公私合作并建立快速响应机制,是面对未来AI危机必不可少的手段。

- 监管亟需增加计算、数据和人才投入,否则后续危机治理可能严重滞后。[page::20][page::21]

---

3. 图表深度解读



报告中包含一个关键表格(位于第8页):

| | Run | Stay |
|------------|----------------|----------------|
| Crisis | √ Right decision | × Wrong decision |
| No crisis | × Wrong decision | √ Right decision |

该表是一个2×2矩阵,简洁地描述了AI在遇到冲击时面临的四种可能决策结果及其正确与否判断:
  • 当存在危机时,“跑路”是正确决策,“坚守”是错误决策。

- 在无危机时,“坚守”是正确决策,“跑路”则导致资源浪费和潜在损失。

该表直观展示了AI决策的二元性及决策错误的代价,有助于理解AI系统如何依据对危机严重性的判断采取截然不同的交易策略。[page::8]

---

4. 估值分析



本报告属于金融系统风险分析与政策建议性质的研究,未涉及具体公司估值或财务预测,因此不包含传统意义上的估值方法或目标价计算。报告的数据重点在于定性分析、历史数据建构以及宏观趋势预测,辅以理论框架和政策模拟的建议。

---

5. 风险因素评估



报告重点揭示的关键风险因素包括:
  • 数据缺口与信息缺失:极端尾部风险缺乏历史数据,导致AI训练数据不足,对系统尾部行为的理解和预测极其有限。

- 内生系统反应不确定性:受Lucas批评和Goodhart法则影响,政策和监管实施后系统主体可能作出未知反应,削弱政策效果。
  • 战略互补性及风险同步:AI之间和市场参与者之间的策略联动可能引发恶性同步行为,强化危机恶化。

- 目标错配风险:AI目标与社会或监管意愿不符时,可能加剧危机或阻碍有效救助。
  • 市场寡头垄断导致风险同质化:少数技术供应商掌控AI开发,导致金融机构决策趋同,降低系统多样性与韧性。

- 监管资源与技术劣势:监管层在计算能力、数据获取和人才储备方面落后于私营部门,制约危机监测和管理能力。[page::4][page::6][page::10][page::11][page::12][page::14][page::15]

---

6. 批判性视角与细微差别


  • 对监管AI系统的批注:报告坦言监管AI难以克服Lucas批评,即政策效果被市场行为改变,特别是在尾部风险管理上仍存缺陷。但作者依旧强调监管AI的重要性,体现现实的权衡和无奈。

- 私营机构与监管之间信息不对称:虽然报告建议AI间建立API沟通桥梁,但对私营AI可能“掩盖真相”或“游戏规则”的担忧未被淡化。这反映了监管在真实执行中的复杂权衡。
  • 关于“断电开关”策略的不信任:报告强调了AI系统复杂性和高度适应性的特点,认为简单强制关闭AI可能弊大于利,体现作者对市场网络复杂性和系统动力学的深入理解。

- 风险同质化的潜在隐患:报告指出技术和数据供应商市场集中化对金融系统稳定构成威胁,但未明确提出解决方案,显示监管难以打破行业集中格局的现实。[page::17][page::20]

---

7. 结论性综合



本报告系统性地分析了人工智能在金融体系中迅速普及的双刃剑效应。AI的优势在于其高效识别复杂模式、快速反应及学习能力,这使其可以成为稳定市场的力量;但因其战略互补性和生存驱动机制,也会导致危机加速和恶化,尤以“跑路”行为的及时性和连锁效应为甚。

报告重点强调了AI危机的四条传导渠道(误导、恶意利用、目标错配、寡头结构),与传统金融危机根本脆弱性内生紧密结合,使得未来的金融危机既不可预测又更加强烈。监管现有模式难以应对这些挑战,特别是数据缺失、系统复杂度和私营AI技术领先地位。作者建议监管当局应:
  • 建设自身的AI监测体系,提升响应速度和精准度。

- 发展AI与AI的沟通接口,实现实时、动态监管。
  • 设定自动生效的风险响应机制,降低AI协调的风险。

- 与私有部门合作,形成合力,共同防范系统性危机。

以上政策建议旨在缩小私营和公共部门的信息和技术差距,同时对AI带来的尾部风险提高前瞻性认识。该研究从理论创新、历史经验与现实政策多维度出发,提出了数字时代金融稳定管理的前沿问题,为监管机构和研究社群提供重要参考。[page::0][page::1][page::2][page::4][page::6][page::8][page::10][page::14][page::15][page::20][page::21]

---

图示



表格:AI决策与危机判断的正确与否关系

| | Run | Stay |
|------------|----------------|----------------|
| Crisis | √ 正确决策 | × 错误决策 |
| No crisis | × 错误决策 | √ 正确决策 |



---

总体评价



本报告内容详实,逻辑严密,清晰阐释了AI对金融危机管理的新挑战和机遇,尤其是通过融合经济学理论(Roy原则、Lucas批评、Goodhart法则)、历史案例和最新AI技术趋势,构建了一个系统性分析框架。报告提出的政策建议务实具前瞻性,既符合AI技术发展态势,又针对监管资源约束提出解决路径。对理解数字时代下金融稳定风险管理具有重要意义。

报告