人工智能作为央行行长

Jon Danielsson, Robert Macrae, Andreas Uthemann2020年3月06

人工智能(AI)对央行越来越有用。尽管人工智能目前可能只用于低级职位,但技术进步和成本节约可能会让人工智能越来越深入地融入央行的核心职能。也许每个中央银行都会有自己的人工智能引擎,也许是未来的“BoB”(英国银行机器人)。

BoB及其对应措施将产生什么影响?

BoB现在或很快就可以帮助央行完成许多任务,如信息收集、数据分析、预测、风险管理、金融监管和货币政策分析。

技术基本都在这里;阻碍收养的是文化、政治和法律因素。也许最重要的是制度上的惰性。然而,使用人工智能节省的可观成本可能会克服大多数反对意见。

在中央银行的某些领域,BoB将特别有价值,例如在危机应对方面。如果央行面临流动性危机,有几个小时或几天的时间来应对,那么信息收集和分析的速度就至关重要。拥有一个在态势评估方面非常专业的备用AI引擎是非常宝贵的,它将人类决策者从数据处理中解放出来,以便他们能够根据BoB的建议及时做出决策。

与此同时,人工智能使用的增加为经济政策制定者提出了关键问题(Agrawal 2018)。在央行内部,有四个问题特别重要(Danielsson等人,2020年)。

1.顺周期循环

BoB在被用于金融监管时,将倾向于同质的最佳方法和标准化流程,将越来越同质的世界观强加给市场参与者。

这放大了银行自身人工智能引擎的顺周期影响,这些引擎都有相同的目标:在受到限制的情况下实现利润最大化。“更好的”解决方案更接近最优,因此彼此之间也更接近。

结果是拥挤的交易,因为拥挤的认知和行动。当新的信息到来时,所有的人工智能引擎,无论是私营部门还是公共部门,都将以类似的方式更新它们的模型。所有人都会以同样的方式看待风险,银行的人工智能也会想要买卖同样的资产。

其结果是顺周期性——短期稳定和高利润,但代价是系统性风险增加。

2.未知的未知

央行行长工作中最具挑战性的部分之一是应对“未知的未知”。脆弱性,特别是危险的系统类型的脆弱性,往往出现在责任领域的边界上——竖井。次级抵押贷款将具有隐藏流动性担保的产品转化为结构性信贷,跨越多个司法管辖区、机构、机构类别和国家。这些都是人类和人工智能最不可能关注的领域。

当前的AI可以很容易地根据已经发生的事件(“已知-已知”)进行训练。BoB也许可以在模拟场景(“已知-未知”)中接受训练。

然而,我们的金融体系实际上是无限复杂的。不仅如此,当局和私营部门采取的每一项行动都会改变体系——金融体系的复杂性是内生的,这是古德哈特(1975)定律的结果:“一旦出于控制目的而对其施加压力,任何观察到的统计规律性都会趋于崩溃”。

BoB就像人类一样,会错过未知的未知。毕竟,机器只能根据已经发生的事件或从完全指定的模型经济模拟中生成的事件进行训练。出于完全相同的原因,它会非常擅长处理已知和未知的情况,比它的人类对手要好得多。然而,正是这些未知的未知导致了危机。

3.信任

BoB很可能在大部分时间内保持金融系统的安全,很可能比纯人力监管系统好得多,因此我们将越来越依赖和信任BoB。这既会破坏应急计划和预防性监管措施,同时也会产生一种虚假的安全感,这种安全感很可能在明斯基时刻(Minsky moment)达到顶峰:感知的低风险导致了危机(Danielsson等人,2018年)。

在20世纪80年代,一个名为EURISKO的人工智能引擎在一款海战游戏中使用了一个可爱的技巧击败了所有的人类竞争对手。它只是击沉了自己最慢的船只,以使其海军护航船队比竞争对手的更快、更灵活,确保了胜利(类似的例子列表,参见《克拉科夫纳2018》)。

这个例子明确了BoB面临的信任问题。我们怎么知道它会做正确的事?人类海军上将不需要被告知他们不能击沉自己的船。他们只知道;这是他们人性中根深蒂固的一部分。鲍勃没有人性。如果它要自主行动,人类必须首先确定它的目标。但是一个有固定目标的机器,在一个无限复杂的环境中自由发挥,将会有意想不到的行为(Russel 2019)。BoB会遇到一些情况,在这些情况下,它会以人类无法做到的方式做出关键决定。人类可以调整自己的目标。 BoB cannot.

那么我们怎么能信任BoB呢?不像我们信任人类那样。对人类决策的信任来自对价值观的共同理解和对环境的共同理解。BoB没有价值,只有目标。它对环境的理解不一定能被人类理解。当然,我们可以在BoB面前运行假设并观察它的决定,但我们不能轻易要求一个解释(约瑟夫2019)。

这是否意味着我们将只在央行使用人工智能执行简单的职能?不太可能的。信任慢慢降临到我们身上。我们怀疑,在20年前,大多数人都不愿在网上管理个人财务。五年前,大多数人不会信任自动驾驶汽车。今天,我们完全可以把生命托付给人工智能飞行的飞机和人工智能控制的手术机器人。

随着人工智能向央行证明其价值,他们将开始信任它,促进BoB的职业发展。毕竟,它将被视为比人类央行行长更廉价地完成一项伟大工作。

然后,如果危机发生了,我们看到人工智能正在做一些不可接受的事情——也许是央行版本的击沉自己最慢的船——我们可能会想要按下死亡开关。只不过事情不会再那么简单了。它日益增长的声誉将降低采取其他应急措施的动机,从而降低我们干预Bob行为的能力。关闭它可能会危及关键系统。

4.针对系统进行优化

最后一个值得关注的领域是BoB将如何处理“恶意行为者”:那些承担不可接受的高风险的人,那些制造不稳定以获利的人,甚至那些主要目的是破坏金融体系的人。

在这一点上,BoB在对手的AI引擎面前处于劣势。实际上,它面临的是一个无限复杂的计算问题,因为它必须监视和控制整个系统。

对手只需要找出可以利用的局部漏洞,因此总是占有优势。

这种优势被AI的内在合理性放大了。它的目标驱动它的行动。这使得BoB具有可预见性,给了它的对手优势。固定的目标与复杂的环境相结合会创造出不可预测的行为,不管我们是否使用AI。然而,现在,在定义良好的环境中的理性行为允许通过重复的交互对BoB的目标进行逆向工程。

当然,应对措施已经存在。标准的防御措施是让AI在与人类或其他AI的互动中做出随机反应,限制它们与之博弈的能力。这模仿了人类提供的自然防御——它们创造了随机性、细微差别和解释,这些随个人和时间的不同而不同。

至少有两个原因可以解释为什么这样的对策在BoB身上行不通。

首先,必须将随机反应写入央行人工智能(AI),这是不可接受的,除非在特殊情况下。监管要透明、公正。

其次,随机化要求AI设计师为BoB的行为指定一个分布,而这种分布可以被反向工程,因为受监管的实体观察到重复的决策。

BoB与生俱来的合理性,加上对透明度和公平竞争的要求,使其在用于监督时处于不利地位。有趣的是,建设性的模糊性在货币政策中是被接受的,因此可能不会有什么问题。

结论

人工智能将对央行非常有帮助。微审慎人工智能——“微BoB”——将降低成本,提高效率,帮助危机应对,1000天中有999天非常成功。

人工智能同样也有利于货币政策,处理数据收集和政策预测,并以比现有基础设施低得多的成本改善货币政策委员会的信息流。

在宏观审慎监管和危机管理领域,人工智能提出了最关键的问题。BoB会增加顺周期性和明斯基矩的可能性,不可信。它将促进针对系统的优化。

宏BoB需要一个终止开关,但可能不会有。

将人工智能用于控制目的可能会增加系统风险,降低波动性,并使尾部变肥。

作者注:本文所表达的任何观点和结论均为作者个人观点,并不代表加拿大银行的观点。我们感谢经济及社会研究理事会(英国)[资助号为ES/K002309/1]和工程与物理科学研究理事会(英国)[资助号为EP/P031730/1]的支持。

参考文献

阿格拉瓦尔,J G,和A Goldfarb(2018),”人工智能的经济政策, VoxEU.org, 8月8日。

Chakraborty, C,和A Joseph(2017),”给老太太买新机器”,BankUnderground.co。英国,11月10日。

Danielsson, J, R Macrae和A Uthemann(2019),”人工智能与系统性风险”,SSRN。

Danielsson, J, M Valenzuela和I Zer(2018),”低风险是金融危机的预测因素, VoxEU.org, 3月26日。

约瑟夫,A(2019),”打开机器学习黑箱”,BankUnderground.co。英国5月24日。

克拉科夫纳,V(2018),”AI中的规格游戏例子,博客文章,4月2日。

拉塞尔,S (2019),人类的兼容,伦敦:Allen Lane。

主题:金融监管与银行业货币政策生产力和创新

标签:人工智能机器学习金融监管风险管理系统性风险微观审慎监管人工智能中央银行

ESRC资助的伦敦经济学院系统风险中心主任

加拿大银行高级经济学家

事件

经济政策研究

Baidu
map