有专家表示,随着国际形势的日益严峻,使用人工智能技术的银行和其他金融机构可能更加容易受到网络攻击。
《华尔街日报》最近的一篇报道强调了这些担忧,全球金融机构从一开始就在某些制裁行动中发挥了重要作用,而这无疑是将自己牵扯进直接争端当中。
专家们担心,这些机构以提高效率的名义,越发依赖人工智能系统,可能会得不偿失。美国联邦调查局(FBI)前政策顾问安德鲁·伯特(Andrew Burt)将人工智能漏洞描述为:许多依赖人工智能的金融机构漏洞巨大且被广泛忽视。
那么,为什么人工智能更容易受到攻击呢?总的来说,源于人工智能的底层技术是机器学习,而机器学习需要利用大量数据来持续升级计算能力。这一现实使他们特别容易受到数据操纵攻击。过去,研究人员已经证明,攻击者有可能故意“毒害”算法的训练数据,以破坏或影响它可能输出的任何结果。
虽然人工智能算法中源于有限数据的种族、性别和其他偏见问题已经众所周知,但一些研究人员担心,针对金融机构的不良行为者可能会部署大量有偏见的数据来攻击金融系统算法,以影响市场情绪。
更糟糕的是,根据2020年乔治城安全与新兴技术中心的报告,机器学习漏洞不能像其他软件那样修补,这意味着任何潜在的攻击都可能持续更长时间。
"在这些系统中处于休眠状态的是漏洞,这些漏洞与我们数十年经验的传统缺陷不同,"报告写道。"这些漏洞是普遍存在的,使用广泛扩散的工具利用起来很便宜,而且通常几乎没有防御措施。
这些算法也可以在没有大量数据集的情况下实时被欺骗。
例如,腾讯Keen Security Lab的研究人员在2019年展示了几种相对简单的技术,用于欺骗特斯拉的机器学习能力,首先欺骗挡风玻璃雨刷器在不应该接合时接合,然后在道路上使用明亮的贴纸来说服特斯拉参与自动驾驶仪漂移到相反的车道上。
“我还没有看到任何能够抵御虚假信息洪流的真正能力,”蒙特利尔人工智能伦理研究所创始人Abhishek Gupta很是担心。
关键词: 依赖人工智能的银行存在巨大风险 人工智能