专家表示,人工智能(AI)技术的快速发展,威胁了国际安全,黑客集团可能利用该技术,引发核武国家之间的灾难性冲突。
2018年10月24日,第十四届中国国际公共安全产品博览会上,参观者在屏幕上观看一个AI安全软件。(NICOLAS ASFOURI/AFP via Getty Images)
专家表示,人工智能(AI)技术的快速发展,威胁了国际安全,黑客集团可能利用该技术,引发核武国家之间的灾难性冲突。
阿伯丁大学战略研究讲师詹姆斯·约翰逊(James Johnson)说:“人工智能驱动的技术正迅速成为第三方行为者的另一种能力,以发动虚假信息和欺骗行动,影响竞争关系中的双方,比如美国和中国。”
在国际战略研究所(IISS)举办的中美AI竞争网络研讨会上,约翰逊说,利用人工智能的团体,无论是否为国家,都将在未来几年内产生“巨大的战略影响”。
他担心,非国家行为者或其它第三方行为者,可能利用这项关键的新兴技术,对付核武大国,可能会妨碍它们的军事行动,或让它们在不知情之中,卷入一场核冲突。
约翰逊说:“理论上,非国家行为者可使用AI增益网络武器,攻击核指挥和控制系统、预警卫星和雷达,而不需要任何行动或物理攻击,更不需要拥有核武器。”
约翰逊说,AI技术可大幅降低“假旗攻击”(false flag attacks,即栽赃或嫁祸行动)的门槛,让资源有限的小团体实施旨在误导国家的攻击。
例如,黑客组织可欺骗美中领导人及其系统,使他们相信遭受到核攻击,从而引发报复,使一个国家攻击另一个国家。
黑客组织可欺骗美中领导人及其系统,使他们相信遭受到核攻击,从而引发真正的核战争。此图为示意图,与本文无关。(NICOLAS ASFOURI/AFP via Getty Images)
约翰逊说,机器决策速度“大幅增长”,超越了人类的理解,加上广泛采用AI系统,可能进一步失去控制或遏制此类事件的能力。
约翰逊说:“想象一下,如果古巴导弹危机从13天缩短到几小时、几分钟,甚至几纳秒(nanoseconds)。”
约翰逊表示,中国、俄罗斯和美国都将部分核力量,保持在“预警发射”(launch-on-warning)状态。这意味着,这些国家在接收核攻击警报后,将立即发动报复性核打击,而非等待爆炸,确定攻击确实发生了。
因此,如果一群黑客启动了这些国家的核警报系统,很可能引发真正的核打击。
约翰逊说,采用这种策略的第三方,“可能将两个或更多拥有核武器的对手,推向战争的边缘”,并将在未来几年内成为一股破坏稳定的力量。
“这正迅速变成一种可能发生的局面。”约翰逊说。
约翰逊还解释说,表面上与核预警系统无关的行动,仍可能造成破坏。
他说,深伪视频(deepfake videos)和其他误导国家领导层的假信息,可能会持续增加,并带来同样的后果。
在两个核武国家发生危机时,可能出现信息干扰,加上决策时间被压缩,可能会导致最坏的情况发生。
约翰逊说:“这类信息行动的后果,很可能是灾难性的。”
他表示,随着新技术的出现与应用,人为错误和机器错误相互影响,可能形成不确定的意外结果。
约翰逊说:“简而言之,人类判断与控制的专断性,加上目前机器算法的脆弱性,或缺乏常识性,破坏稳定的事故与错误警报的风险将上升。”
为了防止灾难发生,约翰逊说,各国现在就该做出行动,积极防止这种攻击和误判。他建议,必须改进指挥和控制系统,为核协议增加多余步骤,并在盟国和对手之间,制定使用AI的新规范。
约翰逊说:“在悲剧发生前,现在就是积极干预的时候。”
全平台高速翻墙:高清视频秒开,超低延迟
免费PC翻墙、安卓VPN翻墙APP
来源:英文大纪元记者Andrew Thornebrooke报导/陈霆编译
没有评论:
发表评论