首页 资讯 关注 科技 财经 汽车 房产 图片 视频 全国

手机

栏目首页: 业内 数据 数码 手机

终结者里的天网会显现吗?AI对核战斗有何影响

来源:网络整理  作者:天天头条  人气: 发布时间:2018-06-04
摘要:随着科学技术的不断进步,人类变得越来越强盛,但是这种强盛力量带来了巨大机遇,也面临着巨大挑战。

  6月4日消息,随着科学技术的不断进步,人类变得越来越强盛,但是这种强盛力量带来了巨大机遇,也面临着巨大挑战。当前人工智能的发展潜力不可小觑,美国“兰德智库(RAND corporation)”最新研究报告显示,我们对人工智能技术产生误解,与该技术自身同样地危险。

终结者里的天网会出现吗?AI对核斗争有何影响

  根据这份兰德智库报告,超级智能设备会让这个世界变得无法辨认,或者处于拯救或毁灭人类的过程中。具有人类智力等级的人工智能世界可能与现今世界截然不同——而且难以预测。

  然而,人类社会正在试着逐渐适应越来越多影响人类生活的智能算法(“低级人工智能”),近期一份研究报告概述了不良行为者使用人工智能的潜在可能性。

  或许核武器仍是人们认为最重要的存在性威胁,该研究报告聚焦人工智能影响当前核平衡的可能性有多大,自1945年“三位一体核试(Trinity Test)”至当前核武器时代,现今我们生活的时代处于暂时的核平衡时期。

  你可能一开始就会想到网络袭击、增强性人工智能,可能入侵核导弹发射。2010年显现了一次紧急事件,当时美国空军与发射导弹“短暂失联”。但这并非最主要问题,至少目前还不是。美国核武库照旧在40年前的软盘计算机系统上运行,这宛若令人感到担忧,但事实上该控制结构处于“真空隔离状态”,一个封闭的网络系统,无法接入互联网,因此很难被黑客入侵。

  核策略专家斯蒂芬·施瓦兹(Stephen Schwartz)在一次采访中说:“我们当前采用的核武器操作系统对于黑客直接袭击相对而言是无懈可击的。”但是他提出了更加令人恐怖的问题,兰德智库报告指出,你要记住核武器系统依托于军事通讯……而这些系统都是反常薄弱易遭袭击的。在某种程度上,军事通讯系统可能受到袭击或者操纵,彩票开奖结果静态网页,异常是在危机时期,我们可能存在麻烦。

  关于核武器指挥和控制基础设施方面有一点值得注意——什么时候被设计应用,为了确保摧毁对方,实现有效威慑力,你需要在短短几分钟之内启动核武器。否则会有数千枚核弹朝向你发射,你可以在斩首行动中摧毁指挥链,或者摧毁对方的打击军事能力。对此,你有时光来做决定,没有大量的时光举行二次核查。

  考虑到必须快速做出决策,人们没有太多时光举行判断、反应和计算,新疆时时彩走势图5,这就是为什么尽早地使用计算机预警系统。伴随着人工智能快速发展,“人工智能顾问”将成为军事-系统算法的一个重要导向,它可以评估核武器威胁,并在短短几分钟内自动规划出最佳反应措施。但是“人工智能顾问”将带来新的风险。

  实际上控制导弹的计算机系统比军事通讯和涉及军事决策的人们更易出错和遭受袭击。最害怕的是冷战时期,经常显现一些军事系统报错现象,1983年,斯坦尼斯拉夫·彼得罗夫(Stanislav Petrov)察看前苏联早期预警系统时,他看到了一个警告:美国发射来袭导弹!假设彼得罗夫遵循当时的军事规定,他应该赶忙拉响警报。但是彼得罗夫认为,美国不太可能只使用少量导弹攻击,随后并未拉响警报。这次预警系统报错事件未酿成一场灾害,彼得罗夫避免了一场核战的发生,但这仅是一次报错事件,类似的事件一次又一次地发生。

  我们反常幸运,所有这些报错都是在核战开始之前发觉的,但是假设报错信息具有说服力呢?例如:深度模仿技术(deepfake technology)模仿总统指令下达核武器袭击?核战略专家们必须仔细考虑类似这样的情形。

  人工智能系统做出错误判断像人工智能本身一样危险,假设人们认为他们的通讯系统被黑客入侵,甚至他们拥有完美的系统安全性,他们怎么相信接收到的指令呢?

  “兰德智库”关于确保军事摧毁效力产生类似的担忧,这份最新报告指出,俄罗斯等国家都认为美国试图利用人工智能威胁他们国家战略核力量的生存能力,破坏国家之间的信任感,这在危机时刻是灾害性的。假设智能算法扫描卫星图像能够确定核武器仓库位置,或者仅通过分析智能手机app数据,那么拥有较好技术的一方将占据优势,破坏力量平衡吗?

  然而,其他专家对人工智能发展前景持乐观态度,他们表示,在战斗对抗实例中,输入数据中显现轻度偏离,可以巧妙地欺骗机器学习算法,这可以用于应对扫描报复军事力量的算法。

  但是这将产生一个新的担忧:军事核武器方面的任何“人工智能顾问”更简单遭受类似的袭击。假设你用于扫描核发射空中区域的机器学习算法被“愚弄”,这将使指挥人员在指挥和控制结构系统中做出错误决策。人类决策失误可能是最大的风险,但是过于信任自动化系统和算法将是灾害性的。

  冷战时期美国和前苏联之间的对抗核武器关系十分微妙,是建立在双方试图猜测对方战略计划、军事目的和能力的评估分析之上。对军事另一方试图做什么或者掌握军事技术的误解,将成为做出地缘政治决策的关键因素,随着人工智能技术加速发展,预测可能发生军事行动的困惑再次点燃人们的恐怖感,考虑到“人工智能分歧”和军备比赛,很可能导致核战斗一触即发。军备比赛的发展速度经常超越其安全性,这就是为什么很多人十分担忧超级智能或者自动化武器的原因。

  伴随着人工智能的快速发展,该技术具有的重要社会功能仅有少数人理解,传统机构认为有必要对人工智能加速发展做出反应,但可能会得出危险决定。新的核态势评估报告建议使用核武器应对网络袭击,但是“网络袭击”是一个概念定义不准确的术语,发动网络袭击的源头需要很长时光才能跟踪到位,这一策略是否具有现实意义?

  很明显,许多国家都不想泄露自己的军事隐秘,的确人工智能系统具有一定的神秘性,能够关心人们探测到潜在的军事威胁和袭击。但是我们日常工作生活已从人工智能分辨的是非概念中普通受益,核武器策略是另一个领域,其黑盒算法属性很少有人理解,不可靠的算法很难对该系统构成破坏。立即我们比以往任何时候都需要我们的专家与军事领导人之间举行沟通。

  美国战略空军指挥部乔治·李·巴特勒(George Lee Butler)将军称,我们通过某些技术、和“如有神助”的运气,避免了冷战时期显现核灾害,我认为后者起到的作用最大。(卡麦拉)

责任编辑:天天头条新闻网
首页 | 资讯 | 关注 | 科技 | 财经 | 汽车 | 房产 | 图片 | 视频 | 全国

Copyright © 2012-2018 四川志果网络科技有限公司 版权所有 蜀ICP备10208308号-2  技术支持:优站网络

电脑版 | 移动版