当前位置:首页 » 新媒体运营 » 正文

4个备受争议的物联网和人工智能军事应用

17630 人参与  2019年11月29日 22:46  分类 : 新媒体运营  评论

  您是否一直在关注备受争议的谷歌“Project Maven”?如果没有,我们将在稍后重述。但是,让我们先从关键要点开始:人工智能(AI)和物联网(IoT)无疑具有军事应用,但这些应用将极具争议。

  事情是这样的,在年,美国五角大楼公布了Maven计划。据TechSpot报道,它的任务是在对抗ISIS的战斗中部署人工智能、大数据和机器学习,其目的是筛选并分析数千小时的无人机监控录像。

  谷歌今年早些时候签署协议,向五角大楼提供分析录像的机器学习算法。尽管谷歌保证这些工具只会用于非攻击性目的,但谷歌的员工还是非常愤怒,一些员工签署了请愿书,还有一些员工提出了辞职。今年月,谷歌宣布将不再续签明年到期的协议。

  英国《金融时报》指出,这涉及多个项目,这一决定可能会改变该公司在国防承包领域的发展轨迹,因为谷歌认为这笔交易是“赢得更多军事合同的敲门砖”。

  彭博社报道,创建Project Maven的前国防部副部长罗伯特·沃克说:

  “我完全同意他们的说法,那就是我们最终可能会开枪,但这也可以挽救生命。我相信这会对谷歌造成一定的道德风险。他们说:这些数据可能会在某些时候严重危害人类生命。我说,是的,但这可能会挽救名美国人或名盟友或名无辜平民的生命。”

  

.jpg


  这让我们开始思考:军方还部署了哪些人工智能和物联网技术?正如德勤早在年就指出的那样,“军事指挥官总是靠信息来决定生死——无论是数量还是质量。因此,毫不奇怪,美国军方早就采用了物联网,并正在寻求扩展其应用。”

  显然,军事物联网项目比比皆是,但许多项目没有争议,并且与战争无关。供应链和安全就是显而易见的用途,但真正有争议的用途呢?再看下面三个!

  杀手机器人

  杀手机器人,又称全自动武器,已经引起了全世界的广泛关注。人权观察和哈佛法学院国际人权诊所的报告提出了许多问题,其在年的论文中指出了各种自主武器系统,其中包括以色列的铁穹和美国的Phalanx and C-RAM。

  “完全自主的武器,也称为‘杀手机器人’,引发了严重的道德和法律问题,因为它们能够在没有人类有效控制的情况下自主选择攻击目标。许多人 质疑杀人的决定是否应该由机器来决定,人们还严重怀疑完全自主的武器是否能够复制人类的判断,并遵守将平民与军事目标区分开的法律要求。”

  据ZDNet报道,今年月,韩国科学技术院大学(KAIST)遭到了全球多个国家、多名高校顶尖人工智能学者的集体抵制。原因是韩国科学技术院大学与军工企业“韩华 Systems”合作研发自主武器。

  来自研究人员的联合声明:

  “如果研制成功,自主武器将是人类战争形式的第三次革命。它们将使战争以前所未有的速度和规模进行。这类武器很有可能成为恐怖的代名词,独裁者和恐怖分子可以用它们来对付无辜的平民,并消除任何道德约束。如果打开这个潘多拉盒子,它将很难被关闭”

  据商业网络报道,最近,来自数十个国家的家人工智能公司和组织签署了一项承诺,承诺“既不参与也不支持致命自主武器的研发、制造、贸易或使用”。

  把大门钥匙和密码送给敌人?

  围绕物联网争议的根源不是我们用它做什么,而是敌人用它做什么。

  洛克希德公司的指挥、控制、战斗管理和通信(CBMC)系统使用长达英里的机密通信线路,这是一种具有物联网功能的作战网络。据该公司称,它将美国军方弹道导弹防御系统的不同要素连接到一个单一的系统中,以应对全球威胁。(来源物联之家网)洛克希德马丁公司指挥与控制总监哈蒙德(JD Hammond)说:“它从数百个传感器、雷达和卫星获取数据,并将这些数据转换成一种通用语言,以便导弹防御系统进行交互并应对威胁”。

  但是Radware的Pascal Geenens担心军队会成为勒索软件的受害者。他告诉商业网络:“看似无害的摄像头、传感器和其他物联网设备遍布军方,但和地球上的任何设备一样,安全问题也很普遍。一旦漏洞被黑客利用,政府将要支付多少赎金来重新控制武器或其他关键资源?”

  如果您认为军方不会让这种情况发生,那么请考虑今年早些时候关于健身数据服务的新闻,该健身服务无意中透露了军事基地的位置。

  接下来,让我们看看真正可怕的东西。

  天网——没有阿诺德

  还记得《终结者》吗?到那时,就是具有自我意识的人工智能网络天网(SkyNet)接管的时候。

  根据美国国防一号(Defence One)的说法,陆军、海军、空军和海军陆战队正在“致力于未来军事的愿景:将全球战场上的所有资产连接起来。”

  每一种武器、车辆和设备都将被连接并共享数据。国防一号(Defence One)报告:“随时了解全球网络中每个节点的存在和状态,其结果是:一个难以想象的巨大中央神经系统,装备了世界上最先进的武器”。

  Motherboard网站甚至预言:“到年,大规模监视、无人机群、半机器人士兵、心灵遥感、合成生物和激光束将决定未来的冲突。”

  到那时,约翰·康纳也救不了我们。

  伊隆·马斯克(Elon Musk)也很担心。您可能还记得,特斯拉和SpaceX首席执行官伊隆·马斯克曾就人工智能(AI)的危害展开讨论。他认为,如果不加以控制,人工智能将比某些独裁国家领导人更容易失控。

  很有道理:但人工智能并不是不受控制的。《福布斯》技术委员会成员达斯古普塔指出,有许多技术正在探索“当技术变得流氓时”如何中和它们。

  尽管如此,他似乎还是支持马斯克的立场。“有许多专家非常担心机器人有‘感觉’后会发生什么,也许他们更应该担心机器人没有感觉的阶段——就是现在。”


本文链接:https://www.woshiqian.com/post/23247.html

百度分享获取地址:https://share.baidu.com/code

我是钱微信/QQ:5087088

广告位、广告合作QQ:5087088

<< 上一篇 下一篇 >>

  • 评论(0)
  • 赞助本站

       

◎欢迎参与讨论,请在这里发表您的看法、交流您的观点。