EFF发布白皮书为军事人工智能项目提供指导

来源:本站 浏览

小编:  电子前沿基金会(Electronic Frontier Foundation)发布了一份白皮书,为军事人工智能项目的实施提供指导

  电子前沿基金会(Electronic Frontier Foundation)发布了一份白皮书,为军事人工智能项目的实施提供指导。

  人工智能被用于军事目的是可怕的,但它最终不可避免。人们所能期待的最好结果是,它以一种合理的方式来解决人们的担忧。

  在谷歌员工因该公司的国防合同而辞职后,白皮书发布就出现了。该公司为美国军方的无人机项目提供人工智能知识。自那以后,谷歌决定不再续签合同。

  一些军事策划人员和国防承包商难以理解来自谷歌等硅谷巨头的员工的担忧,而电子前沿基金会希望能“弥合差距”以帮助他们。

  在武器系统或军事指挥和控制中应用当前机器学习方法的主要技术和战略风险是什么?

  有很多支持的概念是,任何杀死的决定最终都必须由人类操作员来做,即使人工智能推荐它。这确保了人类的同情在错误发生的时候起到了一定的作用,并保证了责任,而不是错误的编程。

  “机器学习技术已经得到了令人难以置信的宣传,事实上,它们在某些方面已经取得了令人兴奋的进展,但它们仍然很脆弱,受到新的失败模式的影响,并且容易受到各种形式的敌对攻击和操纵。

  在这个时候,EFF强调这些观点是为了让人工智能远离目标选择、火控、大多数命令、控制和智能(C2I)角色,至少在可预见的未来是这样。

  机器学习系统很容易被愚弄或被颠覆:神经网络很容易受到一系列新奇攻击的影响,包括敌对的例子、模型窃取和数据中毒。

  最近被称赞的人工智能的许多成就都来自于强化学习(RL),但是目前最先进的RL系统是不可预测的,难以控制,不适合复杂的现实部署。

  部署的系统之间的交互将非常复杂,不可能建模,并且会受到难以减轻的灾难性故障的影响。因此,冲突有可能发生意外或升级的严重风险。

  专注于“杀死链”之外的机器学习应用程序,包括物流、系统诊断和修复,以及防御网络安全。

  专注于防御网络安全(包括在广泛的平台和民用基础设施中修复漏洞)作为一个主要的战略目标。

  参与军事对话,寻求谅解备忘录和其他文书、协议或条约,以防止意外冲突的风险和意外升级。

  最后,第三部分提出了未来考虑的战略问题,目的是帮助国防社区为构建安全可控的人工智能系统做出贡献,而不是让脆弱的系统和过程在未来几十年里导致后悔。

当前网址:http://www.sx-news.com/junshi/2018-08-16/16060.html

免责声明:本文仅代表作者个人观点,与陕西新闻网无关。其原创性以及文中陈述文字和内容未经本站证实,对本文以及其中全部或者部分内容、文字的真实性、完整性、及时性本站不作任何保证或承诺,请读者仅作参考,并请自行核实相关内容。

你可能喜欢的: