美国就人工智能(AI)是否可以用于战争展开辩论

4月25日,在斯坦福大学的木板式舞厅,举办了国防创新委员会的听取会议,委员会的存在是为了向美国国防部长提供有关现代技术的建议,近两个小时,它听取了公众表达了他们对将机器人大脑应用于现代战争的恐惧和希望。

目标识别和自主响应的挑战是战争中使用AI的道德问题的核心

听证会的基调是由国防部国际事务副总法律顾问查尔斯·艾伦设定的:五角大楼继续为追求人工智能的军事应用,向有反对意见的技术部门和最优秀的公众提供说服理由,并使其满足国际人道法。

“美国在战争遵守法律方面有着悠久的历史,”艾伦在完成当时的副国防部长阿什卡特于2012年制定的有关该部门如何获得和投放自主武器的规定后说。最重要的是,在听取会议上,艾伦强调了这些规则如何反复要求遵守战争法,即使没有针对所用武器的具体法律。

艾伦说:“如果技术的使用推动了普遍价值观,那么使用技术就更具有道德性,而不是避免使用技术。”他指出,这是美国在日内瓦制定的“特定常规公约”政府专家组的论点。武器。为所有国家制定关于如何在战争中使用自治系统的新国际标准的谈判正在进行中,尚未达成共识。

艾伦使用Project Maven作为人工智能的一个例子,用于军事和人道主义利益的融合,提高武力使用的准确性,以及其他人在高风险情况下使用信息的准确性和紧迫性至关重要。除了明确的军事用途之外,艾伦还引用联合人工智能中心使用Project Maven来使Maven适应人道主义倡议,“帮助急救人员识别野火和飓风中的物体”。

发表评论
留言与评论(共有 0 条评论)
   
验证码:

相关文章

推荐文章

'); })();