Google承诺不会将AI用于武器或监视

在2018年5月8日的文件照片中,谷歌首席执行官Sundar Pichai在加利福尼亚州山景城的Google I / O会议上发表讲话。

谷歌承诺,它不会在与武器或监视有关的应用程序中使用人工智能,这是新套件的一部分旨在管理它如何使用AI的原则。由Pichai发布的这些原则使Google能够构建“有益于社会的”AI应用程序,避免造成或加强偏见并对人员负责。(Jeff Chiu /美联社)

谷歌周四表示,它不会在与武器有关的应用程序中使用人工智能,也不会在违反国际规范的监视或违反人权的行为中使用人工智能。使用人工智能播种道德标志,不会与美国军方续签合同,包括利用其AI技术分析无人机镜头。

谷歌首席执行官Sundar Pichai在一篇博客文章中阐述了这些原则,该公司承诺建立“有益于社会的”AI应用程序,避免造成或加强偏见,并对人员负责。

报道:谷歌不会与五角大楼续签使用人工智能的合同

谷歌不会与五角大楼续签合同,该合同提供该公司的人工智能算法来解释视频图像,并改善无人机打击的目标的能力。

这家搜索巨头多年来一直在围绕这些道德问题制定一系列政策,但最终还是以书面形式写下了这些政策。除了公开原则之外,Pichai没有具体说明谷歌或其母公司将如何对其遵守责任。他还表示,谷歌将继续与政府和军方合作,参与退伍军人医疗保健和搜救等非战斗应用。

文化冲突?也许。但谷歌也放弃了Maven,因为它的员工拥有这个信息。

“这种方法与我们早在2004年创始人的信中所阐述的价值是一致的,”Pichai引用这份文件时指出,Larry Page和Sergey Brin提出他们的愿景是“组织世界的信息并使之成为现实普遍可及和有用”。Pichai表示,最新的原则有助于从长远的角度来看“即使这意味着短期的权衡。”

该文件还载入了AI系统工作的“相关说明”,为Duplex的推出奠定了基础,Duplex是一款人性化的数字礼宾服务,在5月的Google开发者大会上与人类接待员预约约会。

一些伦理学家担心,呼叫接受者可能被误认为机器人是人类。谷歌曾表示Duplex将确定自己的身份,这样就不会发生。其他领先开发人工智能的公司也在努力解决道德问题:包括苹果、亚马逊、Facebook、IBM和微软,这些公司已经与谷歌组建了一个名为人工智能合作伙伴关系的组织。

确保公众参与对话非常重要,合伙人董事Terah Lyons说。在周二召开的麻省理工学院技术会议上,微软总裁布拉德史密斯甚至对政府监管表示欢迎,并称“不应该让开发人员或私人部门独自留下人工智能”,这具有“根本性影响力”。

Google的Project Maven和美国国防部受到公司员工的关注,他们担心公司的方向。一位公司高管本周告诉员工,该计划将于2019年底到期后不再续用。谷歌预计将与五角大楼就如何在不违反周四概述的原则的情况下履行合同义务进行谈判。

国际机器人武器控制委员会副主席Peter Asaro本周表示,Google对该项目的支持是个好消息,因为它减缓了人工智能对自主武器系统的军备竞赛。更重要的是,让合同到期对Google的商业模式至关重要,该模式依赖于收集大量的用户数据,他说。

“他们是一个非常了解公众意识的公司,”他说。“他们希望人们信任他们并用他们的数据信任他们。”

-END-

发表评论
留言与评论(共有 0 条评论)
   
验证码:

相关文章

推荐文章

'); })();