服务粉丝

我们一直在努力
当前位置:首页 > 财经 >

当企业纷纷部署AI,你需要了解它的道德风险

日期: 来源:哈佛商业评论收集编辑:HBR-China


许多企业已经认识到人工智能(AI)道德风险计划的商业需要。不计其数的新闻报道——从出错的和歧视性的面部识别到侵犯隐私,再到造成生活改变之后果的黑箱算法——都称其已列入董事会、首席执行官(CEO)以及首席数据与分析官的工作日程。然而,多数领导者不明白的是,解决这些风险需要提高整个企业对这些风险的认识,而那些明白这一点的领导通常不知道如何推进。

对于使用AI的企业来说,这需要成为头等要务。超过50%的高管报告称,鉴于公司目前在识别和减轻AI风险方面的准备水平,他们对其企业中AI的道德和声誉风险表示“重大”或“极端”担忧。这意味着制定一个人人都参与的AI道德风险计划成为部署AI的必要之举。如果做得好,提高意识既可以降低战术层面的风险,也有助于成功实施更全面的AI道德风险计划。

树立这种意识通常可以分为三个重要问题。

首先,采购官员是AI道德风险的最大——也是最受人忽视的来源之一。

AI供应商几乎将产品销售到你公司中的每一个部门,尤其是人力资源、营销和财务部门。比如,如果你公司人力资源部的采购官不知道如何提出正确的问题来审查AI产品,那么他们可能会在招聘过程中带来歧视受保护亚群体的风险。

其次,高管通常不具备发现自己企业AI道德缺陷的必要知识,从而使公司在声誉和法律上均面临风险。比如,如果一个产品团队准备部署AI,但首先需要一位对该产品的道德风险知之甚少的高管的批准,那么品牌的声誉(更不用说那位高管)可能会面临极高的风险。

第三,AI道德风险计划需要学识渊博的数据科学家和工程师。如果他们不了解AI的道德风险,他们要么无法理解计划中明确表述的新职责,要么可能理解这些职责,但却无法理解其重要性,这反过来导致他们不认真对待这些职责。另一方面,如果你的企业了解AI的道德、声誉和法律风险,他们就会理解实施一项跨组织系统解决问题的计划有多重要。

创建这种跨组织的意识需要付出努力。它需要传达统一的信息,但这一信息会针对每个群体具体关注的问题加以调整。毕竟,最高管理层的关注点和责任与产品所有者和设计师不同,而产品所有者和设计师的关注点和责任又与数据科学家和工程师不同——用同一种语言对所有人说话,其结果是没有对任何人说话。信息不能肤浅,否则会导致人们认为AI道德要么是公共关系问题,要么是小众问题。它需要一个明确的最高层领导负责设计并监督执行一种能提高全公司意识的战略——如果信息不是来自最高层,这一问题就得不到认真对待。以下是企业应该开始着手的地方。


如何树立意识——并获得认可


确保每一位员工都了解风险,人人感觉企业内AI的成功有自己一份功劳,这一点至关重要。他们不仅需要意识到这些问题存在,而且还需要知道这些风险如何影响他们的特定工作,以及这如何符合他们的工作职责要求。人力资源部的人知道他们需要雇用适合这份工作的人以及这事可能会给人什么感觉,同时还能意识到AI的道德风险,这是一回事。而要让那个人认识到尽心履职包括要求招聘软件的AI供应商提供必要资料,证明他们如何识别和减少他们AI中的偏见,从而将识别和减少这些风险视为其工作的一部分,这又是另一回事。

以下是你可以采取的六种措施,以便以正确的方式树立企业意识并获得认可。

1. 消除对AI和AI道德的恐惧

企业面临的一个障碍是,IT之外的人可能会被这个话题吓住。“人工智能”“机器学习”和“歧视性算法”看上去可能就像令人生畏的概念,导致人们完全回避这个话题。对于树立企业意识一事,至关重要的是,人们对这些概念(如果不是技术基础的话)要熟悉并应对自如。

从某种意义上说,具备基本的AI素养并不十分困难。毕竟,机器学习本质上就是通过样本学习,这是每个人都熟悉的。同样,因为没有足够的例子而不擅长某件事也是大家都熟悉的。如果你正在向人们通报歧视性算法可能是如何创建的,你可以解释说,有些是由于软件没有足够的样本可供学习,因此软件会出错(比如,你的面部识别软件没有足够的黑人女性面部样本,导致该软件在辨识黑人女性面孔方面非常糟糕)。更普遍而言,AI的许多道德风险及其各种来源可以向非技术受众明确说明,并使员工树立处理这些问题所需的信心。

要求你的人力资源和营销部门员工基本熟悉AI的工作原理以及AI道德风险的产生过程似乎是一项艰巨的任务。然而,多数企业围绕网络安全风险已树立了大量的认识,而网络安全风险也需要具备网络安全知识。在公司致力于实现这一目标之前,这或许看似一件几乎不可能的事。但是,如果你的员工不懂得基本知识,他们就不知道在关键时刻问正确的问题(例如向AI供应商提问)。

2.针对你的受众调整你的沟通方式

视自己为品牌声誉管理员的高管对避免威胁品牌声誉的危险很感兴趣。对他们来说,用“道德和声誉风险”的语言说话对于让他们看到AI道德与他们的关注点和责任具有相关性十分重要。另一方面,相比于规避风险,产品设计师更关心的是制造“酷”和有用的产品。解释AI道德如何通过设计改进其产品是一种非常有效的方式来接触受众,尤其是对于越来越多受价值观驱动的消费者和公民而言。最后,数据科学家和工程师需要强劲有效的模型。讲他们的语言意味着解释有偏见的算法和黑箱问题如何降低了这种工具的效力以及/或者这种工具的采用。没有人希望建立一个不准确或未用过的模型。

提供每个受众都能联想到的AI出错的例子和故事也很重要。这不仅仅需要牵涉公关危机,还可能包括,比如,亚马逊无法充分减少其AI驱动的招聘软件中的偏见,令人钦佩的是,这导致亚马逊终止了该项目,而不是部署可能对求职者和品牌有害的东西。此外,在可能的范围内,你应该使用自己行业的特有事例。以下情况确实存在,也就是说,AI已经意识到医疗服务中的某些道德风险,但如果你是在与一家金融科技公司的成员交谈,员工会更多联想到的是某同行公司的故事。

3. 将树立企业意识的努力与你公司的使命或宗旨联系起来

如果你的企业文化中已植入了你的使命/宗旨,那就请将你针对AI道德的讨论与此结合起来。要解释AI道德/道德风险管理是对这一使命的进一步延伸,是在你追求使命的过程中围绕你(不)愿意做之事的一套护栏。

比如,你的使命可能是提供最好的理财建议,但你只有在人们信任的前提下才能提供这种建议,而如果你在部署AI时疏忽大意,人们就无法信任你。当AI出错时,它会大规模出错,因此要向你的企业传达,提供最佳理财建议的部分工作就是必须保护你的客户,而保护客户的部分工作需要部署有道德的、负责任的或值得信赖的AI,AI道德不再被视为与运营相关联的东西。相反,你要传达的是,它是对你的使命和核心价值观的进一步延伸。

4. 以可操作的方式定义AI道德在你企业中的意义

声称你“赞成隐私”或你“尊重隐私”是一回事,而对其做点实实在在的事又是另一回事。为确保你的AI道德价值承诺不被人视为仅在公关,请将这些承诺与道德护栏联系起来,比如“我们永远不会将您的数据出售给第三方”或“对于与第三方共享的数据,我们始终会进行匿名化处理”。

如果你有一份精心拟定的AI道德声明,那它要包括那些起双重作用的护栏。首先,它们会向你的团队传达你针对AI道德风险正在做(或计划要做)的事情。其次,它会立即传达出:这不是公关或含混模糊的东西。当价值观以一种与行动相联系的方式表达和传达时,这些传达出的信息就是可信且令人难忘的。

一种让你的受众明白AI道德何以不模糊且可以执行的方法是解释医疗服务中面临的非常真实和棘手的道德问题,以及他们解决这些问题的方法。与此相关的是,你可以讨论医疗行业如何将道德风险的消减纳入基础设施和流程中,以便让他们能够看到此事可以做到。

5.邀请各职能部门受信任和有影响力的成员加入你的努力

微软等一些企业已经建立了一个“AI道德捍卫者(AI Ethics Champions)”系统。这是一些在整个企业中负责提高团队的AI道德风险意识的人。AI道德捍卫者计划的一个重要特点是,它赋予那些已经获得团队信任和支持的领导者权力。此外,他们比首席学习官或首席数据官或负责企业意识战略的任何人更了解各自的团队。

6. 持续教育

树立企业意识不是你在周三下午或周末休息时做的事情。它需要来自内部和外部的演讲家、研讨会、时事通讯等持续、多样的接触点。事实上,AI和新兴技术通常在发生快速变化和演变,伴随这些变化而来的是新的道德风险源。为了确保你的企业不会落后太多,不断教育员工将是抵挡不断高涨的技术进步浪潮的重要屏障。

企业领导者们明白,弄清如何以安全且道德的方式开发、采购和部署AI对于持续增长和保持竞争优势至关重要。重要的是,这一目标不能与数据科学家和工程师要实现的技术目标混为一谈。负责任地部署AI——无论是用于内部还是外部目的——都需要意识到AI的道德风险以及企业对降低这些风险的战略的认同。

碧娜·阿马纳特(Beena Ammanath)里德·布莱克曼(Reid Blackman) | 文   

碧娜·阿马纳特是全球性的德勤AI研究所(Deloitte AI Institute)执行董事,也是非营利机构Humans For AI的创始人,同时也是德勤可信和道德技术的负责人。里德·布莱克曼博士是道德风险咨询公司Virtue的创始人和CEO。他与诸多企业合作,将道德风险消减整合到新兴技术产品的开发、部署和采购中。

刘隽 | 编辑




精品推荐




思考这5个问题,让你的判断力上一个大台阶


员工的心理安全感,究竟来自哪里?


看看这七种风格,你就知道领导者之间的差距有多大


《哈佛商业评论》中文版 联系方式

投稿、广告、内容和商务合作

newmedia@hbrchina.org

相关阅读

  • 当你做出了错误的决定,该如何挽救?

  • 当我们做出了一个错误决定时,承认这一点可能十分痛苦。也许你雇错了人,或者接受了一份不合适的工作,或者推出了一个似乎无人需要的新产品系列。态度乐观并认为成功就在眼前是人
  • 达尔维什:来自巴勒斯坦的情人

  • 马哈茂德·达尔维什(Mahmoud Darwish,1941—2008),巴勒斯坦的伟大诗人,在阿拉伯世界家喻户晓,在世界诗坛也享有盛誉,曾多次获奖。达尔维什一生共出版二十部诗集和八部散文集,他的诗
  • 【冷兔•槽】每日一冷NO.3622

  • 冷兔槽,能怪别人的,尽量别怪自己,对得起自己就好, 剩下的就交给报应吧!微博@羊崽打工日记上班和朋友聊天的高频词汇:1.烦死了 2.我跟你说3气死我了 4.无语死了5.好饿 6.好困 7.吃
  • 在上海,有孩子,攒多少存款才敢提前退休

  • 文|十三姐公众号|格十三不知大家这两天有没有注意到这个话题:这位宣布提前退休的女士说,夫妻俩前阵子都失业了,后来发现他们把钱拿出一部分炒股或买基金,每月理财收入也能有1万,这
  • 领导者和管理者的3大关键区别

  • 新晋管理者,怎样判断自己是否已经成为优秀的领导者?或者,再进一步,要成为领导者,管理者有哪些要跨越的重要台阶?Sampark基金会创始人魏尼特·纳亚尔(Vineet Nayar)曾经在《哈佛商
  • 卫哲:为什么说新消费必须“反过来做”?

  • 用户需求变化越来越快,消费公司怎样才能持续走在市场前面,怎样抓住年轻人群?又怎样维护好核心用户?今天与你分享嘉御资本董事长卫哲的一份新消费观察。卫哲曾任阿里巴巴公司总裁
  • 阳志平:人生发展的三个小道理

  • 开智君说人生发展中,我们很容易陷入误区。有些我们能慢慢识别,有些极其微小,可能长期深陷其中都不自知。下文,阳志平老师总结了他观察到的人生发展中常见的三大误区。你中招了吗

热门文章

  • “复活”半年后 京东拍拍二手杀入公益事业

  • 京东拍拍二手“复活”半年后,杀入公益事业,试图让企业捐的赠品、家庭闲置品变成实实在在的“爱心”。 把“闲置品”变爱心 6月12日,“益心一益·守护梦想每一步”2018年四

最新文章

  • 当企业纷纷部署AI,你需要了解它的道德风险

  • 许多企业已经认识到人工智能(AI)道德风险计划的商业需要。不计其数的新闻报道——从出错的和歧视性的面部识别到侵犯隐私,再到造成生活改变之后果的黑箱算法——都称其已列入
  • 追求稳定的年轻人,有错吗?

  • 颠覆性创新的观点认为,最成功的创新,是那些能开辟新市场和重新构建价值网络的,这种创新往往具有颠覆性。对于个人来讲,同样如此。如果你已达到某个高峰,并且你怀疑自己将不会因爬
  • 向2023要增长之前,如何找到增长的“解法”?

  • 过去的三年,我们深刻体会了“ VUCA 时代”“黑天鹅”以及各种不确定给商业增长带来的冲击和影响,也寻找到了更多确定性为增长厘清方向。站在 2023 年开端:如果给商业环境做一个
  • 特别策划 | 产品种草,不确定时代的突围之道

  • 这是品牌的好时代,借助成熟的渠道、供应链、物流和品牌营销,每一年都有很多新品牌不断涌现;这也是一个对品牌提出新挑战的时代,新品牌持续诞生,让几乎每一个赛道都迅速从蓝海进入
  • 谷歌的地位,会被ChatGPT彻底动摇吗?

  • 当下,尽管ChatGPT和生成式AI被炒得火热,但这类工具在达到谷歌等老牌搜索引擎的规模、稳健性和可靠性之前,还需要在实践、技术和法律层面克服重大的难题。ChatGPT已经引起一波热