日期:
来源:DeepTech深科技收集编辑:Melissa Heikkilä
上周,人工智能圈内人士就埃隆·马斯克 (Elon Musk) 和各行业重量级人物签署的一封公开信展开了激烈辩论。这封公开信认为,人工智能正在对人类构成“生存风险”,因此他们呼吁人工智能实验室在六个月内暂停开发任何比 GPT-4 更强大的技术。我同意这封信的批评者的观点。他们担心,过于关注未来的风险会分散我们对人工智能目前已经造成的真实危害的注意力:带有偏见的系统被用来对人们的生活做出决定,使他们陷入贫困或导致一些人被错误逮捕;内容审核员要在巨大压力下筛选堆积如山的、可能导致精神创伤的人工智能生成内容,而他们的薪水最低仅有每天 2 美元;人工智能大语言模型使用了如此多的算力,以至于它们成为了不可忽视的气候污染源。但是,今天匆匆推出的许多人工智能系统,将在不久的将来造成另一种完全不同的破坏。我最近发表了一篇文章,阐述了人工智能大语言模型可能被滥用的一些方式。在最糟糕的情况下,滥用它是非常简单的,既不需要编程技能,也没有已知的修复方法。例如,对于一种被称为“间接提示注入(indirect prompt injection)”的攻击而言,攻击者要做的仅仅是通过特殊定制的文本,将提示隐藏在网站或电子邮件中,包括在白色网页背景下使用白色文本,让人类肉眼无法轻易看到。这样做的后果是,攻击者基本上可以命令人工智能模型做任何他想实现的事。更糟糕的是,科技公司正在将这些存在严重缺陷的人工智能模型嵌入到各种产品中,从生成代码的程序,到可以查看私人电子邮件和日历的虚拟助手。在这样做的过程中,他们正在将用户送往一个由人工智能驱动的,但却充满漏洞和骗局的互联网世界。苏黎世联邦理工学院从事计算机安全和隐私研究的计算机科学助理教授 Florian Tramèr 认为,一旦允许这些语言模型从互联网上提取数据,黑客就有能力将它们变成“催生垃圾邮件和钓鱼网站的超强引擎”。我来简单讲一下这背后的原理。首先,攻击者会在一封电子邮件中隐藏自己的恶意提示,这封邮件将由人工智能驱动的虚拟助手打开。然后,攻击者的提示可以要求虚拟助手向攻击者发送受害者的联系人列表或电子邮件,或者将攻击传播到受害者联系人列表中的每个人,从而实现更广泛的传播。与今天的垃圾邮件和诈骗邮件不同,人们必须点击链接才可能被骗——这些新型攻击将是肉眼不可见的,而且是自动化的,受害者可能完全察觉不到。如果虚拟助手可以访问银行或健康数据等敏感信息,这将是一场灾难。能够改变人工智能虚拟助手的行为方式,意味着人们更有可能被诱骗,进而批准那些看起来非常真实的交易,但实际上很可能是攻击者的障眼法。使用集成了人工智能模型的浏览器上网和搜索也会有风险。在一项测试中,研究人员设法让微软必应聊天机器人生成一段文本,看起来就像是一名微软员工在销售打折的微软产品,但真实目的是获取上当的人的信用卡信息。想要激活这场骗局,甚至不需要使用必应搜索的用户做任何事情,只要访问了这个带有隐藏提示注入的网站就可以。还有一类风险甚至出现在这些模型被部署之前。人工智能模型是根据从互联网上收集的大量数据进行训练的。这里面还包括软件错误,而 OpenAI 以一种很难堪的方式发现了这一问题。比如,当有 bug 开始泄露机器人用户的聊天记录后,该公司不得不暂时关闭 ChatGPT。该错误可能是偶然的,但该案例表明,数据集中的错误可能会造成多大的麻烦。Tramèr 的团队还发现,用刻意植入的内容“给数据集下毒”既便宜又容易,受污染的数据随后会被收集到人工智能语言模型中。某个东西在数据集中出现的次数越多,它在人工智能模型中的关联性就越强。通过在训练数据中植入足够多的恶意内容,就有可能永远影响模型的行为和输出。当人工智能语言工具被用来生成代码然后嵌入到软件中时,这些风险将更加复杂。“如果你在这些工具上构建软件,可你不知道如何处理提示注入,你就会犯下愚蠢的错误,构建一个不安全的系统,” 研究提示注入的独立研究员和软件开发者 Simon Willison 表示。随着人工智能语言模型被越来越多地采用,攻击者使用它们进行黑客攻击的动机也在增加。面对这场注定到来的凛冽风暴,我们似乎毫无防备。支持:Ren
原文:
https://www.technologyreview.com/2023/04/04/1070938/we-are-hurtling-toward-a-glitchy-spammy-scammy-ai-powered-internet/
运营/排版:何晨龙