澳大利亚国家科学机构(CSIRO)的数字专家组开发出了与预防疾病疫苗相同的编程技术,可以保护机器学习系统免受恶意网络攻击。
最近在美国加利福尼亚州长滩举行的机器学习国际会议上发表这份研究报告。
机器学习系统或神经网络在现代社会中变得越来越普遍,在现代社会中,它们被广泛应用于交通管理,医疗诊断和农业等领域,它们也是自动驾驶汽车的关键部件。
神经网络是一种模仿生物神经网络,比如动物的中枢神经系统的结构和功能的数学模型或计算模型,用于对函数进行估计或近似。神经网络由大量的人工神经元联结进行计算。大多数情况下人工神经网络能在外界信息的基础上改变内部结构,是一种自适应系统,通俗的讲就是具备学习功能。
然而,尽管它们是高效的,像任何计算机驱动的机制一样,神经网络仍然容易受到黑客攻击。发生这种情况的主要方式是引入“噪声”,比如干扰和扭曲输入信号的附加数据点,这样外部元素就会被错误分类。
该方法在专业术语中称为将“对抗性示例”引入系统。通过添加噪声(并且通常不是非常大的噪声),可以将机器学习算法误导为将熊猫的图像分类为长臂猿的图像。
更有针对性的是,鉴于自动驾驶汽车的兴起,这种技术可以被黑客利用,用来攻击自动驾驶,可将自动驾驶汽车把停车标志归类为绿色交通灯。
使机器学习系统具有抗破坏性是一个新兴的研究领域。最近的研究发现,神经网络并非很难攻击。
由澳大利亚国家科学机构理查德·诺克(Richard Nock)领导的研究团队采用的最新方法,从公共卫生中获得了启发,提出了神经网“疫苗”概念。
在医学上,接种疫苗是将身体的免疫系统暴露于病原体的弱或死版本,例如导致流感或脊髓灰质炎的病毒,从而促使特定抗体的发展。然后免疫系统“记住”病原体,以便下次遇到它时 会识别它并立即消除它。
诺克和同事以同样的方式设计神经网络“疫苗”。他解释道:“我们的新技术使用类似于疫苗接种的过程来防止对抗性攻击。我们实施病毒的弱版本,例如对图像集合的小修改或失真,以创建更”困难“的训练数据集。当算法针对暴露于小剂量失真的数据进行训练时,得到的模型更加强大并且不受对抗性攻击。“
该方法仍处于早期阶段,尚未在真实情况下针对真正的恶意入侵企图进行测试,但结果很有希望。
留言与评论(共有 0 条评论) |