AI有很大的隐私问题,欧洲新的数据保护法即将揭开它的面纱

DAVID MEYER 2018年5月25日

“人工智能”技术现在正处于一个新的阶段,但它即将遭遇一个重大的阻碍:欧洲新的通用数据保护规则(GDPR)。

《隐私法》于星期五在欧盟生效,有几项内容将使公司建立机器学习系统的生活非常困难。

“大数据完全反对数据保护的基础,”苏格兰格拉斯哥斯凯莱德大学的法学教授Lilian Edwards说。“我认为人们一直在说我们可以使两者和解,因为这很困难。”

问题就在这里。机器学习是我们称之为人工智能的基础,包括逐步改进自我的算法。他们通过夸耀数据来做到这一点。他们消耗的越多,他们就越能发现模式:语音模式使得机器人更像人;视觉模式帮助自主汽车系统识别道路上的物体;客户行为模式训练银行的AI系统以更好地发现欺诈行为。

一直以来,算法的发展超出了对创建它们的人的理解,并且数据以新的和神秘的方式与其他数据结合。

现在让我们看一下GDPR,它说:

当他们收集个人数据时,公司不得不说它将被用来做什么,而不是用它来做其他事情。

公司应该尽量减少他们收集和保存的数据量,将其限制在那些必须严格限制的数据上。

公司必须能够告诉人们他们持有什么样的数据,以及用它做什么。

如果要求的话,公司应该能够改变或删除人们的个人数据。

如果个人数据被用来对人做出自动决策,公司必须能够解释决策过程背后的逻辑。

看到问题了吗?

“大数据挑战目的限制,数据最小化和数据保持-大多数人从来没有摆脱它与大数据,”爱德华兹说。“它挑战透明度和同意的概念,因为你不能合法同意而不知道你同意什么目的…算法透明度意味着你可以看到决策是如何达到的,但是你不能使用[机器学习]系统,因为它不是基于规则的S。杂技。”

根据教授的说法,这个问题变得更为复杂,因为公司利用人们的数据推断出敏感的个人数据,其中包括性和政治和宗教信仰之类的东西,在GDPR下得到了更强有力的保护。

通常情况下,GDPR为公司提供了其他法律上的正当理由,它们可以用来处理人们的数据,例如需要使用这些数据来提供核心服务。但是,在这种敏感数据的情况下,人们必须对其处理给予明确的同意。

如果是敏感数据,那就是“走出监狱自由卡”。爱德华兹说,人们试图摆脱它的另一种方式是说,“我们不是在处理个人数据,因为我们是匿名的。”“但是如果你把足够大的数据与其他大数据相结合,你就能重新识别几乎所有的人。它不适合于GDPR中匿名数据的定义。现在的定义是,如果你可以用你所拥有的数据把人单挑出来,那么你就有了个人数据。”

如果你的机器学习系统充满了个人数据,那么在GDPR下,必须把信息从混合中拉出来,改变它,限制它做了什么,并解释系统是如何工作的。

爱德华兹说:“公平地说,我正在和那些试图制造可解释系统的人合作,但目前它仍然很有学术意义。”

发表评论
留言与评论(共有 0 条评论)
   
验证码:

相关文章

推荐文章

'); })();