服务粉丝

我们一直在努力
当前位置:首页 > 财经 >

基于差分隐私的联邦学习数据隐私安全技术

日期: 来源:信息安全与通信保密杂志社收集编辑:Cismag





摘  要:联邦学习方法在大数据时代有效解决了“数据孤岛”问题,也在一定程度上保障了数据隐私安全。然而,联邦学习的许多方面仍面临隐私风险。首先归纳总结了联邦学习面临的常见隐私威胁,并针对不同类型的隐私威胁归纳出对应的隐私保护措施;其次重点针对差分隐私方法进行了探讨,归纳总结了一些差分隐私的实现方法;最后基于差分隐私设计了一种适用于联邦学习系统的隐私保护手段。

内容目录:

1 联邦学习概述

1.1 联邦学习的定义

1.2 联邦学习的分类

2 联邦学习面临的隐私威胁

2.1 联邦学习中的隐私威胁

2.2 模型提取攻击

2.3 模型逆向攻击

3 防御隐私威胁的措施

4 差分隐私方法概述

4.1 差分隐私的基本定义

4.2 差分隐私的敏感度分析

4.3 差分隐私的实现方法

5 利用差分隐私保护联邦学习系统安全

5.1 联邦学习服务器对隐私安全的保障

5.2 联邦学习参与方对隐私安全的保障

5.3 实验分析

6 结  语

随着大数据技术日益发展,数据泄露、数据非法访问、数据篡改等数据安全问题越来越受到世界各国的关注,对用户数据的隐私和安全日益严格的管理将是世界趋势。联邦学习(Federated Learning,FL)是一种分布式机器学习策略,通过学习从多个分散的边缘客户端所掌握的训练数据来生成全局模型,有效解决了“数据孤岛”问题。随着联邦学习技术的发展,联邦学习在保护用户训练数据、实现数据“可用不可见”的基础上,获得了性能上较大的提高,并越发接近数据集中式学习的性能 。

训练高精度的联邦学习模型需要大规模、高质量的数据支撑,而高质量数据的数据采集、数据清洗和数据标注等预处理工作需要投入高昂的人力、物力,且由于联邦学习中各方数据难以直接获取,联合建模需要多方协调配合,因此联邦学习任务本身需要较高的商业成本。因此,隐私保护是联邦学习系统尤为重要的一个话题。隐私攻击是联邦学习系统面临的一个主要威胁,恶意攻击者窃取用户原数据或训练好的模型参数等隐私信息,发起隐私攻击,将会危害联邦学习模型的机密性(Confidentiality)。

联邦学习一经提出,便备受关注。国内外已有大量针对联邦学习中隐私保护技术的性能、安全隐患及其缺点的研究。早在 2018 年,Rahman便指出了联邦学习中对全局更新贡献较大的参与成员,以及近似推理了原始训练数据。Geiping 等人  指出了在联邦学习更新过程中,能够从产生的梯度信息近似推理并重构出客户端的原始训练数据。Mothukuri 等人在不干涉本地训练过程的前提下,运用成员推断攻击,并通过篡改其在通信过程中传输的梯度,减弱了全局模型的效能。

本文主要针对联邦学习可能面临的安全和隐私威胁进行分析,着重阐述隐私安全问题,总结了一些防御措施。在这些防御措施中,本文重点对差分隐私进行介绍,分析其隐私安全性能,以期进一步减小联邦学习系统中的隐私风险。此外,还利用基于拉普拉斯机制  的差分隐私算法设计了一个联邦学习的隐私保护方法,并通过实验分析了该方法对模型性能的影响。

1

联邦学习概述

联邦学习是一种分布式机器学习算法,但在学习过程中,各个参与方不会共享自身的训练数据,每个联邦学习利用多个计算节点进行联合训练,旨在提高性能、保护隐私信息,并使其可以扩展到更大规模的训练数据和更大规模的模型。联邦学习打破了“数据孤岛”,实现了数据隐私保护和共享分析的平衡,即“数据可用不可见”的数据应用模式。

1.1 联邦学习的定义

联邦学习中的角色主要包括客户端(参与方)和服务器。假设有 k 个客户端参与了联邦学习,第 i 个客户端为所拥有的训练数据集为本地模型为联邦学习的目标是从所有训练数据组成的数据集中训练出一个全局模型目前联邦学习系统中常用的聚合策略包括联邦平均(Federated Averaging,FedAvg)和联邦随机梯度下降(Federated Stochastic Gradient Descent,FedSGD)等。然而,不同于直接利用数据集 D 本身来训练一个中心化模型在 联 邦 学 习 中, 第 i 个客户端不能访问数据集假设模型的效果为 V,则联邦学习系统的优化目标为:

式中:为某种范数或距离度量。

一般地,基本的联邦学习系统至少包括初始化(分发全局模型)、本地更新和全局聚合 3 个步骤。

1.2 联邦学习的分类

联邦学习系统中,每个参与方只拥有其本地的训练数据集并且这些数据集在样本空间和特征空间上有不同程度的重合,造成了联邦学习系统进行学习的依据不同。根据学习依据,联邦学习系统分为横向联邦学习、纵向联邦学习和联邦迁移学习 3 类。

横向联邦学习按照样本空间对数据集进行划分,并取出特征相同而样本不同的部分来进行训练。纵向联邦学习与横向联邦学习相反,是根据特征分布来进行学习的。联邦迁移学习适用于参与方的数据集中特征空间和样本空间重叠都很少的情况。联邦迁移学习中,不对数据进行切分,而是利用迁移学习的方法来解决数据及标签不足的问题。

2

联邦学习面临的隐私威胁

尽管联邦学习系统中各个参与方的训练过程是独立进行的,且没有原始训练数据的传输,可以保证一定的隐私安全,但这并非绝对安全的。恶意的参与方可以从更新信息中推理出较为活跃的成员信息,甚至可以重构训练数据。

2.1 联邦学习中的隐私威胁

联邦学习中的参与方往往容易受到模型提取攻击 和模型逆向攻击这两大类攻击。联邦学习系统中一般假定服务器端是非恶意的,但这样的假设不能防范“诚实但好奇”(Honest but Curious)的服务器,这类服务器端虽然确实完成了应有的聚合任务,不会对模型性能发起攻击造成破坏,也不会破坏模型的可用性,但是会尝试窃取参与方本地数据集中的数据,破坏参与方数据的机密性,威胁数据参与方的隐私安全。

2.2 模型提取攻击

在模型提取攻击中,攻击者试图窃取模型的参数、超参数等,破坏了模型的机密性。

一般而言,模型提取攻击中,攻击者试图构建一个与原模型相似的替代模型。因为攻击者缺少对模型结构的了解,所以此类攻击一般为黑盒攻击。首先,攻击者利用一组数据对 被 提 取 的 模 型 发 起 查 询 操 作, 并 获 得 查 询 结果由 此 构 造 出 一 个 训 练 数 据 集其次,攻击者将利用数据集 D 来训练替代模型,直到替代模型的效果达到了攻击者的预期。模型提取攻击的基本原理如图 1所示。

图 1 模型提取攻击的基本原理

在实际应用过程中,联邦学习模型的训练代价与成本都是较高的,而模型提取攻击使得攻击者能够以极低的训练代价获得一个与原始模型性能相近的替代模型,严重损害了联邦学习参与方的隐私安全和商业利益。

2.3 模型逆向攻击

在模型逆向攻击中,攻击者一般试图通过在训练完毕的模型中不断地查询,获得一些统计信息,进而推理出用户的隐私信息。根据攻击者推理的信息,可以将模型逆向攻击分为属性推理攻击(Property Inference Attack,PIA)和成员推理攻击(Member Inference Attack,MIA)。在属性推理攻击中,攻击者的目标在于判断参与方的训练数据集中是否含有某个特征。在成员推理攻击中,攻击者的目标在于判断某一条数据记录是否包含在参与方的训练数据集中。

除上述推理攻击,近几年一些基于生成对抗网络(Generate Adversarial Networ,GAN)的推理攻击也成为一种较常见的逆向攻击的手段。

3

防御隐私威胁的措施

联邦学习的隐私防护工作需要从参与方和服务器两大主体分别进行。从原理上来看,多数联邦学习隐私安全的方法都是基于密码学的。

基于密码学的联邦学习隐私安全方法主要包括安全多方计算 、同态加密 等,主要用于模型训练阶段的隐私保护,可以防御一些模型逆向攻击。这些方法可以用来防御恶意的或“诚实但好奇”的参与方和服务器端,且在传输信息被截获的条件下,仍然能从密码方面保障安全。这些保护措施的安全性主要体现在密码学算法的安全性,同时需考虑密码学算法的时空效率。

另外有一些不基于密码学的隐私安全方法,例如差分隐私(Differential Privacy,DP),主要用于模型训练完毕后的隐私保护,其可以通过加噪的方法防御一些模型提取攻击和推理攻击。这些保护措施的安全性的高低主要体现在能否使得明文信息能够推理出尽量少的敏感信息。

4

差分隐私方法概述

4.1 差分隐私的基本定义

在介绍差分隐私的定义之前,首先介绍邻近数 据 集(Adjacent Dataset) 的 定 义。设 有 两 个 数据集 D 与 D',若它们的对称差中元素的数量满足则称 D 与 D' 互为邻近数据集。

差分隐私在提出的初期,主要应用于数据库安全保护。设 f 为一个查询函数,即一个映射,可以是求和、求平均、求最值或其他查询操作,则攻击者多试图通过比较的差异来推理出数据库中的敏感信息。一个推理攻击的示例如图 2 所示。

图 2 推理攻击示例

对于邻近数据集 D 与 D',设有一随机算法 M,为该算法所有可能的输出,对于任意都有:

则称随机算法 M 满足差分隐私。式中:e 为自然对数的底数;为隐私预算。当隐私预算的值越小,随机算法 M 在 D 和 D´ 上获得相同的输出结果的概率也就越接近,所以当用户对数据集进行查询的时候,无法通过输出结果区分这条数据是来自邻近数据集中的 D 还是 D',即无法察觉到这个数据集中微小的变化。反之,的值越大,隐私保护效果也就越弱。因此,可以得出,过大的隐私预算会导致无法达到预期的隐私保护效果,过小的隐私预算虽然能达到隐私效果,但加噪力度太大容易导致查询结果完全无法使用。

若随机算法对于 D 与 D' 满足:

其中,则称随机算法 M 满足差分隐私。是一个松弛项,表示差分隐私可以接受一定程度的不满足。

4.2 差分隐私的敏感度分析

为了获知对于特定的随机算法函数 M,需要添加多少噪声才能满足差分隐私,并且需要获知该算法在当前数据集中删除一条数据引起的查询结果的最大改变量。差分隐私算法有两种敏感度,分别是全局敏感度(Global Sensitivity)和局部敏感度(Local Sensitivity)。

4.2.1 全局敏感度

设一映射其输出为 d 维实向量,则全局敏感度定义如下:

全局敏感度为一个范数定义的表达式,由函数本身决定,而和 D 与 D' 无关。当全局敏感度较小时,只需要添加较小的噪声,就能使函数 M 满足差分隐私。

4.2.2 局部敏感度

由于全局敏感度较大时,需要添加强度足够大的噪声才能保证隐私安全,这可能导致数据不可用,因此 Nissim 等人定义了局部敏感度,则 f 在数据集D 上的局部敏感度具体为:

可以发现局部敏感度与全局敏感度的关系如下:

局部敏感度通常比全局敏感度要小很多,并且局部敏感度取决于映射 f 本身与原始数据集 D,然而,局部敏感度在一定程度上体现了数据集的分布特征,因此只用局部敏感度来确定噪声强度大小,仍然容易造成隐私泄露。

4.3 差分隐私的实现方法

在具体实现差分隐私时,需要根据不同的随机算法采取不同的实现机制。常见的机制包括指数机制(Exponential Mechanism)和拉普拉斯机制(LaplaceMechanism)等。

4.3.1 拉普拉斯机制

拉普拉斯机制是向确定的查询结果中加入服从拉普拉斯分布的噪声。此分布有两个参数,包括尺度参数 λ 和位置参数μ,其分布密度函数为:

将该分布记作如 向 查 询 结 果 中 添加尺度参数的服从拉普拉斯分布的噪声n 能够形成一个随机算法 M, 即则可以证明随机算法 M 提供了差分隐私保护 。其中,指的是 f 的敏感度。

一般来说,拉普拉斯机制适合数值型结果的保护。

4.3.2 指数机制

在许多应用场合,查询结果都是非数值的,例

如一个实体对象。设 r 为随机算法的输出,为一个用来评估输出优劣性的可用性函数,为的敏感度。可以证明,如随机算法 M 能够以正比于的概率输出 r,则算法 M能够提供差分隐私保护。

5

利用差分隐私保护联邦学习系统安全

在安全保护领域的隐私保护机器学习(Privacy Preserving Machine Learning,PPML)技术中,主要有两种攻击者:一种是“诚实但好奇”的攻击者,这种攻击者会诚实地遵守协议,但会试图从接收到的信息中获取更多输出结果以外的信息内容;另一种是恶意的攻击者,这种攻击者不遵守规定的协议,会试图发起任意的攻击行为。本文采用拉普拉斯机制来实现差分隐私,提出了一种差分隐私方法,并简要分析了方法的合理性。

5.1 联邦学习服务器对隐私安全的保障

为了满足以上隐私保护的目的和要求,本文在协调方发送给各个参与方的全局模型上实施差分隐私保护。在本文的联邦学习系统中,聚合算法采用联邦平均法,其表达式为:

式中:t 为全局模型更新的轮次为第 t轮次和第 t+1 轮次更新的全局模型参数;η 为全局模型更新 λ 的学习率;n 为客户端的数量;m 为当轮被选择参与本轮全局模型更新的客户端数量;为在第 t+1 迭代轮次中被选中的第 i 个参与方在本地数据训练后的本地模型;为第 t+1 迭代轮次中被选中的第 i 个参与方在本地数据训练的更新梯度。

因此,当“诚实但好奇”的参与方或是恶意的参与方对模型发起成员推理攻击,威胁参与方隐私安全和数据安全时,所要查询的就是协调方发送给各个参与方的全局更新模型所以可以得知查询函数为:

式中:为本轮全局模型更新选中的参与方的集合;

为了防止服务器发出的全局更新被攻击者推理出敏感信息,服务器将在聚合时对模型梯度添加噪声。这里采用的是拉普拉斯机制。服务器端的聚合方法如下:

其中,查询函数敏感度的一个边界为:

式中:为参与方集合的用户邻近数据集,即集合与集合 相比,有且仅有一个参与方不同;为第 k 个参与方更新梯度的范数。

由 式(10) 可 知, 因 为为 常 数, 故 只要有 界, 查 询 敏 感 度 也 会 有 界。假 如那么查询敏感度因此,在该方法中需要将参与训练的参与方更新的梯度裁剪至C 以内。裁剪方式可以表述为:

式(11) 中, 当时, 式 子 中 的 分母会取到 1,裁剪出来的梯度与裁剪前的梯度相 同, 满 足 裁 剪 边 界当时,分母的值会取到于是裁剪后的度的值就为也同样满足裁剪边界因此,该裁剪方法是合理的。

因为查询敏感度有一个上界因此,据 3.3节所述,可以向查询函数 f 中添加一个拉普拉斯分布的噪声I 为一个与 f 的输出维度相同的度量参数,S 为查询函数的敏感度边界,对于选定的该梯度裁剪算法结合拉普拉斯机制能够做到差分隐私。

5.2 联邦学习参与方对隐私安全的保障

对于一个非恶意的服务器而言,如 4.1 节所述,其隐私保护的主要目的是防御恶意的参与方或外部攻击者实施推理攻击。同样地,作为一个联邦学习参与方,也需要防范一些非善意的参与方或服务器试图破坏隐私安全的行为。因此,参与方在上传其梯度更新时,也将对梯度进行一些诸如梯度裁剪的处理,以保护其隐私安全。

对于参与方而言,通过对裁剪梯度,可以做到本地差分隐私(Local Differential Privacy,LDP)。在这种方式之下,参与方对自己上传至协调方的梯度进行扰动,对梯度进行裁剪再上传至协调方可以在协调方不受到信任的时候能够有效地对本地数据进行保护,将已混淆的数据发布至不受信任的协调方可以有效地保护参与方用户的隐私安全和数据安全。同样地,据 3.3 节所述,下列算法能够做到差分隐私。

参与方所完成的任务是训练本地模型并上传更新梯度,上传更新的算法如下:

5.3 实验分析

据 5.1 节与 5.2 节所述,算法 1 和算法 2 在理论上能够做到差分隐私。下文将分析差分隐私对联邦学习性能的影响度,这里采用的实验数据集为CIFAR-10,采用的图片分类模型为卷积神经网络(Convolutional Neural Network, CNN)的 ResNet-18网络结构。

5.3.1 收敛效率与准确率分析

本节分别对比了联邦聚合算法FedAvg和FedSGD在 加 入 差 分 隐 私 前 后 的 性 能。将 联 邦 平 均 算 法FedAvg 的参数设置为:全局模型迭代轮次(epochs)E=100,参与方总数 N=10,每轮选择参与训练的参与方数量 n=3,参与训练的用户方本地训练轮次e=3。联邦梯度下降算法 FedSGD 参数设置为:全局模型迭代轮次 E=100,参与方总人数 N=10,每轮选择参与训练的参与用户数量 n=10,参与训练的用户方本地训练轮次 e=1。基于拉普拉斯噪声的差分隐私算法的参数设置为:拉普拉斯噪声的标准差参与方上传的梯度的裁剪阈值 c=1。

实验结果如图 3 所示。由图 3 可知,图中所示训练方法的模型准确率都随训练轮次的增加而逐渐增加,最后都稳定在 75% 左右,且两种聚合算法FedAvg 和 FedSGD 的收敛速度和准确率无明显区别。同时发现,添加了差分隐私的两种联邦平均算法与不添加差分隐私的原始算法的收敛速度与准确率也无明显差距。这说明,差分隐私一般不会显著影响模型的收敛性能。

图 3 联邦聚合算法 FedAvg 和 FedSGD在加入差分隐私前后的性能对比

5.3.2 差分隐私参数的变化影响分析

本节分析的参数是隐私预算,这里通过调整拉普拉斯噪声的标准差 σ 来控制隐私预算,所用的聚合算法是 FedAvg,其参数设置为:全局模型迭代轮次 E=100,参与方总数 N=10,每轮选择参与训练的参与用户数量 n=3,参与训练的用户方本地训练轮次 e=3,参与方上传的梯度的裁剪阈值 c=1。对添加拉普拉斯噪声的大小按一定间距设置,并进行对比。

实验结果如图 4 所示。从图中可以看出,在同样的迭代轮次中,随着添加的拉普拉斯噪声标准差逐渐增大,即随着隐私预算的减小,训练模型的准确率有明显的降低。若要使联邦学习训练模型达到同样的准确率和性能大小,需要训练更多的轮次才可达到这样的效果。结合图 3 可以发现,虽然差分隐私措施对于模型的收敛性可能无显著影响,但收敛后的最优效果可能随着隐私预算的减小而出现显著损失。

5.3.3 裁剪阈值的变化影响分析

本节对裁剪阈值的变化进行分析,所用的聚合算法是 FedAvg,其参数设置为:全局模型迭代轮次E=100,参与方总人数 N=10,每轮选择参与训练的参与用户数量 n=3,参与训练的用户方本地训练轮次 e=3,模型添加的噪声对用户上传梯度的裁剪阈值按一定间距设置,并进行对比。

图 4 添加的拉普拉斯噪声的大小对联邦学习模型准确率的影响

实验结果如图 5 所示。可以发现,不同参与方上传的梯度裁剪阈值下的曲线几乎重合,即参与方上传的梯度裁剪的阈值的不同对模型的性能无显著影响,即不会显著影响模型训练的准确率和模型收敛性。

图 5 裁剪参与方上传梯度的阈值对联邦学习模型准确率的影响

综上实验结果分析表明,这里提出的差分隐私算法,除了在理论上能够保证差分隐私,也不会对被保护模型的收敛性能有显著影响。然而,拉普拉斯噪声的添加会导致模型准确率的下降,且随着噪声标准差的增大,模型准确率的下降愈发剧烈。此外,梯度裁剪方法不会对模型准确率产生显著的影响,这是因为梯度裁剪算法并没有向梯度信息中添加噪声。在简单模型和数据集上,差分隐私算法的添加也不因聚合算法的不同而显著影响模型的收敛性能和准确率。因此,可以得出,上述的联邦学习差分隐私算法在不显著影响模型准确率的前提下能实现隐私保护。

6

 结  语

本文主要研究了差分隐私在联邦学习隐私保护中的一些应用,探讨了差分隐私的不同实现机制及其适用条件。最后本文讨论了差分隐私对联邦学习系统中不同角色的应用方法,简要分析了具体算法,并得出联邦学习中差分隐私方法能够在不显著影响模型准确率的前提下实现隐私保护。

此外,联邦学习本身虽然有一定的隐私保护属性,但仍存在一定的隐私风险。在联邦学习系统中,差分隐私方法中裁剪的阈值和噪声的大小决定着对参与方本地数据隐私和用户隐私的保护强度,裁剪阈值越小则对本地数据隐私保护的强度越强,噪声大小越大则对用户隐私的保护强度越强。

引用格式

引用格式:黄精武 . 基于差分隐私的联邦学习数据隐私安全技术 [J]. 通信技术 ,2022,55(12):1618-1625.

作者简介 >>>
黄精武,男,硕士,工程师,主要研究方向为并行计算技术、机器学习、SD-WAN/EVN 等。
选自《通信技术》2022年第12期(为便于排版,已省去原文参考文献)


商务合作 | 开白转载 | 媒体交流 | 理事服务 

请联系:15710013727(微信同号)

《信息安全与通信保密》杂志投稿

联系电话:13391516229(微信同号)

邮箱:[email protected]   

《通信技术》杂志投稿

联系电话:15198220331(微信同号)

邮箱:[email protected]

相关阅读

  • 腾讯短文本对话专利获授权

  • 【环球网科技综合报道】3月20日消息,天眼查App显示,近日,腾讯科技(深圳)有限公司申请的“短文本对话方法、装置、设备及存储介质”专利获授权。摘要显示,该方法包括:获取查询文本;调
  • 大模型火爆全网,AI服务器成隐形赢家

  • 就在上周四,百度发布文心一言数据大模型,掀起全网热议。无论是ChatGPT-4还是文心一言,本质都是算法大模型带起来的AI军备竞赛,而除了这些大公司,大模型的出现还有望带动AI服务器
  • 产业调研:百度文心一言与GPT-4的差距有多大?

  • 产业调研系列近期我们有幸邀请到产业一线专家为我们解读人工智能行业的产业进展,现分享如下:Q:ChatGPT及GPT4未来有哪些典型的应用范围、使用场景,目前有什么样的进展,能否给我们
  • 230319 人工智能360 周鸿祎交流

  • Q:上游哪些场景很关键?A:算力不是最关键的问题,场景和数据是关键。我们二线队伍,账上200多亿人民币,之前国家搞了很多超算中心,没事情干,现在发现配了GPU就有东西看。Transformer算
  • ChatGPT会否替代股票分析师?

  • 点击蓝字 关注我们引 言ChatGPT刚刚一问世,就惊艳了世界。大家纷纷惊呼,人工智能的大时代要来了。我们做投资的也很好奇,ChatGPT这样的人工智能技术,对我们投资有什么样的帮助?特
  • 文心一言:难以理解上下文,及一个猜测

  • 在针对单个问题回答时,文心一言是表现不错的。不过有朋友提出了质疑:第一个是:如果按照同样的问题,在百度搜索上检索也能得到,那这个是不是意义就小多了?第二个是:文心一言似乎对上
  • 大力出奇迹的LLM模型

  • 周末一大早,睡眼惺忪的时候,就被学妹拉到了她的中科院校友会兴趣群里。博士、科学家们创建了个GPT兴趣群,学妹知道我现在正在夜以继日的试图跟上AI的进化,顺手拉了我一把。
  • 大白话聊 ChatGPT 播客发布了,欢迎收听

  • 上一周我和 Sarah 一起制作的播客节目《【大白话系列 #3】大白话聊 ChatGPT(Sarah & 王建硕)》已经上线了。大家可以扫码下面的二维码,在小宇宙中收听。Sarah 的问题一如既往的

热门文章

  • “复活”半年后 京东拍拍二手杀入公益事业

  • 京东拍拍二手“复活”半年后,杀入公益事业,试图让企业捐的赠品、家庭闲置品变成实实在在的“爱心”。 把“闲置品”变爱心 6月12日,“益心一益·守护梦想每一步”2018年四

最新文章

  • 一种信息系统免疫安全防护架构

  • 摘 要随着网络的快速发展,各类社会活动的信息化日益普及,但是网络安全威胁也更加复杂多变,使得信息系统处于安全威胁风险极高的环境中,严重威胁信息的共享和获取。针对核心信息
  • 安全日报(2023.03.20)

  • 赶紧点击上方话题进行订阅吧!报告编号:B6-2023-032099报告来源:360CERT报告作者:360CERT更新日期:2023-03-201 Security Incident|安全事件MKS Instruments因勒索软件攻击被起诉h
  • 基于差分隐私的联邦学习数据隐私安全技术

  • 摘  要:联邦学习方法在大数据时代有效解决了“数据孤岛”问题,也在一定程度上保障了数据隐私安全。然而,联邦学习的许多方面仍面临隐私风险。首先归纳总结了联邦学习面临的常
  • B站疯传,稀缺资源(待会删)!!

  • 今天想给大家做一个测试,扎心预警以下三种情况,哪个让你绝望:❶ 每次新发布的电脑,永远抢不到❷ 好不容易找到一个资源齐全的网站,不是要收费就是要梯子❸ 之前下载的软件工具失
  • 专访 | 陆宇峰:系统论法学与数字社会

  • 按随着社会的不断发展,传统的法律体系正在面临诸多挑战,由此也引发学者对相关问题的讨论。上海社联2022年度论文《论高度复杂社会的反思型法》(原载《华东政法大学学报》2021年
  • 今日逗图:特 殊 照 顾

  • 本文图片均来自网络如有侵权,请联系我们删除本文内容只为博君一笑,请勿当真潮汕来的学生精彩瞬间手撕袜,能吃吗此物不应人间有神灯:算你狠特殊照顾狠人大帝费肝高薪岗位车、水、