anthonyche / TechFantasy.Github.io

Zen of Tech
3 stars 0 forks source link

Differential Privacy Preserving of Training Model in Wireless Big Data with Edge Computing #10

Open anthonyche opened 2 years ago

anthonyche commented 2 years ago

随着智能设备的普及和机器学习方法的广泛应用,智能边缘已经成为处理无线大数据的主流。然而,当智能边缘使用机器学习模型来分析无线大数据时,一些模型可能会无意中将一小部分带有敏感记录的训练数据存储起来。因此,入侵者可以通过仔细分析该模型来暴露敏感信息。为了解决这个隐私问题,在本文中,我们提出并实施了一种使用差分隐私的智能边缘机器学习策略。我们将注意力集中在无线大数据场景中训练数据集的隐私保护上。此外,通过添加_拉普拉斯机制_来保证隐私保护。 并设计了两种不同的算法输出扰动(OPP)和目标扰动(OJP),满足差分隐私。此外,我们考虑了相关数据集中差分隐私的现有文献中存在的隐私保护问题,并进一步提供了相关数据集的差分隐私保护方法,通过理论推导保证隐私。最后,我们在 TensorFlow 上实施实验,并在四个数据集上评估我们的策略,即 MNIST、SVHN、CIFAR-10 和 STL-10。实验结果表明,我们的方法可以有效保护训练数据集的隐私并保证基准数据集的准确性。

差分隐私算法在输入扰动、数据发布、输出扰动等方面都有很大的贡献,因为该算法可以在输入扰动和输出扰动中分别加入拉普拉斯噪声。这种方法确保了攻击者获得的训练数据与他们从没有人记录[11]的个人数据获得的训练数据没有太大的区别。

由于边缘网络中的每个节点都具有一定的计算能力,我们将数据分块到每个节点中进行数据处理和训练,然后对训练数据集进行总结,进行进一步的数据预测。为了防止训练数据在使用过程中的隐私泄露,我们在汇总的训练数据集中加入适当的噪声,并采用差分隐私方法来保证其隐私性和安全性。此外,考虑到任何节点在处理数据时都可能存在隐私问题,我们事先在阻塞数据中加入噪声,然后由每个边缘节点进行计算和处理。

贡献

针对智能边缘训练数据集的隐私问题,提出了一种基于差分隐私的无线大数据场景机器学习策略。 我们设计了两种不同的算法,即Output扰动(OPP)和Objective扰动(OJP),以满足差分隐私。实验结果表明,该算法能够有效地解决训练数据隐私问题。 针对相关数据集,提出了不同的隐私保护方法。通过理论验证,我们确保我们所提出的差分优先级算法能够在各种不同的数据集(包括相关数据集)中实现高质量的隐私保护。 在MNIST、SVHN、CIFAR-10和STL-10 4个数据集上进行了基于差分隐私的Tensorflow实验,并对实验策略进行了评价。比较了的OPP和OJP算法与两个基准协议,即随机梯度下降(SGD),生成对抗网络(GANs)与私有教师集成(PATE- G),在预测精度、数据效用和隐私方面。实验结果表明,该方法能有效地保护训练数据集的隐私性,保证训练数据集的准确性。