AlexiaChen / AlexiaChen.github.io

My Blog https://github.com/AlexiaChen/AlexiaChen.github.io/issues
88 stars 11 forks source link

防止数据被恢复的可能 #52

Open AlexiaChen opened 4 years ago

AlexiaChen commented 4 years ago

title: 防止数据被恢复的可能 date: 2016-09-02 18:17:39 tags:

所以根据以上的特性,才有了许多数据擦除算法的诞生,覆盖次数越多,随机垃圾数据越“随机”,被恢复的可能性也就越低,安全性也就越高。到了Gutman method这样的级别,理论上已经证明了,经过此算法处理过的数据,没可能恢复。 但是,弱点就是速度很慢,如果需要有大量机密数据要被销毁,这将是耗时的任务。

我写过一个数据擦除的库,等级最高也就是支持到Gutman这个级别。其中DOD5220_22M算法是之前美国中央情报局采用的,不过现在被抛弃了,我猜测原因就是速度和安全性的权衡。至于他们为什么没有采用Gutman算法,其实也是速度和安全性的权衡,因为太慢了:) 这告诉我们,评价衡量一个工具需要综合考量。

2426797203 commented 1 year ago

你好想学习一下,呜呜工作量大很难搞