Win2012新特性之重复数据删除

发布于 2017-04-06  3 次阅读


在企业中,存储空间的使用往往是惊人的,例如备份数据、文件服务器数据、虚拟化平台数据等。而在以往的Windows平台,并没有特别直接有效的方式来帮助我们节省磁盘空间,到了Windows Server 2012平台,重复数据删除技术,让很多使用Windows Server旧版本的用户看到了希望,而这一点也是促使用户将Windows Server升级到2012版本的动因之一。

周末闲来无事,我也在虚拟环境里体验了一把重复数据删除技术的魅力。

首先我在官网找到了关于重复数据删除技术的相关介绍:

http://technet.microsoft.com/zh-cn/library/hh831354.aspx

1)重复数据删除技术的优点

  • 容量优化:“重复数据删除”使得 Windows Server 2012 能够在更少的物理空间中存储更多的数据,并获得比以前版本的 Windows 操作系统明显更高的存储效率。以前版本的 Windows 操作系统使用单实例存储 (SIS) 或 NTFS 文件系统压缩。“重复数据删除”使用可变分块大小和压缩,常规文件服务器的优化率为 2:1,而虚拟数据的优化率最高可达 20:1。
  • 伸缩性和性能: Windows Server 2012 中的“重复数据删除”具有高度的可伸缩性,能够有效利用资源,并且不会产生干扰。它可以同时对多个大容量主数据运行,而不会影响服务器上的其他工作负载。通过控制 CPU 和内存资源的消耗,保持对服务器工作负载的较低影响。此外,用户可以灵活设置何时应该运行“重复数据删除”、指定用于消除重复的资源并为“重复数据删除”创建有关文件选择的策略。
  • 可靠性和数据完整性:在对数据应用“重复数据删除”时,保持数据的完整性。Windows Server 2012 利用校验和值、一致性和身份验证来确保数据的完整性。此外,Windows Server 2012 中的“重复数据删除”会为所有元数据和最常引用的数据保持冗余,以确保这些数据可以在发生损坏时进行恢复。
  • 与 BranchCache 相结合提高带宽效率:通过与 BranchCache 进行集成,同样的优化技术还可应用于通过 WAN 传输到分支机构的数据。这会缩短文件下载时间和降低带宽占用。、

2)重复数据删除技术的工作原理概述

“重复数据删除”的目标是通过将文件分割成小的 (32-128 KB) 且可变大小的区块、确定重复的区块,然后保持每个区块一个副本,在更小的空间中存储更多的数据。区块的冗余副本由对单个副本的引用所取代。此外,还会对区块进行压缩以便进一步优化空间。

其结果是对每个文件执行磁盘内转换,如图 1 所示。文件不再作为独立的数据流进行存储,而是替换为指向存储在通用存储位置的数据块的存根。

0.png

官网同样有关于重复数据删除技术规划和部署的事项:

http://technet.microsoft.com/zh-cn/library/hh831700.aspx

1)重复数据删除的理想工作负载包括

  • 常规文件共享:组内容发布/共享、用户主页文件夹和配置文件重定向(脱机文件)
  • 软件部署共享:软件二进制文件、映像和更新
  • VHD 库:用来对虚拟机监控程序进行配置的 VHD 文件存储

2)作为重复数据删除候选的卷必须符合下列要求

  • 不能是系统卷或引导卷。重复数据删除在操作系统卷上不受支持。
  • 卷可为分区的 MBR 或 GPT,并且必须使用 NTFS 文件系统格式化。
  • 卷可以驻留在共享存储(如光纤通道或 SAS 阵列)上,或者完全支持 iSCSI SAN 和 Microsoft 故障转移群集。
  • 群集共享卷 (CSV) 不受支持。
  • Microsoft 的新灵活文件系统 (ReFS) 不受支持。
  • 卷必须向 Windows 公开为不可移除的驱动器。远程映射驱动器不受支持。

下面就来通过一个例子来体验一把重复数据删除技术的部署。

首先我打开服务器管理器的工具下拉菜单,找到“计算机管理”,对添加到服务器的存储磁盘进行初始化的设置。如图:

1.png

未完待续


To be or not to be, that is a question.