数据存储优化:数据高效读取访问第一步

2010-12-17 16:13:13 来源:  作者:admin 阅读:0 次 收藏到我的QQ书签
过去的五年里,我们一直关注IT的高效性,这样使我们操作也更高效。

  通过虚拟化技术,我们的存储,网络和服务器变得更加高效。但是现在是我们需要停止单纯对设备的关注的时候了,此时,我们应该更多的关注数据效率。

  毕竟,除了设备制造商,谁会关心设备呢?所有的关注都是关于数据的。现在是应该通过在硬件上系统的增加智能服务来提高效率了,这样我们可以从数据中尽可能多的提取更多有价值的数据。

  数据高效性就像它听起来的一样——让我们需要的数据可以被更高效的访问、使用和管理。并让我们开发出它更大的价值,这就是IT存在的理由。

  在存储界,重复数据删除,自动精简配置,快照,虚拟化,多重用户(Multi-tenant)和数据压缩都是很热门的高效技术。这些技术有些是新的,有些是一直存在的。所有的这些技术都是很重要的。

  当这些技术使数据更高效的时候,考虑“为什么”而不是“怎样”更高效,才是重要的。例如,多数重复数据删除解决方案是为备份所设计的,而不是主存储环境。我完全赞成这样使数据备份更高效,但是那只代表了IT潜力价值的一部分。

  数据压缩的来临

  数据压缩的出现已经有一段时间了,但是这种技术现在又复兴了。主要数据压缩将会改变基本的效率和用户设备的整体价值观。那是因为当你创建的效率和数据点想接近时,你获得了更多的价值。你可以这样考虑:如果你开始有100GB的主要数据,随着时间的推移,你会备份x次,因此你最后还会有100GB的主要数据,100GBx的备份数据,或者继发的一些数据。

  重复数据删除厂商如EMC,DataDomain花了很多时间在100x问题上。这也是值得花时间的。在创建和备份之间,原始数据可能还有很多其他用途——比如测试,开发,数据库等。

  尽可能早的优化数据是很关键的。从这一点上,所有的下游利益被放大。移动的会更少,管理的更少,备份的也更少,复制,存储,中断的也会少。这样就会有很多新的。

  我认为优化数据最高效的方法就是利用手边所有的工具。首先,最大化的压缩数据。已经证明我们可以在任何数据脚本中压缩50%,甚至更多。其次,进行重复数据删除。在完成压缩工作后,你可以重复删除任何东西。即使不想进行重复数据删除,也是可以的。删除你不需要的,而且开始清理。这样就让你有完美的基准线。

  然后从这个地方,捕捉,自动精简配置,复制(虚拟的),你可以做任何你想做的。最后你可以优化脚本,这样可以使数据更有效率。

  诀窍是实时压缩,这样就不会遭受20年前的性能痛苦。即使现在也可能发生。在整个数据圈,很显然数据优化是价值最大化的方法,它可以在数据存在的任何地方、任何时间操作并使用。

(0)
(0)
  • 精彩图文 - 最新图文资讯
  • 业界动态 - 相关资讯导读
用户名: 密码:  验证码: 点击我更换图片
 360温馨提示:请自觉遵守互联网相关的政策法规,严禁发布色情、暴力、反动的言论
  • 相关评论
  • 行业动态 - 编辑最新推荐
  • 技术专题 - 阅读排行
技术论坛 | 客户服务 | 服务项目 | 关于我们 | 站点地图 | 法律声明 | 联系我们 | 汇款帐户
经营性网站
备案信息
北京
广告协会
国际连锁
经营协会
中国
互联网协会
网络110
报警服务
无线互联网
联盟协会
不良信息
举报中心
经营性网站
备案信息
Copyright(C)2009 All Right Reserved 版权所有 回天科技
上海总部:上海市徐汇区漕溪北路41号汇嘉大厦12楼E室 021-58358765
浙江分公司:杭州市文三路388号钱江科技大厦10楼1016室 0571-88218821 全国(北京,广州,深圳,宁波,温州,南京,成都)咨询热线:400-889-1122
浙ICP备05004250号