最近一个ESG的调查表明大数据分析的重要性在提高,与此同时,该趋势也影响着存储市场。
“大数据”这个名词已经被扩展得对不同的人有诸多不同的含义了,不过ESG把它定义为“超过通常处理能力的范围和尺寸,而不得不使用非常规方法处理的数据集合。”
显然应用和处理器的进步对存储架构提出的需求已经超出了存储的通常处理能力。ESG(EnterpriseStrategyGroup)最近对大数据处理趋势进行了一些研究,来了解存储正在接受怎样的挑战,而我们的确有一些有趣的发现。
数据分析变得愈加重要
首先,大数据分析正在IT以及业务领域变得愈加重要。在2011年的一个调查中,我们询问了中型(500到999个雇员)和大型企业(超过1000名员工)的熟悉他们公司的数据库环境的IT决策制定者对大数据分析重要性的看法——6%的受访者表示大数据分析是他们最重要的IT项目,而45%的受访者表示,大数据分析在前五项重要事务列表里。在2012年,我们问了相同的问题(不过受访者包括了更多的中型公司以及少至100人的企业),我们发现,准备考虑把大数据分析提升至他们最重要事项的公司的比例翻了三番,达到18%,而45%的受访企业已经把它列在前五项中。
我们还在2012年的调查中更进一步,调查了改进大数据处理和分析流程相对与所有业务事务的优先级。这个数据还是比较醒目的,有28%的IT决策负责人说它在所有业务事务中具有最高的优先级,而38%认为它在前五名中。
其次,数据很大。我们2011的调查发现,超过50%的受访者在日常数据分析流程中平均处理至少500GB的数据。在2012年,我们发现企业进行数据分析的最大数据集平均为10TB。
处理和分析也更多地成为一个实时的过程。在2011年,我们调查了数据更新的频率,并发现超过15%的受访者实时更新数据,而38%每天至少更新一次。我们想知道2012年大数据最大的挑战,所以我们问用户他们多久更新一次他们最大的数据集——22%受访者称他们实时更新而45%准实时更新(一天之内)。
最后,对宕机时间的容忍很小。在我们2012年的调查中,53%的受访者只能容忍少于3小时的宕机而不会引起他们公司的巨大营收损失或者其它直接影响。在这些公司中,有6%不能容忍任何的宕机。只有14%的受访者说他们可以承受超过24小时的宕机。
对存储的影响
尽管这只是ESG收集到的有关处理和分析大数据的趋势数据的一小部分,我还是要特别指出它们对数据存储架构的水波效应。数据集的尺寸很大,而且在持续增长,特别是在你开始计算上做额外的分析和数据保护所需要的数据集的拷贝的时候。所以,IT将开始寻找可以有效满足需求而不需一大队的人来管理的可扩展存储系统。同时,大数据分析——以及实时传递的信息——正在成为业务上的更高优先,而IT也在留意底层的架构。
事实上,ESG的研究表明,许多了解他们的数据处理和分析需求的IT架构决策制定者肯为一个有高可用性的存储系统出大价钱。尽管研究表明这些环境有价格敏感性,更多的用户愿意为高可用性付出比分层存储、固态存储或者例如数据压缩和精简配置一类高效技术更高的代价。
割裂地看存储从来都不是一个好主意。在今天大数据的新世界中,重要的是要理解会影响明天的架构需求的未来趋势,可不能让架构在到寿之前就过时了。