处理大规模数据hadoop比spark有什么优势

2024-12-26 00:10:47
推荐回答(1个)
回答1:

bg4.png 1、大数据核心是什么?
我觉得大数据的核心,首先是有其价值,如果数据量很大,而没有价值,那么大数据也就没什么特别了,所以大数据的最重要的就是我们能从大量数据中分析、挖掘出对组织有益的信息,当然了,到底有没有用,还得经过实际验证。

另外,就是速度得快,市场机会稍纵即逝,所以如果分析那么多数据,需要一个星期,或者一个月,那么可能意义也不大了。

2、Storm, Spark, Hadoop三个大数据处理工具谁将成为主流?
其实这些只是表面不同的工具而已,本质上的思想是一致,我相信未来还会有更多的工具涌现出来,但思想确很难有所变化,比如,你要想快,那么从计算机的体系结构来看,就得多内存,而少硬盘,因为硬盘太慢了。

另外,从处理问题的角度也是一样的,通过采用更多的资源,以分布式的方式,来同时处理那么的数据,速度也肯定会快,当然前提是,不同机器之间交互通信的成本,低于由此带来的益处。

3、你觉得今年大数据的发展趋势如何?
更快、更高、更强。

不过也需要更加规范,这些个东西,A工具、B工具、C工具,我感觉有点像一个玩具,还不是一个成熟的产品,所以以后,可能会专门的公司来做商业化的软件,更加成熟的软件