hadoop对海量数据处理的解决思路

如何解决海量数据的存储问题

image.png

如何解决海量数据的计算

MapReduce

Map: 计算本地数据, 在各个结点下计算, 本地并发

Reduce: 全局处理, 可以分组处理, 对各个Map的中间结果进行处理

本文标题:hadoop对海量数据处理的解决思路

文章作者:Enda Lin

发布时间:2019年06月20日 - 11:39

最后更新:2019年07月08日 - 09:15

原始链接:https://wt-git-repository.github.io/2019/06/20/hadoop对海量数据处理的解决思路/

许可协议: 署名-非商业性使用-禁止演绎 4.0 国际 转载请保留原文链接及作者。