Hadoop(HDFS+MapReduce)
2020-12-08 23:50:32 0 举报
Hadoop(HDFS+MapReduce)
作者其他创作
大纲/内容
GFS->分布式文件系统->HDFS
600+...+1000万
300+...+600万
600G
计算1+2+3+4+....+1000万
500G
聚合求结果
MapReduce分布式计算
假设一个600G的文件,但是每台电脑的硬盘容量为500G,如何解决存储的问题呢?
Master创建索引当用户来取的时候,将分割的数据按索引组合起来返回给用户
1+...+300万
0 条评论
下一页