HDFS

2017-04-09 20:08:43 0 举报
仅支持查看
HDFS(Hadoop Distributed File System)是Apache Hadoop项目的核心子项目,它是一个高度容错性的分布式文件系统,能提供高吞吐量的数据访问。HDFS的设计目标是在大量机器上存储大量数据,并提供对这些数据的高性能访问。它将大文件切分成多个块,并将这些块分布在多台计算机上进行存储。这种分布式的存储方式使得HDFS能够在硬件故障时继续运行,并能从故障中恢复数据。此外,HDFS还提供了数据冗余备份,以防止数据丢失。HDFS广泛应用于大数据处理和分析领域,如MapReduce、Spark等大数据处理框架都支持HDFS作为其底层的文件系统。
作者其他创作
大纲/内容
评论
0 条评论
下一页