datanode
hdfs被设计成支持非常大的文件
HDFS被设计成支持非常大的文件,与HDFS兼容的应用是那些处理大数据集的应用。这些应用程序处理非常大的文件在具有只被创建和写入一次,被读取一次或多次的特性,即HDFS中存储的大文件是一次写入多次读取不支持修改的,同时要求HDFS满足应用程序以流读取速度的要求。 正是因为大数据系统对所需的文件系统有这些要求,就决定了HDFS在存储模型上具有以下特点: HDFS是一个分布式文件系统,文件以线性按字节被切割成block(块),分散存储到HDFS集群的DataNode节点中,block在集群中就有了location(位置) 根据HDFS write-once-read-many的特性,block的大小在文件上传后就不能修改了(支持追加数据),但是在文件上传后可以修改block的副本数量