6、Block放置策略
– 第一个副本:集群内部提交放置在上传文件的DN;如果是集群外提交,则随机挑选一台磁盘不太满,CPU不太忙的节点。
– 第二个副本:放置在于第一个副本不同的机架的节点上。
– 第三个副本:与第二个副本相同机架的不同节点。
– 更多副本:随机节点,不重复的
7、请描述一下HDFS的读、写流程(具体说一下ack)
读的流程
1.首先 调用fileSystem的open方法,其实是一个distributedFileSystem的实例
2.distributedFileSystem通过rpc协议获得文件的第一批block的locations地址,(同一个block按照重复数会返回多个locations,因为同一个文件的block分布式存储在不同的节点上),locations按照hadoop的拓扑原则排序,客户端附近的排在前面(就近原则)
3.前两步会返回一个FSDataInputSystem对象,它被封装为DFSInputSystem对象,DFSInoutSystem对象可以方便的管理NameNode和DataNode数据流,当客户端调用read方法的时候,DFSInoutSystem会找出离着客户端最近的DataNode并连接
4.数据从datanode源源不断的流向客户端。
5.如果第一文件的数据读完了,就会关闭指向第一块的datanode连接,接着读取下一文件。这些操作对客户端来说是透明的,客户端的角度看来只是读一个持续不断的流。
6.如果第一批block都读完了, DFSInputStream就会去namenode拿下一批block的locations,然后继续读,如果所有的块都读完,这时就会关闭掉所有的流。
7.如果在读数据的时候, DFSInputStream和datanode的通讯发生异常,就会尝试正在读的block的排序第二近的datanode,并且会记录哪个datanode发生错误,剩余的blocks读的时候就会直接跳过该datanode。 DFSInputStream也会检查block数据校验和,如果发现一个坏的block,就会先报告到namenode节点,然后DFSInputStream在其他的datanode上读该block的镜像。
8.该设计就是客户端直接连接datanode来检索数据并且namenode来负责为每一个block提供最优的datanode, namenode仅仅处理block location的请求,这些信息都加载在namenode的内存中,hdfs通过datanode集群可以承受大量客户端的并发访问。
写文件流程
1.客户端通过调用DistributedFileSystem的create方法创建新文件。
2.DistributedFileSystem通过RPC调用namenode去创建一个没有blocks关联的新文件,创建前, namenode会做各种校验,比如文件是否存在,客户端有无权限去创建等。如果校验通过, namenode就会记录下新文件,否则就会抛出IO异常。
3.前两步结束后,会返回FSDataOutputStream的对象,与读文件的时候相似,FSDataOutputStream被封装成DFSOutputStream
DFSOutputStream可以协调namenode和datanode。客户端开始写数据到DFSOutputStream,DFSOutputStream会把数据切成一个个小的packet,然后排成队列data quene。
4.DataStreamer会去处理接受data quene,它先询问namenode这个新的block最适合存储的在哪几个datanode里(比如重复数是3,那么就找到3个最适合的datanode),把他们排成一个管道pipeline输出。DataStreamer把packet按队列输出到管道的第一个datanode中,第一个datanode又把packet输出到第二个datanode中,以此类推。
5.DFSOutputStream还有一个对列叫ack quene,也是由packet组成等待datanode的收到响应,当pipeline中的datanode都表示已经收到数据的时候,这时ack quene才会把对应的packet包移除掉。 如果在写的过程中某个datanode发生错误,会采取以下几步:
1) pipeline被关闭掉;
2)为了防止防止丢包ack quene里的packet会同步到data quene里;创 建新的pipeline管道怼到其他正常DN上
3)block剩下的部分被写到剩下的两个正常的datanode中;
4)namenode找到另外的datanode去创建这个块的复制。当然,这些操作 对客户端来说是无感知的。
6.客户端完成写数据后调用close方法关闭写入流。
深入DFSOutputStream内部原理
打开一个DFSOutputStream流,Client会写数据到流内部的一个缓冲区中,然后数据被分解成多个Packet,每个Packet大小为64k字节,每个Packet又由一组chunk和这组chunk对应的checksum数据组成,默认chunk大小为512字节,每个checksum是对512字节数据计算的校验和数据。
===》当Client写入的字节流数据达到一个Packet的长度,这个Packet会被构建出来,然后会被放到队列dataQueue中,接着DataStreamer线程会不断地从dataQueue队列中取出Packet,发送到复制Pipeline中的第一个DataNode上,并将该Packet从dataQueue队列中移到ackQueue队列中。ResponseProcessor线程接收从Datanode发送过来的ack,如果是一个成功的ack,表示复制Pipeline中的所有Datanode都已经接收到这个Packet,ResponseProcessor线程将packet从队列ackQueue中删除。
====》 在发送过程中,如果发生错误,错误的数据节点会被移除掉,ackqueue数据块同步到dataqueue中,然后重新创建一个新的Pipeline,排除掉出错的那些DataNode节点,接着DataStreamer线程继续从dataQueue队列中发送Packet。
下面是DFSOutputStream的结构及其原理,如图所示:
8、常用的HDFS的命令
上传文件到HDFS:上传文件jdk-7u** 到/myhdfs目录下
hdfs dfs -put jdk-7u79-linux-x64.rpm /myhdfs
hdfs dfs 命令:
hdfs dfs -du [-s][-h]URI[URI ...] 显示文件(夹)大小.
hdfs dfs -mkdir[-p] <paths> 创建
hdfs dfs -rm -r /myhadoop1.0 删除
hdfs dfs -cp [-f][-p|-p[topax]]URI[URI...]<dest>复制文件(夹),可以覆盖,可以保留原有权限信息
hdfs dfs -count [-q][-h]<paths>列出文件夹数量、文件数量、内容大小.
hdfs dfs -chown [-R][OWNER][:[GROUP]]URI[URI] 修改所有者.
hdfs dfs -chmod [-R]<MODE[,MODE]...|OCTALMODE>URI[URI ...] 修改权限.
检测block切分 1.*MB block按1MB切分:
for i in `seq 100000`;do echo "hello sxt $i" >> test.txt;done
hdfs dfs -D dfs.blocksize=1048576 -put test.txt /lm