Hadoop工作原理

阿里云国内75折 回扣 微信号:monov8
阿里云国际,腾讯云国际,低至75折。AWS 93折 免费开户实名账号 代冲值 优惠多多 微信号:monov8 飞机:@monov6

目录

一、hadoop三大核心组件

二、HDFS文件系统的读写原理

2.1、 HDFS架构

2.2、HDFS写入过程

 2.3、HDFS读取过程

 三、mapreduce工作原理

四、HDFS操作命令


一、hadoop三大核心组件

  1. HDFSHadoop Distribute File Systemhadoop的数据存储工具。
  2. YARNYet Another Resource Negotiator,另一种资源协调者Hadoop 的资源管理器。
  3. Hadoop MapReduce:分布式计算框架

二、HDFS文件系统的读写原理

在HDFS中关键的三大角色为NameNode命名节点DataNode数据节点Client客户端

2.1、 HDFS架构


HDFS采用Master/slave架构模式1一个Master(NameNode/NN) 带 N个Slaves(DataNode/DN)。
从内部来看数据块存放在DataNode上。
NameNode 执行文件系统的命名空间如打开、关闭、重命名文件或目录等也负责数据块到具体DataNode的映射。
DataNode 负责处理文件系统客户端的文件读写并在NameNode的统一调度下进行数据库的创建、删除和复制工作。
NameNode是所有HDFS元数据的管理者用户数据永远不会经过NameNode。

NN
1负责客户端请求的响应
2负责元数据文件的名称、副本系数、Block存放的DN的管理

DN
1存储用户的文件对应的数据块(Block)
2要定期向NN发送心跳信息汇报本身及其所有的block信息健康状况
 

2.2、HDFS写入过程

  1. 客户端Client向远程的Namenode发起RPC请求
  2. Namenode会检查要创建的文件是否已经存在创建者是否有权限进行操作成功则会为文件创建一个记录 否则会让客户端抛出异常
  3. 当客户端开始写入文件的时候 客户端会将文件切分成多个packets 并在内部以数据队列“data queue 数据队列 ”的形式管理这些packets 并向Namenode申请blocks 获取用来存储replications的合适的datanode列表 列表的大小根据Namenode中replication的设定而定
  4. 开始以pipeline 管道 的形式将packet写入所有的replications中。 客户端把packet以流的方式写入第一个datanode 该datanode把该packet存储之后 再将其传递给在此pipeline中的下一个datanode 直到最后一个datanode 这种写数据的方式呈流水线的形式。
  5. 最后一个datanode成功存储之后会返回一个ack packet 确认队列 在pipeline里传递至客户端 在客户端的开发库内部维护着”ack queue” 成功收到datanode返回的ack packet后会从”ack queue”移除相应的packet。
  6. 如果传输过程中 有某个datanode出现了故障 那么当前的pipeline会被关闭 出现故障的datanode会从当前的pipeline中移除 剩余的block会继续剩下的datanode中继续以pipeline的形式传输 同时Namenode会分配一个新的datanode 保持replications设定的数量。
  7. 客户端完成数据的写入后 会对数据流调用close()方法 关闭数据流
  8. 只要写入了dfs.replication.min的副本数 默认为1写操作就会成功 并且这个块可以在集群中异步复制 直到达到其目标复本数replication的默认值为3因为namenode已经知道文件由哪些块组成 所以它在返回成功前只需要等待数据块进行最小量的复制。
     

 

 2.3、HDFS读取过程

  1. 使用HDFS提供的客户端Client 向远程的Namenode发起RPC请求
  2. Namenode会视情况返回文件的部分或者全部block列表 对于每个block Namenode都会返回有该block拷贝的DataNode地址
  3. 客户端Client会选取离客户端最近的DataNode来读取block 如果客户端本身就是DataNode 那么将从本地直接获取数据
  4. 读取完当前block的数据后 关闭当前的DataNode链接 并为读取下一个block寻找最佳的DataNode
  5. 当读完列表block后 且文件读取还没有结束 客户端会继续向Namenode获取下一批的block列表
  6. 读取完一个block都会进行checksum验证 如果读取datanode时出现错误 客户端会通知Namenode 然后再从下一个拥有该block拷贝的datanode继续读。
     

 

hdfs的组成
  1:Client就是客户端。
	a:文件切分文件上传 HDFS 的时候Client 将文件切分成一个个的Block然后进行存储。
	b:与 NameNode 交互获取文件的位置信息。
	c:与 DataNode 交互读取或者写入数据。
	d:Client 提供一些命令来管理 和访问HDFS(hdfs dfs -put a.txt /)
  2:NameNode就是 master它是一个主管、管理者。
	a:管理 HDFS 的名称空间,对外提供一个统一的访问路径
	b:管理数据块Block映射信息,告诉客户端,一个文件的每一个切片(block)所在的位置
	c:配置副本策略,每个副本存放在哪台主机
	d:处理客户端读写请求
  3:DataNode就是Slave。NameNode 下达命令DataNode 执行实际的操作。
	a:存储实际的数据块。
	b:执行数据块的读/写操作
	c:不断的向namenode发送心跳包和汇报自己的block信息
  4:Secondary NameNode 
        a:对namenode做辅助性的操作,不能替代namenode 
	b:SecondaryNameNode可以定期的将fsimage文件和edits文件进行合并,合并一个新的fsimage,并且
	  替换原来的fsimage,减轻namenode的压力
	  合并的触发条件
	    1: 时间 一个小时
	    2: 文件大小  edits文件达到64M

 三、mapreduce工作原理

在这里插入图片描述

 

MapRecuce工作原理
1、分片操作FileInputstream首先要计算切片大小FileInputstream是一个抽象类继承InputFormat接口真正完成工作的是它的实现类默认为是TextInputFormatTextInputFormat是读取文件的,默认为一行一行读取将输入文件切分为逻辑上的多个input splitinput split是MapReduce对文件进行处理和运算的输入单位只是一个逻辑概念在进行Map计算之前MapReduce会根据输入文件计算的切片数开启map任务一个输入切片对应一个maptask输入分片存储的并非数据本身而是一个分片长度和一个记录数据位置的集合每个input spilt中存储着该分片的数据信息如文件块信息、起始位置、数据长度、所在节点列表等并不是对文件实际分割成多个小文件输入切片大小往往与hdfs的block关系密切默认一个切片对应一个block大小为128M注意尽管我们可以使用默认块大小或自定义的方式来定义分片的大小但一个文件的大小如果是在切片大小的1.1倍以内仍作为一个片存储而不会将那多出来的0.1单独分片。
2、数据格式化操作
TextInputFormat 会创建RecordReader去读取数据通过getCurrentkeygetCurrentvaluenextkeyvalue等方法来读取读取结果会形成keyvalue形式返回给maptaskkey为偏移量value为每一行的内容此操作的作用为在分片中每读取一条记录就调用一次map方法反复这一过程直到将整个分片读取完毕。
3、map阶段操作
此阶段就是程序员通过需求偏写了map函数将数据格式化的<KV>键值对通过Mapper的map方法逻辑处理形成新的<kv>键值对通过Context.write输出到OutPutCollector收集器
map端的shuffle(数据混洗)过程溢写分区排序合并归并
溢写由map处理的结果并不会直接写入磁盘而是会在内存中开启一个环形内存缓冲区先将map结果写入缓冲区这个缓冲区默认大小为100M并且在配置文件里为这个缓冲区设了一个阀值默认为0.8同时map还会为输出操作启动一个守护线程如果缓冲区内存达到了阀值0.8这个线程会将内容写入到磁盘上这个过程叫作spill溢写。
分区Partition
当数据写入内存时决定数据由哪个Reduce处理从而需要分区默认分区方式采用hash函数对key进行哈布后再用Reduce任务数量进行取模表示为hashkeymodR这样就可以把map输出结果均匀分配给Reduce任务处理Partition与Reduce是一一对应关系类似于一个分片对应一个map task最终形成的形式为分区号keyvalue
排序Sort
在溢出的数据写入磁盘前会对数据按照key进行排序默认采用快速排序第一关键字为分区号第二关键字为key。
合并combiner
程序员可选是否合并数据合并在Reduce计算前对相同的key数据、value值合并减少输出量如“a”1“a”1合并之后“a”2
归并menge
每块溢写会成一个溢写文件这些溢写文件最终需要被归并为一个大文件生成key对应的value-list会进行归并排序<"a",1><"a"1>归并后<"a",<1,1>>。
Reduce 端的shffle
数据copymap端的shffle结束后所有map的输出结果都会保存在map节点的本地磁盘上文件都经过分区不同的分区会被copy到不同的Recuce任务并进行并行处理每个Reduce任务会不断通过RPC向JobTracker询问map任务是否完成JobTracker检测到map位务完成后就会通过相关Reduce任务去aopy拉取数据Recluce收到通知就会从Map任务节点Copy自己分区的数据此过程一般是Reduce任务采用写个线程从不同map节点拉取
归并数据
Map端接取的数据会被存放到 Reduce端的缓存中如果缓存被占满就会溢写到磁盘上缓存数据来自不同的Map节点会存在很多合并的键值对当溢写启动时相同的keg会被归并最终各个溢写文件会被归并为一个大类件归并时会进行排序磁盘中多个溢写文许归并为一个大文许可能需要多次归并一次归并溢写文件默认为10个
Reduce阶段

Reduce任务会执行Reduce函数中定义的各种映射输出结果存在分布式文件系统中。

四、HDFS操作命令

HDFS命令 
   hdfs dfs -ls /


   hdfs dfs -put a.txt /   #将文件复制到hdfs

   hdfs dfs -put /root/a.txt  /root/

   hdfs dfs -mkdir  /dir1
   hdfs dfs -mkdir -p  /dir1/dir11  #递归创建文件夹
   hdfs dfs -moveFromLocal a.txt  /dir1/dir11 #将文件移动到hdfs

   hdfs dfs -get  /a.txt   ./    #将文件下载到当前目录

   hdfs dfs -mv /dir1/a.txt /dir2  #将hdfs的文件移动到hdfs的另外一个路径
   hdfs dfs -rm  /a.txt  #删除一个文件(删除文件之后移动到hdfs的垃圾桶,七天之后自动删除)
   hdfs dfs -rm -r /dir1   #递归删除一个文件夹(删除文件之后移动到hdfs的垃圾桶)


   hdfs dfs -cp -p /dir1/a.txt /dir2/b.txt  #将hdfs的某个文件拷贝到hdfs的另外一个路径(深度拷贝)


   hdfs dfs -cat /a.txt   #查看hdfs文件的内容
   hdfs dfs -chmod -R 777 / #修改hdfs文件或者文件夹(加-R参数)权限


   hdfs dfs -appendToFile a.xml b.xml /big.xml  #将linux本地的文件合并之后上传到hdfs

阿里云国内75折 回扣 微信号:monov8
阿里云国际,腾讯云国际,低至75折。AWS 93折 免费开户实名账号 代冲值 优惠多多 微信号:monov8 飞机:@monov6
标签: Hadoop