大数据技术之Hadoop(生产调优手册)

阿里云国内75折 回扣 微信号:monov8
阿里云国际,腾讯云国际,低至75折。AWS 93折 免费开户实名账号 代冲值 优惠多多 微信号:monov8 飞机:@monov6

第1章 HDFS—核心参数

1.1 NameNode内存生产配置

1NameNode内存计算
每个文件块大概占用150byte一台服务器128G内存为例能存储多少文件块呢
128 * 1024 * 1024 * 1024 / 150Byte ≈ 9.1亿
G MB KB Byte
2Hadoop2.x系列配置NameNode内存
NameNode内存默认2000m如果服务器内存4GNameNode内存可以配置3g。在hadoop-env.sh文件中配置如下。
HADOOP_NAMENODE_OPTS=-Xmx3072m
3Hadoop3.x系列配置NameNode内存
1hadoop-env.sh中描述Hadoop的内存是动态分配的

# The maximum amount of heap to use (Java -Xmx).  If no unit
# is provided, it will be converted to MB.  Daemons will
# prefer any Xmx setting in their respective _OPT variable.
# There is no default; the JVM will autoscale based upon machine
# memory size.
# export HADOOP_HEAPSIZE_MAX=

# The minimum amount of heap to use (Java -Xms).  If no unit
# is provided, it will be converted to MB.  Daemons will
# prefer any Xms setting in their respective _OPT variable.
# There is no default; the JVM will autoscale based upon machine
# memory size.
# export HADOOP_HEAPSIZE_MIN=
HADOOP_NAMENODE_OPTS=-Xmx102400m

2查看NameNode占用内存

[atguigu@hadoop102 ~]$ jps
3088 NodeManager
2611 NameNode
3271 JobHistoryServer
2744 DataNode
3579 Jps
[atguigu@hadoop102 ~]$ jmap -heap 2611
Heap Configuration:
   MaxHeapSize              = 1031798784 (984.0MB)

3查看DataNode占用内存

[atguigu@hadoop102 ~]$ jmap -heap 2744
Heap Configuration:
   MaxHeapSize              = 1031798784 (984.0MB)

查看发现hadoop102上的NameNode和DataNode占用内存都是自动分配的且相等。不是很合理。
这里面的链接可以做经验参考
https://docs.cloudera.com/documentation/enterprise/6/release-notes/topics/rg_hardware_requirements.html#concept_fzz_dq4_gbb
在这里插入图片描述
在这里插入图片描述
具体修改hadoop-env.sh

export HDFS_NAMENODE_OPTS="-Dhadoop.security.logger=INFO,RFAS -Xmx1024m"

export HDFS_DATANODE_OPTS="-Dhadoop.security.logger=ERROR,RFAS -Xmx1024m"

1.2 NameNode心跳并发配置

在这里插入图片描述
1hdfs-site.xml
The number of Namenode RPC server threads that listen to requests from clients. If dfs.namenode.servicerpc-address is not configured then Namenode RPC server threads listen to requests from all nodes.
NameNode有一个工作线程池用来处理不同DataNode的并发心跳以及客户端并发的元数据操作。
对于大集群或者有大量客户端的集群来说通常需要增大该参数。默认值是10。

<property>
    <name>dfs.namenode.handler.count</name>
    <value>21</value>
</property>

企业经验dfs.namenode.handler.count=比如集群规模DataNode台数为3台时此参数设置为21。可通过简单的python代码计算该值代码如下。

[atguigu@hadoop102 ~]$ sudo yum install -y python
[atguigu@hadoop102 ~]$ python
Python 2.7.5 (default, Apr 11 2018, 07:36:10) 
[GCC 4.8.5 20150623 (Red Hat 4.8.5-28)] on linux2
Type "help", "copyright", "credits" or "license" for more information.
>>> import math
>>> print int(20*math.log(3))
21
>>> quit()

1.3 开启回收站配置

开启回收站功能可以将删除的文件在不超时的情况下恢复原数据起到防止误删除、备份等作用。
1回收站工作机制
在这里插入图片描述
2开启回收站功能参数说明
1默认值fs.trash.interval = 00表示禁用回收站其他值表示设置文件的存活时间。
2默认值fs.trash.checkpoint.interval = 0检查回收站的间隔时间。如果该值为0则该值设置和fs.trash.interval的参数值相等。
3要求fs.trash.checkpoint.interval <= fs.trash.interval。
3启用回收站
修改core-site.xml配置垃圾回收时间为1分钟。

<property>
    <name>fs.trash.interval</name>
    <value>1</value>
</property>

4查看回收站
回收站目录在HDFS集群中的路径/user/atguigu/.Trash/….
5注意通过网页上直接删除的文件也不会走回收站。
6通过程序删除的文件不会经过回收站需要调用moveToTrash()才进入回收站

Trash trash = New Trash(conf);
trash.moveToTrash(path);

7只有在命令行利用hadoop fs -rm命令删除的文件才会走回收站。

[atguigu@hadoop102 hadoop-3.1.3]$ hadoop fs -rm -r /user/atguigu/input
2021-07-14 16:13:42,643 INFO fs.TrashPolicyDefault: Moved: 'hdfs://hadoop102:9820/user/atguigu/input' to trash at: hdfs://hadoop102:9820/user/atguigu/.Trash/Current/user/atguigu/input

8恢复回收站数据

[atguigu@hadoop102 hadoop-3.1.3]$ hadoop fs -mv
/user/atguigu/.Trash/Current/user/atguigu/input    /user/atguigu/input

第2章 HDFS—集群压测

在企业中非常关心每天从Java后台拉取过来的数据需要多久能上传到集群消费者关心多久能从HDFS上拉取需要的数据
为了搞清楚HDFS的读写性能生产环境上非常需要对集群进行压测。
在这里插入图片描述
HDFS的读写性能主要受网络和磁盘影响比较大。为了方便测试将hadoop102、hadoop103、hadoop104虚拟机网络都设置为100mbps。
在这里插入图片描述
100Mbps单位是bit10M/s单位是byte ; 1byte=8bit100Mbps/8=12.5M/s。
测试网速来到hadoop102的/opt/module目录创建一个

[atguigu@hadoop102 software]$ python -m SimpleHTTPServer

2.1 测试HDFS写性能

0写测试底层原理
在这里插入图片描述
1测试内容向HDFS集群写10个128M的文件

[atguigu@hadoop102 mapreduce]$ hadoop jar /opt/module/hadoop-3.1.3/share/hadoop/mapreduce/hadoop-mapreduce-client-jobclient-3.1.3-tests.jar TestDFSIO -write -nrFiles 10 -fileSize 128MB

2021-02-09 10:43:16,853 INFO fs.TestDFSIO: ----- TestDFSIO ----- : write
2021-02-09 10:43:16,854 INFO fs.TestDFSIO:             Date & time: Tue Feb 09 10:43:16 CST 2021
2021-02-09 10:43:16,854 INFO fs.TestDFSIO:         Number of files: 10
2021-02-09 10:43:16,854 INFO fs.TestDFSIO:  Total MBytes processed: 1280
2021-02-09 10:43:16,854 INFO fs.TestDFSIO:       Throughput mb/sec: 1.61
2021-02-09 10:43:16,854 INFO fs.TestDFSIO:  Average IO rate mb/sec: 1.9
2021-02-09 10:43:16,854 INFO fs.TestDFSIO:   IO rate std deviation: 0.76
2021-02-09 10:43:16,854 INFO fs.TestDFSIO:      Test exec time sec: 133.05
2021-02-09 10:43:16,854 INFO fs.TestDFSIO:

注意nrFiles n为生成mapTask的数量生产环境一般可通过hadoop103:8088查看CPU核数设置为CPU核数 - 1

Number of files生成mapTask数量一般是集群中CPU核数-1我们测试虚拟机就按照实际的物理内存-1分配即可
Total MBytes processed单个map处理的文件大小
Throughput mb/sec:单个mapTak的吞吐量
计算方式处理的总文件大小/每一个mapTask写数据的时间累加
集群整体吞吐量生成mapTask数量*单个mapTak的吞吐量
Average IO rate mb/sec::平均mapTak的吞吐量
计算方式每个mapTask处理文件大小/每一个mapTask写数据的时间全部相加除以task数量
IO rate std deviation:方差、反映各个mapTask处理的差值越小越均衡
2注意如果测试过程中出现异常
1可以在yarn-site.xml中设置虚拟内存检测为false

<!--是否启动一个线程检查每个任务正使用的虚拟内存量如果任务超出分配值则直接将其杀掉默认是true -->
<property>
     <name>yarn.nodemanager.vmem-check-enabled</name>
     <value>false</value>
</property>

2分发配置并重启Yarn集群
3测试结果分析
1由于副本1就在本地所以该副本不参与测试
在这里插入图片描述
一共参与测试的文件10个文件 * 2个副本 = 20个
压测后的速度1.61
实测速度1.61M/s * 20个文件 ≈ 32M/s
三台服务器的带宽12.5 + 12.5 + 12.5 ≈ 30m/s
所有网络资源都已经用满。
如果实测速度远远小于网络并且实测速度不能满足工作需求可以考虑采用固态硬盘或者增加磁盘个数。
2如果客户端不在集群节点那就三个副本都参与计算
在这里插入图片描述

2.2 测试HDFS读性能

1测试内容读取HDFS集群10个128M的文件

[atguigu@hadoop102 mapreduce]$ hadoop jar /opt/module/hadoop-3.1.3/share/hadoop/mapreduce/hadoop-mapreduce-client-jobclient-3.1.3-tests.jar TestDFSIO -read -nrFiles 10 -fileSize 128MB

2021-02-09 11:34:15,847 INFO fs.TestDFSIO: ----- TestDFSIO ----- : read
2021-02-09 11:34:15,847 INFO fs.TestDFSIO:             Date & time: Tue Feb 09 11:34:15 CST 2021
2021-02-09 11:34:15,847 INFO fs.TestDFSIO:         Number of files: 10
2021-02-09 11:34:15,847 INFO fs.TestDFSIO:  Total MBytes processed: 1280
2021-02-09 11:34:15,848 INFO fs.TestDFSIO:       Throughput mb/sec: 200.28
2021-02-09 11:34:15,848 INFO fs.TestDFSIO:  Average IO rate mb/sec: 266.74
2021-02-09 11:34:15,848 INFO fs.TestDFSIO:   IO rate std deviation: 143.12
2021-02-09 11:34:15,848 INFO fs.TestDFSIO:      Test exec time sec: 20.83

2删除测试生成数据

[atguigu@hadoop102 mapreduce]$ hadoop jar /opt/module/hadoop-3.1.3/share/hadoop/mapreduce/hadoop-mapreduce-client-jobclient-3.1.3-tests.jar TestDFSIO -clean

3测试结果分析为什么读取文件速度大于网络带宽由于目前只有三台服务器且有三个副本数据读取就近原则相当于都是读取的本地磁盘数据没有走网络。
在这里插入图片描述

第3章 HDFS—多目录

3.1 NameNode多目录配置

1NameNode的本地目录可以配置成多个且每个目录存放内容相同增加了可靠性
在这里插入图片描述
2具体配置如下
1在hdfs-site.xml文件中添加如下内容

<property>
     <name>dfs.namenode.name.dir</name>
     <value>file://${hadoop.tmp.dir}/dfs/name1,file://${hadoop.tmp.dir}/dfs/name2</value>
</property>

注意因为每台服务器节点的磁盘情况不同所以这个配置配完之后可以选择不分发
2停止集群删除三台节点的data和logs中所有数据。

[atguigu@hadoop102 hadoop-3.1.3]$ rm -rf data/ logs/
[atguigu@hadoop103 hadoop-3.1.3]$ rm -rf data/ logs/
[atguigu@hadoop104 hadoop-3.1.3]$ rm -rf data/ logs/

3格式化集群并启动。

[atguigu@hadoop102 hadoop-3.1.3]$ bin/hdfs namenode -format
[atguigu@hadoop102 hadoop-3.1.3]$ sbin/start-dfs.sh

3查看结果

[atguigu@hadoop102 dfs]$ ll
总用量 12
drwx------. 3 atguigu atguigu 4096 1211 08:03 data
drwxrwxr-x. 3 atguigu atguigu 4096 1211 08:03 name1
drwxrwxr-x. 3 atguigu atguigu 4096 1211 08:03 name2

检查name1和name2里面的内容发现一模一样。

3.2 DataNode多目录配置

1DataNode可以配置成多个目录每个目录存储的数据不一样数据不是副本
在这里插入图片描述
2具体配置如下
在hdfs-site.xml文件中添加如下内容

<property>
     <name>dfs.datanode.data.dir</name>
     <value>file://${hadoop.tmp.dir}/dfs/data1,file://${hadoop.tmp.dir}/dfs/data2</value>
</property>

3查看结果

[atguigu@hadoop102 dfs]$ ll
总用量 12
drwx------. 3 atguigu atguigu 4096 44 14:22 data1
drwx------. 3 atguigu atguigu 4096 44 14:22 data2
drwxrwxr-x. 3 atguigu atguigu 4096 1211 08:03 name1
drwxrwxr-x. 3 atguigu atguigu 4096 1211 08:03 name2

4向集群上传一个文件再次观察两个文件夹里面的内容发现不一致一个有数一个没有

[atguigu@hadoop102 hadoop-3.1.3]$ hadoop fs -put wcinput/word.txt /

3.3 集群数据均衡之磁盘间数据均衡

生产环境由于硬盘空间不足往往需要增加一块硬盘。刚加载的硬盘没有数据时可以执行磁盘数据均衡命令。Hadoop3.x新特性
在这里插入图片描述
1生成均衡计划我们只有一块磁盘不会生成计划

hdfs diskbalancer -plan hadoop103

2执行均衡计划

hdfs diskbalancer -execute hadoop103.plan.json

3查看当前均衡任务的执行情况

hdfs diskbalancer -query hadoop103

4取消均衡任务

hdfs diskbalancer -cancel hadoop103.plan.json

第4章 HDFS—集群扩容及缩容

4.1 添加白名单

白名单表示在白名单的主机IP地址可以用来存储数据。
企业中配置白名单可以尽量防止黑客恶意访问攻击。
配置白名单步骤如下
1在NameNode节点的/opt/module/hadoop-3.1.3/etc/hadoop目录下分别创建whitelist 和blacklist文件
1创建白名单

[atguigu@hadoop102 hadoop]$ vim whitelist

在whitelist中添加如下主机名称假如集群正常工作的节点为102 103

hadoop102
hadoop103

2创建黑名单

[atguigu@hadoop102 hadoop]$ touch blacklist
保持空的就可以

2在hdfs-site.xml配置文件中增加dfs.hosts配置参数

<!-- 白名单 -->
<property>
     <name>dfs.hosts</name>
     <value>/opt/module/hadoop-3.1.3/etc/hadoop/whitelist</value>
</property>

<!-- 黑名单 -->
<property>
     <name>dfs.hosts.exclude</name>
     <value>/opt/module/hadoop-3.1.3/etc/hadoop/blacklist</value>
</property>

3分发配置文件whitelisthdfs-site.xml

[atguigu@hadoop104 hadoop]$ xsync hdfs-site.xml whitelist

4第一次添加白名单必须重启集群不是第一次只需要刷新NameNode节点即可

[atguigu@hadoop102 hadoop-3.1.3]$ myhadoop.sh stop
[atguigu@hadoop102 hadoop-3.1.3]$ myhadoop.sh start

5在web浏览器上查看DNhttp://hadoop102:9870/dfshealth.html#tab-datanode

6在hadoop104上执行上传数据数据失败

[atguigu@hadoop104 hadoop-3.1.3]$ hadoop fs -put NOTICE.txt /

7二次修改白名单增加hadoop104

[atguigu@hadoop102 hadoop]$ vim whitelist

修改为如下内容

hadoop102
hadoop103
hadoop104

8刷新NameNode

[atguigu@hadoop102 hadoop-3.1.3]$ hdfs dfsadmin -refreshNodes
Refresh nodes successful

9在web浏览器上查看DNhttp://hadoop102:9870/dfshealth.html#tab-datanode
在这里插入图片描述

4.2 服役新服务器

1需求
随着公司业务的增长数据量越来越大原有的数据节点的容量已经不能满足存储数据的需求需要在原有集群基础上动态添加新的数据节点。
2环境准备
1在hadoop100主机上再克隆一台hadoop105主机
2修改IP地址和主机名称

[root@hadoop105 ~]# vim /etc/sysconfig/network-scripts/ifcfg-ens33
[root@hadoop105 ~]# vim /etc/hostname

3拷贝hadoop102的/opt/module目录和/etc/profile.d/my_env.sh到hadoop105

[atguigu@hadoop102 opt]$ scp -r module/* atguigu@hadoop105:/opt/module/

[atguigu@hadoop102 opt]$ sudo scp /etc/profile.d/my_env.sh root@hadoop105:/etc/profile.d/my_env.sh

[atguigu@hadoop105 hadoop-3.1.3]$ source /etc/profile

4删除hadoop105上Hadoop的历史数据data和log数据

[atguigu@hadoop105 hadoop-3.1.3]$ rm -rf data/ logs/

5配置hadoop102和hadoop103到hadoop105的ssh无密登录

[atguigu@hadoop102 .ssh]$ ssh-copy-id hadoop105
[atguigu@hadoop103 .ssh]$ ssh-copy-id hadoop105

3服役新节点具体步骤
1直接启动DataNode即可关联到集群

[atguigu@hadoop105 hadoop-3.1.3]$ hdfs --daemon start datanode
[atguigu@hadoop105 hadoop-3.1.3]$ yarn --daemon start nodemanager

在这里插入图片描述
4在白名单中增加新服役的服务器
1在白名单whitelist中增加hadoop104、hadoop105并重启集群

[atguigu@hadoop102 hadoop]$ vim whitelist

修改为如下内容

hadoop102
hadoop103
hadoop104
hadoop105

2分发

[atguigu@hadoop102 hadoop]$ xsync whitelist

3刷新NameNode

[atguigu@hadoop102 hadoop-3.1.3]$ hdfs dfsadmin -refreshNodes
Refresh nodes successful

5在hadoop105上上传文件

[atguigu@hadoop105 hadoop-3.1.3]$ hadoop fs -put /opt/module/hadoop-3.1.3/LICENSE.txt /

这里我们思考一个问题如果数据不均衡hadoop105数据少其他节点数据多怎么处理

4.3 服务器间数据均衡

1企业经验
在企业开发中如果经常在hadoop102和hadoop104上提交任务且副本数为2由于数据本地性原则就会导致hadoop102和hadoop104数据过多hadoop103存储的数据量小。
另一种情况就是新服役的服务器数据量比较少需要执行集群均衡命令。
在这里插入图片描述

2开启数据均衡命令

[atguigu@hadoop105 hadoop-3.1.3]$ sbin/start-balancer.sh -threshold 10

对于参数10代表的是集群中各个节点的磁盘空间利用率相差不超过10%可根据实际情况进行调整。
3停止数据均衡命令

[atguigu@hadoop105 hadoop-3.1.3]$ sbin/stop-balancer.sh

注意由于HDFS需要启动单独的Rebalance Server来执行Rebalance操作所以尽量不要在NameNode上执行start-balancer.sh而是找一台比较空闲的机器。

4.4 黑名单退役服务器

黑名单表示在黑名单的主机IP地址不可以用来存储数据。
企业中配置黑名单用来退役服务器。
在这里插入图片描述
黑名单配置步骤如下
1编辑/opt/module/hadoop-3.1.3/etc/hadoop目录下的blacklist文件

[atguigu@hadoop102 hadoop] vim blacklist

添加如下主机名称要退役的节点
hadoop105
注意如果白名单中没有配置需要在hdfs-site.xml配置文件中增加dfs.hosts配置参数

<!-- 黑名单 -->
<property>
     <name>dfs.hosts.exclude</name>
     <value>/opt/module/hadoop-3.1.3/etc/hadoop/blacklist</value>
</property>

2分发配置文件blacklisthdfs-site.xml

[atguigu@hadoop104 hadoop]$ xsync hdfs-site.xml blacklist

3第一次添加黑名单必须重启集群不是第一次只需要刷新NameNode节点即可

[atguigu@hadoop102 hadoop-3.1.3]$ hdfs dfsadmin -refreshNodes
Refresh nodes successful

4检查Web浏览器退役节点的状态为decommission in progress退役中说明数据节点正在复制块到其他节点
在这里插入图片描述
在这里插入图片描述
5等待退役节点状态为decommissioned所有块已经复制完成停止该节点及节点资源管理器。注意如果副本数是3服役的节点小于等于3是不能退役成功的需要修改副本数后才能退役
在这里插入图片描述

[atguigu@hadoop105 hadoop-3.1.3]$ hdfs --daemon stop datanode
stopping datanode
[atguigu@hadoop105 hadoop-3.1.3]$ yarn --daemon stop nodemanager
stopping nodemanager

6如果数据不均衡可以用命令实现集群的再平衡

[atguigu@hadoop102 hadoop-3.1.3]$ sbin/start-balancer.sh -threshold 10

第5章 HDFS—存储优化

注演示纠删码和异构存储需要一共5台虚拟机。尽量拿另外一套集群。提前准备5台服务器的集群。

5.1 纠删码

5.1.1 纠删码原理

HDFS默认情况下一个文件有3个副本这样提高了数据的可靠性但也带来了2倍的冗余开销。Hadoop3.x引入了纠删码采用计算的方式可以节省约50%左右的存储空间。
在这里插入图片描述
1纠删码操作相关的命令

[atguigu@hadoop102 hadoop-3.1.3]$ hdfs ec
Usage: bin/hdfs ec [COMMAND]
          [-listPolicies]
          [-addPolicies -policyFile <file>]
          [-getPolicy -path <path>]
          [-removePolicy -policy <policy>]
          [-setPolicy -path <path> [-policy <policy>] [-replicate]]
          [-unsetPolicy -path <path>]
          [-listCodecs]
          [-enablePolicy -policy <policy>]
          [-disablePolicy -policy <policy>]
          [-help <command-name>].

2查看当前支持的纠删码策略

[atguigu@hadoop102 hadoop-3.1.3] hdfs ec -listPolicies

Erasure Coding Policies:
ErasureCodingPolicy=[Name=RS-10-4-1024k, Schema=[ECSchema=[Codec=rs, numDataUnits=10, numParityUnits=4]], CellSize=1048576, Id=5], State=DISABLED

ErasureCodingPolicy=[Name=RS-3-2-1024k, Schema=[ECSchema=[Codec=rs, numDataUnits=3, numParityUnits=2]], CellSize=1048576, Id=2], State=DISABLED

ErasureCodingPolicy=[Name=RS-6-3-1024k, Schema=[ECSchema=[Codec=rs, numDataUnits=6, numParityUnits=3]], CellSize=1048576, Id=1], State=ENABLED
 
ErasureCodingPolicy=[Name=RS-LEGACY-6-3-1024k, Schema=[ECSchema=[Codec=rs-legacy, numDataUnits=6, numParityUnits=3]], CellSize=1048576, Id=3], State=DISABLED

ErasureCodingPolicy=[Name=XOR-2-1-1024k, Schema=[ECSchema=[Codec=xor, numDataUnits=2, numParityUnits=1]], CellSize=1048576, Id=4], State=DISABLED

3纠删码策略解释:
RS-3-2-1024k使用RS编码每3个数据单元生成2个校验单元共5个单元也就是说这5个单元中只要有任意的3个单元存在不管是数据单元还是校验单元只要总数=3就可以得到原始数据。每个单元的大小是1024k=10241024=1048576。
在这里插入图片描述
RS-10-4-1024k使用RS编码每10个数据单元cell生成4个校验单元共14个单元也就是说这14个单元中只要有任意的10个单元存在不管是数据单元还是校验单元只要总数=10就可以得到原始数据。每个单元的大小是1024k=1024
1024=1048576。
RS-6-3-1024k使用RS编码每6个数据单元生成3个校验单元共9个单元也就是说这9个单元中只要有任意的6个单元存在不管是数据单元还是校验单元只要总数=6就可以得到原始数据。每个单元的大小是1024k=10241024=1048576。
RS-LEGACY-6-3-1024k策略和上面的RS-6-3-1024k一样只是编码的算法用的是rs-legacy。
XOR-2-1-1024k使用XOR编码速度比RS编码快每2个数据单元生成1个校验单元共3个单元也就是说这3个单元中只要有任意的2个单元存在不管是数据单元还是校验单元只要总数= 2就可以得到原始数据。每个单元的大小是1024k=1024
1024=1048576。

5.1.2 纠删码案例实操

在这里插入图片描述
纠删码策略是给具体一个路径设置。所有往此路径下存储的文件都会执行此策略。
默认只开启对RS-6-3-1024k策略的支持如要使用别的策略需要提前启用。
1需求将/input目录设置为RS-3-2-1024k策略
2具体步骤
1开启对RS-3-2-1024k策略的支持

[atguigu@hadoop102 hadoop-3.1.3]$  hdfs ec -enablePolicy  -policy RS-3-2-1024k
Erasure coding policy RS-3-2-1024k is enabled

2在HDFS创建目录并设置RS-3-2-1024k策略

[atguigu@hadoop102  hadoop-3.1.3]$  hdfs dfs -mkdir /input
[atguigu@hadoop202 hadoop-3.1.3]$ hdfs ec -setPolicy -path /input -policy RS-3-2-1024k

3上传文件并查看文件编码后的存储情况

[atguigu@hadoop102 hadoop-3.1.3]$ hdfs dfs -put web.log /input

注你所上传的文件需要大于2M才能看出效果。低于2M只有一个数据单元和两个校验单元
4查看存储路径的数据单元和校验单元并作破坏实验

5.2 异构存储冷热数据分离

异构存储主要解决不同的数据存储在不同类型的硬盘中达到最佳性能的问题。
在这里插入图片描述
在这里插入图片描述

5.2.1 异构存储Shell操作

1查看当前有哪些存储策略可以用

[atguigu@hadoop102 hadoop-3.1.3]$ hdfs storagepolicies -listPolicies

2为指定路径数据存储目录设置指定的存储策略

hdfs storagepolicies -setStoragePolicy -path xxx -policy xxx

3获取指定路径数据存储目录或文件的存储策略

hdfs storagepolicies -getStoragePolicy -path xxx

4取消存储策略执行改命令之后该目录或者文件以其上级的目录为准如果是根目录那么就是HOT

hdfs storagepolicies -unsetStoragePolicy -path xxx

5查看文件块的分布

bin/hdfs fsck xxx -files -blocks -locations

6查看集群节点

hadoop dfsadmin -report

5.2.2 测试环境准备

1测试环境描述
服务器规模5台
集群配置副本数为2创建好带有存储类型的目录提前创建
集群规划

节点存储类型分配
hadoop102RAM_DISKSSD
hadoop103SSDDISK
hadoop104DISKRAM_DISK
hadoop105ARCHIVE
hadoop106ARCHIVE
2配置文件信息
1为hadoop102节点的hdfs-site.xml添加如下信息
<property>
	<name>dfs.replication</name>
	<value>2</value>
</property>
<property>
	<name>dfs.storage.policy.enabled</name>
	<value>true</value>
</property>
<property>
	<name>dfs.datanode.data.dir</name> 
	<value>[SSD]file:///opt/module/hadoop-3.1.3/hdfsdata/ssd,[RAM_DISK]file:///opt/module/hadoop-3.1.3/hdfsdata/ram_disk</value>
</property>

2为hadoop103节点的hdfs-site.xml添加如下信息

<property>
	<name>dfs.replication</name>
	<value>2</value>
</property>
<property>
	<name>dfs.storage.policy.enabled</name>
	<value>true</value>
</property>
<property>
	<name>dfs.datanode.data.dir</name>
	<value>[SSD]file:///opt/module/hadoop-3.1.3/hdfsdata/ssd,[DISK]file:///opt/module/hadoop-3.1.3/hdfsdata/disk</value>
</property>

3为hadoop104节点的hdfs-site.xml添加如下信息

<property>
	<name>dfs.replication</name>
	<value>2</value>
</property>
<property>
	<name>dfs.storage.policy.enabled</name>
	<value>true</value>
</property>
<property>
	<name>dfs.datanode.data.dir</name>
	<value>[RAM_DISK]file:///opt/module/hdfsdata/ram_disk,[DISK]file:///opt/module/hadoop-3.1.3/hdfsdata/disk</value>
</property>

4为hadoop105节点的hdfs-site.xml添加如下信息

<property>
	<name>dfs.replication</name>
	<value>2</value>
</property>
<property>
	<name>dfs.storage.policy.enabled</name>
	<value>true</value>
</property>
<property>
	<name>dfs.datanode.data.dir</name>
	<value>[ARCHIVE]file:///opt/module/hadoop-3.1.3/hdfsdata/archive</value>
</property>

5为hadoop106节点的hdfs-site.xml添加如下信息

<property>
	<name>dfs.replication</name>
	<value>2</value>
</property>
<property>
	<name>dfs.storage.policy.enabled</name>
	<value>true</value>
</property>
<property>
	<name>dfs.datanode.data.dir</name>
	<value>[ARCHIVE]file:///opt/module/hadoop-3.1.3/hdfsdata/archive</value>
</property>

3数据准备
1启动集群

[atguigu@hadoop102 hadoop-3.1.3]$ hdfs namenode -format
[atguigu@hadoop102 hadoop-3.1.3]$ myhadoop.sh start

1并在HDFS上创建文件目录

[atguigu@hadoop102 hadoop-3.1.3]$ hadoop fs -mkdir /hdfsdata

2并将文件资料上传

[atguigu@hadoop102 hadoop-3.1.3]$ hadoop fs -put /opt/module/hadoop-3.1.3/NOTICE.txt /hdfsdata

5.2.3 HOT存储策略案例

1最开始我们未设置存储策略的情况下我们获取该目录的存储策略

[atguigu@hadoop102 hadoop-3.1.3]$ hdfs storagepolicies -getStoragePolicy -path /hdfsdata

2我们查看上传的文件块分布

[atguigu@hadoop102 hadoop-3.1.3]$ hdfs fsck /hdfsdata -files -blocks -locations

[DatanodeInfoWithStorage[192.168.10.104:9866,DS-0b133854-7f9e-48df-939b-5ca6482c5afb,DISK], DatanodeInfoWithStorage[192.168.10.103:9866,DS-ca1bd3b9-d9a5-4101-9f92-3da5f1baa28b,DISK]]

未设置存储策略所有文件块都存储在DISK下。所以默认存储策略为HOT。

5.2.4 WARM存储策略测试

1接下来我们为数据降温

[atguigu@hadoop102 hadoop-3.1.3]$ hdfs storagepolicies -setStoragePolicy -path /hdfsdata -policy WARM

2再次查看文件块分布我们可以看到文件块依然放在原处。

[atguigu@hadoop102 hadoop-3.1.3]$ hdfs fsck /hdfsdata -files -blocks -locations

3我们需要让他HDFS按照存储策略自行移动文件块

[atguigu@hadoop102 hadoop-3.1.3]$ hdfs mover /hdfsdata

4再次查看文件块分布

[atguigu@hadoop102 hadoop-3.1.3]$ hdfs fsck /hdfsdata -files -blocks -locations
[DatanodeInfoWithStorage[192.168.10.105:9866,DS-d46d08e1-80c6-4fca-b0a2-4a3dd7ec7459,ARCHIVE], DatanodeInfoWithStorage[192.168.10.103:9866,DS-ca1bd3b9-d9a5-4101-9f92-3da5f1baa28b,DISK]]

文件块一半在DISK一半在ARCHIVE符合我们设置的WARM策略

5.2.5 COLD策略测试

1我们继续将数据降温为cold

[atguigu@hadoop102 hadoop-3.1.3]$ hdfs storagepolicies -setStoragePolicy -path /hdfsdata -policy COLD

注意当我们将目录设置为COLD并且我们未配置ARCHIVE存储目录的情况下不可以向该目录直接上传文件会报出异常。
2手动转移

[atguigu@hadoop102 hadoop-3.1.3]$ hdfs mover /hdfsdata

3检查文件块的分布

[atguigu@hadoop102 hadoop-3.1.3]$ bin/hdfs fsck /hdfsdata -files -blocks -locations
[DatanodeInfoWithStorage[192.168.10.105:9866,DS-d46d08e1-80c6-4fca-b0a2-4a3dd7ec7459,ARCHIVE], DatanodeInfoWithStorage[192.168.10.106:9866,DS-827b3f8b-84d7-47c6-8a14-0166096f919d,ARCHIVE]]

所有文件块都在ARCHIVE符合COLD存储策略。

5.2.6 ONE_SSD策略测试

1接下来我们将存储策略从默认的HOT更改为One_SSD

[atguigu@hadoop102 hadoop-3.1.3]$ hdfs storagepolicies -setStoragePolicy -path /hdfsdata -policy One_SSD

2手动转移文件块

[atguigu@hadoop102 hadoop-3.1.3]$ hdfs mover /hdfsdata

3转移完成后我们查看文件块分布

[atguigu@hadoop102 hadoop-3.1.3]$ bin/hdfs fsck /hdfsdata -files -blocks -locations

[DatanodeInfoWithStorage[192.168.10.104:9866,DS-0b133854-7f9e-48df-939b-5ca6482c5afb,DISK], DatanodeInfoWithStorage[192.168.10.103:9866,DS-2481a204-59dd-46c0-9f87-ec4647ad429a,SSD]]

文件块分布为一半在SSD一半在DISK符合One_SSD存储策略。

5.2.7 ALL_SSD策略测试

1接下来我们再将存储策略更改为All_SSD

[atguigu@hadoop102 hadoop-3.1.3]$ hdfs storagepolicies -setStoragePolicy -path /hdfsdata -policy All_SSD

2手动转移文件块

[atguigu@hadoop102 hadoop-3.1.3]$ hdfs mover /hdfsdata

3查看文件块分布我们可以看到

[atguigu@hadoop102 hadoop-3.1.3]$ bin/hdfs fsck /hdfsdata -files -blocks -locations

[DatanodeInfoWithStorage[192.168.10.102:9866,DS-c997cfb4-16dc-4e69-a0c4-9411a1b0c1eb,SSD], DatanodeInfoWithStorage[192.168.10.103:9866,DS-2481a204-59dd-46c0-9f87-ec4647ad429a,SSD]]

所有的文件块都存储在SSD符合All_SSD存储策略。

5.2.8 LAZY_PERSIST策略测试

1继续改变策略将存储策略改为lazy_persist

[atguigu@hadoop102 hadoop-3.1.3]$ hdfs storagepolicies -setStoragePolicy -path /hdfsdata -policy lazy_persist

2手动转移文件块

[atguigu@hadoop102 hadoop-3.1.3]$ hdfs mover /hdfsdata

3查看文件块分布

[atguigu@hadoop102 hadoop-3.1.3]$ hdfs fsck /hdfsdata -files -blocks -locations

[DatanodeInfoWithStorage[192.168.10.104:9866,DS-0b133854-7f9e-48df-939b-5ca6482c5afb,DISK], DatanodeInfoWithStorage[192.168.10.103:9866,DS-ca1bd3b9-d9a5-4101-9f92-3da5f1baa28b,DISK]]

这里我们发现所有的文件块都是存储在DISK按照理论一个副本存储在RAM_DISK其他副本存储在DISK中这是因为我们还需要配置“dfs.datanode.max.locked.memory”“dfs.block.size”参数。
那么出现存储策略为LAZY_PERSIST时文件块副本都存储在DISK上的原因有如下两点
1当客户端所在的DataNode节点没有RAM_DISK时则会写入客户端所在的DataNode节点的DISK磁盘其余副本会写入其他节点的DISK磁盘。
2当客户端所在的DataNode有RAM_DISK但“dfs.datanode.max.locked.memory”参数值未设置或者设置过小小于“dfs.block.size”参数值时则会写入客户端所在的DataNode节点的DISK磁盘其余副本会写入其他节点的DISK磁盘。
但是由于虚拟机的“max locked memory”为64KB所以如果参数配置过大还会报出错误

ERROR org.apache.hadoop.hdfs.server.datanode.DataNode: Exception in secureMain
java.lang.RuntimeException: Cannot start datanode because the configured max locked memory size (dfs.datanode.max.locked.memory) of 209715200 bytes is more than the datanode's available RLIMIT_MEMLOCK ulimit of 65536 bytes.

我们可以通过该命令查询此参数的内存

[atguigu@hadoop102 hadoop-3.1.3]$ ulimit -a

max locked memory       (kbytes, -l) 64

第6章 HDFS—故障排除

注意采用三台服务器即可恢复到Yarn开始的服务器快照。

6.1 NameNode故障处理

注意采用三台服务器即可恢复到Yarn开始的服务器快照。
在这里插入图片描述
1需求
NameNode进程挂了并且存储的数据也丢失了如何恢复NameNode
2故障模拟
1kill -9 NameNode进程

[atguigu@hadoop102 current]$ kill -9 19886

2删除NameNode存储的数据/opt/module/hadoop-3.1.3/data/tmp/dfs/name

[atguigu@hadoop102 hadoop-3.1.3]$ rm -rf /opt/module/hadoop-3.1.3/data/dfs/name/*

3问题解决
1拷贝SecondaryNameNode中数据到原NameNode存储数据目录

[atguigu@hadoop102 dfs]$ scp -r atguigu@hadoop104:/opt/module/hadoop-3.1.3/data/dfs/namesecondary/* ./name/

2重新启动NameNode

[atguigu@hadoop102 hadoop-3.1.3]$ hdfs --daemon start namenode

3向集群上传一个文件

6.2 集群安全模式&磁盘修复

1安全模式文件系统只接受读数据请求而不接受删除、修改等变更请求
2进入安全模式场景
NameNode在加载镜像文件和编辑日志期间处于安全模式
NameNode再接收DataNode注册时处于安全模式
在这里插入图片描述
3退出安全模式条件
dfs.namenode.safemode.min.datanodes:最小可用datanode数量默认0
dfs.namenode.safemode.threshold-pct:副本数达到最小要求的block占系统总block数的百分比默认0.999f。只允许丢一个块
dfs.namenode.safemode.extension:稳定时间默认值30000毫秒即30秒
4基本语法
集群处于安全模式不能执行重要操作写操作。集群启动完成后自动退出安全模式。
1bin/hdfs dfsadmin -safemode get 功能描述查看安全模式状态
2bin/hdfs dfsadmin -safemode enter 功能描述进入安全模式状态
3bin/hdfs dfsadmin -safemode leave 功能描述离开安全模式状态
4bin/hdfs dfsadmin -safemode wait 功能描述等待安全模式状态
5案例1启动集群进入安全模式
1重新启动集群

[atguigu@hadoop102 subdir0]$ myhadoop.sh stop
[atguigu@hadoop102 subdir0]$ myhadoop.sh start

2集群启动后立即来到集群上删除数据提示集群处于安全模式
在这里插入图片描述
6案例2磁盘修复
需求数据块损坏进入安全模式如何处理
1分别进入hadoop102、hadoop103、hadoop104的/opt/module/hadoop-3.1.3/data/dfs/data/current/BP-1015489500-192.168.10.102-1611909480872/current/finalized/subdir0/subdir0目录统一删除某2个块信息
[atguigu@hadoop102 subdir0]$ pwd
/opt/module/hadoop-3.1.3/data/dfs/data/current/BP-1015489500-192.168.10.102-1611909480872/current/finalized/subdir0/subdir0

[atguigu@hadoop102 subdir0]$ rm -rf blk_1073741847 blk_1073741847_1023.meta
[atguigu@hadoop102 subdir0]$ rm -rf blk_1073741865 blk_1073741865_1042.meta
说明hadoop103/hadoop104重复执行以上命令
2重新启动集群
[atguigu@hadoop102 subdir0]$ myhadoop.sh stop
[atguigu@hadoop102 subdir0]$ myhadoop.sh start
3观察http://hadoop102:9870/dfshealth.html#tab-overview

说明安全模式已经打开块的数量没有达到要求。
4离开安全模式

[atguigu@hadoop102 subdir0]$ hdfs dfsadmin -safemode get
Safe mode is ON
[atguigu@hadoop102 subdir0]$ hdfs dfsadmin -safemode leave
Safe mode is OFF
5观察http://hadoop102:9870/dfshealth.html#tab-overview

6将元数据删除

7观察http://hadoop102:9870/dfshealth.html#tab-overview集群已经正常
7案例3
需求模拟等待安全模式
1查看当前模式
[atguigu@hadoop102 hadoop-3.1.3]$ hdfs dfsadmin -safemode get
Safe mode is OFF
2先进入安全模式
[atguigu@hadoop102 hadoop-3.1.3]$ bin/hdfs dfsadmin -safemode enter
3创建并执行下面的脚本
在/opt/module/hadoop-3.1.3路径上编辑一个脚本safemode.sh
[atguigu@hadoop102 hadoop-3.1.3]$ vim safemode.sh

#!/bin/bash
hdfs dfsadmin -safemode wait
hdfs dfs -put /opt/module/hadoop-3.1.3/README.txt /

[atguigu@hadoop102 hadoop-3.1.3]$ chmod 777 safemode.sh

[atguigu@hadoop102 hadoop-3.1.3]$ ./safemode.sh
4再打开一个窗口执行
[atguigu@hadoop102 hadoop-3.1.3]$ bin/hdfs dfsadmin -safemode leave
5再观察上一个窗口
Safe mode is OFF
6HDFS集群上已经有上传的数据了

6.3 慢磁盘监控

“慢磁盘”指的时写入数据非常慢的一类磁盘。其实慢性磁盘并不少见当机器运行时间长了上面跑的任务多了磁盘的读写性能自然会退化严重时就会出现写入数据延时的问题。
如何发现慢磁盘
正常在HDFS上创建一个目录只需要不到1s的时间。如果你发现创建目录超过1分钟及以上而且这个现象并不是每次都有。只是偶尔慢了一下就很有可能存在慢磁盘。
可以采用如下方法找出是哪块磁盘慢
1通过心跳未联系时间。
一般出现慢磁盘现象会影响到DataNode与NameNode之间的心跳。正常情况心跳时间间隔是3s。超过3s说明有异常。
在这里插入图片描述
2fio命令测试磁盘的读写性能
1顺序读测试

[atguigu@hadoop102 ~]# sudo yum install -y fio
[atguigu@hadoop102 ~]# sudo fio -filename=/home/atguigu/test.log -direct=1 -iodepth 1 -thread -rw=read -ioengine=psync -bs=16k -size=2G -numjobs=10 -runtime=60 -group_reporting -name=test_r

Run status group 0 (all jobs):
   READ: bw=360MiB/s (378MB/s), 360MiB/s-360MiB/s (378MB/s-378MB/s), io=20.0GiB (21.5GB), run=56885-56885msec

结果显示磁盘的总体顺序读速度为360MiB/s。
2顺序写测试

[atguigu@hadoop102 ~]# sudo fio -filename=/home/atguigu/test.log -direct=1 -iodepth 1 -thread -rw=write -ioengine=psync -bs=16k -size=2G -numjobs=10 -runtime=60 -group_reporting -name=test_w


Run status group 0 (all jobs):
  WRITE: bw=341MiB/s (357MB/s), 341MiB/s-341MiB/s (357MB/s-357MB/s), io=19.0GiB (21.4GB), run=60001-60001msec

结果显示磁盘的总体顺序写速度为341MiB/s。
3随机写测试

[atguigu@hadoop102 ~]# sudo fio -filename=/home/atguigu/test.log -direct=1 -iodepth 1 -thread -rw=randwrite -ioengine=psync -bs=16k -size=2G -numjobs=10 -runtime=60 -group_reporting -name=test_randw

Run status group 0 (all jobs):
  WRITE: bw=309MiB/s (324MB/s), 309MiB/s-309MiB/s (324MB/s-324MB/s), io=18.1GiB (19.4GB), run=60001-60001msec

结果显示磁盘的总体随机写速度为309MiB/s。
4混合随机读写

[atguigu@hadoop102 ~]# sudo fio -filename=/home/atguigu/test.log -direct=1 -iodepth 1 -thread -rw=randrw -rwmixread=70 -ioengine=psync -bs=16k -size=2G -numjobs=10 -runtime=60 -group_reporting -name=test_r_w -ioscheduler=noop

Run status group 0 (all jobs):
   READ: bw=220MiB/s (231MB/s), 220MiB/s-220MiB/s (231MB/s-231MB/s), io=12.9GiB (13.9GB), run=60001-60001msec
  WRITE: bw=94.6MiB/s (99.2MB/s), 94.6MiB/s-94.6MiB/s (99.2MB/s-99.2MB/s), io=5674MiB (5950MB), run=60001-60001msec

结果显示磁盘的总体混合随机读写读速度为220MiB/s写速度94.6MiB/s。

6.4 小文件归档

1HDFS存储小文件弊端
在这里插入图片描述
每个文件均按块存储每个块的元数据存储在NameNode的内存中因此HDFS存储小文件会非常低效。因为大量的小文件会耗尽NameNode中的大部分内存。但注意存储小文件所需要的磁盘容量和数据块的大小无关。例如一个1MB的文件设置为128MB的块存储实际使用的是1MB的磁盘空间而不是128MB。
2解决存储小文件办法之一
HDFS存档文件或HAR文件是一个更高效的文件存档工具它将文件存入HDFS块在减少NameNode内存使用的同时允许对文件进行透明的访问。具体说来HDFS存档文件对内还是一个一个独立文件对NameNode而言却是一个整体减少了NameNode的内存。
在这里插入图片描述
3案例实操
1需要启动YARN进程

[atguigu@hadoop102 hadoop-3.1.3]$ start-yarn.sh

2归档文件
把/input目录里面的所有文件归档成一个叫input.har的归档文件并把归档后文件存储到/output路径下。

[atguigu@hadoop102 hadoop-3.1.3]$ hadoop archive -archiveName input.har -p  /input   /output

3查看归档

[atguigu@hadoop102 hadoop-3.1.3]$ hadoop fs -ls /output/input.har
[atguigu@hadoop102 hadoop-3.1.3]$ hadoop fs -ls har:///output/input.har

4解归档文件

[atguigu@hadoop102 hadoop-3.1.3]$ hadoop fs -cp har:///output/input.har/*    /

第7章 HDFS—集群迁移

7.1 Apache和Apache集群间数据拷贝
1scp实现两个远程主机之间的文件复制

scp -r hello.txt root@hadoop103:/user/atguigu/hello.txt		// 推 push
scp -r root@hadoop103:/user/atguigu/hello.txt  hello.txt		// 拉 pull
scp -r root@hadoop103:/user/atguigu/hello.txt 
root@hadoop104:/user/atguigu   //是通过本地主机中转实现两个远程主机的文件复制如果在两个远程主机之间ssh没有配置的情况下可以使用该方式。

2采用distcp命令实现两个Hadoop集群之间的递归数据复制

[atguigu@hadoop102 hadoop-3.1.3]$  bin/hadoop distcp hdfs://hadoop102:8020/user/atguigu/hello.txt 

第8章 MapReduce生产经验

8.1 MapReduce跑的慢的原因

MapReduce程序效率的瓶颈在于两点
1计算机性能
CPU、内存、磁盘、网络
2I/O操作优化
1数据倾斜
2Map运行时间太长导致Reduce等待过久
3小文件过多

8.2 MapReduce常用调优参数

在这里插入图片描述
在这里插入图片描述

8.3 MapReduce数据倾斜问题

1数据倾斜现象
数据频率倾斜——某一个区域的数据量要远远大于其他区域。
数据大小倾斜——部分记录的大小远远大于平均值。
在这里插入图片描述
2减少数据倾斜的方法
1首先检查是否空值过多造成的数据倾斜
生产环境可以直接过滤掉空值如果想保留空值就自定义分区将空值加随机数打散。最后再二次聚合。
2能在map阶段提前处理最好先在Map阶段处理。如Combiner、MapJoin
3设置多个reduce个数

第9章 Hadoop-Yarn生产经验

9.1 常用的调优参数

1调优参数列表
1Resourcemanager相关
yarn.resourcemanager.scheduler.client.thread-count ResourceManager处理调度器请求的线程数量
yarn.resourcemanager.scheduler.class 配置调度器
2Nodemanager相关
yarn.nodemanager.resource.memory-mb NodeManager使用内存数
yarn.nodemanager.resource.system-reserved-memory-mb NodeManager为系统保留多少内存和上一个参数二者取一即可

yarn.nodemanager.resource.cpu-vcores NodeManager使用CPU核数
yarn.nodemanager.resource.count-logical-processors-as-cores 是否将虚拟核数当作CPU核数
yarn.nodemanager.resource.pcores-vcores-multiplier 虚拟核数和物理核数乘数例如4核8线程该参数就应设为2
yarn.nodemanager.resource.detect-hardware-capabilities 是否让yarn自己检测硬件进行配置

yarn.nodemanager.pmem-check-enabled 是否开启物理内存检查限制container
yarn.nodemanager.vmem-check-enabled 是否开启虚拟内存检查限制container
yarn.nodemanager.vmem-pmem-ratio 虚拟内存物理内存比例
3Container容器相关
yarn.scheduler.minimum-allocation-mb 容器最小内存
yarn.scheduler.maximum-allocation-mb 容器最大内存
yarn.scheduler.minimum-allocation-vcores 容器最小核数
yarn.scheduler.maximum-allocation-vcores 容器最大核数

第10章 Hadoop综合调优

10.1 Hadoop小文件优化方法

10.1.1 Hadoop小文件弊端

HDFS上每个文件都要在NameNode上创建对应的元数据这个元数据的大小约为150byte这样当小文件比较多的时候就会产生很多的元数据文件一方面会大量占用NameNode的内存空间另一方面就是元数据文件过多使得寻址索引速度变慢。
小文件过多在进行MR计算时会生成过多切片需要启动过多的MapTask。每个MapTask处理的数据量小导致MapTask的处理时间比启动时间还小白白消耗资源。

10.1.2 Hadoop小文件解决方案

1在数据采集的时候就将小文件或小批数据合成大文件再上传HDFS数据源头
2Hadoop Archive存储方向
是一个高效的将小文件放入HDFS块中的文件存档工具能够将多个小文件打包成一个HAR文件从而达到减少NameNode的内存使用
3CombineTextInputFormat计算方向
CombineTextInputFormat用于将多个小文件在切片过程中生成一个单独的切片或者少量的切片。
4开启uber模式实现JVM重用计算方向
默认情况下每个Task任务都需要启动一个JVM来运行如果Task任务计算的数据量很小我们可以让同一个Job的多个Task运行在一个JVM中不必为每个Task都开启一个JVM。
1未开启uber模式在/input路径上上传多个小文件并执行wordcount程序

[atguigu@hadoop102 hadoop-3.1.3]$ hadoop jar share/hadoop/mapreduce/hadoop-mapreduce-examples-3.1.3.jar wordcount /input /output2
2观察控制台
2021-02-14 16:13:50,607 INFO mapreduce.Job: Job job_1613281510851_0002 running in uber mode : false

3观察

http://hadoop103:8088/cluster

在这里插入图片描述
在这里插入图片描述

在这里插入图片描述

4开启uber模式在mapred-site.xml中添加如下配置

<!--  开启uber模式默认关闭 -->
<property>
  	<name>mapreduce.job.ubertask.enable</name>
  	<value>true</value>
</property>

<!-- uber模式中最大的mapTask数量可向下修改  --> 
<property>
  	<name>mapreduce.job.ubertask.maxmaps</name>
  	<value>9</value>
</property>
<!-- uber模式中最大的reduce数量可向下修改 -->
<property>
  	<name>mapreduce.job.ubertask.maxreduces</name>
  	<value>1</value>
</property>
<!-- uber模式中最大的输入数据量默认使用dfs.blocksize 的值可向下修改 -->
<property>
  	<name>mapreduce.job.ubertask.maxbytes</name>
  	<value></value>
</property>

5分发配置

[atguigu@hadoop102 hadoop]$ xsync mapred-site.xml

6再次执行wordcount程序

[atguigu@hadoop102 hadoop-3.1.3]$ hadoop jar share/hadoop/mapreduce/hadoop-mapreduce-examples-3.1.3.jar wordcount /input /output2
7观察控制台
2021-02-14 16:28:36,198 INFO mapreduce.Job: Job job_1613281510851_0003 running in uber mode : true

8观察

http://hadoop103:8088/cluster

在这里插入图片描述

10.2 测试MapReduce计算性能

使用Sort程序评测MapReduce
注一个虚拟机不超过150G磁盘尽量不要执行这段代码
1使用RandomWriter来产生随机数每个节点运行10个Map任务每个Map产生大约1G大小的二进制随机数

[atguigu@hadoop102 mapreduce]$ hadoop jar /opt/module/hadoop-3.1.3/share/hadoop/mapreduce/hadoop-mapreduce-examples-3.1.3.jar randomwriter random-data

2执行Sort程序

[atguigu@hadoop102 mapreduce]$ hadoop jar /opt/module/hadoop-3.1.3/share/hadoop/mapreduce/hadoop-mapreduce-examples-3.1.3.jar sort random-data sorted-data

3验证数据是否真正排好序了

[atguigu@hadoop102 mapreduce]$ 
hadoop jar /opt/module/hadoop-3.1.3/share/hadoop/mapreduce/hadoop-mapreduce-client-jobclient-3.1.3-tests.jar testmapredsort -sortInput random-data -sortOutput sorted-data

10.3 企业开发场景案例

10.3.1 需求

1需求从1G数据中统计每个单词出现次数。服务器3台每台配置4G内存4核CPU4线程。
2需求分析
1G / 128m = 8个MapTask1个ReduceTask1个mrAppMaster
平均每个节点运行10个 / 3台 ≈ 3个任务4 3 3
10.3.2 HDFS参数调优
1修改hadoop-env.sh

export HDFS_NAMENODE_OPTS="-Dhadoop.security.logger=INFO,RFAS -Xmx1024m"

export HDFS_DATANODE_OPTS="-Dhadoop.security.logger=ERROR,RFAS -Xmx1024m"

2修改hdfs-site.xml

<!-- NameNode有一个工作线程池默认值是10 -->
<property>
    <name>dfs.namenode.handler.count</name>
    <value>21</value>
</property>

3修改core-site.xml

<!-- 配置垃圾回收时间为60分钟 -->
<property>
    <name>fs.trash.interval</name>
    <value>60</value>
</property>

4分发配置

[atguigu@hadoop102 hadoop]$ xsync hadoop-env.sh hdfs-site.xml core-site.xml

10.3.3 MapReduce参数调优

1修改mapred-site.xml

<!-- 环形缓冲区大小默认100m -->
<property>
  <name>mapreduce.task.io.sort.mb</name>
  <value>100</value>
</property>

<!-- 环形缓冲区溢写阈值默认0.8 -->
<property>
  <name>mapreduce.map.sort.spill.percent</name>
  <value>0.80</value>
</property>

<!-- merge合并次数默认10个 -->
<property>
  <name>mapreduce.task.io.sort.factor</name>
  <value>10</value>
</property>

<!-- maptask内存默认1g maptask堆内存大小默认和该值大小一致mapreduce.map.java.opts -->
<property>
  <name>mapreduce.map.memory.mb</name>
  <value>-1</value>
  <description>The amount of memory to request from the scheduler for each    map task. If this is not specified or is non-positive, it is inferred from mapreduce.map.java.opts and mapreduce.job.heap.memory-mb.ratio. If java-opts are also not specified, we set it to 1024.
  </description>
</property>

<!-- matask的CPU核数默认1个 -->
<property>
  <name>mapreduce.map.cpu.vcores</name>
  <value>1</value>
</property>

<!-- matask异常重试次数默认4次 -->
<property>
  <name>mapreduce.map.maxattempts</name>
  <value>4</value>
</property>

<!-- 每个Reduce去Map中拉取数据的并行数。默认值是5 -->
<property>
  <name>mapreduce.reduce.shuffle.parallelcopies</name>
  <value>5</value>
</property>

<!-- Buffer大小占Reduce可用内存的比例默认值0.7 -->
<property>
  <name>mapreduce.reduce.shuffle.input.buffer.percent</name>
  <value>0.70</value>
</property>

<!-- Buffer中的数据达到多少比例开始写入磁盘默认值0.66。 -->
<property>
  <name>mapreduce.reduce.shuffle.merge.percent</name>
  <value>0.66</value>
</property>

<!-- reducetask内存默认1greducetask堆内存大小默认和该值大小一致mapreduce.reduce.java.opts -->
<property>
  <name>mapreduce.reduce.memory.mb</name>
  <value>-1</value>
  <description>The amount of memory to request from the scheduler for each    reduce task. If this is not specified or is non-positive, it is inferred
    from mapreduce.reduce.java.opts and mapreduce.job.heap.memory-mb.ratio.
    If java-opts are also not specified, we set it to 1024.
  </description>
</property>

<!-- reducetask的CPU核数默认1个 -->
<property>
  <name>mapreduce.reduce.cpu.vcores</name>
  <value>2</value>
</property>

<!-- reducetask失败重试次数默认4次 -->
<property>
  <name>mapreduce.reduce.maxattempts</name>
  <value>4</value>
</property>

<!-- 当MapTask完成的比例达到该值后才会为ReduceTask申请资源。默认是0.05 -->
<property>
  <name>mapreduce.job.reduce.slowstart.completedmaps</name>
  <value>0.05</value>
</property>

<!-- 如果程序在规定的默认10分钟内没有读到数据将强制超时退出 -->
<property>
  <name>mapreduce.task.timeout</name>
  <value>600000</value>
</property>
2分发配置
[atguigu@hadoop102 hadoop]$ xsync mapred-site.xml
10.3.4 Yarn参数调优
1修改yarn-site.xml配置参数如下
<!-- 选择调度器默认容量 -->
<property>
	<description>The class to use as the resource scheduler.</description>
	<name>yarn.resourcemanager.scheduler.class</name>
	<value>org.apache.hadoop.yarn.server.resourcemanager.scheduler.capacity.CapacityScheduler</value>
</property>

<!-- ResourceManager处理调度器请求的线程数量,默认50如果提交的任务数大于50可以增加该值但是不能超过3台 * 4线程 = 12线程去除其他应用程序实际不能超过8 -->
<property>
	<description>Number of threads to handle scheduler interface.</description>
	<name>yarn.resourcemanager.scheduler.client.thread-count</name>
	<value>8</value>
</property>

<!-- 是否让yarn自动检测硬件进行配置默认是false如果该节点有很多其他应用程序建议手动配置。如果该节点没有其他应用程序可以采用自动 -->
<property>
	<description>Enable auto-detection of node capabilities such as
	memory and CPU.
	</description>
	<name>yarn.nodemanager.resource.detect-hardware-capabilities</name>
	<value>false</value>
</property>

<!-- 是否将虚拟核数当作CPU核数默认是false采用物理CPU核数 -->
<property>
	<description>Flag to determine if logical processors(such as
	hyperthreads) should be counted as cores. Only applicable on Linux
	when yarn.nodemanager.resource.cpu-vcores is set to -1 and
	yarn.nodemanager.resource.detect-hardware-capabilities is true.
	</description>
	<name>yarn.nodemanager.resource.count-logical-processors-as-cores</name>
	<value>false</value>
</property>

<!-- 虚拟核数和物理核数乘数默认是1.0 -->
<property>
	<description>Multiplier to determine how to convert phyiscal cores to
	vcores. This value is used if yarn.nodemanager.resource.cpu-vcores
	is set to -1(which implies auto-calculate vcores) and
	yarn.nodemanager.resource.detect-hardware-capabilities is set to true. The	number of vcores will be calculated as	number of CPUs * multiplier.
	</description>
	<name>yarn.nodemanager.resource.pcores-vcores-multiplier</name>
	<value>1.0</value>
</property>

<!-- NodeManager使用内存数默认8G修改为4G内存 -->
<property>
	<description>Amount of physical memory, in MB, that can be allocated 
	for containers. If set to -1 and
	yarn.nodemanager.resource.detect-hardware-capabilities is true, it is
	automatically calculated(in case of Windows and Linux).
	In other cases, the default is 8192MB.
	</description>
	<name>yarn.nodemanager.resource.memory-mb</name>
	<value>4096</value>
</property>

<!-- nodemanager的CPU核数不按照硬件环境自动设定时默认是8个修改为4个 -->
<property>
	<description>Number of vcores that can be allocated
	for containers. This is used by the RM scheduler when allocating
	resources for containers. This is not used to limit the number of
	CPUs used by YARN containers. If it is set to -1 and
	yarn.nodemanager.resource.detect-hardware-capabilities is true, it is
	automatically determined from the hardware in case of Windows and Linux.
	In other cases, number of vcores is 8 by default.</description>
	<name>yarn.nodemanager.resource.cpu-vcores</name>
	<value>4</value>
</property>

<!-- 容器最小内存默认1G -->
<property>
	<description>The minimum allocation for every container request at the RM	in MBs. Memory requests lower than this will be set to the value of this	property. Additionally, a node manager that is configured to have less memory	than this value will be shut down by the resource manager.
	</description>
	<name>yarn.scheduler.minimum-allocation-mb</name>
	<value>1024</value>
</property>

<!-- 容器最大内存默认8G修改为2G -->
<property>
	<description>The maximum allocation for every container request at the RM	in MBs. Memory requests higher than this will throw an	InvalidResourceRequestException.
	</description>
	<name>yarn.scheduler.maximum-allocation-mb</name>
	<value>2048</value>
</property>

<!-- 容器最小CPU核数默认1个 -->
<property>
	<description>The minimum allocation for every container request at the RM	in terms of virtual CPU cores. Requests lower than this will be set to the	value of this property. Additionally, a node manager that is configured to	have fewer virtual cores than this value will be shut down by the resource	manager.
	</description>
	<name>yarn.scheduler.minimum-allocation-vcores</name>
	<value>1</value>
</property>

<!-- 容器最大CPU核数默认4个修改为2个 -->
<property>
	<description>The maximum allocation for every container request at the RM	in terms of virtual CPU cores. Requests higher than this will throw an
	InvalidResourceRequestException.</description>
	<name>yarn.scheduler.maximum-allocation-vcores</name>
	<value>2</value>
</property>

<!-- 虚拟内存检查默认打开修改为关闭 -->
<property>
	<description>Whether virtual memory limits will be enforced for
	containers.</description>
	<name>yarn.nodemanager.vmem-check-enabled</name>
	<value>false</value>
</property>

<!-- 虚拟内存和物理内存设置比例,默认2.1 -->
<property>
	<description>Ratio between virtual memory to physical memory when	setting memory limits for containers. Container allocations are	expressed in terms of physical memory, and virtual memory usage	is allowed to exceed this allocation by this ratio.
	</description>
	<name>yarn.nodemanager.vmem-pmem-ratio</name>
	<value>2.1</value>
</property>

2分发配置

[atguigu@hadoop102 hadoop]$ xsync yarn-site.xml

10.3.5 执行程序

1重启集群

[atguigu@hadoop102 hadoop-3.1.3]$ sbin/stop-yarn.sh
[atguigu@hadoop103 hadoop-3.1.3]$ sbin/start-yarn.sh

2执行WordCount程序

[atguigu@hadoop102 hadoop-3.1.3]$ hadoop jar share/hadoop/mapreduce/hadoop-mapreduce-examples-3.1.3.jar wordcount /input /output

3观察Yarn任务执行页面

http://hadoop103:8088/cluster/apps

OK关于大数据技术之Hadoop生产调优手册的内容是比较侧重实际的希望各位能够从里面学到有用的调优方法后面我有时间也会继续更新相关内容。

阿里云国内75折 回扣 微信号:monov8
阿里云国际,腾讯云国际,低至75折。AWS 93折 免费开户实名账号 代冲值 优惠多多 微信号:monov8 飞机:@monov6
标签: Hadoop

“大数据技术之Hadoop(生产调优手册)” 的相关文章

Hadoop运行环境搭建1年前 (2023-02-05)
Hadoop常用命令1年前 (2023-02-07)
小记(hadoop)1年前 (2023-02-07)
hadoop考试应急1年前 (2023-02-17)