性能调优之于Hadoop来说无异于打通任督二脉,对于Hadoop的计算能力会有质的的提升,而运维之于Hadoop来说,就好像金钟罩、铁布衫一般,有了稳定的运维,Hadoop才能在海量数据之中大展拳脚,两者相辅相成,缺一不可。
总体来说,Hadoop运维维度取决于Hadoop的运行环境以及Hadoop软件本身。而Hadoop 性能调优是一项工程浩大的工作,它不仅涉及Hadoop本身的性能调优,还涉及硬件、操作系统和Java虚拟机的调优。
1、Hadoop客户端
在开始介绍性能调优和运维之前,我们先来回顾一下Hadoop的架构,Hadoop是主从(master/slave)架构,具体存储和计算都是由节点负责,主节点负责调度、元数据存储、资源管理等。我们不禁会问,应该在哪个节点提交任务、上传文件呢?当然,主节点可以,集群上任意一个节点也可以,但是这样做会让运维的难度增大,使得集群不在纯净,所以不推荐这样做。
我们很自然地希望将这些提交任务的工作交由一个节点来完成,但是又希望这个节点在集群之外,事实上,这样的节点是存在的我们称之为Hadoop客户端。Hadoop客户端可以被认为是独立于集群之外,或者是集群内特殊的一个节点,它不参与计算和存储,可以用来提交任务。
该节点的部署很简单,将集群内任意一台机器的安装文件,不做任何修改直接全部发送到Hadoop节点的相同目录下即可部署。这么一来,在Hadoop客户端就可以直接执行Hadoop客户端相关命令,如Hadoop jar、Hadoop dfs等等,甚至直接可以在Hadoop客户端执行start-all.sh脚本,由于在集群的配置文件slaves中并没有配置Hadoop客户端的IP地址,所以Hadoop不会在Hadoop客户端启动DataNode、NodeManager进程。
当这个节点部署好以后,Hadoop客户端就接管了集群中所有与计算存储无关的任务,例如向HDFS中上传下载文件、提交计算任务等等。那么自然而然的,Hive、Sqoop的安装位置也应该是Hadoop客户端。本质上,Hive和Sqoop对于Hadoop来说就是一个客户端,通过提交任务和集群进行交互。那么一个规范的集群,用户应该通过访问Hadoop客户端来和Hadoop集群进行交互。
2、Hadoop性能调优
对于Hadoop来说,初始配置和调优有的配置,两者性能之间的差距十分明显,为了加深印象,我们不妨先运行一个10GB大小的WordCount作业,或者是对于一个Hive大表执行一条HiveQL,记录下运行时间,然后和调优过后的时间进行比较。
Hadoop性能调优需要全方面进行考虑,本身Hadoop就不是独立存在的,它和Java虚拟机(JVM)、操作系统甚至硬件都是有很紧密的联系。管理员负责为用户作业提供一个高效的运行环境,需要从全局出发,通过调整一些关键参数提高系统的吞吐率和性能。总体上来看,管理员需从硬件选择、操作系统参数调优、JVM参数调优和Hadoop参数调优等四个角度入手,为Hadoop用户提供一个高效的作业运行环境。
2.1、硬件选择
Hadoop的优点之一就是能在普通硬件上良好地运行,所以不需要购买昂贵的硬件。但是仍然需要考虑实际工作中的硬件符合。例如CPU、内存和硬盘。
原则1:主节点可靠性要好于从节点
Hadoop是主从架构,Hadoop自身架构的基本特点决定了其硬件配置的选项。Hadoop采用了Master/Slave架构,其中,主节点维护了全局元数据信息,是YARM的ResourceManager和HDFS的NameNode,其重要性远远大于slave。一旦主节点挂掉,会造成整个集群不可用。在较低Hadoop版本中,master存在单点故障问题,因此,master的配置应远远好于各个slave。
原则2:多路多核、高频率CPU、大内存
NameNode的内存决定了集群保存文件数量的总量,ResourceManager同时运行的作业会消耗一定的内存。
对于NameNode来说,在内存方面要特别考虑,每当HDFS启动的时候,NameNode会将元数据加载进内存。所以HDFS所能存储的文件总数受限于NameNode的内存容量。而SecondaryNameNode的配置应该与NameNode相同,当NameNode宕机时,这些信息被保存在ResourceManagerde的内存中。ResourceManager的内存需求也是很高,与NameNode不同的是,它与HDFS文件总数无关,与需要处理的作业有关。
从节点负责计算和存储,所以需要保证CPU和内存能够满足计算要求,而磁盘满足存储要求。对YARN来说,它要运行各种各样的任务,当然希望有足够的计算资源。一般来说,内存和虚拟CPU要满足一个线性比例,这样在分配的时候才不容易造成浪费。
虚拟CPU的个数计算公式=CPU数X单个CPU核数X单个CPU核的超线程数”,例如,一个双路的六核CPU,具有HT超线程技术,那么它的虚拟CPU个数是2X6X2=24个,按照每个虚拟CPU分配4GB8GB的原则,服务内存应该为96GB-192GB。才外还需要操作系统以及其他其他服务预留资源。
原则3:根据数据量确定集群规模
在规划的存储能力时候,首先考虑因素是块的副本数,如果副本数是3,那么平均下来1TB文件在集群实际上需要3TB文件,平摊到每个节点就是每个节点所需要的最小容量。当然这个容量还是不够的,最好是1.3倍。
原则4:不要让网络IO成为瓶颈
Hadoop作业通常是IO密集型而非计算密集型,瓶颈通常集中在IO上。计算能力可以通过添加新节点进行线性扩展,而IO方面的瓶颈却很难进行扩展。例如硬盘读写能力,交换机背板带宽等。
具体方法是调整/etc/sysctl.conf文件中的vm.swappiness参数。vm.swappiness有效范围是0~100,值越高表明内核应该更积极将应用程序的数据交换到磁盘,较低的值表示将延迟这种行为,而不是强制丢弃文件系统的缓冲区。
2.2、操作系统调优与JVM调优
( 1 )、避免使用SWAP分区,因为将Hadoop守护进程的数据交换到磁盘的行为可能会导致操作超时
swap分区是指在系统的物理内存不够用的时候,把物理内存中的一部分空间释放出来,以供当前运行的程序使用。通过vm.swapiness参数进行控制,值域是0-100,值越高说明操作系统内核更加积极地将应用程序的数据交换到磁盘。将Hadoop守护进程的数据交换到磁盘的行为是危险的,有可能导致操作超时,所以将该值设定为0。
在Linux中,如果一个进程的内存空间不足,那么,它会将内存中的部分数据暂时写到磁盘上,当需要时,再将磁盘上的数据动态置换到内存中,通常而言,这种行为会大大降低进程的执行效率。在MapReduce分布式计算环境中,用户完全可以通过控制每个作业处理的数据量和每个任务运行过程中用到的各种缓冲区大小,避免使用swap分区。
具体方法是调整/etc/sysctl.conf文件中的vm.swappiness参数。vm.swappiness有效范围是0~100,值越高表明内核应该更积极将应用程序的数据交换到磁盘,较低的值表示将延迟这种行为,而不是强制丢弃文件系统的缓冲区。
[root@Hadoop ~]# echo "vm.swappiness = 0 " >> /etc/sysctl.conf
( 2 )、调整内存分配策略
操作系统内核根据vm.overcommit_memory的值来决定内存分配策略,并且通过vm.overcommit_ratio的值来设定超过物理内存的比例。前者一般设置为2,后者根据实际情况调整。
[root@NameNode ~]# echo 2 > /proc/sys/vm/overcommit_memory
进程通常调用malloc()函数来分配内存,内存决定是否有足够的可用内存,并允许或拒绝内存分配的请求。Linux支持超量分配内存,以允许分配比可用RAM加上交换内存的请求。
vm.overcommit_memory参数有三种可能的配置。0表示检查是否有足够的内存可用,如果是,允许分配;如果内存不够,拒绝该请求,并返回一个错误给应用程序。1 表示根据vm.overcommit_ratio定义的值,允许分配超出物理内存加上交换内存的请求。vm.overcommit_ratio参数是一个百分比,加上内存量决定内存可以超量分配多少内存。例如,vm.overcommit_ratio值为50,而内存有1GB,那么这意味着在内存分配请求失败前,加上交换内存,内存将允许高达1.5GB的内存分配请求。2 表示内核总是返回true。
( 3 )、修改net.core.somaxconn参数
该参数是Linux中的内核参数,表示socket监听backlog的上限,backlog是套接字的监听队列,默认是128,socket服务器会一次性处理backlog中的所有请求,当服务器繁忙的时候,128远远不够的,建议大于等于32768。并且修改core-default.xml中的.ipc.server.listen.queue.size参数(该参数表示服务端套接字的监听队列长度,即backlog长度)。
( 4 )、选择合适的文件系统,并且禁用文件的访问时间
Hadoop运行在Linux系统,常见文件系统就是ext3、ext4、xfs。对于不同文件系统,ext3、ext4性能会有所不同。
当文件系统被格式化以后,还需要做一项优化工作,禁用文件的访问时间。对于普通管得机器,这项功能可以让用户知道哪些文件近期被查看或者修改,但是对于HFDS没有多大意义。因为HDFS目前不支持这类操作,并且获取某个文件的某个块什么时候被访问并没有意义。如果记录了文件的访问时间的话,在每次读操作的时候,也会伴随一个写操作,这个开销是无谓的。所以在挂载数据分区的时候,需要禁用文件的访问时间。
( 5 )、增大同时打开的文件描述符和网络连接上限
对内核来说,所有打开的文件都通过文件描述符引用,文件描述符是一个非负整数。当打开一个现有文件或者创建一个文件的时候,内核向进程返回一个文件描述符。在CDH
集群中,由于涉及的作业和任务数目非常多。Hadoop的作业经常会读写大量文件,需要增大同时打开文件描述符的上限。因此,管理员在启动Hadoop集群时,使用ulimit命令将允许同时打开的文件描述符数目上限增大至一个合适的值。同时,调整内核参数net.core.somaxconn网络连接数目至一个足够大的值。此外,Hadoop RPC采用了epoll作为高并发库,如果你使用的Linux内核版本在2.6.28以上,你需要适当调整epoll的文件描述符上限。
( 6 )、设置合理的预读取缓冲区大小
磁盘I/O性能的发展远远滞后于CPU和内存,因而成为现代计算机系统的一个主要瓶颈。预读可以有效地减少磁盘的寻道次数和应用程序的I/O等待时间,是改进磁盘读I/O性能的重要优化手段之一。管理员可使用Linux命令blockdev设置预读取缓冲区的大小,以提高Hadoop中大文件顺序读的性能。当然,也可以只为Hadoop系统本身增加预读缓冲区大小。
( 7 )、设置内核死锁参数
softlockup(watchdog)用于检测系统调度是否正常,即软锁的情况,当发生softlockup时,内核不能调度,但还能响应中断,对用户的表现可能为:能ping通,但无法登陆系统,无法进行正常操作。其基本原理为:为每个CPU启动一个内核线程(watchdog/x),此线程为优先级最高的实时线程,在该线程得到调度时,会更新相应的计数(时间戳),同时会启动定时器,当定时器到期时检查相应的时间戳,如果超过指定时间,都没有更新,则说明这段时间内都没有发生调度(因为此线程优先级最高),则打印相应告警或根据配置可以进入panic流程,警告中包含占用时长和进程名及pid。
[root@NameNode ~]# echo 60 > /proc/sys/kernel/watchdog_thresh # 超时阈值,目前设置为60秒
[root@NameNode ~]# echo 1 > /proc/sys/kernel/softlockup_panic # 默认为0,即只打印日志;1为宕机重启
(8 )、关闭THP
Huge Pages就是大小为2MB-1GB的内存页,而THP(Transparent Huge Pages)是一个使管理Huge Pages自动化的抽象层,但是在运行Hadoop作业时,THP会引起CPU占用率偏高,需要将其关闭。
(9 )、JVM参数调优
由于Hadoop中的每个服务和任务均会运行在一个单独的JVM中,因此,JVM的一些重要参数也会影响Hadoop性能。管理员可通过调整JVM FLAGS和JVM垃圾回收机制提高Hadoop性能,调整后的执行效率大概有4%的提升。
2.3、Haddop参数调优
Hadoop为用户作业提供了多种可配置的参数,以允许用户根据作业特点调整这些参数值使作业运行效率达到最优。
2.3.1、hdfs-site.xml
<property>
<name>dfs.blocksize</name>
<value>134217728</value>
</property>
该参数表示Hadoop文件
块大小,通常设置为128MB或者256MB。
<property>
<name>dfs.replication</name>
<value>3</value>
</property>
该参数表示控制HDFS文件的副本数,默认是3,当许多任务同时读取一个文件时,读取可能造成瓶颈,这时增大副本数能有效缓解,但会造成大量的磁盘空间占用,这时只修改Hadoop客户端的配置,这样,从Hadoop客户端上传的文件的副本数以Hadoop客户端的为准。
<property>
<name>dfs.namenode.handler.count</name>
<value>40</value>
</property>
该参数表示NameNode同时和DataNode通信的线程数,默认是10,将其增大为40。
2.3.2、core-site.xml
<property>
<name>io.file.buffer.size</name>
<value>65536</value>
</property>
缓冲区的大小用于读写HDFS文件,还有map中间结果输出都到这个缓冲区容量,默认4KB,增加128KB。
2.3.3、Yarn-site.xml
<property>
<name>yarn.scheduler.increment-allocation-mb</name>
<value>512</value>
</property>
该参数表示内存申请大小的规整化单位,默认是1024MB,即如果申请的内存是1.5GB,将被计算为2GB。
<property>
<name>yarn.scheduler.increment-allocation-vcores</name>
<value>1</value>
</property>
该参数表示虚拟CPU申请的规整化单位,默认是1个。
<property>
<name>yarn.scheduler.maximum-allocation-mb</name>
<value>65536</value>
该参数表示单个任务(容器)能够申请到的最大内存,根据容器内存总量进行设置,默认8GB。
<property>
<name>yarn.scheduler.maximum-allocation-vcores</name>
<value>32</value>
</property>
该参数表示单个任务(容器)能够申请到的最大虚拟CPU数,根据容器虚拟CPU总数进行设置,默认是4。
<property>
<name>yarn.scheduler.minimum-allocation-mb</name>
<value>1</value>
</property>
该参数表示单个任务(容器)能够申请到的最小内存,根据容器内存总量进行设置,默认1GB。
<property>
<name>yarn.scheduler.minimum-allocation-vcores</name>
<value>1</value>
</property>
该参数表示单个任务(容器)能够申请到的最小虚拟CPU数,根据容器虚拟CPU总数进行设置,默认是1。
2.3.4、mapred-site.xml
<property>
<name>mapreduce.map.output.compress</name>
<value>true</value>
</property>
该参数表示Map任务的中间结果是否进行压缩,设定为true时,会对中间结果进行压缩,这样会减少数据传输时贷款的需要。
<property>
<name>mapreduce.map.memory.mb</name>
<value>2048</value>
</property>
该参数表示Map任务需要的内存大小。
<property>
<name>mapreduce.map.cpu.vcores</name>
<value>1</value>
</property>
该参数表示Map任务所需要的虚拟CPU数,默认是1。
<property>
<name>mapreduce.reduce.memory.mb</name>
<value>2048</value>
</property>
该配置为Reduce任务所需要的内存大小。
<property>
<name>mapreduce.reduce.cpu.vcores</name>
<value>1</value>
</property>
该配置为Reduce任务向调度器需要的虚拟CPU数,默认是1,根据容器虚拟CPU数设定。
3、Hive调优
在实际应用中,我们会选择Hive而不是Mapduce开发应用,所以Hive使用的频率会非常高,有必要对其进行调优,调优的而方法是参数配置、优化HQL等等,Hive的配置文件是$Hive_HOME/conf/hive=site.xml文件。
其实Hive已经做了很多原生优化的工作了,所以在执行效率和稳定性上已经很不错,但是仍然有优化的空间,经过有针对性的调优,有利于HIve有效的运行。
3.1、JOIN优化
在执行JOIN语句中,需要将大表放在右边以获得更好的性能,如果一个表小到能影响全部加在到内存中,那么可以考虑执行map端JOIN。
3.2、Reducer的数量
将Reducer最大值设定为n*0.95,其中n为NodeManger数量,通过设置hive.reducers.max可以增加Reducer数量,但是这样并不能直接增大Hive作业的Reducer的个数,Hive作业的Redurce个数可以直接由以下两个参数配置决定的。
hive.exec.reducers.bytes.per.reducer(默认1GB)
hive.exec.reducers.max(默认999)
计算Reducer个数的公式为“Reducer的个数=min(参数是2,总输入蜀将/参数1)”,所以如果输入数据是5GB情况相爱,Hive会开启5个Reducer,我们可以通过改变这两个参数,来达到控制Reducer个数的目的。
3.3、并行执行
一个HQL会被Hive拆分成为多个作业,这些作业有时候相互之间会有依赖,有时候则相互独立,如表1和表2JOIN的结果与表3和表4JOIN的结果再JOIN,那么
表1和表2JOIN的结果与表3和表4JOIN这两个作业则是相互独立,而最后一次JOIN的作业依赖于前两个作业。从逻辑上看,第一个作业和第二个作业可以同时执行。但是HIve默认不考虑并行性。一次执行作业,我们可以通过设置参数hive.exec.paraller为true,开启Hive的并行模式。
4、Hbase调优
Hbase在使用过程中也需要调优,才能保证在极大的数据量下满足业务的需求。但Hbase调优其实比Hadoop要复杂和灵活一些,因为面对的情况不一样,如高并发读、高并发写、高并发读写混合,要求低延迟,等等,所以经常会用对某几个参数反复调试才能达到最佳效果。Hbase的调优覆盖是全方面的,有表设计上的,有运维上的,有硬件上的,还有配置参数上的。
4.1、通用调优
Hbase是面向业务,业务场景不同,调优方式不同。例如,有些场景读多写少,有些场景写少读多,有些场景读写各半。Hbase有些通用优点几乎适用于所有场景,能让Hbase的性能获得整体提升。
增大Zookeeper连接数:Zookeeper最大连接数会影响Hbase的并发性能,最大连接数可以通过Zookepper上的maxClientCxns参数进行配置,在配置时候注意考虑硬件的性能。
适当的region大小:region越大越少,性能越好。
Region处理器数量:该配置定义了每一个RegionServer的RPC处理器的数量。Reguin Server通过RPC处理器接受外部请求并且加以处理。所以增加RPC处理的数量可以一定程度提高Hbase接受请求的能力,也就是RegionServer接受请求的能力。这个参数跟内存息息相关。
RegionServer内存:推荐32GB,再大的话,对性能影响不大。
考虑SSD硬盘:当对性能比较严格苛刻时候,采取SSD,这样性能可以得到显著提升,Hbae的瓶颈一般在硬盘和网络。
4.2、客户端调优
因为Hbase的读写请求都是由客户端发起的,所以根据不同的业务改变客户端的查询和写入方式,也能使Hbase的性能有所提升,并且客户端的参数的作用于都是会话范围,非常灵活。例如,客户端写入缓冲区、禁止自动刷新、设置客户端高速缓存、并行插入框架等等。
4.3、表设计调优
行健设计:行健设计对Hbase来说非常重要。它的设计直接影响了查询模式、查询性能和数据分布。
不要在一张表里面定义太多的列族。
在创建表时候,可以进行与分区:这样可以避免表频繁地进行solit,数据自然在集群分散分布。
5、Hadoop运维
Hadoop运维无外乎,监控整个集群的健康状态,了解磁盘的剩余空间,及时处理死掉的datanode,对磁盘碎片进行处理,
以便提高集群的运行效率。当集群中存在运行任务时,需要对任务的参数进行控制,保证整个集群能够正常的高效的完成任务
如果出现异常,需要分析异常,调整参数。一般的hadoop运维都是程序员出生,不然很难弄。你对hadoop一知半解,那整个
Hadoop集群出现问题,你都不知道从何入手。
Cloudera Manager作为Hadoop大数据平台的管理工具,本身具有四大功能:管理功能,监控功能、诊断功能和集成功能。
5.1、查看日志
日志是Hadoop运维最重要的依据,无论遇到什么异常情况,通常首先要做的就是查看日志。tail -f 查看 命令可以实时查看更新日志:$HADOOP_HOME/logs/下NameNode、DataNode、ResourceManager和NodeManager的日志。
很多时候,由于对集群的操作太过频繁,或是日志输出不合理,日志文件或者历史文件可能变得十分巨大,影响正常HDFS存储,可以视情况定期清理。有时候,我们发现,即使删除了某些大文件,但是df -h查看分区占用率依旧填满。那是什么原因呢?
原来,Linux系统下文件名是存在父目录的block里面,并指向这个文件的inode节点,这个文件的inode节点再指向存放这个文件的block数据块。当我们删除一个文件时,实际上并不是清除了inode节点和block数据块。只是在这个文件的父目录里面的block中,删除了这个文件的名字,从而使这个文件名消失,并且无法指向这个文件的inode节点而已。
所以,rm -f 这个操作只是将文件的 i_nlink减少了,如果没有其它的链接 i_nlink就为0了。但是由于该文件依然被进程引用,因此,此时文件对应的 i_count并不为0,所以执行rm操作,系统并没有真正的删除这个文件,只有当 i_nlink和 i_count都为 0 的时候,这个文件才会被真正的删除。也就是说,必须要解除该进程对该文件的调用,才能真正的删除。
lsof简介lsof(list open files)是一个列出当前系统打开文件的工具。查看已经删除的文件,空间有没有释放,没有的话kill掉pid
lsof -n |grep deleted
5.3、定期执行数据均衡脚本
导致HDFS数据不均衡的原因有很多种,如新增一个DataNode、快速删除HDFS上的大量文件、计算任务分布不均匀等等。可以通过执行Hadoop自带的均衡器脚本来重新平衡整个集群,脚本的路径是$Hadoop_HOME/bin/start-balancer.sh。