Flink集群搭建&整合Yarn运行

时间:2024-12-08 07:01:48

Flink 集群

1. 服务器规划

服务器
h1、h4、h5

2. StandAlone 模式(不推荐)

2.1 会话模式
在h1操作
#1、解压
tar -zxvf flink-1.19.1-bin-scala_2.12.tgz -C /app/

#2、修改配置文件
cd /app/flink-1.19.1/conf
vim conf.yaml
##内容:##
jobmanager:
	rpc:
		address: h1
	bind-host: 0.0.0.0
rest:
	address: h1
	bind-address: 0.0.0.0
# TaskManager节点地址.需要配置为当前机器名
taskmanager:
	bind-host: 0.0.0.0
	host: h1
#配置jdk地址
env:
  java:
    home: /usr/java/jdk-11.0.2
##内容结束##

#3、设置从节点
vim workers
##内容:##
h1
h4
h5
##内容结束##

#3、设置主节点
vim masters
##内容:##
h1:8081
##内容结束##

#4、把安装包分发
cd /app
scp -r flink-1.19.1/ h4:$PWD
scp -r flink-1.19.1/ h5:$PWD

#5、分别在h4、h5上修改taskmanager.host为自己的地址
#h4:
taskmanager.host: h4

#h5:
taskmanager.host: h5

#6、在h1启动测试
#因为组件混合配置,flink在启动之前需要先配置java环境为jdk11
cd /app/flink-1.19.1/
vim bin/start-cluster.sh
##内容##
# 指定新的 JAVA_HOME use jdk11
export JAVA_HOME=/usr/java/jdk-11.0.2
export PATH=$JAVA_HOME/bin:$PATH
##内容结束##

bin/start-cluster.sh

#停止
bin/stop-cluster.sh

#7、查看启动
jps
h1:8081  #浏览器
2.2 单作业模式

Flink 的 Standalone 集群并不支持单作业模式部署。因为单作业模式需要借助一些资源管理平台

2.3 应用模式

应用模式下不会提前创建集群,所以不能调用 start-cluster.sh 脚本。我们可以使用同样在 bin 目录下的 standalone-job.sh 来创建一个 JobManager

#上传jar包到lib目录
cd /app/flink-1.19.1/lib
rz -E

cd /app/flink-1.19.1/
bin/standalone-job.sh start --job-classname com.mywind.bg.wc.SocketStreamWordCount
bin/taskmanager.sh start


#测试
nc -lk 7777
ni hao
wo hao


#停止
bin/taskmanager.sh stop
bin/standalone-job.sh stop

3. Yarn 运行模式(推荐)

前面的配置文件不会影响

3.1 配置环境
#启动Hadoop集群(HDFS、YARN)
vim /etc/profile.d/my_env.sh
##内容##
HADOOP_HOME=/opt/cloudera/parcels/CDH/
export PATH=$PATH:$HADOOP_HOME/bin
export HADOOP_CONF_DIR=/etc/hadoop/conf
export HADOOP_CLASSPATH=`hadoop classpath`

#export HADOOP_CONF_DIR=/etc/hadoop/conf
#export HBASE_CONF_DIR=/etc/hbase/conf
##内容结束##
source /etc/profile.d/my_env.sh

scp /etc/profile.d/my_env.sh h4:/etc/profile.d/
scp /etc/profile.d/my_env.sh h5:/etc/profile.d/
#分别到h4、h5 source
source /etc/profile.d/my_env.sh

#h1、h4、h5创建用户mflink
useradd mflink
passwd mflink
mflink
mflink

#创建提交作业的用户目录,并设置权限
sudo -u hdfs hdfs dfs -mkdir /user/mflink
sudo -u hdfs hdfs dfs -chown mflink:supergroup /user/mflink

3.2 会话模式(测试使用)

YARN 的会话模式与独立集群略有不同,需要首先申请一个 YARN 会话(YARN Session)来启动 Flink 集群

#执行脚本命令向YARN集群申请资源,开启一个YARN会话,启动Flink集群
cd /app/flink-1.19.1/
#以后都用mflink用户提交作业
su mflink
bin/yarn-session.sh -nm test  #建议后台提交(加参数 -d)
#in/yarn-session.sh -d -nm yarn-session-test


#提交作业测试
./bin/flink run examples/streaming/WordCount.jar
3.3 单作业模式

在 YARN 环境中,由于有了外部平台做资源调度,所以我们也可以直接向 YARN 提交一个单独的作业,从而启动一个 Flink 集群

cd /app/flink-1.19.1/conf/
vim conf.yaml
##内容##
classloader:
 check-leaked-classloader: false
####
cd /app/flink-1.19.1/
bin/flink run -d -t yarn-per-job examples/streaming/WordCount.jar
3.4 应用模式(生产使用)

应用模式同样非常简单,与单作业模式类似,直接执行 flink run-application 命令即可

3.4.1 命令行提交
cd /app/flink-1.19.1/
bin/flink run-application -t yarn-application examples/streaming/WordCount.jar
3.4.2 上传 HDFS 提交

通过 yarn.provided.lib.dirs 配置选项指定位置,将 flink 的依赖上传到远程

cd /app/flink-1.19.1/
#创建flink文件目录
sudo -u hdfs hdfs dfs -mkdir /flink-dist
sudo -u hdfs hdfs dfs -put lib/ /flink-dist
sudo -u hdfs hdfs dfs -put plugins/ /flink-dist

#创建jar包目录
sudo -u hdfs hdfs dfs -mkdir /flink-dist/flink-jars
sudo -u hdfs hdfs dfs -put examples/streaming/WordCount.jar /flink-dist/flink-jars

#执行任务
bin/flink run-application -t yarn-application -Dyarn.provided.lib.dirs="hdfs://namenode1/flink-dist/" hdfs://namenode1/flink-dist/flink-jars/WordCount.jar

flink 的依赖和作业 jar 预先上传到 HDFS,不需要单独发送到集群,可以让作业提交更加轻量