Flink Standalone Cluster

一、部署模式

Flink 支持使用多种部署模式来满足不同规模应用的需求,常见的有单机模式,Standalone Cluster 模式,同时 Flink 也支持部署在其他第三方平台上,如 YARN,Mesos,Docker,Kubernetes 等。以下主要介绍其单机模式和 Standalone Cluster 模式的部署。

二、单机模式

单机模式是一种开箱即用的模式,可以在单台服务器上运行,适用于日常的开发和调试。具体操作步骤如下:

2.1 安装部署

1. 前置条件

Flink 的运行依赖 JAVA 环境,故需要预先安装好 JDK,具体步骤可以参考:Linux 环境下 JDK 安装

2. 下载 & 解压 & 运行

Flink 所有版本的安装包可以直接从其官网进行下载,这里我下载的 Flink 的版本为 1.9.1 ,要求的 JDK 版本为 1.8.x +。 下载后解压到指定目录:

  1. tar -zxvf flink-1.9.1-bin-scala_2.12.tgz -C /usr/app

不需要进行任何配置,直接使用以下命令就可以启动单机版本的 Flink:

  1. bin/start-cluster.sh

3. WEB UI 界面

Flink 提供了 WEB 界面用于直观的管理 Flink 集群,访问端口为 8081

Flink Standalone 集群部署 - 图1

Flink 的 WEB UI 界面支持大多数常用功能,如提交作业,取消作业,查看各个节点运行情况,查看作业执行情况等,大家可以在部署完成后,进入该页面进行详细的浏览。

2.2 作业提交

启动后可以运行安装包中自带的词频统计案例,具体步骤如下:

1. 开启端口

  1. nc -lk 9999

2. 提交作业

  1. bin/flink run examples/streaming/SocketWindowWordCount.jar --port 9999

该 JAR 包的源码可以在 Flink 官方的 GitHub 仓库中找到,地址为 :SocketWindowWordCount ,可选传参有 hostname, port,对应的词频数据需要使用空格进行分割。

3. 输入测试数据

  1. a a b b c c c a e

4. 查看控制台输出

可以通过 WEB UI 的控制台查看作业统运行情况:

Flink Standalone 集群部署 - 图2

也可以通过 WEB 控制台查看到统计结果:

Flink Standalone 集群部署 - 图3

2.3 停止作业

可以直接在 WEB 界面上点击对应作业的 Cancel Job 按钮进行取消,也可以使用命令行进行取消。使用命令行进行取消时,需要先获取到作业的 JobId,可以使用 flink list 命令查看,输出如下:

  1. [root@hadoop001 flink-1.9.1]# ./bin/flink list
  2. Waiting for response...
  3. ------------------ Running/Restarting Jobs -------------------
  4. 05.11.2019 08:19:53 : ba2b1cc41a5e241c32d574c93de8a2bc : Socket Window WordCount (RUNNING)
  5. --------------------------------------------------------------
  6. No scheduled jobs.

获取到 JobId 后,就可以使用 flink cancel 命令取消作业:

  1. bin/flink cancel ba2b1cc41a5e241c32d574c93de8a2bc

命令如下:

  1. bin/stop-cluster.sh

三、Standalone Cluster

Standalone Cluster 模式是 Flink 自带的一种集群模式,具体配置步骤如下:

3.1 前置条件

使用该模式前,需要确保所有服务器间都已经配置好 SSH 免密登录服务。这里我以三台服务器为例,主机名分别为 hadoop001,hadoop002,hadoop003 , 其中 hadoop001 为 master 节点,其余两台为 slave 节点,搭建步骤如下:

3.2 搭建步骤

修改 conf/flink-conf.yaml 中 jobmanager 节点的通讯地址为 hadoop001:

  1. jobmanager.rpc.address: hadoop001

修改 conf/slaves 配置文件,将 hadoop002 和 hadoop003 配置为 slave 节点:

  1. hadoop002
  2. hadoop003

将配置好的 Flink 安装包分发到其他两台服务器上:

  1. scp -r /usr/app/flink-1.9.1 hadoop002:/usr/app
  2. scp -r /usr/app/flink-1.9.1 hadoop003:/usr/app

在 hadoop001 上使用和单机模式相同的命令来启动集群:

  1. bin/start-cluster.sh

此时控制台输出如下:

Flink Standalone 集群部署 - 图4

启动完成后可以使用 Jps 命令或者通过 WEB 界面来查看是否启动成功。

3.3 可选配置

除了上面介绍的 jobmanager.rpc.address 是必选配置外,Flink h还支持使用其他可选参数来优化集群性能,主要如下:

  • jobmanager.heap.size:JobManager 的 JVM 堆内存大小,默认为 1024m 。
  • taskmanager.heap.size:Taskmanager 的 JVM 堆内存大小,默认为 1024m 。
  • taskmanager.numberOfTaskSlots:Taskmanager 上 slots 的数量,通常设置为 CPU 核心的数量,或其一半。
  • parallelism.default:任务默认的并行度。
  • io.tmp.dirs:存储临时文件的路径,如果没有配置,则默认采用服务器的临时目录,如 LInux 的 /tmp 目录。

更多配置可以参考 Flink 的官方手册:Configuration

四、Standalone Cluster HA

上面我们配置的 Standalone 集群实际上只有一个 JobManager,此时是存在单点故障的,所以官方提供了 Standalone Cluster HA 模式来实现集群高可用。

4.1 前置条件

在 Standalone Cluster HA 模式下,集群可以由多个 JobManager,但只有一个处于 active 状态,其余的则处于备用状态,Flink 使用 ZooKeeper 来选举出 Active JobManager,并依赖其来提供一致性协调服务,所以需要预先安装 ZooKeeper 。

另外在高可用模式下,还需要使用分布式文件系统来持久化存储 JobManager 的元数据,最常用的就是 HDFS,所以 Hadoop 也需要预先安装。关于 Hadoop 集群和 ZooKeeper 集群的搭建可以参考:

4.2 搭建步骤

修改 conf/flink-conf.yaml 文件,增加如下配置:

  1. # 配置使用zookeeper来开启高可用模式
  2. high-availability: zookeeper
  3. # 配置zookeeper的地址,采用zookeeper集群时,可以使用逗号来分隔多个节点地址
  4. high-availability.zookeeper.quorum: hadoop003:2181
  5. # 在zookeeper上存储flink集群元信息的路径
  6. high-availability.zookeeper.path.root: /flink
  7. # 集群id
  8. high-availability.cluster-id: /standalone_cluster_one
  9. # 持久化存储JobManager元数据的地址,zookeeper上存储的只是指向该元数据的指针信息
  10. high-availability.storageDir: hdfs://hadoop001:8020/flink/recovery

修改 conf/masters 文件,将 hadoop001 和 hadoop002 都配置为 master 节点:

  1. hadoop001:8081
  2. hadoop002:8081

确保 Hadoop 和 ZooKeeper 已经启动后,使用以下命令来启动集群:

  1. bin/start-cluster.sh

此时输出如下:

Flink Standalone 集群部署 - 图5

可以看到集群已经以 HA 的模式启动,此时还需要在各个节点上使用 jps 命令来查看进程是否启动成功,正常情况如下:

Flink Standalone 集群部署 - 图6

只有 hadoop001 和 hadoop002 的 JobManager 进程,hadoop002 和 hadoop003 上的 TaskManager 进程都已经完全启动,才表示 Standalone Cluster HA 模式搭建成功。

4.3 常见异常

如果进程没有启动,可以通过查看 log 目录下的日志来定位错误,常见的一个错误如下:

  1. 2019-11-05 09:18:35,877 INFO org.apache.flink.runtime.entrypoint.ClusterEntrypoint
  2. - Shutting StandaloneSessionClusterEntrypoint down with application status FAILED. Diagnostics
  3. java.io.IOException: Could not create FileSystem for highly available storage (high-availability.storageDir)
  4. .......
  5. Caused by: org.apache.flink.core.fs.UnsupportedFileSystemSchemeException: Could not find a file
  6. system implementation for scheme 'hdfs'. The scheme is not directly supported by Flink and no
  7. Hadoop file system to support this scheme could be loaded.
  8. .....
  9. Caused by: org.apache.flink.core.fs.UnsupportedFileSystemSchemeException: Hadoop is not in
  10. the classpath/dependencies.
  11. ......

可以看到是因为在 classpath 目录下找不到 Hadoop 的相关依赖,此时需要检查是否在环境变量中配置了 Hadoop 的安装路径,如果路径已经配置但仍然存在上面的问题,可以从 Flink 官网下载对应版本的 Hadoop 组件包:

Flink Standalone 集群部署 - 图7

下载完成后,将该 JAR 包上传至所有 Flink 安装目录的 lib 目录即可。

参考资料