快速上手
说明:该部分旨在通过简单的操作步骤,体验使用StreamPark平台提交flink作业的便捷流程。
配置FLINK_HOME
点击"OK",保存
配置Flink Cluster
根据flink 部署模式 以及 资源管理方式,StreamPark 支持以下6种作业模式
- Standalone Session
- Yarn Session
- Yarn Per-job
- Yarn Application
- K8s Session
- K8s Application
本次选取较为简单的 Standalone Session 模式(下图绿色连线),快速上手。
服务器启动 flink Standalone Session
start-cluster.sh
页面访问:http://hadoop:8081/
配置Flink Cluster
创建作业
主要参数
- Development Mode: 选择 “Flink SQL”
- Execution Mode: 选择 “remote”
- Flink Version: 选择 "flink-1.14", 即 “1.1 配置FLINK_HOME”里面配置的
- Flink Cluster: 选择 “myStandalonSession”, 即“1.2 配置FLINK Cluster”里面配置的
- Flink SQL: 详见下面示例
- Application Name: 作业名称
创建作业
保存作业
点击 蓝色“Submit”按钮,提交作业
构建作业
构建成功
启动作业
启动检查点设置
提交作业
查看作业状态
通过Apache StreamPark™看板查看
StreamPark dashboard
查看作业详情
查看原生 flink web ui
至此,一个使用StreamPark平台提交flink job的流程基本完成。下面简单总结下StreamPark平台管理flink作业的大致流程。
Apache StreamPark™平台管理flink job的流程
通过 StreamPark 平台 停止、修改、删除 flink job 相对简单,大家可自行体验,需要说明的一点是:若作业为running状态,则不可删除,需先停止。
Apache StreamPark™系统模块简介
系 统设置
菜单位置
User Management
用于管理StreamPark平台用户
Token Management
允许用户以Restful api形式操作flink job
curl -X POST '/flink/app/cancel' \
-H 'Authorization: 69qMW7reOXhrAh29LjPWwwP+quFqLf++MbPbsB9/NcTCKGzZE2EU7tBUBU5gqG236VF5pMyVrsE5K7hBWiyuLuJRqmxKdPct4lbGrjZZqkv5lBBYExxYVMIl+f5MZ9dbqqslZifFx3P4A//NYgGwkx5PpizomwkE+oZOqg0+c2apU0UZ9T7Dpnu/tPLk9g5w9q+6ZS2p+rTllPiEgyBnSw==' \
-H 'Content-Type: application/x-www-form-urlencoded; charset=UTF-8' \
--data-urlencode 'savePoint=' \
--data-urlencode 'id=100001' \
--data-urlencode 'savePointed=false' \
--data-urlencode 'drain=false' \
-i