您现在的位置:首页 > >

Flink CheckPoint状态点恢复与savePoint机制对比剖析-Flink牛刀小试

发布时间:

版权声明:本套技术专栏是作者(秦凯新)*时工作的总结和升华,通过从真实商业环境抽取案例进行总结和分享,并给出商业应用的调优建议和集群环境容量规划等内容,请持续关注本套博客。版权声明:禁止转载,欢迎学*。QQ邮箱地址:1120746959@qq.com,如有任何问题,可随时联系。


1 Flink 应用程序启动

./bin/flink run -m yarn-cluster -yn 2 -yjm 1024 -ytm 1024
-c streaming.SoetWindowWordCountJavaCheckPoint(入口类)
/usr/local/install/testJar/FlinkExample-1.0-SNAPSHOT-jar-with-dependencies.jar (jar路径)
--port 9010
复制代码











2 Checkpoint 保存与恢复
2.1 Checkpoin设置与保存

版权声明:本套技术专栏是作者(秦凯新)*时工作的总结和升华,通过从真实商业环境抽取案例进行总结和分享,并给出商业应用的调优建议和集群环境容量规划等内容,请持续关注本套博客。版权声明:禁止转载,欢迎学*。QQ邮箱地址:1120746959@qq.com,如有任何问题,可随时联系。

默认情况下,如果设置了Checkpoint选项,则Flink只保留最*成功生成的1个Checkpoint,而当Flink程序失败时,可以从最*的这个Checkpoint来进行恢复。但是,如果我们希望保留多个Checkpoint,并能够根据实际需要选择其中一个进行恢复,这样会更加灵活,比如,我们发现最*4个小时数据记录处理有问题,希望将整个状态还原到4小时之前

Flink可以支持保留多个Checkpoint,需要在Flink的配置文件conf/flink-conf.yaml中,添加如下配置,指定最多需要保存Checkpoint的个数。

state.checkpoints.num-retained: 20
复制代码

这样设置以后就查看对应的Checkpoint在HDFS上存储的文件目录 hdfs dfs -ls hdfs://namenode:9000/flink/checkpoints 如果希望回退到某个Checkpoint点,只需要指定对应的某个Checkpoint路径即可实现


2.2 Checkpoint恢复
如果Flink程序异常失败,或者最*一段时间内数据处理错误,我们可以将程序从某一个Checkpoint点进行恢复









-s 后面接的就是待恢复checkpoint的路径。

bin/flink run -s hdfs://namenode:9000/flink/checkpoints/467e17d2cc343e6c56255d222bae3421/chk-56/_metadata flink-job.jar





程序正常运行后,还会按照Checkpoint配置进行运行,继续生成Checkpoint数据







3 SavePoint 剖析
3.1 全局一致性快照
Flink通过Savepoint功能可以做到程序升级后,继续从升级前的那个点开始执行计算,保证数据不中断全局,一致性快照。可以保存数据源offset,operator操作状态等信息可以从应用在过去任意做了savepoint的时刻开始继续消费
3.2 checkpoint理论
应用定时触发,用于保存状态,会过期内部应用失败*舻氖焙蚴褂
3.3 savePoint 理论
用户手动执行,是指向Checkpoint的指针,不会过期,在升级的情况下使用注意:为了能够在作业的不同版本之间以及 Flink 的不同版本之间顺利升级,强烈推荐通过 uid(String) 方法手动的给算子赋予 ID,这些 ID 将用于确定每一个算子的状态范围。如果不手动给各算子指定 ID,则会由 Flink 自动给每个算子生成一个 ID。只要这些 ID 没有改变就能从保存点(savepoint)将程序恢复回来。而这些自动生成的 ID 依赖于程序的结构,并且对代码的更改是很敏感的。因此,强烈建议用户手动的设置 ID。
3.4 savePoint的使用

版权声明:本套技术专栏是作者(秦凯新)*时工作的总结和升华,通过从真实商业环境抽取案例进行总结和分享,并给出商业应用的调优建议和集群环境容量规划等内容,请持续关注本套博客。版权声明:禁止转载,欢迎学*。QQ邮箱地址:1120746959@qq.com,如有任何问题,可随时联系。

1:在flink-conf.yaml中配置Savepoint存储位置

不是必须设置,但是设置后,后面创建指定Job的Savepoint时,可以不用在手动执行命令时指定Savepoint的位置:

state.savepoints.dir: hdfs://namenode:9000/flink/savepoints
复制代码

2:触发一个savepoint【直接触发或者在cancel的时候触发】

bin/flink savepoint jobId [targetDirectory] [-yid yarnAppId]【针对on yarn模式需要指定-yid参数】

bin/flink cancel -s [targetDirectory] jobId [-yid yarnAppId]【针对on yarn模式需要指定-yid参数】
复制代码





















3:从指定的savepoint启动job

bin/flink run -s savepointPath [runArgs]
复制代码











4 结语

牛刀小试,可能写的并不是太专业,Flink是一个新型的大数据处理引擎,资料尚不足,辛苦成文,各自珍惜,谢谢!


版权声明:本套技术专栏是作者(秦凯新)*时工作的总结和升华,通过从真实商业环境抽取案例进行总结和分享,并给出商业应用的调优建议和集群环境容量规划等内容,请持续关注本套博客。版权声明:禁止转载,欢迎学*。QQ邮箱地址:1120746959@qq.com,如有任何问题,可随时联系。


秦凯新 于深圳 201811252101


热文推荐
猜你喜欢
友情链接: 医学资料大全 农林牧渔 幼儿教育心得 小学教育 中学 高中 职业教育 成人教育 大学资料 求职职场 职场文档 总结汇报