百度360必应搜狗淘宝本站头条
当前位置:网站首页 > IT技术 > 正文

Flink教程-flink 1.11 使用sql将流式数据写入文件系统

wptr33 2024-12-23 14:05 41 浏览

  • 滚动策略
  • 分区提交
  • 完整示例
  • flink提供了一个file system connector,可以使用DDL创建一个table,然后使用sql的方法写入数据,支持的写入格式包括json、csv、avro、parquet、orc。

    一个最简单的DDL如下:

    CREATE TABLE fs_table ( 
     user_id STRING, 
     order_amount DOUBLE, 
     dt STRING, 
     h string, 
     m string   
    ) PARTITIONED BY (dt,h,m) WITH ( 
       'connector'='filesystem', 
       'path'='file:///tmp/abc', 
       'format'='orc' 
     );

    下面我们简单的介绍一下相关的概念和如何使用。

    滚动策略

    Key Default Type Description sink.rolling-policy.file-size 128MB MemorySize 分区文件的最大值,超过这个大小,将会启动一个新文件。 sink.rolling-policy.rollover-interval 30 m Duration 分区文件滚动的最大时间间隔,超过这个时间,将会新启动一个文件 sink.rolling-policy.check-interval 1 m Duration 一个时间间隔,定期去检查上面那个配置指定的策略下,文件是否应该滚动生成新文件.

    • 在写入列格式(比如parquet、orc)的时候,上述的配置和checkpoint的间隔一起来控制滚动策略,也就是说sink.rolling-policy.file-size、sink.rolling-policy.rollover-interval、checkpoint间隔,这三个选项,只要有一个条件达到了,然后就会触发分区文件的滚动,结束上一个文件的写入,生成新文件。
    • 对于写入行格式的数据,比如json、csv,主要是靠sink.rolling-policy.file-size、sink.rolling-policy.rollover-interval,也就是文件的大小和时间来控制写入数据的滚动策略.

    分区提交

    在往一个分区写完了数据之后,我们希望做一些工作来通知下游。比如在分区目录写一个SUCCESS文件,或者是对于hive来说,去更新metastore的数据,自动刷新一下分区等等。 分区的提交主要依赖于触发器和提交的策略:

    • 触发器:即什么时候触发分区的提交,
    • 提交策略:也就是分区写完之后我们做什么,目前系统提供了两种内置策略:1.往分区目录写一个空SUCCESS文件;2.更新元数据.

    分区提交触发器

    key default type 解释 sink.partition-commit.trigger process-time String 触发器的类型,目前系统提供了两种:process-time 和 partition-time,如果选择了process-time,则当系统时间大于processtime的时候触发提交,如果选择了partition-time,则需要先从分区字段里面抽取分区时间的开始时间,然后当水印大于这个分区时间的时候触发分区的提交. sink.partition-commit.delay 0 s Duration 提交分区的延迟时间

    1. process-time. 这种提交方式依赖于系统的时间,一旦遇到数据延迟等情况,会造成分区和分区的数据不一致。
    2. partition-time :这种情况需要从分区字段里抽取出来相应的pattern,具体可参考下一个段落分区的抽取。
    3. sink.partition-commit.delay:一旦这个数值设置不为0,则在process-time情况下,当系统时间大于分区创建时间加上delay延迟,会触发分区提交; 如果是在partition-time 情况下,则需要水印大于分区创建时间加上delay时间,会触发分区提交.



    第一个参数process-time、partition-time,我们不用做过多的解释,就类似于flink中的processtime和eventtime。

    第二个参数sink.partition-commit.delay我们用实际案例解释下: 比如我们配置的是分区是/yyyy-MM-dd/HH/,写入的是ORC列格式,checkpoint配置的间隔是一分钟,也就是默认情况下会每分钟生成一个orc文件,最终会在每个分区(/yyyy-MM-dd/HH/)下面生成60个orc文件。

    比如当前系统正在写入/day=2020-07-06/h=10/分区的数据,那么这个分区的创建时间是2020-07-06 10:00:00,如果这个delay配置采用的是默认值,也就是0s,这个时候当写完了一个ORC文件,也就是2020-07-06 10:01:00分钟的时候,就会触发分区提交,比如更新hive的元数据,这个时候我们去查询hive就能查到刚刚写入的文件;如果我们想/day=2020-07-06/h=10/这个分区的60个文件都写完了再更新分区,那么我们可以将这个delay设置成 1h,也就是等到2020-07-06 11:00:00的时候才会触发分区提交,我们才会看到/2020-07-06/10/分区下面的所有数据

    分区时间的抽取

    从分区值里抽取分区时间,我们可以理解为上面触发器参数配置为partition-time的时候,分区的创建时间,当水印大于这个时间+delay的时候触发分区的提交.

    Key Default Type 解释 partition.time-extractor.kind default String 抽取分区的方式,目前有default和custom两种,如果是default,需要配置partition.time-extractor.timestamp-pattern,如果是custom,需要配置自定义class partition.time-extractor.class null String 自定义class partition.time-extractor.timestamp-pattern null String 从分区值中抽取时间戳的模式,需要组织成yyyy-MM-dd HH:mm:ss格式,比如 对于上面我们提到的分区/yyyy-MM-dd/HH/,其中两个分区字段对应的字段名分为是dt和hour,那么我们这个timestamp-pattern 可以配置成'hour:00:00'

    自定义抽取分区时间的话,需要实现PartitionTimeExtractor接口:

    public interface PartitionTimeExtractor extends Serializable {
    
     String DEFAULT = "default";
     String CUSTOM = "custom";
    
     /**
      * Extract time from partition keys and values.
      */
     LocalDateTime extract(List<String> partitionKeys, List<String> partitionValues);
        ...................
    }

    分区提交策略

    定义了分区提交的策略,也就是写完分区数据之后做什么事情,目前系统提供了以下行为:

    • metastore,只支持hive table,也就是写完数据之后,更新hive的元数据.
    • success file: 写完数据,往分区文件写一个success file.
    • 自定义

    key Default Type 描述 sink.partition-commit.policy.kind null string 可选:metastore,success-file,custom,这个可以写一个或者多个,比如可以这样,'metastore,success-file' sink.partition-commit.policy.class null string 如果上述选择custom的话,这里指定相应的class sink.partition-commit.success-file.name null string 如果上述选择的是success-file,这里可以指定写入的文件名,默认是 _SUCCESS

    完整示例

    定义实体类

     public static class UserInfo implements java.io.Serializable{
      private String userId;
      private Double amount;
      private Timestamp ts;
    
      public String getUserId(){
       return userId;
      }
    
      public void setUserId(String userId){
       this.userId = userId;
      }
    
      public Double getAmount(){
       return amount;
      }
    
      public void setAmount(Double amount){
       this.amount = amount;
      }
    
      public Timestamp getTs(){
       return ts;
      }
    
      public void setTs(Timestamp ts){
       this.ts = ts;
      }
     }

    自定义source

     public static class MySource implements SourceFunction<UserInfo>{
    
      String userids[] = {
        "4760858d-2bec-483c-a535-291de04b2247", "67088699-d4f4-43f2-913c-481bff8a2dc5",
        "72f7b6a8-e1a9-49b4-9a0b-770c41e01bfb", "dfa27cb6-bd94-4bc0-a90b-f7beeb9faa8b",
        "aabbaa50-72f4-495c-b3a1-70383ee9d6a4", "3218bbb9-5874-4d37-a82d-3e35e52d1702",
        "3ebfb9602ac07779||3ebfe9612a007979", "aec20d52-c2eb-4436-b121-c29ad4097f6c",
        "e7e896cd939685d7||e7e8e6c1930689d7", "a4b1e1db-55ef-4d9d-b9d2-18393c5f59ee"
      };
    
      @Override
      public void run(SourceContext<UserInfo> sourceContext) throws Exception{
       while (true){
        String userid = userids[(int) (Math.random() * (userids.length - 1))];
        UserInfo userInfo = new UserInfo();
        userInfo.setUserId(userid);
        userInfo.setAmount(Math.random() * 100);
        userInfo.setTs(new Timestamp(new Date().getTime()));
        sourceContext.collect(userInfo);
        Thread.sleep(100);
       }
      }
    
      @Override
      public void cancel(){
    
      }
     }

    写入file

    通过sql的ddl创建一个最简单的基于process time的table,然后写入数据.

    在这个实例中,我们开启了checkpoint的时间间隔是10s,所以会每隔10s写入一个orc文件.

      StreamExecutionEnvironment bsEnv = StreamExecutionEnvironment.getExecutionEnvironment();
      bsEnv.enableCheckpointing(10000);
      StreamTableEnvironment tEnv = StreamTableEnvironment.create(bsEnv);
      DataStream<UserInfo> dataStream = bsEnv.addSource(new MySource());
      String sql = "CREATE TABLE fs_table (\n" +
                   "  user_id STRING,\n" +
                   "  order_amount DOUBLE,\n" +
                   "  dt STRING," +
                   "  h string," +
                   "  m string  \n" +
                   ") PARTITIONED BY (dt,h,m) WITH (\n" +
                   "  'connector'='filesystem',\n" +
                   "  'path'='file:///tmp/abc',\n" +
                   "  'format'='orc'\n" +
                   ")";
      tEnv.executeSql(sql);
      tEnv.createTemporaryView("users", dataStream);
      String insertSql = "insert into  fs_table SELECT userId, amount, " +
                         " DATE_FORMAT(ts, 'yyyy-MM-dd'), DATE_FORMAT(ts, 'HH'), DATE_FORMAT(ts, 'mm') FROM users";
    
      tEnv.executeSql(insertSql);

    完整的代码请参考 https://github.com/zhangjun0x01/bigdata-examples/blob/master/flink/src/main/java/connectors/sql/StreamingWriteFile.java

    更多精彩内容,欢迎关注我的公众号【大数据技术与应用实战】

    相关推荐

    什么是Java中的继承?如何实现继承?

    什么是继承?...

    Java 继承与多态:从基础到实战的深度解析

    在面向对象编程(OOP)的三大支柱中,继承与多态是构建灵活、可复用代码的核心。无论是日常开发还是框架设计,这两个概念都扮演着至关重要的角色。本文将从基础概念出发,结合实例与图解,带你彻底搞懂Java...

    Java基础教程:Java继承概述_java的继承

    继承概述假如我们要定义如下类:学生类,老师类和工人类,分析如下。学生类属性:姓名,年龄行为:吃饭,睡觉老师类属性:姓名,年龄,薪水行为:吃饭,睡觉,教书班主任属性:姓名,年龄,薪水行为:吃饭,睡觉,管...

    java4个技巧:从继承和覆盖,到最终的类和方法

    日复一日,我们编写的大多数Java只使用了该语言全套功能的一小部分。我们实例化的每个流以及我们在实例变量前面加上的每个@Autowired注解都足以完成我们的大部分目标。然而,有些时候,我们必须求助于...

    java:举例说明继承的概念_java继承的理解

    在现实生活中,继承一般指的是子女继承父辈的财产。在程序中,继承描述的是事物之间的所属关系,通过继承可以使多种事物之间形成一种关系体系。例如猫和狗都属于动物,程序中便可以描述为猫和狗继承自动物,同理,...

    从零开始构建一款开源的 Vibe Coding 产品 Week1Day4:业界调研之 Agent 横向对比

    前情回顾前面两天我们重点调研了了一下Cursor的原理和Cursor中一个关键的工具edit_file的实现,但是其他CodingAgent也需要稍微摸一下底,看看有没有优秀之处,下...

    学会这几个插件,让你的Notepad++使用起来更丝滑

    搞程序开发的小伙伴相信对Notepad++都不会陌生,是一个占用空间少、打开启动快的文件编辑器,很多程序员喜欢使用Notepad++进行纯文本编辑或者脚本开发,但是Notepad++的功能绝不止于此,...

    将 node_modules 目录放入 Git 仓库的优点

    推荐一篇文章Whyyoushouldcheck-inyournodedependencies[1]...

    再度加码AI编程,腾讯发布AI CLI并宣布CodeBuddy IDE开启公测

    “再熬一年,90%的程序员可能再也用不着写for循环。”凌晨两点半,王工还在公司敲键盘。他手里那份需求文档写了足足六页,产品经理反复改了三次。放在过去,光数据库建表、接口对接、单元测试就得写两三天。现...

    git 如何查看stash的内容_git查看ssh key

    1.查看Stash列表首先,使用gitstashlist查看所有已保存的stash:...

    6万星+ Git命令懒人必备!lazygit 终端UI神器,效率翻倍超顺手!

    项目概览lazygit是一个基于终端的Git命令可视化工具,通过简易的TUI(文本用户界面)提升Git操作效率。开发者无需记忆复杂命令,即可完成分支管理、提交、合并等操作。...

    《Gemini CLI 实战系列》(一)Gemini CLI 入门:AI 上命令行的第一步

    谷歌的Gemini模型最近热度很高,而它的...

    deepin IDE新版发布:支持玲珑构建、增强AI智能化

    IT之家8月7日消息,深度操作系统官方公众号昨日(8月6日)发布博文,更新推出新版deepin集成开发环境(IDE),重点支持玲珑构建。支持玲珑构建deepinIDE在本次重磅更...

    狂揽82.7k的star,这款开源可视化神器,轻松创建流程图和图表

    再不用Mermaid,你的技术文档可能已经在悄悄“腐烂”——图表版本对不上、同事改完没同步、评审会上被一句“这图哪来的”问得哑口无言。这不是危言耸听。GitHub2025年开发者报告显示,63%的新仓...

    《Gemini CLI 实战系列》(五)打造专属命令行工具箱

    在前几篇文章中,我们介绍了GeminiCLI的基础用法、效率提升、文件处理和与外部工具结合。今天我们进入第五篇...