Table API

Table API 是批处理和流处理的统一的关系型 API。Table API 的查询不需要修改代码就可以采用批输入或流输入来运行。Table API 是 SQL 语言的超集,并且是针对 Apache Flink 专门设计的。Table API 集成了 Scala,Java 和 Python 语言的 API。Table API 的查询是使用 Java,Scala 或 Python 语言嵌入的风格定义的,有诸如自动补全和语法校验的 IDE 支持,而不是像普通 SQL 一样使用字符串类型的值来指定查询。

Table API 和 Flink SQL 共享许多概念以及部分集成的 API。通过查看公共概念 & API来学习如何注册表或如何创建一个对象。流概念页面讨论了诸如动态表和时间属性等流特有的概念。

下面的例子中假定有一张叫 Orders 的表,表中有属性 (a, b, c, rowtime)rowtime 字段是流任务中的逻辑时间属性或是批任务中的普通时间戳字段。

概述 & 示例

Table API 支持 Scala, Java 和 Python 语言。Scala 语言的 Table API 利用了 Scala 表达式,Java 语言的 Table API 支持 DSL 表达式和解析并转换为等价表达式的字符串,Python 语言的 Table API 仅支持解析并转换为等价表达式的字符串。

下面的例子展示了 Scala、Java 和 Python 语言的 Table API 的不同之处。表程序是在批环境下执行的。程序扫描了 Orders 表,通过字段 a 进行分组,并计算了每组结果的行数。

Java

Java 的 Table API 通过引入 org.apache.flink.table.api.java.* 来使用。下面的例子展示了如何创建一个 Java 的 Table API 程序,以及表达式是如何指定为字符串的。 使用DSL表达式时也需要引入静态的 org.apache.flink.table.api.Expressions.*

  1. import org.apache.flink.table.api.*;
  2. import static org.apache.flink.table.api.Expressions.*;
  3. EnvironmentSettings settings = EnvironmentSettings
  4. .newInstance()
  5. .inStreamingMode()
  6. .build();
  7. TableEnvironment tEnv = TableEnvironment.create(settings);
  8. // 在表环境中注册 Orders 表
  9. // ...
  10. // 指定表程序
  11. Table orders = tEnv.from("Orders"); // schema (a, b, c, rowtime)
  12. Table counts = orders
  13. .groupBy($("a"))
  14. .select($("a"), $("b").count().as("cnt"));
  15. // 打印
  16. counts.execute().print();

Scala

Scala 的 Table API 通过引入 org.apache.flink.table.api._org.apache.flink.api.scala._org.apache.flink.table.api.bridge.scala._(开启数据流的桥接支持)来使用。

下面的例子展示了如何创建一个 Scala 的 Table API 程序。通过 Scala 的带美元符号($)的字符串插值来实现表字段引用。

  1. import org.apache.flink.api.scala._
  2. import org.apache.flink.table.api._
  3. import org.apache.flink.table.api.bridge.scala._
  4. // 环境配置
  5. val settings = EnvironmentSettings
  6. .newInstance()
  7. .inStreamingMode()
  8. .build()
  9. val tEnv = TableEnvironment.create(settings)
  10. // 在表环境中注册 Orders 表
  11. // ...
  12. // 指定表程序
  13. val orders = tEnv.from("Orders") // schema (a, b, c, rowtime)
  14. val result = orders
  15. .groupBy($"a")
  16. .select($"a", $"b".count as "cnt")
  17. .execute()
  18. .print()

Python

下面的例子展示了如何创建一个 Python 的 Table API 程序,以及表达式是如何指定为字符串的。

  1. from pyflink.table import *
  2. from pyflink.table.expressions import col
  3. # 环境配置
  4. t_env = TableEnvironment.create(
  5. environment_settings=EnvironmentSettings.in_batch_mode())
  6. # 在表环境中注册 Orders 表和结果 sink 表
  7. source_data_path = "/path/to/source/directory/"
  8. result_data_path = "/path/to/result/directory/"
  9. source_ddl = f"""
  10. create table Orders(
  11. a VARCHAR,
  12. b BIGINT,
  13. c BIGINT,
  14. rowtime TIMESTAMP(3),
  15. WATERMARK FOR rowtime AS rowtime - INTERVAL '1' SECOND
  16. ) with (
  17. 'connector' = 'filesystem',
  18. 'format' = 'csv',
  19. 'path' = '{source_data_path}'
  20. )
  21. """
  22. t_env.execute_sql(source_ddl)
  23. sink_ddl = f"""
  24. create table `Result`(
  25. a VARCHAR,
  26. cnt BIGINT
  27. ) with (
  28. 'connector' = 'filesystem',
  29. 'format' = 'csv',
  30. 'path' = '{result_data_path}'
  31. )
  32. """
  33. t_env.execute_sql(sink_ddl)
  34. # 指定表程序
  35. orders = t_env.from_path("Orders") # schema (a, b, c, rowtime)
  36. orders.group_by(col("a")).select(col("a"), col("b").count.alias('cnt')).execute_insert("result").wait()

下一个例子展示了一个更加复杂的 Table API 程序。这个程序也扫描 Orders 表。程序过滤了空值,使字符串类型的字段 a 标准化,并且每个小时进行一次计算并返回 a 的平均账单金额 b

Java

  1. // 环境配置
  2. // ...
  3. // 指定表程序
  4. Table orders = tEnv.from("Orders"); // schema (a, b, c, rowtime)
  5. Table result = orders
  6. .filter(
  7. and(
  8. $("a").isNotNull(),
  9. $("b").isNotNull(),
  10. $("c").isNotNull()
  11. ))
  12. .select($("a").lowerCase().as("a"), $("b"), $("rowtime"))
  13. .window(Tumble.over(lit(1).hours()).on($("rowtime")).as("hourlyWindow"))
  14. .groupBy($("hourlyWindow"), $("a"))
  15. .select($("a"), $("hourlyWindow").end().as("hour"), $("b").avg().as("avgBillingAmount"));

Scala

  1. // 环境配置
  2. // ...
  3. // 指定表程序
  4. val orders: Table = tEnv.from("Orders") // schema (a, b, c, rowtime)
  5. val result: Table = orders
  6. .filter($"a".isNotNull && $"b".isNotNull && $"c".isNotNull)
  7. .select($"a".lowerCase() as "a", $"b", $"rowtime")
  8. .window(Tumble over 1.hour on $"rowtime" as "hourlyWindow")
  9. .groupBy($"hourlyWindow", $"a")
  10. .select($"a", $"hourlyWindow".end as "hour", $"b".avg as "avgBillingAmount")

Python

  1. # 指定表程序
  2. from pyflink.table.expressions import col, lit
  3. from pyflink.table.window import Tumble
  4. orders = t_env.from_path("Orders") # schema (a, b, c, rowtime)
  5. result = orders.filter(col("a").is_not_null & col("b").is_not_null & col("c").is_not_null) \
  6. .select(col("a").lower_case.alias('a'), col("b"), col("rowtime")) \
  7. .window(Tumble.over(lit(1).hour).on(col("rowtime")).alias("hourly_window")) \
  8. .group_by(col('hourly_window'), col('a')) \
  9. .select(col('a'), col('hourly_window').end.alias('hour'), col("b").avg.alias('avg_billing_amount'))

因为 Table API 的批数据 API 和流数据 API 是统一的,所以这两个例子程序不需要修改代码就可以运行在流输入或批输入上。在这两种情况下,只要流任务没有数据延时,程序将会输出相同的结果(查看流概念获取详情)。

支持的操作

Table API支持如下操作。请注意不是所有的操作都可以既支持流也支持批;这些操作都具有相应的标记。

Scan, Projection 和 Filter

From

Batch Streaming

和 SQL 查询的 FROM 子句类似。 执行一个注册过的表的扫描。

Java

  1. Table orders = tableEnv.from("Orders");

Scala

  1. val orders = tableEnv.from("Orders")

Python

  1. orders = t_env.from_path("Orders")

FromValues

Batch Streaming

和 SQL 查询中的 VALUES 子句类似。 基于提供的行生成一张内联表。

你可以使用 row(...) 表达式创建复合行:

Java

  1. Table table = tEnv.fromValues(
  2. row(1, "ABC"),
  3. row(2L, "ABCDE")
  4. );

Scala

  1. table = tEnv.fromValues(
  2. row(1, "ABC"),
  3. row(2L, "ABCDE")
  4. )

Python

  1. table = t_env.from_elements([(1, 'ABC'), (2, 'ABCDE')])

这将生成一张结构如下的表:

  1. root
  2. |-- f0: BIGINT NOT NULL // 原始类型 INT 和 BIGINT 泛化为 BIGINT 类型。
  3. |-- f1: VARCHAR(5) NOT NULL // 原始类型 CHAR(3) 和 CHAR(5) 泛化为 VARCHAR(5) 类型。
  4. // 使用 VARCHAR 而不是 CHAR 来保证没有填充

这个方法会根据输入的表达式自动获取类型。如果在某一个特定位置的类型不一致,该方法会尝试寻找一个所有类型的公共超类型。如果公共超类型不存在,则会抛出异常。

你也可以明确指定所需的类型。指定如 DECIMAL 这样的一般类型或者给列命名可能是有帮助的。

Java

  1. Table table = tEnv.fromValues(
  2. DataTypes.ROW(
  3. DataTypes.FIELD("id", DataTypes.DECIMAL(10, 2)),
  4. DataTypes.FIELD("name", DataTypes.STRING())
  5. ),
  6. row(1, "ABC"),
  7. row(2L, "ABCDE")
  8. );

Scala

  1. val table = tEnv.fromValues(
  2. DataTypes.ROW(
  3. DataTypes.FIELD("id", DataTypes.DECIMAL(10, 2)),
  4. DataTypes.FIELD("name", DataTypes.STRING())
  5. ),
  6. row(1, "ABC"),
  7. row(2L, "ABCDE")
  8. )

Python

  1. table = t_env.from_elements(
  2. [(1, 'ABC'), (2, 'ABCDE')],
  3. schema=DataTypes.Row([DataTypes.FIELD('id', DataTypes.DECIMAL(10, 2)),
  4. DataTypes.FIELD('name', DataTypes.STRING())]))

这将生成一张结构如下的表:

  1. root
  2. |-- id: DECIMAL(10, 2)
  3. |-- name: STRING

Select

Batch Streaming

和 SQL 的 SELECT 子句类似。 执行一个 select 操作。

Java

  1. Table orders = tableEnv.from("Orders");
  2. Table result = orders.select($("a"), $("c").as("d"));

Scala

  1. val orders = tableEnv.from("Orders")
  2. Table result = orders.select($"a", $"c" as "d")

Python

  1. orders = t_env.from_path("Orders")
  2. result = orders.select(col("a"), col("c").alias('d'))

你可以选择星号(*)作为通配符,select 表中的所有列。

Java

  1. Table result = orders.select($("*"));

Scala

  1. Table result = orders.select($"*")

Python

  1. from pyflink.table.expressions import col
  2. result = orders.select(col("*"))

As

Batch Streaming

重命名字段。

Java

  1. Table orders = tableEnv.from("Orders");
  2. Table result = orders.as("x, y, z, t");

scala

  1. val orders: Table = tableEnv.from("Orders").as("x", "y", "z", "t")

Python

  1. orders = t_env.from_path("Orders")
  2. result = orders.alias("x", "y", "z", "t")

Where / Filter

Batch Streaming

和 SQL 的 WHERE 子句类似。 过滤掉未验证通过过滤谓词的行。

Java

  1. Table orders = tableEnv.from("Orders");
  2. Table result = orders.where($("b").isEqual("red"));

Scala

  1. val orders: Table = tableEnv.from("Orders")
  2. val result = orders.filter($"a" % 2 === 0)

Python

  1. orders = t_env.from_path("Orders")
  2. result = orders.where(col("a") == 'red')

或者

Java

  1. Table orders = tableEnv.from("Orders");
  2. Table result = orders.filter($("b").isEqual("red"));

Scala

  1. val orders: Table = tableEnv.from("Orders")
  2. val result = orders.filter($"a" % 2 === 0)

Python

  1. orders = t_env.from_path("Orders")
  2. result = orders.filter(col("a") == 'red')

列操作

AddColumns

Batch Streaming

执行字段添加操作。 如果所添加的字段已经存在,将抛出异常。

Java

  1. Table orders = tableEnv.from("Orders");
  2. Table result = orders.addColumns(concat($("c"), "sunny"));

Scala

  1. val orders = tableEnv.from("Orders")
  2. val result = orders.addColumns(concat($"c", "Sunny"))

Python

  1. from pyflink.table.expressions import concat
  2. orders = t_env.from_path("Orders")
  3. result = orders.add_columns(concat(col("c"), 'sunny'))

AddOrReplaceColumns

Batch Streaming

执行字段添加操作。 如果添加的列名称和已存在的列名称相同,则已存在的字段将被替换。 此外,如果添加的字段里面有重复的字段名,则会使用最后一个字段。

Java

  1. Table orders = tableEnv.from("Orders");
  2. Table result = orders.addOrReplaceColumns(concat($("c"), "sunny").as("desc"));

Scala

  1. val orders = tableEnv.from("Orders")
  2. val result = orders.addOrReplaceColumns(concat($"c", "Sunny") as "desc")

Python

  1. from pyflink.table.expressions import concat
  2. orders = t_env.from_path("Orders")
  3. result = orders.add_or_replace_columns(concat(col("c"), 'sunny').alias('desc'))

DropColumns

Batch Streaming

Java

  1. Table orders = tableEnv.from("Orders");
  2. Table result = orders.dropColumns($("b"), $("c"));

Scala

  1. val orders = tableEnv.from("Orders")
  2. val result = orders.dropColumns($"b", $"c")

Python

  1. orders = t_env.from_path("Orders")
  2. result = orders.drop_columns(col("b"), col("c"))

RenameColumns

Batch Streaming

执行字段重命名操作。 字段表达式应该是别名表达式,并且仅当字段已存在时才能被重命名。

Java

  1. Table orders = tableEnv.from("Orders");
  2. Table result = orders.renameColumns($("b").as("b2"), $("c").as("c2"));

Scala

  1. val orders = tableEnv.from("Orders")
  2. val result = orders.renameColumns($"b" as "b2", $"c" as "c2")

Python

  1. orders = t_env.from_path("Orders")
  2. result = orders.rename_columns(col("b").alias('b2'), col("c").alias('c2'))

聚合操作

GroupBy 聚合

Batch Streaming Result Updating

和 SQL 的 GROUP BY 子句类似。 使用分组键对行进行分组,使用伴随的聚合算子来按照组进行聚合行。

Java

  1. Table orders = tableEnv.from("Orders");
  2. Table result = orders.groupBy($("a")).select($("a"), $("b").sum().as("d"));

Scala

  1. val orders: Table = tableEnv.from("Orders")
  2. val result = orders.groupBy($"a").select($"a", $"b".sum().as("d"))

Python

  1. orders = t_env.from_path("Orders")
  2. result = orders.group_by(col("a")).select(col("a"), col("b").sum.alias('d'))

对于流式查询,计算查询结果所需的状态可能会无限增长,具体取决于关于聚合类型和不同分组键的数量。请配置空闲状态 维持时间以防止状态过大。详情可查看 空闲状态维持时间

GroupBy Window 聚合

Batch Streaming

使用分组窗口结合单个或者多个分组键对表进行分组和聚合。

Java

  1. Table orders = tableEnv.from("Orders");
  2. Table result = orders
  3. .window(Tumble.over(lit(5).minutes()).on($("rowtime")).as("w")) // 定义窗口
  4. .groupBy($("a"), $("w")) // 按窗口和键分组
  5. // 访问窗口属性并聚合
  6. .select(
  7. $("a"),
  8. $("w").start(),
  9. $("w").end(),
  10. $("w").rowtime(),
  11. $("b").sum().as("d")
  12. );

Scala

  1. val orders: Table = tableEnv.from("Orders")
  2. val result: Table = orders
  3. .window(Tumble over 5.minutes on $"rowtime" as "w") // 定义窗口
  4. .groupBy($"a", $"w") // 按窗口和键分组
  5. .select($"a", $"w".start, $"w".end, $"w".rowtime, $"b".sum as "d") // 访问窗口属性并聚合

Python

  1. from pyflink.table.window import Tumble
  2. from pyflink.table.expressions import lit, col
  3. orders = t_env.from_path("Orders")
  4. result = orders.window(Tumble.over(lit(5).minutes).on(col('rowtime')).alias("w")) \
  5. .group_by(col('a'), col('w')) \
  6. .select(col('a'), col('w').start, col('w').end, col('b').sum.alias('d'))

Over Window 聚合

和 SQL 的 OVER 子句类似。 基于前一行和后一行的窗口(范围),为每一行计算Over Window聚合。 更多细节详见 over windows section

Java

  1. Table orders = tableEnv.from("Orders");
  2. Table result = orders
  3. // 定义窗口
  4. .window(
  5. Over
  6. .partitionBy($("a"))
  7. .orderBy($("rowtime"))
  8. .preceding(UNBOUNDED_RANGE)
  9. .following(CURRENT_RANGE)
  10. .as("w"))
  11. // 滑动聚合
  12. .select(
  13. $("a"),
  14. $("b").avg().over($("w")),
  15. $("b").max().over($("w")),
  16. $("b").min().over($("w"))
  17. );

Scala

  1. val orders: Table = tableEnv.from("Orders")
  2. val result: Table = orders
  3. // 定义窗口
  4. .window(
  5. Over
  6. partitionBy $"a"
  7. orderBy $"rowtime"
  8. preceding UNBOUNDED_RANGE
  9. following CURRENT_RANGE
  10. as "w")
  11. .select($"a", $"b".avg over $"w", $"b".max().over($"w"), $"b".min().over($"w")) // 滑动聚合

Python

  1. from pyflink.table.window import Over
  2. from pyflink.table.expressions import col, UNBOUNDED_RANGE, CURRENT_RANGE
  3. orders = t_env.from_path("Orders")
  4. result = orders.over_window(Over.partition_by(col("a")).order_by(col("rowtime"))
  5. .preceding(UNBOUNDED_RANGE).following(CURRENT_RANGE)
  6. .alias("w")) \
  7. .select(col("a"), col("b").avg.over(col('w')), col("b").max.over(col('w')), col("b").min.over(col('w')))

所有的聚合必须定义在同一个窗口上,比如同一个分区、排序和范围内。目前只支持 PRECEDING 到当前行范围(无界或有界)的窗口。尚不支持 FOLLOWING 范围的窗口。ORDER BY 操作必须指定一个单一的时间属性

Distinct 聚合

Batch Streaming Result Updating

和 SQL DISTINCT 聚合子句类似,例如 COUNT(DISTINCT a)。 Distinct 聚合声明的聚合函数(内置或用户定义的)仅应用于互不相同的输入值。 Distinct 可以应用于 GroupBy 聚合GroupBy Window 聚合Over Window 聚合

Java

  1. Table orders = tableEnv.from("Orders");
  2. // 按属性分组后的的互异(互不相同、去重)聚合
  3. Table groupByDistinctResult = orders
  4. .groupBy($("a"))
  5. .select($("a"), $("b").sum().distinct().as("d"));
  6. // 按属性、时间窗口分组后的互异(互不相同、去重)聚合
  7. Table groupByWindowDistinctResult = orders
  8. .window(Tumble
  9. .over(lit(5).minutes())
  10. .on($("rowtime"))
  11. .as("w")
  12. )
  13. .groupBy($("a"), $("w"))
  14. .select($("a"), $("b").sum().distinct().as("d"));
  15. // over window 上的互异(互不相同、去重)聚合
  16. Table result = orders
  17. .window(Over
  18. .partitionBy($("a"))
  19. .orderBy($("rowtime"))
  20. .preceding(UNBOUNDED_RANGE)
  21. .as("w"))
  22. .select(
  23. $("a"), $("b").avg().distinct().over($("w")),
  24. $("b").max().over($("w")),
  25. $("b").min().over($("w"))
  26. );

Scala

  1. val orders: Table = tableEnv.from("Orders")
  2. // 按属性分组后的的互异(互不相同、去重)聚合
  3. val groupByDistinctResult = orders
  4. .groupBy($"a")
  5. .select($"a", $"b".sum.distinct as "d")
  6. // 按属性、时间窗口分组后的互异(互不相同、去重)聚合
  7. val groupByWindowDistinctResult = orders
  8. .window(Tumble over 5.minutes on $"rowtime" as "w").groupBy($"a", $"w")
  9. .select($"a", $"b".sum.distinct as "d")
  10. // over window 上的互异(互不相同、去重)聚合
  11. val result = orders
  12. .window(Over
  13. partitionBy $"a"
  14. orderBy $"rowtime"
  15. preceding UNBOUNDED_RANGE
  16. as $"w")
  17. .select($"a", $"b".avg.distinct over $"w", $"b".max over $"w", $"b".min over $"w")

Python

  1. from pyflink.table.expressions import col, lit, UNBOUNDED_RANGE
  2. from pyflink.table.window import Over, Tumble
  3. orders = t_env.from_path("Orders")
  4. # 按属性分组后的的互异(互不相同、去重)聚合
  5. group_by_distinct_result = orders.group_by(col("a")) \
  6. .select(col("a"), col("b").sum.distinct.alias('d'))
  7. # 按属性、时间窗口分组后的互异(互不相同、去重)聚合
  8. group_by_window_distinct_result = orders.window(Tumble.over(lit(5).minutes).on(col("rowtime")).alias("w")) \
  9. .group_by(col("a"), col('w')) \
  10. .select(col("a"), col("b").sum.distinct.alias('d'))
  11. # over window 上的互异(互不相同、去重)聚合
  12. result = orders.over_window(Over
  13. .partition_by(col("a"))
  14. .order_by(col("rowtime"))
  15. .preceding(UNBOUNDED_RANGE)
  16. .alias("w")) \
  17. .select(col("a"), col("b").avg.distinct.over(col('w')), col("b").max.over(col('w')), col("b").min.over(col('w')))

用户定义的聚合函数也可以与 DISTINCT 修饰符一起使用。如果计算不同(互异、去重的)值的聚合结果,则只需向聚合函数添加 distinct 修饰符即可。

Java

  1. Table orders = tEnv.from("Orders");
  2. // 对用户定义的聚合函数使用互异(互不相同、去重)聚合
  3. tEnv.createTemporarySystemFunction("myUdagg", MyUdagg.class);
  4. orders.groupBy("users")
  5. .select(
  6. $("users"),
  7. call("myUdagg", $("points")).distinct().as("myDistinctResult")
  8. );

Scala

  1. val orders: Table = tEnv.from("Orders")
  2. // 对用户定义的聚合函数使用互异(互不相同、去重)聚合
  3. val myUdagg = new MyUdagg()
  4. orders.groupBy($"users").select($"users", myUdagg.distinct($"points") as "myDistinctResult")

Python

不支持

对于流式查询,计算查询结果所需的状态可能会无限增长,具体取决于关于聚合类型和不同分组键的数量。请配置空闲状态 维持时间以防止状态过大。详情可查看 空闲状态维持时间

Distinct

Batch Streaming Result Updating

和 SQL 的 DISTINCT 子句类似。 返回具有不同组合值的记录。

Java

  1. Table orders = tableEnv.from("Orders");
  2. Table result = orders.distinct();

Scala

  1. val orders: Table = tableEnv.from("Orders")
  2. val result = orders.distinct()

Python

  1. orders = t_env.from_path("Orders")
  2. result = orders.distinct()

对于流式查询,计算查询结果所需的状态可能会无限增长,具体取决于关于聚合类型和不同分组键的数量。请配置空闲状态 维持时间以防止状态过大。详情可查看 空闲状态维持时间

Joins

Inner Join

Batch Streaming

和 SQL 的 JOIN 子句类似。关联两张表。两张表必须有不同的字段名,并且必须通过 join 算子或者使用 where 或 filter 算子定义至少一个 join 等式连接谓词。

Java

  1. Table left = tableEnv.from("MyTable").select($("a"), $("b"), $("c"));
  2. Table right = tableEnv.from("MyTable").select($("d"), $("e"), $("f"));
  3. Table result = left.join(right)
  4. .where($("a").isEqual($("d")))
  5. .select($("a"), $("b"), $("e"));

Scala

  1. val left = tableEnv.from("MyTable").select($"a", $"b", $"c")
  2. val right = tableEnv.from("MyTable").select($"d", $"e", $"f")
  3. val result = left.join(right).where($"a" === $"d").select($"a", $"b", $"e")

Python

  1. from pyflink.table.expressions import col
  2. left = t_env.from_path("Source1").select(col('a'), col('b'), col('c'))
  3. right = t_env.from_path("Source2").select(col('d'), col('e'), col('f'))
  4. result = left.join(right).where(col('a') == col('d')).select(col('a'), col('b'), col('e'))

对于流式查询,计算查询结果所需的状态可能会无限增长,具体取决于关于聚合类型和不同分组键的数量。请配置空闲状态 维持时间以防止状态过大。详情可查看 空闲状态维持时间

Outer Join

Batch Streaming Result Updating

和 SQL LEFT/RIGHT/FULL OUTER JOIN 子句类似。 关联两张表。 两张表必须有不同的字段名,并且必须定义至少一个等式连接谓词。

Java

  1. Table left = tableEnv.from("MyTable").select($("a"), $("b"), $("c"));
  2. Table right = tableEnv.from("MyTable").select($("d"), $("e"), $("f"));
  3. Table leftOuterResult = left.leftOuterJoin(right, $("a").isEqual($("d")))
  4. .select($("a"), $("b"), $("e"));
  5. Table rightOuterResult = left.rightOuterJoin(right, $("a").isEqual($("d")))
  6. .select($("a"), $("b"), $("e"));
  7. Table fullOuterResult = left.fullOuterJoin(right, $("a").isEqual($("d")))
  8. .select($("a"), $("b"), $("e"));

Scala

  1. val left = tableEnv.from("MyTable").select($"a", $"b", $"c")
  2. val right = tableEnv.from("MyTable").select($"d", $"e", $"f")
  3. val leftOuterResult = left.leftOuterJoin(right, $"a" === $"d").select($"a", $"b", $"e")
  4. val rightOuterResult = left.rightOuterJoin(right, $"a" === $"d").select($"a", $"b", $"e")
  5. val fullOuterResult = left.fullOuterJoin(right, $"a" === $"d").select($"a", $"b", $"e")

Python

  1. from pyflink.table.expressions import col
  2. left = t_env.from_path("Source1").select(col('a'), col('b'), col('c'))
  3. right = t_env.from_path("Source2").select(col('d'), col('e'), col('f'))
  4. left_outer_result = left.left_outer_join(right, col('a') == col('d')).select(col('a'), col('b'), col('e'))
  5. right_outer_result = left.right_outer_join(right, col('a') == col('d')).select(col('a'), col('b'), col('e'))
  6. full_outer_result = left.full_outer_join(right, col('a') == col('d')).select(col('a'), col('b'), col('e'))

对于流式查询,计算查询结果所需的状态可能会无限增长,具体取决于关于聚合类型和不同分组键的数量。请配置空闲状态 维持时间以防止状态过大。详情可查看 空闲状态维持时间

Interval Join

Batch Streaming

Interval join 是可以通过流模式处理的常规 join 的子集。

Interval join 至少需要一个 equi-join 谓词和一个限制双方时间界限的 join 条件。这种条件可以由两个合适的范围谓词(<、<=、>=、>)或一个比较两个输入表相同时间属性(即处理时间或事件时间)的等值谓词来定义。

Java

  1. Table left = tableEnv.from("MyTable").select($("a"), $("b"), $("c"), $("ltime"));
  2. Table right = tableEnv.from("MyTable").select($("d"), $("e"), $("f"), $("rtime"));
  3. Table result = left.join(right)
  4. .where(
  5. and(
  6. $("a").isEqual($("d")),
  7. $("ltime").isGreaterOrEqual($("rtime").minus(lit(5).minutes())),
  8. $("ltime").isLess($("rtime").plus(lit(10).minutes()))
  9. ))
  10. .select($("a"), $("b"), $("e"), $("ltime"));

Scala

  1. val left = tableEnv.from("MyTable").select($"a", $"b", $"c", $"ltime")
  2. val right = tableEnv.from("MyTable").select($"d", $"e", $"f", $"rtime")
  3. val result = left.join(right)
  4. .where($"a" === $"d" && $"ltime" >= $"rtime" - 5.minutes && $"ltime" < $"rtime" + 10.minutes)
  5. .select($"a", $"b", $"e", $"ltime")

Python

  1. from pyflink.table.expressions import col
  2. left = t_env.from_path("Source1").select(col('a'), col('b'), col('c'), col('rowtime1'))
  3. right = t_env.from_path("Source2").select(col('d'), col('e'), col('f'), col('rowtime2'))
  4. joined_table = left.join(right).where((col('a') == col('d')) & (col('rowtime1') >= col('rowtime2') - lit(1).second) & (col('rowtime1') <= col('rowtime2') + lit(2).seconds))
  5. result = joined_table.select(col('a'), col('b'), col('e'), col('rowtime1'))

与表函数 (UDTF) 的 Inner Join

Batch Streaming

join 表和表函数的结果。左(外部)表的每一行都会 join 表函数相应调用产生的所有行。 如果表函数调用返回空结果,则对应左侧(外部)表的该行被丢弃。

Java

  1. // 注册用户自定义表函数
  2. tableEnv.createTemporarySystemFunction("split", MySplitUDTF.class);
  3. // join
  4. Table orders = tableEnv.from("Orders");
  5. Table result = orders
  6. .joinLateral(call("split", $("c")).as("s", "t", "v"))
  7. .select($("a"), $("b"), $("s"), $("t"), $("v"));

Scala

  1. // 实例化用户自定义表函数
  2. val split: TableFunction[_] = new MySplitUDTF()
  3. // join
  4. val result: Table = table
  5. .joinLateral(split($"c") as ("s", "t", "v"))
  6. .select($"a", $"b", $"s", $"t", $"v")

Python

  1. # 注册用户自定义表函数
  2. @udtf(result_types=[DataTypes.BIGINT(), DataTypes.BIGINT(), DataTypes.BIGINT()])
  3. def split(x):
  4. return [Row(1, 2, 3)]
  5. # join
  6. orders = t_env.from_path("Orders")
  7. joined_table = orders.join_lateral(split(col('c')).alias("s", "t", "v"))
  8. result = joined_table.select(col('a'), col('b'), col('s'), col('t'), col('v'))

与表函数 (UDTF) 的 Left Outer Join

Batch Streaming

join 表和表函数的结果。左(外部)表的每一行都会 join 表函数相应调用产生的所有行。如果表函数调用返回空结果,则保留相应的 outer(外部连接)行并用空值填充右侧结果。

目前,表函数左外连接的谓词只能为空或字面(常量)值 true。

Java

  1. // 注册用户自定义表函数
  2. tableEnv.createTemporarySystemFunction("split", MySplitUDTF.class);
  3. // join
  4. Table orders = tableEnv.from("Orders");
  5. Table result = orders
  6. .leftOuterJoinLateral(call("split", $("c")).as("s", "t", "v"))
  7. .select($("a"), $("b"), $("s"), $("t"), $("v"));

Scala

  1. // 实例化用户自定义表函数
  2. val split: TableFunction[_] = new MySplitUDTF()
  3. // join
  4. val result: Table = table
  5. .leftOuterJoinLateral(split($"c") as ("s", "t", "v"))
  6. .select($"a", $"b", $"s", $"t", $"v")

Python

  1. # 注册用户自定义表函数
  2. @udtf(result_types=[DataTypes.BIGINT(), DataTypes.BIGINT(), DataTypes.BIGINT()])
  3. def split(x):
  4. return [Row(1, 2, 3)]
  5. # join
  6. orders = t_env.from_path("Orders")
  7. joined_table = orders.left_outer_join_lateral(split(col('c')).alias("s", "t", "v"))
  8. result = joined_table.select(col('a'), col('b'), col('s'), col('t'), col('v'))

与 Temporal Table 做 Join

Temporal table 是跟踪随时间变化的表。

Temporal table 函数提供对特定时间点 temporal table 状态的访问。表与 temporal table 函数进行 join 的语法和与表函数进行 inner join 的语法相同。

目前仅支持与 temporal table 的 inner join。

Java

  1. Table ratesHistory = tableEnv.from("RatesHistory");
  2. // 注册带有时间属性和主键的 temporal table function
  3. TemporalTableFunction rates = ratesHistory.createTemporalTableFunction(
  4. "r_proctime",
  5. "r_currency");
  6. tableEnv.createTemporarySystemFunction("rates", rates);
  7. // 基于时间属性和键与“Orders”表关联
  8. Table orders = tableEnv.from("Orders");
  9. Table result = orders
  10. .joinLateral(call("rates", $("o_proctime")), $("o_currency").isEqual($("r_currency")));

Python

目前不支持 Python 的 Table API。

Set 操作

Union

Batch

和 SQL UNION 子句类似。Union 两张表会删除重复记录。两张表必须具有相同的字段类型。

Java

  1. Table left = tableEnv.from("orders1");
  2. Table right = tableEnv.from("orders2");
  3. left.union(right);

Scala

  1. val left = tableEnv.from("orders1")
  2. val right = tableEnv.from("orders2")
  3. left.union(right)

Python

  1. left = t_env.from_path("orders1")
  2. right = t_env.from_path("orders2")
  3. left.union(right)

UnionAll

Batch Streaming

和 SQL UNION ALL 子句类似。Union 两张表。 两张表必须具有相同的字段类型。

Java

  1. Table left = tableEnv.from("orders1");
  2. Table right = tableEnv.from("orders2");
  3. left.unionAll(right);

Scala

  1. val left = tableEnv.from("orders1")
  2. val right = tableEnv.from("orders2")
  3. left.unionAll(right)

Python

  1. left = t_env.from_path("orders1")
  2. right = t_env.from_path("orders2")
  3. left.union_all(right)

Intersect

Batch

和 SQL INTERSECT 子句类似。Intersect 返回两个表中都存在的记录。如果一条记录在一张或两张表中存在多次,则只返回一条记录,也就是说,结果表中不存在重复的记录。两张表必须具有相同的字段类型。

Java

  1. Table left = tableEnv.from("orders1");
  2. Table right = tableEnv.from("orders2");
  3. left.intersect(right);

Scala

  1. val left = tableEnv.from("orders1")
  2. val right = tableEnv.from("orders2")
  3. left.intersect(right)

Python

  1. left = t_env.from_path("orders1")
  2. right = t_env.from_path("orders2")
  3. left.intersect(right)

IntersectAll

Batch

和 SQL INTERSECT ALL 子句类似。IntersectAll 返回两个表中都存在的记录。如果一条记录在两张表中出现多次,那么该记录返回的次数同该记录在两个表中都出现的次数一致,也就是说,结果表可能存在重复记录。两张表必须具有相同的字段类型。

Java

  1. Table left = tableEnv.from("orders1");
  2. Table right = tableEnv.from("orders2");
  3. left.intersectAll(right);

Scala

  1. val left = tableEnv.from("orders1")
  2. val right = tableEnv.from("orders2")
  3. left.intersectAll(right)

Python

  1. left = t_env.from_path("orders1")
  2. right = t_env.from_path("orders2")
  3. left.intersect_all(right)

Minus

Batch

和 SQL EXCEPT 子句类似。Minus 返回左表中存在且右表中不存在的记录。左表中的重复记录只返回一次,换句话说,结果表中没有重复记录。两张表必须具有相同的字段类型。

Java

  1. Table left = tableEnv.from("orders1");
  2. Table right = tableEnv.from("orders2");
  3. left.minus(right);

Scala

  1. val left = tableEnv.from("orders1")
  2. val right = tableEnv.from("orders2")
  3. left.minus(right)

Python

  1. left = t_env.from_path("orders1")
  2. right = t_env.from_path("orders2")
  3. left.minus(right)

MinusAll

Batch

和 SQL EXCEPT ALL 子句类似。MinusAll 返回右表中不存在的记录。在左表中出现 n 次且在右表中出现 m 次的记录,在结果表中出现 (n - m) 次,例如,也就是说结果中删掉了在右表中存在重复记录的条数的记录。两张表必须具有相同的字段类型。

Java

  1. Table left = tableEnv.from("orders1");
  2. Table right = tableEnv.from("orders2");
  3. left.minusAll(right);

Scala

  1. val left = tableEnv.from("orders1")
  2. val right = tableEnv.from("orders2")
  3. left.minusAll(right)

Python

  1. left = t_env.from_path("orders1")
  2. right = t_env.from_path("orders2")
  3. left.minus_all(right)

In

Batch Streaming

和 SQL IN 子句类似。如果表达式的值存在于给定表的子查询中,那么 In 子句返回 true。子查询表必须由一列组成。这个列必须与表达式具有相同的数据类型。

Java

  1. Table left = tableEnv.from("Orders1")
  2. Table right = tableEnv.from("Orders2");
  3. Table result = left.select($("a"), $("b"), $("c")).where($("a").in(right));

Scala

  1. val left = tableEnv.from("Orders1")
  2. val right = tableEnv.from("Orders2")
  3. val result = left.select($"a", $"b", $"c").where($"a".in(right))

Python

  1. left = t_env.from_path("Source1").select(col('a'), col('b'), col('c'))
  2. right = t_env.from_path("Source2").select(col('a'))
  3. result = left.select(col('a'), col('b'), col('c')).where(col('a').in_(right))

对于流式查询,计算查询结果所需的状态可能会无限增长,具体取决于关于聚合类型和不同分组键的数量。请配置空闲状态 维持时间以防止状态过大。详情可查看 空闲状态维持时间

OrderBy, Offset 和 Fetch

Order By

Batch Streaming

和 SQL ORDER BY 子句类似。返回跨所有并行分区的全局有序记录。对于无界表,该操作需要对时间属性进行排序或进行后续的 fetch 操作。

Java

  1. Table result = tab.orderBy($("a").asc());

Scala

  1. val result = tab.orderBy($"a".asc)

Python

  1. result = tab.order_by(col('a').asc)

Offset 和 Fetch

Batch Streaming

和 SQL 的 OFFSETFETCH 子句类似。Offset 操作根据偏移位置来限定(可能是已排序的)结果集。Fetch 操作将(可能已排序的)结果集限制为前 n 行。通常,这两个操作前面都有一个排序操作。对于无界表,offset 操作需要 fetch 操作。

Java

  1. // 从已排序的结果集中返回前5条记录
  2. Table result1 = in.orderBy($("a").asc()).fetch(5);
  3. // 从已排序的结果集中返回跳过3条记录之后的所有记录
  4. Table result2 = in.orderBy($("a").asc()).offset(3);
  5. // 从已排序的结果集中返回跳过10条记录之后的前5条记录
  6. Table result3 = in.orderBy($("a").asc()).offset(10).fetch(5);

Scala

  1. // 从已排序的结果集中返回前5条记录
  2. val result1: Table = in.orderBy($"a".asc).fetch(5)
  3. // 从已排序的结果集中返回跳过3条记录之后的所有记录
  4. val result2: Table = in.orderBy($"a".asc).offset(3)
  5. // 从已排序的结果集中返回跳过10条记录之后的前5条记录
  6. val result3: Table = in.orderBy($"a".asc).offset(10).fetch(5)

Python

  1. # 从已排序的结果集中返回前5条记录
  2. result1 = table.order_by(col('a').asc).fetch(5)
  3. # 从已排序的结果集中返回跳过3条记录之后的所有记录
  4. result2 = table.order_by(col('a').asc).offset(3)
  5. # 从已排序的结果集中返回跳过10条记录之后的前5条记录
  6. result3 = table.order_by(col('a').asc).offset(10).fetch(5)

Insert

Batch Streaming

和 SQL 查询中的 INSERT INTO 子句类似,该方法执行对已注册的输出表的插入操作。 insertInto() 方法会将 INSERT INTO 转换为一个 TablePipeline。 该数据流可以用 TablePipeline.explain() 来解释,用 TablePipeline.execute() 来执行。

输出表必须已注册在 TableEnvironment(详见表连接器)中。此外,已注册表的 schema 必须与查询中的 schema 相匹配。

Java

  1. Table orders = tableEnv.from("Orders");
  2. orders.insertInto("OutOrders").execute();

Scala

  1. val orders = tableEnv.from("Orders")
  2. orders.insertInto("OutOrders").execute()

Python

  1. orders = t_env.from_path("Orders")
  2. orders.execute_insert("OutOrders")

Group Windows

Group window 聚合根据时间或行计数间隔将行分为有限组,并为每个分组进行一次聚合函数计算。对于批处理表,窗口是按时间间隔对记录进行分组的便捷方式。

Java

窗口是使用 window(GroupWindow w) 子句定义的,并且需要使用 as 子句来指定别名。为了按窗口对表进行分组,窗口别名的引用必须像常规分组属性一样在 groupBy(...) 子句中。 以下示例展示了如何在表上定义窗口聚合。

  1. Table table = input
  2. .window([GroupWindow w].as("w")) // 定义窗口并指定别名为 w
  3. .groupBy($("w")) // 以窗口 w 对表进行分组
  4. .select($("b").sum()); // 聚合

Scala

窗口是使用 window(GroupWindow w) 子句定义的,并且需要使用 as 子句来指定别名。为了按窗口对表进行分组,窗口别名必须像常规分组属性一样在 groupBy(...) 子句中引用。 以下示例展示了如何在表上定义窗口聚合。

  1. val table = input
  2. .window([w: GroupWindow] as $"w") // 定义窗口并指定别名为 w
  3. .groupBy($"w") // 以窗口 w 对表进行分组
  4. .select($"b".sum) // 聚合

Python

窗口是使用 window(GroupWindow w) 子句定义的,并且需要使用 alias 子句来指定别名。为了按窗口对表进行分组,窗口别名必须像常规分组属性一样在 group_by(...) 子句中引用。 以下示例展示了如何在表上定义窗口聚合。

  1. # 定义窗口并指定别名为 w,以窗口 w 对表进行分组,然后再聚合
  2. table = input.window([w: GroupWindow].alias("w")) \
  3. .group_by(col('w')).select(col('b').sum)

Java

在流环境中,如果窗口聚合除了窗口之外还根据一个或多个属性进行分组,则它们只能并行计算,例如,groupBy(...) 子句引用了一个窗口别名和至少一个附加属性。仅引用窗口别名(例如在上面的示例中)的 groupBy(...) 子句只能由单个非并行任务进行计算。 以下示例展示了如何定义有附加分组属性的窗口聚合。

  1. Table table = input
  2. .window([GroupWindow w].as("w")) // 定义窗口并指定别名为 w
  3. .groupBy($("w"), $("a")) // 以属性 a 和窗口 w 对表进行分组
  4. .select($("a"), $("b").sum()); // 聚合

Scala

在流环境中,如果窗口聚合除了窗口之外还根据一个或多个属性进行分组,则它们只能并行计算,例如,groupBy(...) 子句引用了一个窗口别名和至少一个附加属性。仅引用窗口别名(例如在上面的示例中)的 groupBy(...) 子句只能由单个非并行任务进行计算。 以下示例展示了如何定义有附加分组属性的窗口聚合。

  1. val table = input
  2. .window([w: GroupWindow] as $"w") // 定义窗口并指定别名为 w
  3. .groupBy($"w", $"a") // 以属性 a 和窗口 w 对表进行分组
  4. .select($"a", $"b".sum) // 聚合

Python

在流环境中,如果窗口聚合除了窗口之外还根据一个或多个属性进行分组,则它们只能并行计算,例如,group_by(...) 子句引用了一个窗口别名和至少一个附加属性。仅引用窗口别名(例如在上面的示例中)的 group_by(...) 子句只能由单个非并行任务进行计算。 以下示例展示了如何定义有附加分组属性的窗口聚合。

  1. # 定义窗口并指定别名为 w,以属性 a 和窗口 w 对表进行分组,
  2. # 然后再聚合
  3. table = input.window([w: GroupWindow].alias("w")) \
  4. .group_by(col('w'), col('a')).select(col('b').sum)

时间窗口的开始、结束或行时间戳等窗口属性可以作为窗口别名的属性添加到 select 子句中,如 w.startw.endw.rowtime。窗口开始和行时间戳是包含的上下窗口边界。相反,窗口结束时间戳是唯一的上窗口边界。例如,从下午 2 点开始的 30 分钟滚动窗口将 “14:00:00.000” 作为开始时间戳,“14:29:59.999” 作为行时间时间戳,“14:30:00.000” 作为结束时间戳。

Java

  1. Table table = input
  2. .window([GroupWindow w].as("w")) // 定义窗口并指定别名为 w
  3. .groupBy($("w"), $("a")) // 以属性 a 和窗口 w 对表进行分组
  4. .select($("a"), $("w").start(), $("w").end(), $("w").rowtime(), $("b").count()); // 聚合并添加窗口开始、结束和 rowtime 时间戳

Scala

  1. val table = input
  2. .window([w: GroupWindow] as $"w") // 定义窗口并指定别名为 w
  3. .groupBy($"w", $"a") // 以属性 a 和窗口 w 对表进行分组
  4. .select($"a", $"w".start, $"w".end, $"w".rowtime, $"b".count) // 聚合并添加窗口开始、结束和 rowtime 时间戳

Python

  1. # 定义窗口并指定别名为 w,以属性 a 和窗口 w 对表进行分组,
  2. # 然后再聚合并添加窗口开始、结束和 rowtime 时间戳
  3. table = input.window([w: GroupWindow].alias("w")) \
  4. .group_by(col('w'), col('a')) \
  5. .select(col('a'), col('w').start, col('w').end, col('w').rowtime, col('b').count)

Window 参数定义了如何将行映射到窗口。 Window 不是用户可以实现的接口。相反,Table API 提供了一组具有特定语义的预定义 Window 类。下面列出了支持的窗口定义。

Tumble (滚动窗口)

滚动窗口将行分配给固定长度的非重叠连续窗口。例如,一个 5 分钟的滚动窗口以 5 分钟的间隔对行进行分组。滚动窗口可以定义在事件时间、处理时间或行数上。

Java

滚动窗口是通过 Tumble 类定义的,具体如下:

方法描述
over将窗口的长度定义为时间或行计数间隔。
on要对数据进行分组(时间间隔)或排序(行计数)的时间属性。批处理查询支持任意 Long 或 Timestamp 类型的属性。流处理查询仅支持声明的事件时间或处理时间属性
as指定窗口的别名。别名用于在 groupBy() 子句中引用窗口,并可以在 select() 子句中选择如窗口开始、结束或行时间戳的窗口属性。
  1. // 滚动事件时间窗口
  2. .window(Tumble.over(lit(10).minutes()).on($("rowtime")).as("w"));
  3. // 滚动处理时间窗口 (假设存在处理时间属性 "proctime")
  4. .window(Tumble.over(lit(10).minutes()).on($("proctime")).as("w"));
  5. // 滚动 Row-count 窗口 (假设存在处理时间属性 "proctime")
  6. .window(Tumble.over(rowInterval(10)).on($("proctime")).as("w"));

Scala

滚动窗口是通过 Tumble 类定义的,具体如下:

方法描述
over将窗口的长度定义为时间或行计数间隔。
on要对数据进行分组(时间间隔)或排序(行计数)的时间属性。批处理查询支持任意 Long 或 Timestamp 类型的属性。流处理查询仅支持声明的事件时间或处理时间属性
as指定窗口的别名。别名用于在 groupBy() 子句中引用窗口,并可以在 select() 子句中选择如窗口开始、结束或行时间戳的窗口属性。
  1. // 滚动事件时间窗口
  2. .window(Tumble over 10.minutes on $"rowtime" as $"w")
  3. // 滚动处理时间窗口 (假设存在处理时间属性 "proctime")
  4. .window(Tumble over 10.minutes on $"proctime" as $"w")
  5. // 滚动 Row-count 窗口 (假设存在处理时间属性 "proctime")
  6. .window(Tumble over 10.rows on $"proctime" as $"w")

Python

滚动窗口是通过 Tumble 类定义的,具体如下:

方法描述
over将窗口的长度定义为时间或行计数间隔。
on要对数据进行分组(时间间隔)或排序(行计数)的时间属性。批处理查询支持任意 Long 或 Timestamp 类型的属性。流处理查询仅支持声明的事件时间或处理时间属性
alias指定窗口的别名。别名用于在 group_by() 子句中引用窗口,并可以在 select() 子句中选择如窗口开始、结束或行时间戳的窗口属性。
  1. # 滚动事件时间窗口
  2. .window(Tumble.over(lit(10).minutes).on(col('rowtime')).alias("w"))
  3. # 滚动处理时间窗口 (假设存在处理时间属性 "proctime")
  4. .window(Tumble.over(lit(10).minutes).on(col('proctime')).alias("w"))
  5. # 滚动 Row-count 窗口 (假设存在处理时间属性 "proctime")
  6. .window(Tumble.over(row_interval(10)).on(col('proctime')).alias("w"))

Slide (滑动窗口)

滑动窗口具有固定大小并按指定的滑动间隔滑动。如果滑动间隔小于窗口大小,则滑动窗口重叠。因此,行可能分配给多个窗口。例如,15 分钟大小和 5 分钟滑动间隔的滑动窗口将每一行分配给 3 个不同的 15 分钟大小的窗口,以 5 分钟的间隔进行一次计算。滑动窗口可以定义在事件时间、处理时间或行数上。

Java

滑动窗口是通过 Slide 类定义的,具体如下:

方法描述
over将窗口的长度定义为时间或行计数间隔。
every将窗口的长度定义为时间或行计数间隔。滑动间隔的类型必须与窗口长度的类型相同。
on要对数据进行分组(时间间隔)或排序(行计数)的时间属性。批处理查询支持任意 Long 或 Timestamp 类型的属性。流处理查询仅支持声明的事件时间或处理时间属性
as指定窗口的别名。别名用于在 groupBy() 子句中引用窗口,并可以在 select() 子句中选择如窗口开始、结束或行时间戳的窗口属性。
  1. // 滑动事件时间窗口
  2. .window(Slide.over(lit(10).minutes())
  3. .every(lit(5).minutes())
  4. .on($("rowtime"))
  5. .as("w"));
  6. // 滑动处理时间窗口 (假设存在处理时间属性 "proctime")
  7. .window(Slide.over(lit(10).minutes())
  8. .every(lit(5).minutes())
  9. .on($("proctime"))
  10. .as("w"));
  11. // 滑动 Row-count 窗口 (假设存在处理时间属性 "proctime")
  12. .window(Slide.over(rowInterval(10)).every(rowInterval(5)).on($("proctime")).as("w"));

Scala

滑动窗口是通过 Slide 类定义的,具体如下:

方法描述
over将窗口的长度定义为时间或行计数间隔。
every将窗口的长度定义为时间或行计数间隔。滑动间隔的类型必须与窗口长度的类型相同。
on要对数据进行分组(时间间隔)或排序(行计数)的时间属性。批处理查询支持任意 Long 或 Timestamp 类型的属性。流处理查询仅支持声明的事件时间或处理时间属性
as指定窗口的别名。别名用于在 groupBy() 子句中引用窗口,并可以在 select() 子句中选择如窗口开始、结束或行时间戳的窗口属性。
  1. // 滑动事件时间窗口
  2. .window(Slide over 10.minutes every 5.minutes on $"rowtime" as $"w")
  3. // 滑动处理时间窗口 (假设存在处理时间属性 "proctime")
  4. .window(Slide over 10.minutes every 5.minutes on $"proctime" as $"w")
  5. // 滑动 Row-count 窗口 (假设存在处理时间属性 "proctime")
  6. .window(Slide over 10.rows every 5.rows on $"proctime" as $"w")

Python

滑动窗口是通过 Slide 类定义的,具体如下:

方法描述
over将窗口的长度定义为时间或行计数间隔。
every将窗口的长度定义为时间或行计数间隔。滑动间隔的类型必须与窗口长度的类型相同。
on要对数据进行分组(时间间隔)或排序(行计数)的时间属性。批处理查询支持任意 Long 或 Timestamp 类型的属性。流处理查询仅支持声明的事件时间或处理时间属性
alias指定窗口的别名。别名用于在 group_by() 子句中引用窗口,并可以在 select() 子句中选择如窗口开始、结束或行时间戳的窗口属性。
  1. # 滑动事件时间窗口
  2. .window(Slide.over(lit(10).minutes).every(lit(5).minutes).on(col('rowtime')).alias("w"))
  3. # 滑动处理时间窗口 (假设存在处理时间属性 "proctime")
  4. .window(Slide.over(lit(10).minutes).every(lit(5).minutes).on(col('proctime')).alias("w"))
  5. # 滑动 Row-count 窗口 (假设存在处理时间属性 "proctime")
  6. .window(Slide.over(row_interval(10)).every(row_interval(5)).on(col('proctime')).alias("w"))

Session (会话窗口)

会话窗口没有固定的大小,其边界是由不活动的间隔定义的,例如,如果在定义的间隔期内没有事件出现,则会话窗口将关闭。例如,定义 30 分钟间隔的会话窗口,当观察到一行在 30 分钟内不活动(否则该行将被添加到现有窗口中)且 30 分钟内没有添加新行,窗口会关闭。会话窗口支持事件时间和处理时间。

Java

会话窗口是通过 Session 类定义的,具体如下:

方法描述
withGap将两个窗口之间的间隙定义为时间间隔。
on要对数据进行分组(时间间隔)或排序(行计数)的时间属性。批处理查询支持任意 Long 或 Timestamp 类型的属性。流处理查询仅支持声明的事件时间或处理时间属性
as指定窗口的别名。别名用于在 groupBy() 子句中引用窗口,并可以在 select() 子句中选择如窗口开始、结束或行时间戳的窗口属性。
  1. // 会话事件时间窗口
  2. .window(Session.withGap(lit(10).minutes()).on($("rowtime")).as("w"));
  3. // 会话处理时间窗口 (假设存在处理时间属性 "proctime")
  4. .window(Session.withGap(lit(10).minutes()).on($("proctime")).as("w"));

Scala

会话窗口是通过 Session 类定义的,具体如下:

方法描述
withGap将两个窗口之间的间隙定义为时间间隔。
on要对数据进行分组(时间间隔)或排序(行计数)的时间属性。批处理查询支持任意 Long 或 Timestamp 类型的属性。流处理查询仅支持声明的事件时间或处理时间属性
as指定窗口的别名。别名用于在 groupBy() 子句中引用窗口,并可以在 select() 子句中选择如窗口开始、结束或行时间戳的窗口属性。
  1. // 会话事件时间窗口
  2. .window(Session withGap 10.minutes on $"rowtime" as $"w")
  3. // 会话处理时间窗口 (假设存在处理时间属性 "proctime")
  4. .window(Session withGap 10.minutes on $"proctime" as $"w")

Python

会话窗口是通过 Session 类定义的,具体如下:

方法描述
with_gap将两个窗口之间的间隙定义为时间间隔。
on要对数据进行分组(时间间隔)或排序(行计数)的时间属性。批处理查询支持任意 Long 或 Timestamp 类型的属性。流处理查询仅支持声明的事件时间或处理时间属性
alias指定窗口的别名。别名用于在 group_by() 子句中引用窗口,并可以在 select() 子句中选择如窗口开始、结束或行时间戳的窗口属性。
  1. # 会话事件时间窗口
  2. .window(Session.with_gap(lit(10).minutes).on(col('rowtime')).alias("w"))
  3. # 会话处理时间窗口 (假设存在处理时间属性 "proctime")
  4. .window(Session.with_gap(lit(10).minutes).on(col('proctime')).alias("w"))

Over Windows

Over window 聚合来自标准的 SQL(OVER 子句),可以在 SELECT 查询子句中定义。与在“GROUP BY”子句中指定的 group window 不同, over window 不会折叠行。相反,over window 聚合为每个输入行在其相邻行的范围内计算聚合。

Over windows 使用 window(w: OverWindow*) 子句(在 Python API 中使用 over_window(*OverWindow))定义,并通过 select() 方法中的别名引用。以下示例显示如何在表上定义 over window 聚合。

Java

  1. Table table = input
  2. .window([OverWindow w].as("w")) // 定义 over window 并指定别名为 w
  3. .select($("a"), $("b").sum().over($("w")), $("c").min().over($("w"))); // 在 over window w 上聚合

Scala

  1. val table = input
  2. .window([w: OverWindow] as $"w") // 定义 over window 并指定别名为 w
  3. .select($"a", $"b".sum over $"w", $"c".min over $"w") // 在 over window w 上聚合

Python

  1. # 定义 over window 并指定别名为 w,在 over window w 上聚合
  2. table = input.over_window([w: OverWindow].alias("w"))
  3. .select(col('a'), col('b').sum.over(col('w')), col('c').min.over(col('w')))

OverWindow 定义了计算聚合的行范围。OverWindow 不是用户可以实现的接口。相反,Table API 提供了Over 类来配置 over window 的属性。可以在事件时间或处理时间以及指定为时间间隔或行计数的范围内定义 over window 。可以通过 Over 类(和其他类)上的方法来定义 over window,具体如下:

Partition By

可选的

在一个或多个属性上定义输入的分区。每个分区单独排序,聚合函数分别应用于每个分区。

注意:在流环境中,如果窗口包含 partition by 子句,则只能并行计算 over window 聚合。如果没有 partitionBy(…),数据流将由单个非并行任务处理。

Order By

必须的

定义每个分区内行的顺序,从而定义聚合函数应用于行的顺序。

注意:对于流处理查询,必须声明事件时间或处理时间属性。目前,仅支持单个排序属性。

Preceding

可选的

定义了包含在窗口中并位于当前行之前的行的间隔。间隔可以是时间或行计数间隔。

有界 over window 用间隔的大小指定,例如,时间间隔为10分钟或行计数间隔为10行。

无界 over window 通过常量来指定,例如,用UNBOUNDED_RANGE指定时间间隔或用 UNBOUNDED_ROW 指定行计数间隔。无界 over windows 从分区的第一行开始。

如果省略前面的子句,则使用 UNBOUNDED_RANGE 和 CURRENT_RANGE 作为窗口前后的默认值。

Following

可选的

定义包含在窗口中并在当前行之后的行的窗口间隔。间隔必须以与前一个间隔(时间或行计数)相同的单位指定。

目前,不支持在当前行之后有行的 over window。相反,你可以指定两个常量之一:

  • CURRENT_ROW 将窗口的上限设置为当前行。
  • CURRENT_RANGE 将窗口的上限设置为当前行的排序键,例如,与当前行具有相同排序键的所有行都包含在窗口中。

如果省略后面的子句,则时间间隔窗口的上限定义为 CURRENT_RANGE,行计数间隔窗口的上限定义为CURRENT_ROW。

As

必须的

为 over window 指定别名。别名用于在之后的 select() 子句中引用该 over window。

注意:目前,同一个 select() 调用中的所有聚合函数必须在同一个 over window 上计算。

Unbounded Over Windows

Java

  1. // 无界的事件时间 over window(假定有一个叫“rowtime”的事件时间属性)
  2. .window(Over.partitionBy($("a")).orderBy($("rowtime")).preceding(UNBOUNDED_RANGE).as("w"));
  3. // 无界的处理时间 over window(假定有一个叫“proctime”的处理时间属性)
  4. .window(Over.partitionBy($("a")).orderBy("proctime").preceding(UNBOUNDED_RANGE).as("w"));
  5. // 无界的事件时间行数 over window(假定有一个叫“rowtime”的事件时间属性)
  6. .window(Over.partitionBy($("a")).orderBy($("rowtime")).preceding(UNBOUNDED_ROW).as("w"));
  7. // 无界的处理时间行数 over window(假定有一个叫“proctime”的处理时间属性)
  8. .window(Over.partitionBy($("a")).orderBy($("proctime")).preceding(UNBOUNDED_ROW).as("w"));

Scala

  1. // 无界的事件时间 over window(假定有一个叫“rowtime”的事件时间属性)
  2. .window(Over partitionBy $"a" orderBy $"rowtime" preceding UNBOUNDED_RANGE as "w")
  3. // 无界的处理时间 over window(假定有一个叫“proctime”的处理时间属性)
  4. .window(Over partitionBy $"a" orderBy $"proctime" preceding UNBOUNDED_RANGE as "w")
  5. // 无界的事件时间行数 over window(假定有一个叫“rowtime”的事件时间属性)
  6. .window(Over partitionBy $"a" orderBy $"rowtime" preceding UNBOUNDED_ROW as "w")
  7. // 无界的处理时间行数 over window(假定有一个叫“proctime”的处理时间属性)
  8. .window(Over partitionBy $"a" orderBy $"proctime" preceding UNBOUNDED_ROW as "w")

Python

  1. # 无界的事件时间 over window(假定有一个叫“rowtime”的事件时间属性)
  2. .over_window(Over.partition_by(col('a')).order_by(col('rowtime')).preceding(UNBOUNDED_RANGE).alias("w"))
  3. # 无界的处理时间 over window(假定有一个叫“proctime”的处理时间属性)
  4. .over_window(Over.partition_by(col('a')).order_by(col('proctime')).preceding(UNBOUNDED_RANGE).alias("w"))
  5. # 无界的事件时间行数 over window(假定有一个叫“rowtime”的事件时间属性)
  6. .over_window(Over.partition_by(col('a')).order_by(col('rowtime')).preceding(UNBOUNDED_ROW).alias("w"))
  7. # 无界的处理时间行数 over window(假定有一个叫“proctime”的处理时间属性)
  8. .over_window(Over.partition_by(col('a')).order_by(col('proctime')).preceding(UNBOUNDED_ROW).alias("w"))

Bounded Over Windows

Java

  1. // 有界的事件时间 over window(假定有一个叫“rowtime”的事件时间属性)
  2. .window(Over.partitionBy($("a")).orderBy($("rowtime")).preceding(lit(1).minutes()).as("w"));
  3. // 有界的处理时间 over window(假定有一个叫“proctime”的处理时间属性)
  4. .window(Over.partitionBy($("a")).orderBy($("proctime")).preceding(lit(1).minutes()).as("w"));
  5. // 有界的事件时间行数 over window(假定有一个叫“rowtime”的事件时间属性)
  6. .window(Over.partitionBy($("a")).orderBy($("rowtime")).preceding(rowInterval(10)).as("w"));
  7. // 有界的处理时间行数 over window(假定有一个叫“proctime”的处理时间属性)
  8. .window(Over.partitionBy($("a")).orderBy($("proctime")).preceding(rowInterval(10)).as("w"));

Scala

  1. // 有界的事件时间 over window(假定有一个叫“rowtime”的事件时间属性)
  2. .window(Over partitionBy $"a" orderBy $"rowtime" preceding 1.minutes as "w")
  3. // 有界的处理时间 over window(假定有一个叫“proctime”的处理时间属性)
  4. .window(Over partitionBy $"a" orderBy $"proctime" preceding 1.minutes as "w")
  5. // 有界的事件时间行数 over window(假定有一个叫“rowtime”的事件时间属性)
  6. .window(Over partitionBy $"a" orderBy $"rowtime" preceding 10.rows as "w")
  7. // 有界的处理时间行数 over window(假定有一个叫“proctime”的处理时间属性)
  8. .window(Over partitionBy $"a" orderBy $"proctime" preceding 10.rows as "w")

Python

  1. # 有界的事件时间 over window(假定有一个叫“rowtime”的事件时间属性)
  2. .over_window(Over.partition_by(col('a')).order_by(col('rowtime')).preceding(lit(1).minutes).alias("w"))
  3. # 有界的处理时间 over window(假定有一个叫“proctime”的处理时间属性)
  4. .over_window(Over.partition_by(col('a')).order_by(col('proctime')).preceding(lit(1).minutes).alias("w"))
  5. # 有界的事件时间行数 over window(假定有一个叫“rowtime”的事件时间属性)
  6. .over_window(Over.partition_by(col('a')).order_by(col('rowtime')).preceding(row_interval(10)).alias("w"))
  7. # 有界的处理时间行数 over window(假定有一个叫“proctime”的处理时间属性)
  8. .over_window(Over.partition_by(col('a')).order_by(col('proctime')).preceding(row_interval(10)).alias("w"))

Row-based 操作

基于行生成多列输出的操作。

Map

Batch Streaming

Java

使用用户定义的标量函数或内置标量函数执行 map 操作。如果输出类型是复合类型,则输出将被展平。

  1. @FunctionHint(input = @DataTypeHint("STRING"), output = @DataTypeHint("ROW<s1 STRING, s2 STRING>"))
  2. public class MyMapFunction extends ScalarFunction {
  3. public Row eval(String a) {
  4. return Row.of(a, "pre-" + a);
  5. }
  6. }
  7. tableEnv.createTemporarySystemFunction("func", MyMapFunction.class);
  8. Table table = input
  9. .map(call("func", $("c")).as("a", "b"));

Scala

使用用户定义的标量函数或内置标量函数执行 map 操作。如果输出类型是复合类型,则输出将被展平。

  1. class MyMapFunction extends ScalarFunction {
  2. def eval(a: String): Row = {
  3. Row.of(a, "pre-" + a)
  4. }
  5. override def getResultType(signature: Array[Class[_]]): TypeInformation[_] =
  6. Types.ROW(Types.STRING, Types.STRING)
  7. }
  8. val func = new MyMapFunction()
  9. val table = input
  10. .map(func($"c")).as("a", "b")

Python

使用 python 的通用标量函数向量化标量函数执行 map 操作。如果输出类型是复合类型,则输出将被展平。

  1. from pyflink.common import Row
  2. from pyflink.table import DataTypes
  3. from pyflink.table.udf import udf
  4. def map_function(a: Row) -> Row:
  5. return Row(a.a + 1, a.b * a.b)
  6. # 使用 python 通用标量函数进行 map 操作
  7. func = udf(map_function, result_type=DataTypes.ROW(
  8. [DataTypes.FIELD("a", DataTypes.BIGINT()),
  9. DataTypes.FIELD("b", DataTypes.BIGINT())]))
  10. table = input.map(func).alias('a', 'b')
  11. # 使用 python 向量化标量函数进行 map 操作
  12. pandas_func = udf(lambda x: x * 2,
  13. result_type=DataTypes.ROW([DataTypes.FIELD("a", DataTypes.BIGINT()),
  14. DataTypes.FIELD("b", DataTypes.BIGINT())]),
  15. func_type='pandas')
  16. table = input.map(pandas_func).alias('a', 'b')

FlatMap

Batch Streaming

Java

使用表函数执行 flatMap 操作。

  1. @FunctionHint(input = @DataTypeHint("STRING"), output = @DataTypeHint("ROW<s1 STRING, i INT>"))
  2. public class MyFlatMapFunction extends TableFunction<Row> {
  3. public void eval(String str) {
  4. if (str.contains("#")) {
  5. String[] array = str.split("#");
  6. for (int i = 0; i < array.length; ++i) {
  7. collect(Row.of(array[i], array[i].length()));
  8. }
  9. }
  10. }
  11. }
  12. tableEnv.createTemporarySystemFunction("func", MyFlatMapFunction.class);
  13. Table table = input
  14. .flatMap(call("func", $("c")).as("a", "b"));

Scala

使用表函数执行 flatMap 操作。

  1. class MyFlatMapFunction extends TableFunction[Row] {
  2. def eval(str: String): Unit = {
  3. if (str.contains("#")) {
  4. str.split("#").foreach({ s =>
  5. val row = new Row(2)
  6. row.setField(0, s)
  7. row.setField(1, s.length)
  8. collect(row)
  9. })
  10. }
  11. }
  12. override def getResultType: TypeInformation[Row] = {
  13. Types.ROW(Types.STRING, Types.INT)
  14. }
  15. }
  16. val func = new MyFlatMapFunction
  17. val table = input
  18. .flatMap(func($"c")).as("a", "b")

Python

通过 python 表函数执行 flat_map 操作。

  1. from pyflink.table.udf import udtf
  2. from pyflink.table import DataTypes
  3. from pyflink.common import Row
  4. @udtf(result_types=[DataTypes.INT(), DataTypes.STRING()])
  5. def split(x: Row) -> Row:
  6. for s in x.b.split(","):
  7. yield x.a, s
  8. input.flat_map(split)

Aggregate

Batch Streaming Result

Java

使用聚合函数来执行聚合操作。你必须使用 select 子句关闭 aggregate,并且 select 子句不支持聚合函数。如果输出类型是复合类型,则聚合的输出将被展平。

  1. public class MyMinMaxAcc {
  2. public int min = 0;
  3. public int max = 0;
  4. }
  5. public class MyMinMax extends AggregateFunction<Row, MyMinMaxAcc> {
  6. public void accumulate(MyMinMaxAcc acc, int value) {
  7. if (value < acc.min) {
  8. acc.min = value;
  9. }
  10. if (value > acc.max) {
  11. acc.max = value;
  12. }
  13. }
  14. @Override
  15. public MyMinMaxAcc createAccumulator() {
  16. return new MyMinMaxAcc();
  17. }
  18. public void resetAccumulator(MyMinMaxAcc acc) {
  19. acc.min = 0;
  20. acc.max = 0;
  21. }
  22. @Override
  23. public Row getValue(MyMinMaxAcc acc) {
  24. return Row.of(acc.min, acc.max);
  25. }
  26. @Override
  27. public TypeInference getTypeInference(DataTypeFactory typeFactory) {
  28. return TypeInference.newBuilder()
  29. .typedArguments(DataTypes.INT())
  30. .accumulatorTypeStrategy(
  31. TypeStrategies.explicit(
  32. DataTypes.STRUCTURED(
  33. MyMinMaxAcc.class,
  34. DataTypes.FIELD("min", DataTypes.INT()),
  35. DataTypes.FIELD("max", DataTypes.INT()))))
  36. .outputTypeStrategy(TypeStrategies.explicit(DataTypes.INT()))
  37. .build();
  38. }
  39. }
  40. tableEnv.createTemporarySystemFunction("myAggFunc", MyMinMax.class);
  41. Table table = input
  42. .groupBy($("key"))
  43. .aggregate(call("myAggFunc", $("a")).as("x", "y"))
  44. .select($("key"), $("x"), $("y"));

Scala

使用聚合函数来执行聚合操作。你必须使用 select 子句关闭 aggregate,并且 select 子句不支持聚合函数。如果输出类型是复合类型,则聚合的输出将被展平。

  1. case class MyMinMaxAcc(var min: Int, var max: Int)
  2. class MyMinMax extends AggregateFunction[Row, MyMinMaxAcc] {
  3. def accumulate(acc: MyMinMaxAcc, value: Int): Unit = {
  4. if (value < acc.min) {
  5. acc.min = value
  6. }
  7. if (value > acc.max) {
  8. acc.max = value
  9. }
  10. }
  11. override def createAccumulator(): MyMinMaxAcc = MyMinMaxAcc(0, 0)
  12. def resetAccumulator(acc: MyMinMaxAcc): Unit = {
  13. acc.min = 0
  14. acc.max = 0
  15. }
  16. override def getValue(acc: MyMinMaxAcc): Row = {
  17. Row.of(Integer.valueOf(acc.min), Integer.valueOf(acc.max))
  18. }
  19. override def getTypeInference(typeFactory: DataTypeFactory): TypeInference =
  20. TypeInference.newBuilder
  21. .typedArguments(DataTypes.INT)
  22. .accumulatorTypeStrategy(
  23. TypeStrategies.explicit(
  24. DataTypes.STRUCTURED(
  25. classOf[MyMinMaxAcc],
  26. DataTypes.FIELD("min", DataTypes.INT),
  27. DataTypes.FIELD("max", DataTypes.INT))))
  28. .outputTypeStrategy(TypeStrategies.explicit(DataTypes.INT))
  29. .build
  30. }
  31. val myAggFunc = new MyMinMax
  32. val table = input
  33. .groupBy($"key")
  34. .aggregate(myAggFunc($"a") as ("x", "y"))
  35. .select($"key", $"x", $"y")

Python

使用 python 的通用聚合函数向量化聚合函数来执行聚合操作。你必须使用 select 子句关闭 aggregate ,并且 select 子句不支持聚合函数。如果输出类型是复合类型,则聚合的输出将被展平。

  1. from pyflink.common import Row
  2. from pyflink.table import DataTypes
  3. from pyflink.table.udf import AggregateFunction, udaf
  4. class CountAndSumAggregateFunction(AggregateFunction):
  5. def get_value(self, accumulator):
  6. return Row(accumulator[0], accumulator[1])
  7. def create_accumulator(self):
  8. return Row(0, 0)
  9. def accumulate(self, accumulator, row: Row):
  10. accumulator[0] += 1
  11. accumulator[1] += row.b
  12. def retract(self, accumulator, row: Row):
  13. accumulator[0] -= 1
  14. accumulator[1] -= row.b
  15. def merge(self, accumulator, accumulators):
  16. for other_acc in accumulators:
  17. accumulator[0] += other_acc[0]
  18. accumulator[1] += other_acc[1]
  19. def get_accumulator_type(self):
  20. return DataTypes.ROW(
  21. [DataTypes.FIELD("a", DataTypes.BIGINT()),
  22. DataTypes.FIELD("b", DataTypes.BIGINT())])
  23. def get_result_type(self):
  24. return DataTypes.ROW(
  25. [DataTypes.FIELD("a", DataTypes.BIGINT()),
  26. DataTypes.FIELD("b", DataTypes.BIGINT())])
  27. function = CountAndSumAggregateFunction()
  28. agg = udaf(function,
  29. result_type=function.get_result_type(),
  30. accumulator_type=function.get_accumulator_type(),
  31. name=str(function.__class__.__name__))
  32. # 使用 python 通用聚合函数进行聚合
  33. result = t.group_by(col('a')) \
  34. .aggregate(agg.alias("c", "d")) \
  35. .select(col('a'), col('c'), col('d'))
  36. # 使用 python 向量化聚合函数进行聚合
  37. pandas_udaf = udaf(lambda pd: (pd.b.mean(), pd.b.max()),
  38. result_type=DataTypes.ROW(
  39. [DataTypes.FIELD("a", DataTypes.FLOAT()),
  40. DataTypes.FIELD("b", DataTypes.INT())]),
  41. func_type="pandas")
  42. t.aggregate(pandas_udaf.alias("a", "b")) \
  43. .select(col('a'), col('b'))

Group Window Aggregate

Batch Streaming

group window 和可能的一个或多个分组键上对表进行分组和聚合。你必须使用 select 子句关闭 aggregate。并且 select 子句不支持“*“或聚合函数。

Java

  1. tableEnv.createTemporarySystemFunction("myAggFunc", MyMinMax.class);
  2. Table table = input
  3. .window(Tumble.over(lit(5).minutes())
  4. .on($("rowtime"))
  5. .as("w")) // 定义窗口
  6. .groupBy($("key"), $("w")) // 以键和窗口分组
  7. .aggregate(call("myAggFunc", $("a")).as("x", "y"))
  8. .select($("key"), $("x"), $("y"), $("w").start(), $("w").end()); // 访问窗口属性与聚合结果

Scala

  1. val myAggFunc = new MyMinMax
  2. val table = input
  3. .window(Tumble over 5.minutes on $"rowtime" as "w") // 定义窗口
  4. .groupBy($"key", $"w") // 以键和窗口分组
  5. .aggregate(myAggFunc($"a") as ("x", "y"))
  6. .select($"key", $"x", $"y", $"w".start, $"w".end) // 访问窗口属性与聚合结果

Python

  1. from pyflink.table import DataTypes
  2. from pyflink.table.udf import AggregateFunction, udaf
  3. from pyflink.table.expressions import col, lit
  4. from pyflink.table.window import Tumble
  5. pandas_udaf = udaf(lambda pd: (pd.b.mean(), pd.b.max()),
  6. result_type=DataTypes.ROW(
  7. [DataTypes.FIELD("a", DataTypes.FLOAT()),
  8. DataTypes.FIELD("b", DataTypes.INT())]),
  9. func_type="pandas")
  10. tumble_window = Tumble.over(lit(1).hours) \
  11. .on(col("rowtime")) \
  12. .alias("w")
  13. t.select(col('b'), col('rowtime')) \
  14. .window(tumble_window) \
  15. .group_by(col("w")) \
  16. .aggregate(pandas_udaf.alias("d", "e")) \
  17. .select(col('w').rowtime, col('d'), col('e'))

FlatAggregate

Java

GroupBy Aggregation 类似。使用运行中的表之后的聚合算子对分组键上的行进行分组,以按组聚合行。和 AggregateFunction 的不同之处在于,TableAggregateFunction 的每个分组可能返回0或多条记录。你必须使用 select 子句关闭 flatAggregate。并且 select 子句不支持聚合函数。

除了使用 emitValue 输出结果,你还可以使用 emitUpdateWithRetract 方法。和 emitValue 不同的是,emitUpdateWithRetract 用于下发已更新的值。此方法在 retract 模式下增量输出数据,例如,一旦有更新,我们必须在发送新的更新记录之前收回旧记录。如果在表聚合函数中定义了这两个方法,则将优先使用 emitUpdateWithRetract 方法而不是 emitValue 方法,这是因为该方法可以增量输出值,因此被视为比 emitValue 方法更有效。

  1. /**
  2. * Top2 Accumulator。
  3. */
  4. public class Top2Accum {
  5. public Integer first;
  6. public Integer second;
  7. }
  8. /**
  9. * 用户定义的聚合函数 top2。
  10. */
  11. public class Top2 extends TableAggregateFunction<Tuple2<Integer, Integer>, Top2Accum> {
  12. @Override
  13. public Top2Accum createAccumulator() {
  14. Top2Accum acc = new Top2Accum();
  15. acc.first = Integer.MIN_VALUE;
  16. acc.second = Integer.MIN_VALUE;
  17. return acc;
  18. }
  19. public void accumulate(Top2Accum acc, Integer v) {
  20. if (v > acc.first) {
  21. acc.second = acc.first;
  22. acc.first = v;
  23. } else if (v > acc.second) {
  24. acc.second = v;
  25. }
  26. }
  27. public void merge(Top2Accum acc, java.lang.Iterable<Top2Accum> iterable) {
  28. for (Top2Accum otherAcc : iterable) {
  29. accumulate(acc, otherAcc.first);
  30. accumulate(acc, otherAcc.second);
  31. }
  32. }
  33. public void emitValue(Top2Accum acc, Collector<Tuple2<Integer, Integer>> out) {
  34. // 下发 value 与 rank
  35. if (acc.first != Integer.MIN_VALUE) {
  36. out.collect(Tuple2.of(acc.first, 1));
  37. }
  38. if (acc.second != Integer.MIN_VALUE) {
  39. out.collect(Tuple2.of(acc.second, 2));
  40. }
  41. }
  42. }
  43. tEnv.createTemporarySystemFunction("top2", Top2.class);
  44. Table orders = tableEnv.from("Orders");
  45. Table result = orders
  46. .groupBy($("key"))
  47. .flatAggregate(call("top2", $("a")).as("v", "rank"))
  48. .select($("key"), $("v"), $("rank");

Scala

GroupBy Aggregation 类似。使用运行中的表之后的聚合运算符对分组键上的行进行分组,以按组聚合行。和 AggregateFunction 的不同之处在于,TableAggregateFunction 的每个分组可能返回0或多条记录。你必须使用 select 子句关闭 flatAggregate。并且 select 子句不支持聚合函数。

除了使用 emitValue 输出结果,你还可以使用 emitUpdateWithRetract 方法。和 emitValue 不同的是,emitUpdateWithRetract 用于发出已更新的值。此方法在 retract 模式下增量输出数据,例如,一旦有更新,我们必须在发送新的更新记录之前收回旧记录。如果在表聚合函数中定义了这两个方法,则将优先使用 emitUpdateWithRetract 方法而不是 emitValue 方法,这是因为该方法可以增量输出值,因此被视为比 emitValue 方法更有效。

  1. import java.lang.{Integer => JInteger}
  2. import org.apache.flink.table.api.Types
  3. import org.apache.flink.table.functions.TableAggregateFunction
  4. /**
  5. * Top2 Accumulator。
  6. */
  7. class Top2Accum {
  8. var first: JInteger = _
  9. var second: JInteger = _
  10. }
  11. /**
  12. * 用户定义的聚合函数 top2。
  13. */
  14. class Top2 extends TableAggregateFunction[JTuple2[JInteger, JInteger], Top2Accum] {
  15. override def createAccumulator(): Top2Accum = {
  16. val acc = new Top2Accum
  17. acc.first = Int.MinValue
  18. acc.second = Int.MinValue
  19. acc
  20. }
  21. def accumulate(acc: Top2Accum, v: Int) {
  22. if (v > acc.first) {
  23. acc.second = acc.first
  24. acc.first = v
  25. } else if (v > acc.second) {
  26. acc.second = v
  27. }
  28. }
  29. def merge(acc: Top2Accum, its: JIterable[Top2Accum]): Unit = {
  30. val iter = its.iterator()
  31. while (iter.hasNext) {
  32. val top2 = iter.next()
  33. accumulate(acc, top2.first)
  34. accumulate(acc, top2.second)
  35. }
  36. }
  37. def emitValue(acc: Top2Accum, out: Collector[JTuple2[JInteger, JInteger]]): Unit = {
  38. // 下发 value 与 rank
  39. if (acc.first != Int.MinValue) {
  40. out.collect(JTuple2.of(acc.first, 1))
  41. }
  42. if (acc.second != Int.MinValue) {
  43. out.collect(JTuple2.of(acc.second, 2))
  44. }
  45. }
  46. }
  47. val top2 = new Top2
  48. val orders: Table = tableEnv.from("Orders")
  49. val result = orders
  50. .groupBy($"key")
  51. .flatAggregate(top2($"a") as ($"v", $"rank"))
  52. .select($"key", $"v", $"rank")

Python

使用 python 通用 Table Aggregate Function 执行 flat_aggregate 操作。

GroupBy Aggregation 类似。使用运行中的表之后的聚合运算符对分组键上的行进行分组,以按组聚合行。和 AggregateFunction 的不同之处在于,TableAggregateFunction 的每个分组可能返回0或多条记录。你必须使用 select 子句关闭 flat_aggregate。并且 select 子句不支持聚合函数。

  1. from pyflink.common import Row
  2. from pyflink.table.udf import TableAggregateFunction, udtaf
  3. from pyflink.table import DataTypes
  4. from pyflink.table.expressions import col
  5. class Top2(TableAggregateFunction):
  6. def emit_value(self, accumulator):
  7. yield Row(accumulator[0])
  8. yield Row(accumulator[1])
  9. def create_accumulator(self):
  10. return [None, None]
  11. def accumulate(self, accumulator, row: Row):
  12. if row.a is not None:
  13. if accumulator[0] is None or row.a > accumulator[0]:
  14. accumulator[1] = accumulator[0]
  15. accumulator[0] = row.a
  16. elif accumulator[1] is None or row.a > accumulator[1]:
  17. accumulator[1] = row.a
  18. def merge(self, accumulator, accumulators):
  19. for other_acc in accumulators:
  20. self.accumulate(accumulator, other_acc[0])
  21. self.accumulate(accumulator, other_acc[1])
  22. def get_accumulator_type(self):
  23. return DataTypes.ARRAY(DataTypes.BIGINT())
  24. def get_result_type(self):
  25. return DataTypes.ROW(
  26. [DataTypes.FIELD("a", DataTypes.BIGINT())])
  27. mytop = udtaf(Top2())
  28. t = t_env.from_elements([(1, 'Hi', 'Hello'),
  29. (3, 'Hi', 'hi'),
  30. (5, 'Hi2', 'hi'),
  31. (7, 'Hi', 'Hello'),
  32. (2, 'Hi', 'Hello')],
  33. ['a', 'b', 'c'])
  34. result = t.select(col('a'), col('c')) \
  35. .group_by(col('c')) \
  36. .flat_aggregate(mytop) \
  37. .select(col('a')) \
  38. .flat_aggregate(mytop.alias("b"))

对于流式查询,计算查询结果所需的状态可能会无限增长,具体取决于关于聚合类型和不同分组键的数量。请配置空闲状态 维持时间以防止状态过大。详情可查看 空闲状态维持时间

数据类型

请查看数据类型的专门页面。

行中的字段可以是一般类型和(嵌套)复合类型(比如 POJO、元组、行、 Scala 案例类)。

任意嵌套的复合类型的字段都可以通过值访问函数来访问。

用户自定义函数可以将泛型当作黑匣子一样传输和处理。