概念与通用 API

Table API 和 SQL 集成在同一套 API 中。这套 API 的核心概念是Table,用作查询的输入和输出。本文介绍了 Table API 和 SQL 查询程序的通用结构、如何注册 Table 、如何查询 Table 以及如何输出 Table

两种计划器(Planner)的主要区别

  1. Blink 将批处理作业视作流处理的一种特例。严格来说,TableDataSet 之间不支持相互转换,并且批处理作业也不会转换成 DataSet 程序而是转换成 DataStream 程序,流处理作业也一样。
  2. Blink 计划器不支持 BatchTableSource,而是使用有界的 StreamTableSource 来替代。
  3. 旧计划器和 Blink 计划器中 FilterableTableSource 的实现是不兼容的。旧计划器会将 PlannerExpression 下推至 FilterableTableSource,而 Blink 计划器则是将 Expression 下推。
  4. 基于字符串的键值配置选项仅在 Blink 计划器中使用。(详情参见 配置
  5. PlannerConfig 在两种计划器中的实现(CalciteConfig)是不同的。
  6. Blink 计划器会将多sink(multiple-sinks)优化成一张有向无环图(DAG),TableEnvironmentStreamTableEnvironment 都支持该特性。旧计划器总是将每个sink都优化成一个新的有向无环图,且所有图相互独立。
  7. 旧计划器目前不支持 catalog 统计数据,而 Blink 支持。

Table API 和 SQL 程序的结构

所有用于批处理和流处理的 Table API 和 SQL 程序都遵循相同的模式。下面的代码示例展示了 Table API 和 SQL 程序的通用结构。

Java

// create a TableEnvironment for specific planner batch or streaming TableEnvironment tableEnv = ...; // see "Create a TableEnvironment" section // create an input Table tableEnv.executeSql("CREATE TEMPORARY TABLE table1 ... WITH ( 'connector' = ... )"); // register an output Table tableEnv.executeSql("CREATE TEMPORARY TABLE outputTable ... WITH ( 'connector' = ... )"); // create a Table object from a Table API query Table table2 = tableEnv.from("table1").select(...); // create a Table object from a SQL query Table table3 = tableEnv.sqlQuery("SELECT ... FROM table1 ... "); // emit a Table API result Table to a TableSink, same for SQL result TableResult tableResult = table2.executeInsert("outputTable"); tableResult...

Scala

// create a TableEnvironment for specific planner batch or streaming val tableEnv = ... // see "Create a TableEnvironment" section // create an input Table tableEnv.executeSql("CREATE TEMPORARY TABLE table1 ... WITH ( 'connector' = ... )") // register an output Table tableEnv.executeSql("CREATE TEMPORARY TABLE outputTable ... WITH ( 'connector' = ... )") // create a Table from a Table API query val table2 = tableEnv.from("table1").select(...) // create a Table from a SQL query val table3 = tableEnv.sqlQuery("SELECT ... FROM table1 ...") // emit a Table API result Table to a TableSink, same for SQL result val tableResult = table2.executeInsert("outputTable") tableResult...

Python

# create a TableEnvironment for specific planner batch or streaming table_env = ... # see "Create a TableEnvironment" section # register an input Table table_env.executeSql("CREATE TEMPORARY TABLE table1 ... WITH ( 'connector' = ... )") # register an output Table table_env.executeSql("CREATE TEMPORARY TABLE outputTable ... WITH ( 'connector' = ... )") # create a Table from a Table API query table2 = table_env.from_path("table1").select(...) # create a Table from a SQL query table3 = table_env.sql_query("SELECT ... FROM table1 ...") # emit a Table API result Table to a TableSink, same for SQL result table_result = table3.execute_insert("outputTable") table_result...

注意: Table API 和 SQL 查询可以很容易地集成并嵌入到 DataStream 或 DataSet 程序中。 请参阅与 DataStream 和 DataSet API 结合 章节了解如何将 DataSet 和 DataStream 与表之间的相互转化。

创建 TableEnvironment

TableEnvironment 是 Table API 和 SQL 的核心概念。它负责:

  • 在内部的 catalog 中注册 Table
  • 注册外部的 catalog
  • 加载可插拔模块
  • 执行 SQL 查询
  • 注册自定义函数 (scalar、table 或 aggregation)
  • DataStreamDataSet 转换成 Table
  • 持有对 ExecutionEnvironmentStreamExecutionEnvironment 的引用

Table 总是与特定的 TableEnvironment 绑定。不能在同一条查询中使用不同 TableEnvironment 中的表,例如,对它们进行 join 或 union 操作。

TableEnvironment 可以通过静态方法 BatchTableEnvironment.create() 或者 StreamTableEnvironment.create()StreamExecutionEnvironment 或者 ExecutionEnvironment 中创建,TableConfig 是可选项。TableConfig可用于配置TableEnvironment或定制的查询优化和转换过程(参见 查询优化)。

请确保选择与你的编程语言匹配的特定的计划器BatchTableEnvironment/StreamTableEnvironment

如果两种计划器的 jar 包都在 classpath 中(默认行为),你应该明确地设置要在当前程序中使用的计划器。

Java

// ********************** // FLINK STREAMING QUERY // ********************** import org.apache.flink.streaming.api.environment.StreamExecutionEnvironment; import org.apache.flink.table.api.EnvironmentSettings; import org.apache.flink.table.api.bridge.java.StreamTableEnvironment; EnvironmentSettings fsSettings = EnvironmentSettings.newInstance().useOldPlanner().inStreamingMode().build(); StreamExecutionEnvironment fsEnv = StreamExecutionEnvironment.getExecutionEnvironment(); StreamTableEnvironment fsTableEnv = StreamTableEnvironment.create(fsEnv, fsSettings); // or TableEnvironment fsTableEnv = TableEnvironment.create(fsSettings); // ****************** // FLINK BATCH QUERY // ****************** import org.apache.flink.api.java.ExecutionEnvironment; import org.apache.flink.table.api.bridge.java.BatchTableEnvironment; ExecutionEnvironment fbEnv = ExecutionEnvironment.getExecutionEnvironment(); BatchTableEnvironment fbTableEnv = BatchTableEnvironment.create(fbEnv); // ********************** // BLINK STREAMING QUERY // ********************** import org.apache.flink.streaming.api.environment.StreamExecutionEnvironment; import org.apache.flink.table.api.EnvironmentSettings; import org.apache.flink.table.api.bridge.java.StreamTableEnvironment; StreamExecutionEnvironment bsEnv = StreamExecutionEnvironment.getExecutionEnvironment(); EnvironmentSettings bsSettings = EnvironmentSettings.newInstance().useBlinkPlanner().inStreamingMode().build(); StreamTableEnvironment bsTableEnv = StreamTableEnvironment.create(bsEnv, bsSettings); // or TableEnvironment bsTableEnv = TableEnvironment.create(bsSettings); // ****************** // BLINK BATCH QUERY // ****************** import org.apache.flink.table.api.EnvironmentSettings; import org.apache.flink.table.api.TableEnvironment; EnvironmentSettings bbSettings = EnvironmentSettings.newInstance().useBlinkPlanner().inBatchMode().build(); TableEnvironment bbTableEnv = TableEnvironment.create(bbSettings);

Scala

// ********************** // FLINK STREAMING QUERY // ********************** import org.apache.flink.streaming.api.scala.StreamExecutionEnvironment import org.apache.flink.table.api.EnvironmentSettings import org.apache.flink.table.api.bridge.scala.StreamTableEnvironment val fsSettings = EnvironmentSettings.newInstance().useOldPlanner().inStreamingMode().build() val fsEnv = StreamExecutionEnvironment.getExecutionEnvironment val fsTableEnv = StreamTableEnvironment.create(fsEnv, fsSettings) // or val fsTableEnv = TableEnvironment.create(fsSettings) // ****************** // FLINK BATCH QUERY // ****************** import org.apache.flink.api.scala.ExecutionEnvironment import org.apache.flink.table.api.bridge.scala.BatchTableEnvironment val fbEnv = ExecutionEnvironment.getExecutionEnvironment val fbTableEnv = BatchTableEnvironment.create(fbEnv) // ********************** // BLINK STREAMING QUERY // ********************** import org.apache.flink.streaming.api.scala.StreamExecutionEnvironment import org.apache.flink.table.api.EnvironmentSettings import org.apache.flink.table.api.bridge.scala.StreamTableEnvironment val bsEnv = StreamExecutionEnvironment.getExecutionEnvironment val bsSettings = EnvironmentSettings.newInstance().useBlinkPlanner().inStreamingMode().build() val bsTableEnv = StreamTableEnvironment.create(bsEnv, bsSettings) // or val bsTableEnv = TableEnvironment.create(bsSettings) // ****************** // BLINK BATCH QUERY // ****************** import org.apache.flink.table.api.{EnvironmentSettings, TableEnvironment} val bbSettings = EnvironmentSettings.newInstance().useBlinkPlanner().inBatchMode().build() val bbTableEnv = TableEnvironment.create(bbSettings)

Python

# ********************** # FLINK STREAMING QUERY # ********************** from pyflink.datastream import StreamExecutionEnvironment from pyflink.table import StreamTableEnvironment, EnvironmentSettings f_s_env = StreamExecutionEnvironment.get_execution_environment() f_s_settings = EnvironmentSettings.new_instance().use_old_planner().in_streaming_mode().build() f_s_t_env = StreamTableEnvironment.create(f_s_env, environment_settings=f_s_settings) # ****************** # FLINK BATCH QUERY # ****************** from pyflink.dataset import ExecutionEnvironment from pyflink.table import BatchTableEnvironment f_b_env = ExecutionEnvironment.get_execution_environment() f_b_t_env = BatchTableEnvironment.create(f_b_env, table_config) # ********************** # BLINK STREAMING QUERY # ********************** from pyflink.datastream import StreamExecutionEnvironment from pyflink.table import StreamTableEnvironment, EnvironmentSettings b_s_env = StreamExecutionEnvironment.get_execution_environment() b_s_settings = EnvironmentSettings.new_instance().use_blink_planner().in_streaming_mode().build() b_s_t_env = StreamTableEnvironment.create(b_s_env, environment_settings=b_s_settings) # ****************** # BLINK BATCH QUERY # ****************** from pyflink.table import EnvironmentSettings, BatchTableEnvironment b_b_settings = EnvironmentSettings.new_instance().use_blink_planner().in_batch_mode().build() b_b_t_env = BatchTableEnvironment.create(environment_settings=b_b_settings)

注意: 如果/lib目录中只有一种计划器的 jar 包,则可以使用useAnyPlanner(python 使用 use any_u_planner)创建 EnvironmentSettings

在 Catalog 中创建表

TableEnvironment 维护着一个由标识符(identifier)创建的表 catalog 的映射。标识符由三个部分组成:catalog 名称、数据库名称以及对象名称。如果 catalog 或者数据库没有指明,就会使用当前默认值(参见表标识符扩展章节中的例子)。

Table 可以是虚拟的(视图 VIEWS)也可以是常规的(表 TABLES)。视图 VIEWS可以从已经存在的Table中创建,一般是 Table API 或者 SQL 的查询结果。 表TABLES描述的是外部数据,例如文件、数据库表或者消息队列。

临时表(Temporary Table)和永久表(Permanent Table)

表可以是临时的,并与单个 Flink 会话(session)的生命周期相关,也可以是永久的,并且在多个 Flink 会话和群集(cluster)中可见。

永久表需要 catalog(例如 Hive Metastore)以维护表的元数据。一旦永久表被创建,它将对任何连接到 catalog 的 Flink 会话可见且持续存在,直至被明确删除。

另一方面,临时表通常保存于内存中并且仅在创建它们的 Flink 会话持续期间存在。这些表对于其它会话是不可见的。它们不与任何 catalog 或者数据库绑定但可以在一个命名空间(namespace)中创建。即使它们对应的数据库被删除,临时表也不会被删除。

屏蔽(Shadowing)

可以使用与已存在的永久表相同的标识符去注册临时表。临时表会屏蔽永久表,并且只要临时表存在,永久表就无法访问。所有使用该标识符的查询都将作用于临时表。

这可能对实验(experimentation)有用。它允许先对一个临时表进行完全相同的查询,例如只有一个子集的数据,或者数据是不确定的。一旦验证了查询的正确性,就可以对实际的生产表进行查询。

创建表

虚拟表

在 SQL 的术语中,Table API 的对象对应于视图(虚拟表)。它封装了一个逻辑查询计划。它可以通过以下方法在 catalog 中创建:

Java

// get a TableEnvironment TableEnvironment tableEnv = ...; // see "Create a TableEnvironment" section // table is the result of a simple projection query Table projTable = tableEnv.from("X").select(...); // register the Table projTable as table "projectedTable" tableEnv.createTemporaryView("projectedTable", projTable);

Scala

// get a TableEnvironment val tableEnv = ... // see "Create a TableEnvironment" section // table is the result of a simple projection query val projTable: Table = tableEnv.from("X").select(...) // register the Table projTable as table "projectedTable" tableEnv.createTemporaryView("projectedTable", projTable)

Python

# get a TableEnvironment table_env = ... # see "Create a TableEnvironment" section # table is the result of a simple projection query proj_table = table_env.from_path("X").select(...) # register the Table projTable as table "projectedTable" table_env.register_table("projectedTable", proj_table)

注意: 从传统数据库系统的角度来看,Table 对象与 VIEW 视图非常像。也就是,定义了 Table 的查询是没有被优化的, 而且会被内嵌到另一个引用了这个注册了的 Table的查询中。如果多个查询都引用了同一个注册了的Table,那么它会被内嵌每个查询中并被执行多次, 也就是说注册了的Table的结果不会被共享(注:Blink 计划器的TableEnvironment会优化成只执行一次)。

Connector Tables

另外一个方式去创建 TABLE 是通过 connector 声明。Connector 描述了存储表数据的外部系统。存储系统例如 Apache Kafka 或者常规的文件系统都可以通过这种方式来声明。

Java

tableEnvironment .connect(...) .withFormat(...) .withSchema(...) .inAppendMode() .createTemporaryTable("MyTable")

Scala

tableEnvironment .connect(...) .withFormat(...) .withSchema(...) .inAppendMode() .createTemporaryTable("MyTable")

Python

table_environment \ .connect(...) \ .with_format(...) \ .with_schema(...) \ .in_append_mode() \ .create_temporary_table("MyTable")

DDL

tableEnvironment.executeSql("CREATE [TEMPORARY] TABLE MyTable (...) WITH (...)")

扩展表标识符

表总是通过三元标识符注册,包括 catalog 名、数据库名和表名。

用户可以指定一个 catalog 和数据库作为 “当前catalog” 和”当前数据库”。有了这些,那么刚刚提到的三元标识符的前两个部分就可以被省略了。如果前两部分的标识符没有指定, 那么会使用当前的 catalog 和当前数据库。用户也可以通过 Table API 或 SQL 切换当前的 catalog 和当前的数据库。

标识符遵循 SQL 标准,因此使用时需要用反引号(` )进行转义。

Java

TableEnvironment tEnv = ...; tEnv.useCatalog("custom_catalog"); tEnv.useDatabase("custom_database"); Table table = ...; // register the view named 'exampleView' in the catalog named 'custom_catalog' // in the database named 'custom_database' tableEnv.createTemporaryView("exampleView", table); // register the view named 'exampleView' in the catalog named 'custom_catalog' // in the database named 'other_database' tableEnv.createTemporaryView("other_database.exampleView", table); // register the view named 'example.View' in the catalog named 'custom_catalog' // in the database named 'custom_database' tableEnv.createTemporaryView("`example.View`", table); // register the view named 'exampleView' in the catalog named 'other_catalog' // in the database named 'other_database' tableEnv.createTemporaryView("other_catalog.other_database.exampleView", table);

Scala

// get a TableEnvironment val tEnv: TableEnvironment = ...; tEnv.useCatalog("custom_catalog") tEnv.useDatabase("custom_database") val table: Table = ...; // register the view named 'exampleView' in the catalog named 'custom_catalog' // in the database named 'custom_database' tableEnv.createTemporaryView("exampleView", table) // register the view named 'exampleView' in the catalog named 'custom_catalog' // in the database named 'other_database' tableEnv.createTemporaryView("other_database.exampleView", table) // register the view named 'example.View' in the catalog named 'custom_catalog' // in the database named 'custom_database' tableEnv.createTemporaryView("`example.View`", table) // register the view named 'exampleView' in the catalog named 'other_catalog' // in the database named 'other_database' tableEnv.createTemporaryView("other_catalog.other_database.exampleView", table)

查询表

Table API

Table API 是关于 Scala 和 Java 的集成语言式查询 API。与 SQL 相反,Table API 的查询不是由字符串指定,而是在宿主语言中逐步构建。

Table API 是基于 Table 类的,该类表示一个表(流或批处理),并提供使用关系操作的方法。这些方法返回一个新的 Table 对象,该对象表示对输入 Table 进行关系操作的结果。 一些关系操作由多个方法调用组成,例如 table.groupBy(...).select(),其中 groupBy(...) 指定 table 的分组,而 select(...)table 分组上的投影。

文档 Table API 说明了所有流处理和批处理表支持的 Table API 算子。

以下示例展示了一个简单的 Table API 聚合查询:

Java

// get a TableEnvironment TableEnvironment tableEnv = ...; // see "Create a TableEnvironment" section // register Orders table // scan registered Orders table Table orders = tableEnv.from("Orders"); // compute revenue for all customers from France Table revenue = orders .filter($("cCountry").isEqual("FRANCE")) .groupBy($("cID"), $("cName")) .select($("cID"), $("cName"), $("revenue").sum().as("revSum")); // emit or convert Table // execute query

Scala

// get a TableEnvironment val tableEnv = ... // see "Create a TableEnvironment" section // register Orders table // scan registered Orders table val orders = tableEnv.from("Orders") // compute revenue for all customers from France val revenue = orders .filter($"cCountry" === "FRANCE") .groupBy($"cID", $"cName") .select($"cID", $"cName", $"revenue".sum AS "revSum") // emit or convert Table // execute query

Note: The Scala Table API uses Scala String interpolation that starts with a dollar sign ($) to reference the attributes of a Table. The Table API uses Scala implicits. Make sure to import

  • org.apache.flink.table.api._ - for implicit expression conversions
  • org.apache.flink.api.scala._ and org.apache.flink.table.api.bridge.scala._ if you want to convert from/to DataStream.

    Python

# get a TableEnvironment table_env = # see "Create a TableEnvironment" section # register Orders table # scan registered Orders table orders = table_env.from_path("Orders") # compute revenue for all customers from France revenue = orders \ .filter(orders.cCountry == 'FRANCE') \ .group_by(orders.cID, orders.cName) \ .select(orders.cID, orders.cName, orders.revenue.sum.alias('revSum')) # emit or convert Table # execute query

SQL

Flink SQL 是基于实现了SQL标准的 Apache Calcite 的。SQL 查询由常规字符串指定。

文档 SQL 描述了Flink对流处理和批处理表的SQL支持。

下面的示例演示了如何指定查询并将结果作为 Table 对象返回。

Java

// get a TableEnvironment TableEnvironment tableEnv = ...; // see "Create a TableEnvironment" section // register Orders table // compute revenue for all customers from France Table revenue = tableEnv.sqlQuery( "SELECT cID, cName, SUM(revenue) AS revSum " + "FROM Orders " + "WHERE cCountry = 'FRANCE' " + "GROUP BY cID, cName" ); // emit or convert Table // execute query

Scala

// get a TableEnvironment val tableEnv = ... // see "Create a TableEnvironment" section // register Orders table // compute revenue for all customers from France val revenue = tableEnv.sqlQuery(""" |SELECT cID, cName, SUM(revenue) AS revSum |FROM Orders |WHERE cCountry = 'FRANCE' |GROUP BY cID, cName """.stripMargin) // emit or convert Table // execute query

Python

# get a TableEnvironment table_env = ... # see "Create a TableEnvironment" section # register Orders table # compute revenue for all customers from France revenue = table_env.sql_query( "SELECT cID, cName, SUM(revenue) AS revSum " "FROM Orders " "WHERE cCountry = 'FRANCE' " "GROUP BY cID, cName" ) # emit or convert Table # execute query

如下的示例展示了如何指定一个更新查询,将查询的结果插入到已注册的表中。

Java

// get a TableEnvironment TableEnvironment tableEnv = ...; // see "Create a TableEnvironment" section // register "Orders" table // register "RevenueFrance" output table // compute revenue for all customers from France and emit to "RevenueFrance" tableEnv.executeSql( "INSERT INTO RevenueFrance " + "SELECT cID, cName, SUM(revenue) AS revSum " + "FROM Orders " + "WHERE cCountry = 'FRANCE' " + "GROUP BY cID, cName" );

Scala

// get a TableEnvironment val tableEnv = ... // see "Create a TableEnvironment" section // register "Orders" table // register "RevenueFrance" output table // compute revenue for all customers from France and emit to "RevenueFrance" tableEnv.executeSql(""" |INSERT INTO RevenueFrance |SELECT cID, cName, SUM(revenue) AS revSum |FROM Orders |WHERE cCountry = 'FRANCE' |GROUP BY cID, cName """.stripMargin)

Python

# get a TableEnvironment table_env = ... # see "Create a TableEnvironment" section # register "Orders" table # register "RevenueFrance" output table # compute revenue for all customers from France and emit to "RevenueFrance" table_env.execute_sql( "INSERT INTO RevenueFrance " "SELECT cID, cName, SUM(revenue) AS revSum " "FROM Orders " "WHERE cCountry = 'FRANCE' " "GROUP BY cID, cName" )

混用 Table API 和 SQL

Table API 和 SQL 查询的混用非常简单因为它们都返回 Table 对象:

  • 可以在 SQL 查询返回的 Table 对象上定义 Table API 查询。
  • TableEnvironment 中注册的结果表可以在 SQL 查询的 FROM 子句中引用,通过这种方法就可以在 Table API 查询的结果上定义 SQL 查询。

输出表

Table 通过写入 TableSink 输出。TableSink 是一个通用接口,用于支持多种文件格式(如 CSV、Apache Parquet、Apache Avro)、存储系统(如 JDBC、Apache HBase、Apache Cassandra、Elasticsearch)或消息队列系统(如 Apache Kafka、RabbitMQ)。

批处理 Table 只能写入 BatchTableSink,而流处理 Table 需要指定写入 AppendStreamTableSinkRetractStreamTableSink 或者 UpsertStreamTableSink

请参考文档 Table Sources & Sinks 以获取更多关于可用 Sink 的信息以及如何自定义 TableSink

方法 Table.executeInsert(String tableName)Table 发送至已注册的 TableSink。该方法通过名称在 catalog 中查找 TableSink 并确认Table schema 和 TableSink schema 一致。

下面的示例演示如何输出 Table

Java

// get a TableEnvironment TableEnvironment tableEnv = ...; // see "Create a TableEnvironment" section // create an output Table final Schema schema = new Schema() .field("a", DataTypes.INT()) .field("b", DataTypes.STRING()) .field("c", DataTypes.BIGINT()); tableEnv.connect(new FileSystem().path("/path/to/file")) .withFormat(new Csv().fieldDelimiter('|').deriveSchema()) .withSchema(schema) .createTemporaryTable("CsvSinkTable"); // compute a result Table using Table API operators and/or SQL queries Table result = ... // emit the result Table to the registered TableSink result.executeInsert("CsvSinkTable");

Scala

// get a TableEnvironment val tableEnv = ... // see "Create a TableEnvironment" section // create an output Table val schema = new Schema() .field("a", DataTypes.INT()) .field("b", DataTypes.STRING()) .field("c", DataTypes.BIGINT()) tableEnv.connect(new FileSystem().path("/path/to/file")) .withFormat(new Csv().fieldDelimiter('|').deriveSchema()) .withSchema(schema) .createTemporaryTable("CsvSinkTable") // compute a result Table using Table API operators and/or SQL queries val result: Table = ... // emit the result Table to the registered TableSink result.executeInsert("CsvSinkTable")

Python

# get a TableEnvironment table_env = ... # see "Create a TableEnvironment" section # create a TableSink table_env.connect(FileSystem().path("/path/to/file"))) .with_format(Csv() .field_delimiter(',') .deriveSchema()) .with_schema(Schema() .field("a", DataTypes.INT()) .field("b", DataTypes.STRING()) .field("c", DataTypes.BIGINT())) .create_temporary_table("CsvSinkTable") # compute a result Table using Table API operators and/or SQL queries result = ... # emit the result Table to the registered TableSink result.execute_insert("CsvSinkTable")

翻译与执行查询

两种计划器翻译和执行查询的方式是不同的。

Blink planner

不论输入数据源是流式的还是批式的,Table API 和 SQL 查询都会被转换成 DataStream 程序。查询在内部表示为逻辑查询计划,并被翻译成两个阶段:

  1. 优化逻辑执行计划
  2. 翻译成 DataStream 程序

Table API 或者 SQL 查询在下列情况下会被翻译:

  • TableEnvironment.executeSql() 被调用时。该方法是用来执行一个 SQL 语句,一旦该方法被调用, SQL 语句立即被翻译。
  • Table.executeInsert() 被调用时。该方法是用来将一个表的内容插入到目标表中,一旦该方法被调用, TABLE API 程序立即被翻译。
  • Table.execute() 被调用时。该方法是用来将一个表的内容收集到本地,一旦该方法被调用, TABLE API 程序立即被翻译。
  • StatementSet.execute() 被调用时。Table (通过 StatementSet.addInsert() 输出给某个 Sink)和 INSERT 语句 (通过调用 StatementSet.addInsertSql())会先被缓存到 StatementSet 中,StatementSet.execute() 方法被调用时,所有的 sink 会被优化成一张有向无环图。
  • Table 被转换成 DataStream 时(参阅与 DataStream 和 DataSet API 结合)。转换完成后,它就成为一个普通的 DataStream 程序,并会在调用 StreamExecutionEnvironment.execute() 时被执行。

注意 从 1.11 版本开始,sqlUpdate 方法 和 insertInto 方法被废弃,从这两个方法构建的 Table 程序必须通过 StreamTableEnvironment.execute() 方法执行,而不能通过 StreamExecutionEnvironment.execute() 方法来执行。

Old planner

Table API 和 SQL 查询会被翻译成 DataStream 或者 DataSet 程序, 这取决于它们的输入数据源是流式的还是批式的。查询在内部表示为逻辑查询计划,并被翻译成两个阶段:

  1. 优化逻辑执行计划
  2. 翻译成 DataStream 或 DataSet 程序

Table API 或者 SQL 查询在下列情况下会被翻译:

  • TableEnvironment.executeSql() 被调用时。该方法是用来执行一个 SQL 语句,一旦该方法被调用, SQL 语句立即被翻译。
  • Table.executeInsert() 被调用时。该方法是用来将一个表的内容插入到目标表中,一旦该方法被调用, TABLE API 程序立即被翻译。
  • Table.execute() 被调用时。该方法是用来将一个表的内容收集到本地,一旦该方法被调用, TABLE API 程序立即被翻译。
  • StatementSet.execute() 被调用时。Table (通过 StatementSet.addInsert() 输出给某个 Sink)和 INSERT 语句 (通过调用 StatementSet.addInsertSql())会先被缓存到 StatementSet 中,StatementSet.execute() 方法被调用时,所有的 sink 会被优化成一张有向无环图。
  • 对于 Streaming 而言,当Table 被转换成 DataStream 时(参阅与 DataStream 和 DataSet API 结合)触发翻译。转换完成后,它就成为一个普通的 DataStream 程序,并会在调用 StreamExecutionEnvironment.execute() 时被执行。对于 Batch 而言,Table 被转换成 DataSet 时(参阅与 DataStream 和 DataSet API 结合)触发翻译。转换完成后,它就成为一个普通的 DataSet 程序,并会在调用 ExecutionEnvironment.execute() 时被执行。

注意 从 1.11 版本开始,sqlUpdate 方法 和 insertInto 方法被废弃。对于 Streaming 而言,如果一个 Table 程序是从这两个方法构建出来的,必须通过 StreamTableEnvironment.execute() 方法执行,而不能通过 StreamExecutionEnvironment.execute() 方法执行;对于 Batch 而言,如果一个 Table 程序是从这两个方法构建出来的,必须通过 BatchTableEnvironment.execute() 方法执行,而不能通过 ExecutionEnvironment.execute() 方法执行。

查询优化

Blink planner

Apache Flink 使用并扩展了 Apache Calcite 来执行复杂的查询优化。 这包括一系列基于规则和成本的优化,例如:

  • 基于 Apache Calcite 的子查询解相关
  • 投影剪裁
  • 分区剪裁
  • 过滤器下推
  • 子计划消除重复数据以避免重复计算
  • 特殊子查询重写,包括两部分:
    • 将 IN 和 EXISTS 转换为 left semi-joins
    • 将 NOT IN 和 NOT EXISTS 转换为 left anti-join
  • 可选 join 重新排序
    • 通过 table.optimizer.join-reorder-enabled 启用

注意: 当前仅在子查询重写的结合条件下支持 IN / EXISTS / NOT IN / NOT EXISTS。

优化器不仅基于计划,而且还基于可从数据源获得的丰富统计信息以及每个算子(例如 io,cpu,网络和内存)的细粒度成本来做出明智的决策。

高级用户可以通过 CalciteConfig 对象提供自定义优化,可以通过调用 TableEnvironment#getConfig#setPlannerConfig 将其提供给 TableEnvironment。

Old planner

Apache Flink 利用 Apache Calcite 来优化和翻译查询。当前执行的优化包括投影和过滤器下推,子查询消除以及其他类型的查询重写。原版计划程序尚未优化 join 的顺序,而是按照查询中定义的顺序执行它们(FROM 子句中的表顺序和/或 WHERE 子句中的 join 谓词顺序)。

通过提供一个 CalciteConfig 对象,可以调整在不同阶段应用的优化规则集合。这个对象可以通过调用构造器 CalciteConfig.createBuilder() 创建,并通过调用 tableEnv.getConfig.setPlannerConfig(calciteConfig) 提供给 TableEnvironment。

解释表

Table API 提供了一种机制来解释计算 Table 的逻辑和优化查询计划。 这是通过 Table.explain() 方法或者 StatementSet.explain() 方法来完成的。Table.explain() 返回一个 Table 的计划。StatementSet.explain() 返回多 sink 计划的结果。它返回一个描述三种计划的字符串:

  1. 关系查询的抽象语法树(the Abstract Syntax Tree),即未优化的逻辑查询计划,
  2. 优化的逻辑查询计划,以及
  3. 物理执行计划。

可以用 TableEnvironment.explainSql() 方法和 TableEnvironment.executeSql() 方法支持执行一个 EXPLAIN 语句获取逻辑和优化查询计划,请参阅 EXPLAIN 页面.

以下代码展示了一个示例以及对给定 Table 使用 Table.explain() 方法的相应输出:

Java

StreamExecutionEnvironment env = StreamExecutionEnvironment.getExecutionEnvironment(); StreamTableEnvironment tEnv = StreamTableEnvironment.create(env); DataStream<Tuple2<Integer, String>> stream1 = env.fromElements(new Tuple2<>(1, "hello")); DataStream<Tuple2<Integer, String>> stream2 = env.fromElements(new Tuple2<>(1, "hello")); // explain Table API Table table1 = tEnv.fromDataStream(stream1, $("count"), $("word")); Table table2 = tEnv.fromDataStream(stream2, $("count"), $("word")); Table table = table1 .where($("word").like("F%")) .unionAll(table2); System.out.println(table.explain());

Scala

val env = StreamExecutionEnvironment.getExecutionEnvironment val tEnv = StreamTableEnvironment.create(env) val table1 = env.fromElements((1, "hello")).toTable(tEnv, $"count", $"word") val table2 = env.fromElements((1, "hello")).toTable(tEnv, $"count", $"word") val table = table1 .where($"word".like("F%")) .unionAll(table2) println(table.explain())

Python

env = StreamExecutionEnvironment.get_execution_environment() t_env = StreamTableEnvironment.create(env) table1 = t_env.from_elements([(1, "hello")], ["count", "word"]) table2 = t_env.from_elements([(1, "hello")], ["count", "word"]) table = table1 \ .where(table1.word.like('F%')) \ .union_all(table2) print(table.explain())

上述例子的结果是:

```text == Abstract Syntax Tree == LogicalUnion(all=[true]) LogicalFilter(condition=[LIKE($1, _UTF-16LE’F%’)]) FlinkLogicalDataStreamScan(id=[1], fields=[count, word]) FlinkLogicalDataStreamScan(id=[2], fields=[count, word])

\== Optimized Logical Plan == DataStreamUnion(all=[true], union all=[count, word]) DataStreamCalc(select=[count, word], where=[LIKE(word, _UTF-16LE’F%’)]) DataStreamScan(id=[1], fields=[count, word]) DataStreamScan(id=[2], fields=[count, word])

\== Physical Execution Plan == Stage 1 : Data Source content : collect elements with CollectionInputFormat

Stage 2 : Data Source content : collect elements with CollectionInputFormat

Stage 3 : Operator content : from: (count, word) ship_strategy : REBALANCE Stage 4 : Operator content : where: (LIKE(word, _UTF-16LE'F%')), select: (count, word) ship_strategy : FORWARD Stage 5 : Operator content : from: (count, word) ship_strategy : REBALANCE

`</div> 以下代码展示了一个示例以及使用StatementSet.explain()` 的多 sink 计划的相应输出:

Java

  1. EnvironmentSettings settings = EnvironmentSettings.newInstance().useBlinkPlanner().inStreamingMode().build();
  2. TableEnvironment tEnv = TableEnvironment.create(settings);
  3. final Schema schema = new Schema()
  4. .field("count", DataTypes.INT())
  5. .field("word", DataTypes.STRING());
  6. tEnv.connect(new FileSystem().path("/source/path1"))
  7. .withFormat(new Csv().deriveSchema())
  8. .withSchema(schema)
  9. .createTemporaryTable("MySource1");
  10. tEnv.connect(new FileSystem().path("/source/path2"))
  11. .withFormat(new Csv().deriveSchema())
  12. .withSchema(schema)
  13. .createTemporaryTable("MySource2");
  14. tEnv.connect(new FileSystem().path("/sink/path1"))
  15. .withFormat(new Csv().deriveSchema())
  16. .withSchema(schema)
  17. .createTemporaryTable("MySink1");
  18. tEnv.connect(new FileSystem().path("/sink/path2"))
  19. .withFormat(new Csv().deriveSchema())
  20. .withSchema(schema)
  21. .createTemporaryTable("MySink2");
  22. StatementSet stmtSet = tEnv.createStatementSet();
  23. Table table1 = tEnv.from("MySource1").where($("word").like("F%"));
  24. stmtSet.addInsert("MySink1", table1);
  25. Table table2 = table1.unionAll(tEnv.from("MySource2"));
  26. stmtSet.addInsert("MySink2", table2);
  27. String explanation = stmtSet.explain();
  28. System.out.println(explanation);

Scala

  1. val settings = EnvironmentSettings.newInstance.useBlinkPlanner.inStreamingMode.build
  2. val tEnv = TableEnvironment.create(settings)
  3. val schema = new Schema()
  4. .field("count", DataTypes.INT())
  5. .field("word", DataTypes.STRING())
  6. tEnv.connect(new FileSystem().path("/source/path1"))
  7. .withFormat(new Csv().deriveSchema())
  8. .withSchema(schema)
  9. .createTemporaryTable("MySource1")
  10. tEnv.connect(new FileSystem().path("/source/path2"))
  11. .withFormat(new Csv().deriveSchema())
  12. .withSchema(schema)
  13. .createTemporaryTable("MySource2")
  14. tEnv.connect(new FileSystem().path("/sink/path1"))
  15. .withFormat(new Csv().deriveSchema())
  16. .withSchema(schema)
  17. .createTemporaryTable("MySink1")
  18. tEnv.connect(new FileSystem().path("/sink/path2"))
  19. .withFormat(new Csv().deriveSchema())
  20. .withSchema(schema)
  21. .createTemporaryTable("MySink2")
  22. val stmtSet = tEnv.createStatementSet()
  23. val table1 = tEnv.from("MySource1").where($"word".like("F%"))
  24. stmtSet.addInsert("MySink1", table1)
  25. val table2 = table1.unionAll(tEnv.from("MySource2"))
  26. stmtSet.addInsert("MySink2", table2)
  27. val explanation = stmtSet.explain()
  28. println(explanation)

Python

  1. settings = EnvironmentSettings.new_instance().use_blink_planner().in_streaming_mode().build()
  2. t_env = TableEnvironment.create(environment_settings=settings)
  3. schema = Schema()
  4. .field("count", DataTypes.INT())
  5. .field("word", DataTypes.STRING())
  6. t_env.connect(FileSystem().path("/source/path1")))
  7. .with_format(Csv().deriveSchema())
  8. .with_schema(schema)
  9. .create_temporary_table("MySource1")
  10. t_env.connect(FileSystem().path("/source/path2")))
  11. .with_format(Csv().deriveSchema())
  12. .with_schema(schema)
  13. .create_temporary_table("MySource2")
  14. t_env.connect(FileSystem().path("/sink/path1")))
  15. .with_format(Csv().deriveSchema())
  16. .with_schema(schema)
  17. .create_temporary_table("MySink1")
  18. t_env.connect(FileSystem().path("/sink/path2")))
  19. .with_format(Csv().deriveSchema())
  20. .with_schema(schema)
  21. .create_temporary_table("MySink2")
  22. stmt_set = t_env.create_statement_set()
  23. table1 = t_env.from_path("MySource1").where(col('word').like('F%'))
  24. stmt_set.add_insert("MySink1", table1)
  25. table2 = table1.union_all(t_env.from_path("MySource2"))
  26. stmt_set.add_insert("MySink2", table2)
  27. explanation = stmt_set.explain()
  28. print(explanation)

多 sink 计划的结果是:

`text == Abstract Syntax Tree == LogicalLegacySink(name=[MySink1], fields=[count, word]) +- LogicalFilter(condition=[LIKE($1, _UTF-16LE'F%')]) +- LogicalTableScan(table=[[default_catalog, default_database, MySource1, source: [CsvTableSource(read fields: count, word)]]]) LogicalLegacySink(name=[MySink2], fields=[count, word]) +- LogicalUnion(all=[true]) :- LogicalFilter(condition=[LIKE($1, _UTF-16LE'F%')]) : +- LogicalTableScan(table=[[default_catalog, default_database, MySource1, source: [CsvTableSource(read fields: count, word)]]]) +- LogicalTableScan(table=[[default_catalog, default_database, MySource2, source: [CsvTableSource(read fields: count, word)]]]) == Optimized Logical Plan == Calc(select=[count, word], where=[LIKE(word, _UTF-16LE'F%')], reuse_id=[1]) +- TableSourceScan(table=[[default_catalog, default_database, MySource1, source: [CsvTableSource(read fields: count, word)]]], fields=[count, word]) LegacySink(name=[MySink1], fields=[count, word]) +- Reused(reference_id=[1]) LegacySink(name=[MySink2], fields=[count, word]) +- Union(all=[true], union=[count, word]) :- Reused(reference_id=[1]) +- TableSourceScan(table=[[default_catalog, default_database, MySource2, source: [CsvTableSource(read fields: count, word)]]], fields=[count, word]) == Physical Execution Plan == Stage 1 : Data Source content : collect elements with CollectionInputFormat Stage 2 : Operator content : CsvTableSource(read fields: count, word) ship_strategy : REBALANCE Stage 3 : Operator content : SourceConversion(table:Buffer(default_catalog, default_database, MySource1, source: [CsvTableSource(read fields: count, word)]), fields:(count, word)) ship_strategy : FORWARD Stage 4 : Operator content : Calc(where: (word LIKE _UTF-16LE'F%'), select: (count, word)) ship_strategy : FORWARD Stage 5 : Operator content : SinkConversionToRow ship_strategy : FORWARD Stage 6 : Operator content : Map ship_strategy : FORWARD Stage 8 : Data Source content : collect elements with CollectionInputFormat Stage 9 : Operator content : CsvTableSource(read fields: count, word) ship_strategy : REBALANCE Stage 10 : Operator content : SourceConversion(table:Buffer(default_catalog, default_database, MySource2, source: [CsvTableSource(read fields: count, word)]), fields:(count, word)) ship_strategy : FORWARD Stage 12 : Operator content : SinkConversionToRow ship_strategy : FORWARD Stage 13 : Operator content : Map ship_strategy : FORWARD Stage 7 : Data Sink content : Sink: CsvTableSink(count, word) ship_strategy : FORWARD Stage 14 : Data Sink content : Sink: CsvTableSink(count, word) ship_strategy : FORWARD