流式计算

在时序数据的处理中,经常要对原始数据进行清洗、预处理,再使用时序数据库进行长久的储存。在传统的时序数据解决方案中,常常需要部署 Kafka、Flink 等流处理系统。而流处理系统的复杂性,带来了高昂的开发与运维成本。

TDengine 3.0 的流式计算引擎提供了实时处理写入的数据流的能力,使用 SQL 定义实时流变换,当数据被写入流的源表后,数据会被以定义的方式自动处理,并根据定义的触发模式向目的表推送结果。它提供了替代复杂流处理系统的轻量级解决方案,并能够在高吞吐的数据写入的情况下,提供毫秒级的计算结果延迟。

流式计算可以包含数据过滤,标量函数计算(含UDF),以及窗口聚合(支持滑动窗口、会话窗口与状态窗口),可以以超级表、子表、普通表为源表,写入到目的超级表。在创建流时,目的超级表将被自动创建,随后新插入的数据会被流定义的方式处理并写入其中,通过 partition by 子句,可以以表名或标签划分 partition,不同的 partition 将写入到目的超级表的不同子表。

TDengine 的流式计算能够支持分布在多个 vnode 中的超级表聚合;还能够处理乱序数据的写入:它提供了 watermark 机制以度量容忍数据乱序的程度,并提供了 ignore expired 配置项以决定乱序数据的处理策略——丢弃或者重新计算。

详见 流式计算

流式计算的创建

  1. CREATE STREAM [IF NOT EXISTS] stream_name [stream_options] INTO stb_name AS subquery
  2. stream_options: {
  3. TRIGGER [AT_ONCE | WINDOW_CLOSE | MAX_DELAY time]
  4. WATERMARK time
  5. IGNORE EXPIRED [0 | 1]
  6. }

详细的语法规则参考 流式计算

示例一

企业电表的数据经常都是成百上千亿条的,那么想要将这些分散、凌乱的数据清洗或转换都需要比较长的时间,很难做到高效性和实时性,以下例子中,通过流计算可以将电表电压大于 220V 的数据清洗掉,然后以 5 秒为窗口整合并计算出每个窗口中电流的最大值,最后将结果输出到指定的数据表中。

创建 DB 和原始数据表

首先准备数据,完成建库、建一张超级表和多张子表操作

  1. DROP DATABASE IF EXISTS power;
  2. CREATE DATABASE power;
  3. USE power;
  4. CREATE STABLE meters (ts timestamp, current float, voltage int, phase float) TAGS (location binary(64), groupId int);
  5. CREATE TABLE d1001 USING meters TAGS ("California.SanFrancisco", 2);
  6. CREATE TABLE d1002 USING meters TAGS ("California.SanFrancisco", 3);
  7. CREATE TABLE d1003 USING meters TAGS ("California.LosAngeles", 2);
  8. CREATE TABLE d1004 USING meters TAGS ("California.LosAngeles", 3);

创建流

  1. create stream current_stream into current_stream_output_stb as select _wstart as start, _wend as wend, max(current) as max_current from meters where voltage <= 220 interval (5s);

写入数据

  1. insert into d1001 values("2018-10-03 14:38:05.000", 10.30000, 219, 0.31000);
  2. insert into d1001 values("2018-10-03 14:38:15.000", 12.60000, 218, 0.33000);
  3. insert into d1001 values("2018-10-03 14:38:16.800", 12.30000, 221, 0.31000);
  4. insert into d1002 values("2018-10-03 14:38:16.650", 10.30000, 218, 0.25000);
  5. insert into d1003 values("2018-10-03 14:38:05.500", 11.80000, 221, 0.28000);
  6. insert into d1003 values("2018-10-03 14:38:16.600", 13.40000, 223, 0.29000);
  7. insert into d1004 values("2018-10-03 14:38:05.000", 10.80000, 223, 0.29000);
  8. insert into d1004 values("2018-10-03 14:38:06.500", 11.50000, 221, 0.35000);

查询以观察结果

  1. taos> select start, wend, max_current from current_stream_output_stb;
  2. start | wend | max_current |
  3. ===========================================================================
  4. 2018-10-03 14:38:05.000 | 2018-10-03 14:38:10.000 | 10.30000 |
  5. 2018-10-03 14:38:15.000 | 2018-10-03 14:38:20.000 | 12.60000 |
  6. Query OK, 2 rows in database (0.018762s)

示例二

依然以示例一中的数据为基础,我们已经采集到了每个智能电表的电流和电压数据,现在需要求出有功功率和无功功率,并将地域和电表名以符号 “.” 拼接,然后以电表名称分组输出到新的数据表中。

创建 DB 和原始数据表

参考示例一 创建 DB 和原始数据表

创建流

  1. create stream power_stream into power_stream_output_stb as select ts, concat_ws(".", location, tbname) as meter_location, current*voltage*cos(phase) as active_power, current*voltage*sin(phase) as reactive_power from meters partition by tbname;

写入数据

参考示例一 写入数据

查询以观察结果

  1. taos> select ts, meter_location, active_power, reactive_power from power_stream_output_stb;
  2. ts | meter_location | active_power | reactive_power |
  3. ===================================================================================================================
  4. 2018-10-03 14:38:05.000 | California.LosAngeles.d1004 | 2307.834596289 | 688.687331847 |
  5. 2018-10-03 14:38:06.500 | California.LosAngeles.d1004 | 2387.415754896 | 871.474763418 |
  6. 2018-10-03 14:38:05.500 | California.LosAngeles.d1003 | 2506.240411679 | 720.680274962 |
  7. 2018-10-03 14:38:16.600 | California.LosAngeles.d1003 | 2863.424274422 | 854.482390839 |
  8. 2018-10-03 14:38:05.000 | California.SanFrancisco.d1001 | 2148.178871730 | 688.120784090 |
  9. 2018-10-03 14:38:15.000 | California.SanFrancisco.d1001 | 2598.589176205 | 890.081451418 |
  10. 2018-10-03 14:38:16.800 | California.SanFrancisco.d1001 | 2588.728381186 | 829.240910475 |
  11. 2018-10-03 14:38:16.650 | California.SanFrancisco.d1002 | 2175.595991997 | 555.520860397 |
  12. Query OK, 8 rows in database (0.014753s)