ElasticJob-Lite 和 ElasticJob-Cloud 提供统一作业接口,开发者仅需对业务作业进行一次开发,之后可根据不同的配置以及部署至不同环境。

ElasticJob 的作业分类基于 class 和 type 两种类型。 基于 class 的作业需要开发者自行通过实现接口的方式织入业务逻辑; 基于 type 的作业则无需编码,只需要提供相应配置即可。

基于 class 的作业接口的方法参数 shardingContext 包含作业配置、片和运行时信息。 可通过 getShardingTotalCount(), getShardingItem() 等方法分别获取分片总数,运行在本作业服务器的分片序列号等。

ElasticJob 目前提供 Simple、Dataflow 这两种基于 class 的作业类型,并提供 Script、HTTP 这两种基于 type 的作业类型,用户可通过实现 SPI 接口自行扩展作业类型。

简单作业

意为简单实现,未经任何封装的类型。需实现 SimpleJob 接口。 该接口仅提供单一方法用于覆盖,此方法将定时执行。 与Quartz原生接口相似,但提供了弹性扩缩容和分片等功能。

  1. public class MyElasticJob implements SimpleJob {
  2. @Override
  3. public void execute(ShardingContext context) {
  4. switch (context.getShardingItem()) {
  5. case 0:
  6. // do something by sharding item 0
  7. break;
  8. case 1:
  9. // do something by sharding item 1
  10. break;
  11. case 2:
  12. // do something by sharding item 2
  13. break;
  14. // case n: ...
  15. }
  16. }
  17. }

数据流作业

用于处理数据流,需实现 DataflowJob 接口。 该接口提供2个方法可供覆盖,分别用于抓取 (fetchData) 和处理 (processData) 数据。

  1. public class MyElasticJob implements DataflowJob<Foo> {
  2. @Override
  3. public List<Foo> fetchData(ShardingContext context) {
  4. switch (context.getShardingItem()) {
  5. case 0:
  6. List<Foo> data = // get data from database by sharding item 0
  7. return data;
  8. case 1:
  9. List<Foo> data = // get data from database by sharding item 1
  10. return data;
  11. case 2:
  12. List<Foo> data = // get data from database by sharding item 2
  13. return data;
  14. // case n: ...
  15. }
  16. }
  17. @Override
  18. public void processData(ShardingContext shardingContext, List<Foo> data) {
  19. // process data
  20. // ...
  21. }
  22. }

流式处理

可通过属性配置 streaming.process 开启或关闭流式处理。

如果开启流式处理,则作业只有在 fetchData 方法的返回值为 null 或集合容量为空时,才停止抓取,否则作业将一直运行下去; 如果关闭流式处理,则作业只会在每次作业执行过程中执行一次 fetchData 和 processData 方法,随即完成本次作业。

如果采用流式作业处理方式,建议 processData 在处理数据后更新其状态,避免 fetchData 再次抓取到,从而使得作业永不停止。

脚本作业

支持 shell,python,perl 等所有类型脚本。 可通过属性配置 script.command.line 配置待执行脚本,无需编码。 执行脚本路径可包含参数,参数传递完毕后,作业框架会自动追加最后一个参数为作业运行时信息。

例如如下脚本:

  1. #!/bin/bash
  2. echo sharding execution context is $*

作业运行时将输出:

  1. sharding execution context is {"jobName":"scriptElasticDemoJob","shardingTotalCount":10,"jobParameter":"","shardingItem":0,"shardingParameter":"A"}

HTTP作业(3.0.0-beta 提供)

可通过属性配置http.url,http.method,http.data等配置待请求的http信息。 分片信息以Header形式传递,key为shardingContext,值为json格式。

  1. public class HttpJobMain {
  2. public static void main(String[] args) {
  3. new ScheduleJobBootstrap(regCenter, "HTTP", JobConfiguration.newBuilder("javaHttpJob", 1)
  4. .setProperty(HttpJobProperties.URI_KEY, "http://xxx.com/execute")
  5. .setProperty(HttpJobProperties.METHOD_KEY, "POST")
  6. .setProperty(HttpJobProperties.DATA_KEY, "source=ejob")
  7. .cron("0/5 * * * * ?").shardingItemParameters("0=Beijing").build()).schedule();
  8. }
  9. }
  1. @Controller
  2. @Slf4j
  3. public class HttpJobController {
  4. @RequestMapping(path = "/execute", method = RequestMethod.POST)
  5. public void execute(String source, @RequestHeader String shardingContext) {
  6. log.info("execute from source : {}, shardingContext : {}", source, shardingContext);
  7. }
  8. }

execute接口将输出:

  1. execute from source : ejob, shardingContext : {"jobName":"scriptElasticDemoJob","shardingTotalCount":3,"jobParameter":"","shardingItem":0,"shardingParameter":"Beijing"}