部署依赖

集群依赖

spark thrift

  1. 下载spark安装包,我们选择的是spark2.1.3b
  2. 解压spark-2.1.3-bin-hadoop2.7.tgz
  3. 将core-site.xml、hdfs-site.xml、yarn-site.xml、hive-site.xml拷贝到${SPARK_HOME}/conf目录下
  4. 启动spark thriftserver:
  1. $ cd ${SPARK_HOME}/sbin && sh start-thriftserver.sh

flinkx

依赖flinkx 1.10 版本 flink源码编译

maven依赖

构建依赖

Taier源码编译启动中依赖DatasourceX的core包以及自定义hive的jar包,需要提前install到mvn仓库

  1. mvn install:install-file -Dfile=datasourcex-core.jar -DgroupId=com.dtstack.dtcenter -DartifactId=common.loader.core -Dversion=1.7.0-SNAPSHOT -Dpackaging=jar
  1. mvn install:install-file -Dfile=dt-insight-hive-shade-4.1.2-RELEASE.jar -DgroupId=dt.insight.plat -DartifactId=dt-insight-hive-shade -Dversion=4.1.2-RELEASE -Dpackaging=jar
  1. mvn install:install-file -Dfile=carbondata-spark2-1.5.0.jar -DgroupId=org.apache.carbondata -DartifactId=carbondata-spark2 -Dversion=1.5.0-SNAPSHOT -Dpackaging=jar

编辑器依赖

源码中包含部分scala的代码,通过idea启动需要添加scala的sdk

  1. open module setting -> global libraries

建议版本为2.11.1