部署依赖

集群依赖

spark thrift

  1. 下载spark安装包,我们选择的是spark2.1.3b
  2. 解压spark-2.1.3-bin-hadoop2.7.tgz
  3. 将core-site.xml、hdfs-site.xml、yarn-site.xml、hive-site.xml拷贝到${SPARK_HOME}/conf目录下
  4. 启动spark thriftserver:
  1. $ cd ${SPARK_HOME}/sbin && sh start-thriftserver.sh

Chunjun

依赖Chunjun 1.12 版本 Chunjun源码编译

maven依赖

构建依赖

Taier源码编译启动中依赖DatasourceX的core包以及自定义hive的jar包, 如果maven仓库下载失败,可以手动下载并install到mvn仓库

  1. mvn install:install-file -Dfile=datasourcex-core.jar -DgroupId=com.dtstack.dtcenter -DartifactId=common.loader.core -Dversion=1.7.0-SNAPSHOT -Dpackaging=jar
  1. mvn install:install-file -Dfile=dt-insight-hive-shade-4.1.3.jar -DgroupId=dt.insight.plat -DartifactId=dt-insight-hive-shade -Dversion=4.1.3 -Dpackaging=jar

编辑器依赖

源码中包含部分scala的代码,通过idea启动需要添加scala的sdk

  1. open module setting -> global libraries

建议版本为2.11.1