快速部署

注意事项

如果您是首次接触并使用Linkis,您可以忽略该章节;如果您已经是 Linkis 的使用用户,安装或升级前建议先阅读:Linkis1.0 与 Linkis0.X 的区别简述

请注意:除了 Linkis1.0 安装包默认已经包含的:Python/Shell/Hive/Spark四个EngineConnPlugin以外,如果大家有需要,可以手动安装如 JDBC 引擎等类型的其他引擎,具体请参考 EngineConnPlugin引擎插件安装文档

Linkis Docker镜像
Linkis 0.10.0 Docker

Linkis1.0 默认已适配的引擎列表如下:

引擎类型适配情况官方安装包是否包含
Python1.0已适配包含
JDBC1.0已适配不包含
Shell1.0已适配包含
Hive1.0已适配包含
Spark1.0已适配包含
Pipeline1.0已适配不包含
Presto1.0未适配不包含
ElasticSearch1.0未适配不包含
Impala1.0未适配不包含
MLSQL1.0未适配不包含
TiSpark1.0未适配不包含

一、确定您的安装环境

这里给出每个引擎的依赖信息列表:

引擎类型依赖环境特殊说明
PythonPython环境日志和结果集如果配置hdfs://则依赖HDFS环境
JDBC可以无依赖日志和结果集路径如果配置hdfs://则依赖HDFS环境
Shell可以无依赖日志和结果集路径如果配置hdfs://则依赖HDFS环境
Hive依赖Hadoop和Hive环境
Spark依赖Hadoop/Hive/Spark

要求:安装Linkis需要至少3G内存。

默认每个微服务JVM堆内存为512M,可以通过修改SERVER_HEAP_SIZE来统一调整每个微服务的堆内存,如果您的服务器资源较少,我们建议修改该参数为128M。如下:

  1. vim ${LINKIS_HOME}/config/linkis-env.sh
  1. # java application default jvm memory.
  2. export SERVER_HEAP_SIZE="128M"

二、Linkis环境准备

a. 基础软件安装

下面的软件必装:

b. 创建用户

例如: 部署用户是hadoop账号

  1. 在部署机器上创建部署用户,用于安装
  1. sudo useradd hadoop
  1. 因为Linkis的服务是以 sudo -u ${linux-user} 方式来切换引擎,从而执行作业,所以部署用户需要有 sudo 权限,而且是免密的。
  1. vi /etc/sudoers
  1. hadoop ALL=(ALL) NOPASSWD: NOPASSWD: ALL
  1. 在每台安装节点设置如下的全局环境变量,以便Linkis能正常使用Hadoop、Hive和Spark

    修改安装用户的.bash_rc,命令如下:

  1. vim /home/hadoop/.bash_rc ##以部署用户Hadoop为例

下方为环境变量示例:

  1. #JDK
  2. export JAVA_HOME=/nemo/jdk1.8.0_141
  3. ##如果不使用Hive、Spark等引擎且不依赖Hadoop,则不需要修改以下环境变量
  4. #HADOOP
  5. export HADOOP_HOME=/appcom/Install/hadoop
  6. export HADOOP_CONF_DIR=/appcom/config/hadoop-config
  7. #Hive
  8. export HIVE_HOME=/appcom/Install/hive
  9. export HIVE_CONF_DIR=/appcom/config/hive-config
  10. #Spark
  11. export SPARK_HOME=/appcom/Install/spark
  12. export SPARK_CONF_DIR=/appcom/config/spark-config/
  13. export PYSPARK_ALLOW_INSECURE_GATEWAY=1 # Pyspark必须加的参数
  1. 如果您的Pyspark和Python想拥有画图功能,则还需在所有安装节点,安装画图模块。命令如下:
  1. python -m pip install matplotlib

c. 安装包准备

从Linkis已发布的release中(点击这里进入下载页面),下载最新安装包。

先解压安装包到安装目录,并对解压后的文件进行配置修改。

  1. tar -xvf wedatasphere-linkis-x.x.x-combined-package-dist.tar.gz

d. 不依赖HDFS的基础配置修改

  1. vi config/linkis-env.sh
  1. #SSH_PORT=22 #指定SSH端口,如果单机版本安装可以不配置
  2. deployUser=hadoop #指定部署用户
  3. LINKIS_HOME=/appcom/Install/Linkis # 指定安装目录
  4. WORKSPACE_USER_ROOT_PATH=file:///tmp/hadoop # 指定用户根目录,一般用于存储用户的脚本文件和日志文件等,是用户的工作空间。
  5. RESULT_SET_ROOT_PATH=file:///tmp/linkis # 结果集文件路径,用于存储Job的结果集文件
  6. ENGINECONN_ROOT_PATH=/appcom/tmp #存放ECP的安装路径,需要部署用户有写权限的本地目录
  7. ENTRANCE_CONFIG_LOG_PATH=file:///tmp/linkis/ #ENTRANCE的日志路径
  8. ## LDAP配置,默认Linkis只支持部署用户登录,如果需要支持多用户登录可以使用LDAP,需要配置以下参数:
  9. #LDAP_URL=ldap://localhost:1389/
  10. #LDAP_BASEDN=dc=webank,dc=com

e. 依赖HDFS/Hive/Spark的基础配置修改

  1. vi config/linkis-env.sh
  1. SSH_PORT=22 #指定SSH端口,如果单机版本安装可以不配置
  2. deployUser=hadoop #指定部署用户
  3. WORKSPACE_USER_ROOT_PATH=file:///tmp/hadoop # 指定用户根目录,一般用于存储用户的脚本文件和日志文件等,是用户的工作空间。
  4. RESULT_SET_ROOT_PATH=hdfs:///tmp/linkis # 结果集文件路径,用于存储Job的结果集文件
  5. ENGINECONN_ROOT_PATH=/appcom/tmp #存放ECP的安装路径,需要部署用户有写权限的本地目录
  6. ENTRANCE_CONFIG_LOG_PATH=hdfs:///tmp/linkis/ #ENTRANCE的日志路径
  7. #因为1.0支持多Yarn集群,使用到Yarn队列资源的一定需要配置YARN_RESTFUL_URL
  8. YARN_RESTFUL_URL=http://127.0.0.1:8088 #Yarn的ResourceManager的地址
  9. # 如果您想配合Scriptis一起使用,CDH版的Hive,还需要配置如下参数(社区版Hive可忽略该配置)
  10. HIVE_META_URL=jdbc://... # HiveMeta元数据库的URL
  11. HIVE_META_USER= # HiveMeta元数据库的用户
  12. HIVE_META_PASSWORD= # HiveMeta元数据库的密码
  13. # 配置hadoop/hive/spark的配置目录
  14. HADOOP_CONF_DIR=/appcom/config/hadoop-config #hadoop的conf目录
  15. HIVE_CONF_DIR=/appcom/config/hive-config #hive的conf目录
  16. SPARK_CONF_DIR=/appcom/config/spark-config #spark的conf目录
  17. ## LDAP配置,默认Linkis只支持部署用户登录,如果需要支持多用户登录可以使用LDAP,需要配置以下参数:
  18. #LDAP_URL=ldap://localhost:1389/
  19. #LDAP_BASEDN=dc=webank,dc=com
  20. ##如果spark不是2.4.3的版本需要修改参数:
  21. #SPARK_VERSION=3.1.1
  22. ##如果hive不是1.2.1的版本需要修改参数:
  23. #HIVE_VERSION=2.3.3

f. 修改数据库配置

  1. vi config/db.sh
  1. # 设置数据库的连接信息
  2. # 包括IP地址、数据库名称、用户名、端口
  3. # 主要用于存储用户的自定义变量、配置参数、UDF和小函数,以及提供JobHistory的底层存储
  4. MYSQL_HOST=
  5. MYSQL_PORT=
  6. MYSQL_DB=
  7. MYSQL_USER=
  8. MYSQL_PASSWORD=

三、安装和启动

1. 执行安装脚本:

  1. sh bin/install.sh

2. 安装步骤

  • install.sh脚本会询问您是否需要初始化数据库并导入元数据。

    因为担心用户重复执行install.sh脚本,把数据库中的用户数据清空,所以在install.sh执行时,会询问用户是否需要初始化数据库并导入元数据。

    第一次安装必须选是。

    请注意:如果您是升级已有环境的 Linkis0.X 到 Linkis1.0,请不要直接选是,请先参考 Linkis1.0升级指南

    请注意:如果您是升级已有环境的 Linkis0.X 到 Linkis1.0,请不要直接选是,请先参考 Linkis1.0升级指南

    请注意:如果您是升级已有环境的 Linkis0.X 到 Linkis1.0,请不要直接选是,请先参考 Linkis1.0升级指南

3. 是否安装成功:

通过查看控制台打印的日志信息查看是否安装成功。

如果有错误信息,可以查看具体报错原因。

您也可以通过查看我们的常见问题,获取问题的解答。

4. 快速启动Linkis

(1)、启动服务:

在安装目录执行以下命令,启动所有服务:

  1. sh sbin/linkis-start-all.sh

(2)、查看是否启动成功

可以在Eureka界面查看服务启动成功情况,查看方法:

使用http://${EUREKA\_INSTALL\_IP}:${EUREKA\_PORT}, 在浏览器中打开,查看服务是否注册成功。

如果您没有在config.sh指定EUREKA_INSTALL_IP和EUREKA_INSTALL_IP,则HTTP地址为:http://127.0.0.1:20303

如下图,如您的Eureka主页出现以下微服务,则表示服务都启动成功,可以正常对外提供服务了:

默认会启动8个Linkis微服务,其中图下linkis-cg-engineconn服务为运行任务才会启动

Linkis1.0_Eureka

(3)、查看服务是否正常

  1. 服务启动成功后您可以通过,安装前端管理台,来检验服务的正常性,点击跳转管理台安装文档
  2. 您也可以通过Linkis用户手册来测试Linis是否能正常运行任务,点击跳转用户手册