Python 引擎

本文主要介绍在Linkis1.X中,Python引擎的配置、部署和使用。

1.Spark引擎使用前的环境配置

如果您希望在您的服务器上使用python引擎,您需要保证用户的PATH中是有python的执行目录和执行权限。

环境变量名环境变量内容备注
pythonpython执行环境建议使用anaconda的python执行器

表1-1 环境配置清单

2.Python引擎的配置和部署

2.1 Python版本的选择和编译

Python是支持python2 和 python3的,您可以简单更改配置就可以完成Python版本的切换,不需要重新编译python的引擎版本。

2.2 python engineConn部署和加载

此处可以使用默认的加载方式即可正常使用。

3.Python引擎的使用

准备操作

在linkis上提交python之前,您只需要保证您的用户的$PATH中有python的路径即可。

3.1 通过Linkis SDK进行使用

Linkis提供了Java和Scala 的SDK向Linkis服务端提交任务. 具体可以参考 JAVA SDK Manual. 对于Python任务您只需要修改Demo中的EngineConnType和CodeType参数即可:

  1. Map<String, Object> labels = new HashMap<String, Object>();
  2. labels.put(LabelKeyConstant.ENGINE_TYPE_KEY, "python-python2"); // required engineType Label
  3. labels.put(LabelKeyConstant.USER_CREATOR_TYPE_KEY, "hadoop-IDE");// required execute user and creator
  4. labels.put(LabelKeyConstant.CODE_TYPE_KEY, "python"); // required codeType

3.2 通过Linkis-cli进行任务提交

Linkis 1.0后提供了cli的方式提交任务,我们只需要指定对应的EngineConn和CodeType标签类型即可,Python的使用如下:

  1. sh ./bin/linkis-cli -engineType python-python2 -codeType python -code "print(\"hello\")" -submitUser hadoop -proxyUser hadoop

具体使用可以参考: Linkis CLI Manual.

3.3 Scriptis的使用方式

Scriptis的使用方式是最简单的,您可以直接进入Scriptis,右键目录然后新建python脚本并编写python代码并点击执行。

python的执行逻辑是通过 Py4j的方式,启动一个的python 的gateway,然后Python引擎将代码提交到python的执行器进行执行。

Python 引擎 - 图1

图3-1 python的执行效果截图

4.Python引擎的用户设置

除了以上引擎配置,用户还可以进行自定义的设置,比如python的版本和以及python需要加载的一些module等。

python

图4-1 python的用户自定义配置管理台