4. 创建数据源

数据源中心支持MySQL、POSTGRESQL、HIVE/IMPALA、SPARK、CLICKHOUSE、ORACLE、SQLSERVER等数据源

4.1 创建/编辑MySQL数据源

  • 点击“数据源中心->创建数据源”,根据需求创建不同类型的数据源。

  • 数据源:选择MYSQL

  • 数据源名称:输入数据源的名称

  • 描述:输入数据源的描述

  • IP主机名:输入连接MySQL的IP

  • 端口:输入连接MySQL的端口

  • 用户名:设置连接MySQL的用户名

  • 密码:设置连接MySQL的密码

  • 数据库名:输入连接MySQL的数据库名称

  • Jdbc连接参数:用于MySQL连接的参数设置,以JSON形式填写

4. 创建数据源 - 图1

点击“测试连接”,测试数据源是否可以连接成功。

4.2 创建/编辑POSTGRESQL数据源

  • 数据源:选择POSTGRESQL
  • 数据源名称:输入数据源的名称
  • 描述:输入数据源的描述
  • IP/主机名:输入连接POSTGRESQL的IP
  • 端口:输入连接POSTGRESQL的端口
  • 用户名:设置连接POSTGRESQL的用户名
  • 密码:设置连接POSTGRESQL的密码
  • 数据库名:输入连接POSTGRESQL的数据库名称
  • Jdbc连接参数:用于POSTGRESQL连接的参数设置,以JSON形式填写

4. 创建数据源 - 图2

4.3 创建/编辑HIVE数据源

1.使用HiveServer2方式连接

4. 创建数据源 - 图3

  • 数据源:选择HIVE
  • 数据源名称:输入数据源的名称
  • 描述:输入数据源的描述
  • IP/主机名:输入连接HIVE的IP
  • 端口:输入连接HIVE的端口
  • 用户名:设置连接HIVE的用户名
  • 密码:设置连接HIVE的密码
  • 数据库名:输入连接HIVE的数据库名称
  • Jdbc连接参数:用于HIVE连接的参数设置,以JSON形式填写

2.使用HiveServer2 HA Zookeeper方式连接

4. 创建数据源 - 图4

注意:如果开启了kerberos,则需要填写 Principal

4. 创建数据源 - 图5

4.4 创建/编辑Spark数据源

4. 创建数据源 - 图6

  • 数据源:选择Spark
  • 数据源名称:输入数据源的名称
  • 描述:输入数据源的描述
  • IP/主机名:输入连接Spark的IP
  • 端口:输入连接Spark的端口
  • 用户名:设置连接Spark的用户名
  • 密码:设置连接Spark的密码
  • 数据库名:输入连接Spark的数据库名称
  • Jdbc连接参数:用于Spark连接的参数设置,以JSON形式填写

注意:如果开启了kerberos,则需要填写 Principal

4. 创建数据源 - 图7