HugeGraph-Loader Quick Start

1 概述

HugeGraph-Loader 是 HugeGragh 的数据导入组件,能够将多种数据源的数据转化为图的顶点和边并批量导入到图数据库中。

目前支持的数据源包括:

  • 本地磁盘文件或目录,支持压缩文件
  • HDFS 文件或目录,支持压缩文件
  • 部分关系型数据库,如 MySQL

后面会说明数据源的具体要求。

注意:使用 HugeGraph-Loader 需要依赖 HugeGraph Server 服务,下载和启动 Server 请参考 HugeGraph-Server Quick Start

2 获取 HugeGraph-Loader

有两种方式可以获取 HugeGraph-Loader:

  • 下载已编译的压缩包
  • 克隆源码编译安装

2.1 下载已编译的压缩包

下载最新版本的 HugeGraph-Loader release 包:

  1. wget https://github.com/hugegraph/hugegraph-loader/releases/download/v${version}/hugegraph-loader-${version}.tar.gz
  2. tar zxvf hugegraph-loader-${version}.tar.gz

2.2 克隆源码编译安装

克隆最新版本的 HugeGraph-Loader 源码包:

  1. $ git clone https://github.com/hugegraph/hugegraph-loader.git

编译生成 tar 包:

  1. cd hugegraph-loader
  2. mvn package -DskipTests

3 使用流程

使用 HugeGraph-Loader 的基本流程分为以下几步:

  • 编写图模型(schema)
  • 准备数据文件
  • 编写输入源映射(source)
  • 执行导入过程

3.1 编写图模型(schema)

这一步是建模的过程,用户需要对自己已有的数据和想要创建的图模型有一个清晰的构想,然后编写 schema 建立图模型。

比如想创建一个拥有两类顶点及两类边的图,顶点是”人”和”软件”,边是”人认识人”和”人创造软件”,并且这些顶点和边都带有一些属性,比如顶点”人”有:”姓名”、”年龄”等属性,“软件”有:”名字”、”售卖价格”等属性;边”认识”有:”日期”属性等。

image

示例图模型

在设计好了图模型之后,我们可以用groovy编写出schema的定义,并保存至文件中,这里命名为schema.groovy

  1. // 创建一些属性
  2. schema.propertyKey("name").asText().ifNotExist().create();
  3. schema.propertyKey("age").asInt().ifNotExist().create();
  4. schema.propertyKey("city").asText().ifNotExist().create();
  5. schema.propertyKey("date").asText().ifNotExist().create();
  6. schema.propertyKey("price").asDouble().ifNotExist().create();
  7. // 创建 person 顶点类型,其拥有三个属性:name, age, city,主键是 name
  8. schema.vertexLabel("person").properties("name", "age", "city").primaryKeys("name").ifNotExist().create();
  9. // 创建 software 顶点类型,其拥有两个属性:name, price,主键是 name
  10. schema.vertexLabel("software").properties("name", "price").primaryKeys("name").ifNotExist().create();
  11. // 创建 knows 边类型,这类边是从 person 指向 person 的
  12. schema.edgeLabel("knows").sourceLabel("person").targetLabel("person").ifNotExist().create();
  13. // 创建 created 边类型,这类边是从 person 指向 software 的
  14. schema.edgeLabel("created").sourceLabel("person").targetLabel("software").ifNotExist().create();

关于 schema 的详细说明请参考 hugegraph-client 中对应部分。

3.2 准备数据文件

目前 HugeGraph-Loader 支持的数据源包括:

  • 本地磁盘文件或目录
  • HDFS 文件或目录
  • 部分关系型数据库

本地磁盘文件或目录

用户可以指定本地磁盘文件作为数据源,如果数据分散在多个文件中,也支持以某个目录作为数据源,但暂时不支持以多个目录作为数据源,也不支持过滤目录下的文件。

比如:我的数据分散在多个文件中,part-0、part-1 … part-n,要想执行导入,必须保证它们是放在一个目录下的,且该目录下没有其他格式的文件。然后在 loader 的映射文件中,将path指定为该目录即可。

支持的文件格式包括:

  • TEXT
  • CSV
  • JSON。

TEXT 是自定义分隔符的文本文件,第一行通常是标题,记录了每一列的名称,也允许没有标题行(在映射文件中指定)。其余的每行代表一条记录,会被转化为一个顶点/边;行的每一列对应一个字段,会被转化为顶点/边的 id、label 或属性;

  1. id|name|lang|price|ISBN
  2. 1|lop|java|328|ISBN978-7-107-18618-5
  3. 2|ripple|java|199|ISBN978-7-100-13678-5

CSV 是分隔符为逗号,的 TEXT 文件,当列值本身包含逗号时,该列值需要用双引号包起来,如:

  1. marko,29,Beijing
  2. "li,nary",26,"Wu,han"

JSON 文件要求每一行都是一个 JSON 串,且每行的格式需保持一致。

HDFS 文件或目录

用户也可以指定 HDFS 文件或目录作为数据源,上面关于本地磁盘文件或目录的要求全部适用于这里。除此之外,鉴于 HDFS 上通常存储的都是压缩文件,loader 也提供了对压缩文件的支持,并且本地磁盘文件或目录同样支持压缩文件。

目前支持的压缩文件类型包括:GZIP、BZ2、XZ、LZMA、PACK200、SNAPPY_RAW、SNAPPY_FRAMED、Z、DEFLATE、LZ4_BLOCK 和 LZ4_FRAMED。

部分关系型数据库

loader 还支持以部分关系型数据库作为数据源,我们只测试过 MySQL,其他如:Oracle、PostgreSQL 等理论上也支持。

但目前对表结构要求较为严格,如果导入过程中需要做关联查询,这样的表结构是不允许的。关联查询的意思是:在读到表的某行后,发现某列的值不能直接使用(比如外键),需要再去做一次查询才能确定该列的真实值。

举个例子:假设有三张表,person、software 和 created

  1. // person 表结构
  2. id | name | age | city
  1. // software 表结构
  2. id | name | lang | price
  1. // created 表结构
  2. id | p_id | s_id | date

如果在建模(schema)时指定 person 或 software 的 id 策略是 PRIMARY_KEY 的,选择以 name 作为 primary keys(注意:这是 hugegraph 中 vertexlabel 的概念),在导入边数据时,由于需要拼接出源顶点和目标顶点的 id,必须拿着 p_id/s_id 去 person/software 表中查到对应的 name,这种需要做额外查询的表结构的情况,loader 暂时是不支持的。

如果建模(schema)时指定 person 和 software 的 id 策略是 CUSTOMIZE 的,这样导入边 created 时可以直接使用 p_id 和 s_id 作为源顶点和目标顶点的 id,所以是支持的。

3.2.1 准备顶点数据

顶点数据文件由一行一行的数据组成,一般每一行作为一个顶点,每一列会作为顶点属性。下面以 CSV 格式作为示例进行说明。

  • person 顶点数据
  1. Tom,48,Beijing
  2. Jerry,36,Shanghai
  • software 顶点数据
  1. name,price
  2. Photoshop,999
  3. Office,388
3.2.2 准备边数据

边数据文件由一行一行的数据组成,一般每一行作为一条边,其中有部分列会作为源顶点和目标顶点的 id,其他列作为边属性。下面以 JSON 格式作为示例进行说明。

  • knows 边数据
  1. {"source_name": "Tom", "target_name": "Jerry", "date": "2008-12-12"}
  • created 边数据
  1. {"source_name": "Tom", "target_name": "Photoshop"}
  2. {"source_name": "Tom", "target_name": "Office"}
  3. {"source_name": "Jerry", "target_name": "Office"}

3.3 编写输入源的映射文件

输入源的映射文件是JSON格式的,由多个VertexSourceEdgeSource块组成,VertexSourceEdgeSource分别对应某类顶点/边的输入源映射。每个VertexSourceEdgeSource块内部会包含一个InputSource块,这个InputSource块就对应上面介绍的本地磁盘文件或目录HDFS 文件或目录关系型数据库,负责描述数据源的基本信息。

先给出上面图模型和数据文件的输入源的映射文件:

  1. {
  2. "vertices": [
  3. {
  4. "label": "person",
  5. "input": {
  6. "type": "file",
  7. "path": "vertex_person.csv",
  8. "format": "CSV",
  9. "header": ["name", "age", "city"],
  10. "charset": "UTF-8"
  11. }
  12. },
  13. {
  14. "label": "software",
  15. "input": {
  16. "type": "file",
  17. "path": "vertex_software.csv",
  18. "format": "CSV"
  19. }
  20. }
  21. ],
  22. "edges": [
  23. {
  24. "label": "knows",
  25. "source": ["source_name"],
  26. "target": ["target_name"],
  27. "input": {
  28. "type": "file",
  29. "path": "edge_knows.json",
  30. "format": "JSON"
  31. },
  32. "mapping": {
  33. "source_name": "name",
  34. "target_name": "name"
  35. }
  36. },
  37. {
  38. "label": "created",
  39. "source": ["source_name"],
  40. "target": ["target_name"],
  41. "input": {
  42. "type": "file",
  43. "path": "edge_created.json",
  44. "format": "JSON"
  45. },
  46. "mapping": {
  47. "source_name": "name",
  48. "target_name": "name"
  49. }
  50. }
  51. ]
  52. }
3.3.1 VertexSource 和 EdgeSource

VertexSource的节点包括:

映射文件节点名 说明 是否必填
label 待导入的顶点数据所属的label
input 顶点数据源的信息
id 指定某一列作为顶点的 Id 列 当 Id 策略为CUSTOMIZE时,必填;当 Id 策略为PRIMARY_KEY时,必须为空
mapping 将列的列名映射为顶点的属性名
ignored 忽略某些列,使其不参与插入
null_values 可以指定一些字符串代表空值,比如”NULL”,如果该列的属性又是一个可空属性,那在构造顶点时不会填充该属性

EdgeSource的节点包括:

映射文件节点名 说明 是否必填
label 待导入的边数据所属的label
input 边数据源的信息
source 指定某几列作为源顶点的 id 列 当源顶点的 Id 策略为 CUSTOMIZE时,必须指定某一列作为顶点的 id 列;当源顶点的 Id 策略为 PRIMARY_KEY时,必须指定一列或多列用于拼接生成顶点的 id,也就是说,不管是哪种 Id 策略,此项必填
target 指定某几列作为目标顶点的 id 列 与 source 类似,不再赘述
mapping 将列的列名映射为顶点的属性名
ignored 忽略某些列,使其不参与插入
null_values 可以指定一些字符串代表空值,比如”NULL”,如果该列的属性又是一个可空属性,那在构造边时不会填充该属性

注意:VertexSource的 id 和EdgeSource的 source 和 target 填写的都是数据源的原列名,不是 mapping 后的属性名。

3.3.2 InputSource

FileSource的节点包括:

映射文件节点名 说明 是否必填
type 输入源类型,必须填 file 或 FILE
path 本地文件或目录的路径,绝对路径或相对于映射文件的相对路径,建议使用绝对路径
format 本地文件的格式,可选值为 CSV、TEXT 及 JSON,必须大写
header 文件各列的列名,如不指定则会以数据文件第一行作为 header;当文件本身有标题且又指定了 header,文件的第一行会被当作普通的数据行;JSON 文件不需要指定 header
delimiter 文件行的列分隔符,TEXT文件默认以制表符"\t"作为分隔符;CSV文件不需要指定,默认以逗号","作为分隔符,JSON文件不需要指定
charset 文件的编码字符集,默认UTF-8
date_format 自定义的日期格式,默认值为 yyyy-MM-dd HH:mm:ss
skipped_line_regex 想跳过的行的正则表达式,默认不跳过任何行
compression 文件的压缩格式,可选值为 NONE、GZIP、BZ2、XZ、LZMA、PACK200、SNAPPY_RAW、SNAPPY_FRAMED、Z、DEFLATE、LZ4_BLOCK 和 LZ4_FRAMED,默认为 NONE,表示不是压缩文件

HDFSSource的节点包括:

上述 FileSource 的节点及含义 HDFSSource 基本都适用,下面仅列出 HDFSSource 不一样的和特有的节点。

映射文件节点名 说明 是否必填
type 输入源类型,必须填 hdfs 或 HDFS
path HDFS 文件或目录的路径,必须是 HDFS 的绝对路径
fs_default_fs HDFS 集群的 fs.defaultFS 值,默认使用 fs.defaultFS 的默认值

JDBCSource的节点包括

映射文件节点名 说明 是否必填
type 输入源类型,必须填 jdbc 或 JDBC
driver jdbc 使用的 driver 类型
url jdbc 要连接的数据库的 url
database 要连接的数据库名
table 要连接的表名
username 连接数据库的用户名
password 连接数据库的密码
reconnect_max_times jdbc 连接失败时的重连次数,默认为 0,即不重试
reconnect_interval jdbc 连接失败时的重连间隔,默认为 0
batch_size 按页获取表数据时的一页的大小,默认为 500

3.4 执行导入

准备好图模型、数据文件以及输入源映射关系文件后,接下来就可以将数据文件导入到图数据库中。

导入过程由用户提交的命令控制,用户可以通过不同的参数控制执行的具体流程。

3.4.1 参数说明
参数 默认值 是否必传 描述信息
-f | —file Y 配置脚本的路径
-g | —graph Y 图数据库空间
-s | —schema Y schema文件路径
-h | —host localhost HugeGraphServer 的地址
-p | —port 8080 HugeGraphServer 的端口号
—token null 当 HugeGraphServer 开启了权限认证时,当前图的 token
—num-threads cpus * 2 - 1 导入过程中线程池大小
—batch-size 500 导入数据时每个批次包含的数据条数
—max-parse-errors 1 最多允许多少行数据解析错误,达到该值则程序退出
—max-insert-errors 500 最多允许多少行数据插入错误,达到该值则程序退出
—timeout 100 插入结果返回的超时时间(秒)
—shutdown-timeout 10 多线程停止的等待时间(秒)
—retry-times 10 发生特定异常时的重试次数
—retry-interval 10 重试之前的间隔时间(秒)
—check-vertex false 插入边时是否检查边所连接的顶点是否存在
—help false 打印帮助信息
3.4.2 logs 目录文件说明

程序执行过程中各日志及错误数据会写入 logs 相关文件中。

  • hugegraph-loader.log 程序运行过程中的 log 和 error 信息 (追加写)
  • parse_error.data 解析错误的数据(每次启动覆盖写)
  • insert_error.data 插入错误的数据(每次启动覆盖写)
3.4.3 执行命令

运行 bin/hugeloader 并传入参数

  1. bin/hugegraph-loader -g {GRAPH_NAME} -f ${INPUT_DESC_FILE} -s ${SCHEMA_FILE} -h {HOST} -p {PORT}

4 完整示例

下面给出的是 hugegraph-loader 包中 example 目录下的例子。

4.1 准备数据

顶点文件:vertex_person.csv

  1. marko,29,Beijing
  2. vadas,27,Hongkong
  3. josh,32,Beijing
  4. peter,35,Shanghai
  5. "li,nary",26,"Wu,han"

顶点文件:vertex_software.text

  1. name|lang|price
  2. lop|java|328
  3. ripple|java|199

边文件:edge_knows.json

  1. {"source_name": "marko", "target_name": "vadas", "date": "20160110", "weight": 0.5}
  2. {"source_name": "marko", "target_name": "josh", "date": "20130220", "weight": 1.0}

边文件:edge_created.json

  1. {"aname": "marko", "bname": "lop", "date": "20171210", "weight": 0.4}
  2. {"aname": "josh", "bname": "lop", "date": "20091111", "weight": 0.4}
  3. {"aname": "josh", "bname": "ripple", "date": "20171210", "weight": 1.0}
  4. {"aname": "peter", "bname": "lop", "date": "20170324", "weight": 0.2}

4.2 编写schema

  1. schema.propertyKey("name").asText().ifNotExist().create();
  2. schema.propertyKey("age").asInt().ifNotExist().create();
  3. schema.propertyKey("city").asText().ifNotExist().create();
  4. schema.propertyKey("weight").asDouble().ifNotExist().create();
  5. schema.propertyKey("lang").asText().ifNotExist().create();
  6. schema.propertyKey("date").asText().ifNotExist().create();
  7. schema.propertyKey("price").asDouble().ifNotExist().create();
  8. schema.vertexLabel("person").properties("name", "age", "city").primaryKeys("name").ifNotExist().create();
  9. schema.vertexLabel("software").properties("name", "lang", "price").primaryKeys("name").ifNotExist().create();
  10. schema.indexLabel("personByName").onV("person").by("name").secondary().ifNotExist().create();
  11. schema.indexLabel("personByAge").onV("person").by("age").range().ifNotExist().create();
  12. schema.indexLabel("personByCity").onV("person").by("city").secondary().ifNotExist().create();
  13. schema.indexLabel("personByAgeAndCity").onV("person").by("age", "city").secondary().ifNotExist().create();
  14. schema.indexLabel("softwareByPrice").onV("software").by("price").range().ifNotExist().create();
  15. schema.edgeLabel("knows").sourceLabel("person").targetLabel("person").properties("date", "weight").ifNotExist().create();
  16. schema.edgeLabel("created").sourceLabel("person").targetLabel("software").properties("date", "weight").ifNotExist().create();
  17. schema.indexLabel("createdByDate").onE("created").by("date").secondary().ifNotExist().create();
  18. schema.indexLabel("createdByWeight").onE("created").by("weight").range().ifNotExist().create();
  19. schema.indexLabel("knowsByWeight").onE("knows").by("weight").range().ifNotExist().create();

4.3 编写输入源的映射文件

  1. {
  2. "vertices": [
  3. {
  4. "label": "person",
  5. "input": {
  6. "type": "file",
  7. "path": "example/vertex_person.csv",
  8. "format": "CSV",
  9. "header": ["name", "age", "city"],
  10. "charset": "UTF-8"
  11. },
  12. "mapping": {
  13. "name": "name",
  14. "age": "age",
  15. "city": "city"
  16. }
  17. },
  18. {
  19. "label": "software",
  20. "input": {
  21. "type": "file",
  22. "path": "example/vertex_software.text",
  23. "format": "TEXT",
  24. "delimiter": "|",
  25. "charset": "GBK"
  26. }
  27. }
  28. ],
  29. "edges": [
  30. {
  31. "label": "knows",
  32. "source": ["source_name"],
  33. "target": ["target_name"],
  34. "input": {
  35. "type": "file",
  36. "path": "example/edge_knows.json",
  37. "format": "JSON"
  38. },
  39. "mapping": {
  40. "source_name": "name",
  41. "target_name": "name"
  42. }
  43. },
  44. {
  45. "label": "created",
  46. "source": ["aname"],
  47. "target": ["bname"],
  48. "input": {
  49. "type": "file",
  50. "path": "example/edge_created.json",
  51. "format": "JSON"
  52. },
  53. "mapping": {
  54. "aname": "name",
  55. "bname": "name"
  56. }
  57. }
  58. ]
  59. }

4.4 执行命令

  1. bin/hugegraph-loader -g hugegraph -f example/struct.json -s example/schema.groovy