目前支持的数据源包括:

    • 本地磁盘文件或目录,支持 TEXT、CSV 和 JSON 格式的文件,支持压缩文件
    • HDFS 文件或目录,支持压缩文件
    • 主流关系型数据库,如 MySQL、PostgreSQL、Oracle、SQL Server

    本地磁盘文件和 HDFS 文件支持断点续传。

    后面会具体说明。

    有两种方式可以获取 HugeGraph-Loader:

    • 下载已编译的压缩包
    • 克隆源码编译安装

    2.1 下载已编译的压缩包

    下载最新版本的 HugeGraph-Loader release 包:

    2.2 克隆源码编译安装

    克隆最新版本的 HugeGraph-Loader 源码包:

    1. $ git clone https://github.com/hugegraph/hugegraph-loader.git

    由于Oracle ojdbc license的限制,需要手动安装ojdbc到本地maven仓库。 访问 页面。选择Oracle Database 12c Release 2 (12.2.0.1) drivers,如下图所示。

    打开链接后,选择“ojdbc8.jar”, 如下图所示。

    image

    把ojdbc8安装到本地maven仓库,进入ojdbc8.jar所在目录,执行以下命令。

    1. mvn install:install-file -Dfile=./ojdbc8.jar -DgroupId=com.oracle -DartifactId=ojdbc8 -Dversion=12.2.0.1 -Dpackaging=jar

    编译生成 tar 包:

    1. cd hugegraph-loader
    2. mvn clean package -DskipTests

    使用 HugeGraph-Loader 的基本流程分为以下几步:

    • 编写图模型
    • 准备数据文件
    • 编写输入源映射文件
    • 执行命令导入

    3.1 编写图模型

    这一步是建模的过程,用户需要对自己已有的数据和想要创建的图模型有一个清晰的构想,然后编写 schema 建立图模型。

    比如想创建一个拥有两类顶点及两类边的图,顶点是”人”和”软件”,边是”人认识人”和”人创造软件”,并且这些顶点和边都带有一些属性,比如顶点”人”有:”姓名”、”年龄”等属性, “软件”有:”名字”、”售卖价格”等属性;边”认识”有: “日期”属性等。

    示例图模型

    在设计好了图模型之后,我们可以用groovy编写出schema的定义,并保存至文件中,这里命名为schema.groovy

    1. // 创建一些属性
    2. schema.propertyKey("name").asText().ifNotExist().create();
    3. schema.propertyKey("age").asInt().ifNotExist().create();
    4. schema.propertyKey("city").asText().ifNotExist().create();
    5. schema.propertyKey("date").asText().ifNotExist().create();
    6. schema.propertyKey("price").asDouble().ifNotExist().create();
    7. // 创建 person 顶点类型,其拥有三个属性:name, age, city,主键是 name
    8. schema.vertexLabel("person").properties("name", "age", "city").primaryKeys("name").ifNotExist().create();
    9. // 创建 software 顶点类型,其拥有两个属性:name, price,主键是 name
    10. schema.vertexLabel("software").properties("name", "price").primaryKeys("name").ifNotExist().create();
    11. // 创建 knows 边类型,这类边是从 person 指向 person 的
    12. schema.edgeLabel("knows").sourceLabel("person").targetLabel("person").ifNotExist().create();
    13. // 创建 created 边类型,这类边是从 person 指向 software 的
    14. schema.edgeLabel("created").sourceLabel("person").targetLabel("software").ifNotExist().create();

    关于 schema 的详细说明请参考 中对应部分。

    3.2 准备数据

    目前 HugeGraph-Loader 支持的数据源包括:

    • 本地磁盘文件或目录
    • HDFS 文件或目录
    • 部分关系型数据库
    3.2.1 数据源结构
    3.2.1.1 本地磁盘文件或目录

    用户可以指定本地磁盘文件作为数据源,如果数据分散在多个文件中,也支持以某个目录作为数据源,但暂时不支持以多个目录作为数据源。

    比如:我的数据分散在多个文件中,part-0、part-1 … part-n,要想执行导入,必须保证它们是放在一个目录下的。然后在 loader 的映射文件中,将path指定为该目录即可。

    支持的文件格式包括:

    • TEXT
    • CSV
    • JSON

    TEXT 是自定义分隔符的文本文件,第一行通常是标题,记录了每一列的名称,也允许没有标题行(在映射文件中指定)。其余的每行代表一条记录,会被转化为一个顶点/边;行的每一列对应一个字段,会被转化为顶点/边的 id、label 或属性;

    示例如下:

    1. id|name|lang|price|ISBN
    2. 1|lop|java|328|ISBN978-7-107-18618-5
    3. 2|ripple|java|199|ISBN978-7-100-13678-5

    CSV 是分隔符为逗号,的 TEXT 文件,当列值本身包含逗号时,该列值需要用双引号包起来,如:

    1. marko,29,Beijing
    2. "li,nary",26,"Wu,han"

    JSON 文件要求每一行都是一个 JSON 串,且每行的格式需保持一致。

    1. {"source_name": "marko", "target_name": "vadas", "date": "20160110", "weight": 0.5}
    2. {"source_name": "marko", "target_name": "josh", "date": "20130220", "weight": 1.0}
    3.2.1.2 HDFS 文件或目录

    用户也可以指定 HDFS 文件或目录作为数据源,上面关于本地磁盘文件或目录的要求全部适用于这里。除此之外,鉴于 HDFS 上通常存储的都是压缩文件,loader 也提供了对压缩文件的支持,并且本地磁盘文件或目录同样支持压缩文件。

    3.2.1.3 主流关系型数据库

    loader 还支持以部分关系型数据库作为数据源,目前支持 MySQL、PostgreSQL、Oracle 和 SQL Server。

    但目前对表结构要求较为严格,如果导入过程中需要做关联查询,这样的表结构是不允许的。关联查询的意思是:在读到表的某行后,发现某列的值不能直接使用(比如外键),需要再去做一次查询才能确定该列的真实值。

    举个例子:假设有三张表,person、software 和 created

    1. // person 表结构
    2. id | name | age | city
    1. // created 表结构
    2. id | p_id | s_id | date

    如果在建模(schema)时指定 person 或 software 的 id 策略是 PRIMARY_KEY,选择以 name 作为 primary keys(注意:这是 hugegraph 中 vertexlabel 的概念),在导入边数据时,由于需要拼接出源顶点和目标顶点的 id,必须拿着 p_id/s_id 去 person/software 表中查到对应的 name,这种需要做额外查询的表结构的情况,loader 暂时是不支持的。这时可以采用以下两种方式替代:

    1. 仍然指定 person 和 software 的 id 策略为 PRIMARY_KEY,但是以 person 表和 software 表的 id 列作为顶点的主键属性,这样导入边时直接使用 p_id 和 s_id 和顶点的 label 拼接就能生成 id 了;
    2. 指定 person 和 software 的 id 策略为 CUSTOMIZE,然后直接以 person 表和 software 表的 id 列作为顶点 id,这样导入边时直接使用 p_id 和 s_id 即可;

    关键点就是要让边能直接使用 p_id 和 s_id,不要再去查一次。

    3.2.2 准备顶点和边数据
    3.2.2.1 顶点数据

    顶点数据文件由一行一行的数据组成,一般每一行作为一个顶点,每一列会作为顶点属性。下面以 CSV 格式作为示例进行说明。

    • person 顶点数据(数据本身不包含 header)
    1. Tom,48,Beijing
    2. Jerry,36,Shanghai
    • software 顶点数据(数据本身包含 header)
    1. name,price
    2. Photoshop,999
    3. Office,388
    3.2.2.2 边数据

    边数据文件由一行一行的数据组成,一般每一行作为一条边,其中有部分列会作为源顶点和目标顶点的 id,其他列作为边属性。下面以 JSON 格式作为示例进行说明。

    • knows 边数据
    1. {"source_name": "Tom", "target_name": "Jerry", "date": "2008-12-12"}
    • created 边数据
    1. {"source_name": "Tom", "target_name": "Photoshop"}
    2. {"source_name": "Tom", "target_name": "Office"}
    3. {"source_name": "Jerry", "target_name": "Office"}

    3.3 编写数据源映射文件

    3.3.1 映射文件概述

    输入源的映射文件用于描述如何将输入源数据与图的顶点类型/边类型建立映射关系,以JSON格式组织,由多个映射块组成,其中每一个映射块都负责将一个输入源映射为顶点和边。

    具体而言,每个映射块包含一个输入源和多个顶点映射边映射块,输入源块对应上面介绍的本地磁盘文件或目录HDFS 文件或目录关系型数据库,负责描述数据源的基本信息,比如数据在哪,是什么格式的,分隔符是什么等。顶点映射/边映射与该输入源绑定,可以选择输入源的哪些列,哪些列作为id、哪些列作为属性,以及每一列映射成什么属性,列的值映射成属性的什么值等等。

    以最通俗的话讲,每一个映射块描述了:要导入的文件在哪,文件的每一行要作为哪一类顶点/边,文件的哪些列是需要导入的,以及这些列对应顶点/边的什么属性等。

    2.0 版本的映射文件的框架为:

    1. {
    2. "version": "2.0",
    3. "structs": [
    4. {
    5. "id": "1",
    6. "input": {
    7. },
    8. "vertices": [
    9. {},
    10. {}
    11. ],
    12. "edges": [
    13. {},
    14. {}
    15. ]
    16. }
    17. ]
    18. }

    这里直接给出两个版本的映射文件(描述了上面图模型和数据文件)

    2.0 版本的映射文件:

    1. {
    2. "version": "2.0",
    3. "structs": [
    4. {
    5. "id": "1",
    6. "skip": false,
    7. "input": {
    8. "type": "FILE",
    9. "path": "vertex_person.csv",
    10. "file_filter": {
    11. "extensions": [
    12. "*"
    13. ]
    14. },
    15. "format": "CSV",
    16. "delimiter": ",",
    17. "date_format": "yyyy-MM-dd HH:mm:ss",
    18. "time_zone": "GMT+8",
    19. "skipped_line": {
    20. "regex": "(^#|^//).*|"
    21. },
    22. "compression": "NONE",
    23. "header": [
    24. "name",
    25. "age",
    26. "city"
    27. ],
    28. "charset": "UTF-8",
    29. "list_format": {
    30. "start_symbol": "[",
    31. "elem_delimiter": "|",
    32. "end_symbol": "]"
    33. }
    34. },
    35. "vertices": [
    36. {
    37. "label": "person",
    38. "skip": false,
    39. "id": null,
    40. "unfold": false,
    41. "field_mapping": {},
    42. "value_mapping": {},
    43. "selected": [],
    44. "ignored": [],
    45. "null_values": [
    46. ""
    47. ],
    48. "update_strategies": {}
    49. }
    50. ],
    51. "edges": []
    52. },
    53. {
    54. "id": "2",
    55. "skip": false,
    56. "input": {
    57. "type": "FILE",
    58. "path": "vertex_software.csv",
    59. "file_filter": {
    60. "extensions": [
    61. "*"
    62. ]
    63. },
    64. "format": "CSV",
    65. "delimiter": ",",
    66. "date_format": "yyyy-MM-dd HH:mm:ss",
    67. "time_zone": "GMT+8",
    68. "skipped_line": {
    69. "regex": "(^#|^//).*|"
    70. },
    71. "compression": "NONE",
    72. "header": null,
    73. "charset": "UTF-8",
    74. "list_format": {
    75. "start_symbol": "",
    76. "end_symbol": ""
    77. }
    78. },
    79. "vertices": [
    80. {
    81. "label": "software",
    82. "skip": false,
    83. "id": null,
    84. "unfold": false,
    85. "field_mapping": {},
    86. "value_mapping": {},
    87. "selected": [],
    88. "ignored": [],
    89. "null_values": [
    90. ""
    91. ],
    92. "update_strategies": {}
    93. }
    94. ],
    95. "edges": []
    96. },
    97. {
    98. "id": "3",
    99. "skip": false,
    100. "type": "FILE",
    101. "path": "edge_knows.json",
    102. "file_filter": {
    103. "extensions": [
    104. "*"
    105. ]
    106. },
    107. "format": "JSON",
    108. "delimiter": null,
    109. "date_format": "yyyy-MM-dd HH:mm:ss",
    110. "time_zone": "GMT+8",
    111. "skipped_line": {
    112. "regex": "(^#|^//).*|"
    113. },
    114. "compression": "NONE",
    115. "header": null,
    116. "charset": "UTF-8",
    117. "list_format": null
    118. },
    119. "vertices": [],
    120. "edges": [
    121. {
    122. "label": "knows",
    123. "skip": false,
    124. "source": [
    125. "source_name"
    126. ],
    127. "unfold_source": false,
    128. "target": [
    129. "target_name"
    130. ],
    131. "unfold_target": false,
    132. "field_mapping": {
    133. "source_name": "name",
    134. "target_name": "name"
    135. },
    136. "value_mapping": {},
    137. "selected": [],
    138. "ignored": [],
    139. "null_values": [
    140. ""
    141. ],
    142. "update_strategies": {}
    143. }
    144. ]
    145. },
    146. {
    147. "id": "4",
    148. "skip": false,
    149. "input": {
    150. "type": "FILE",
    151. "path": "edge_created.json",
    152. "file_filter": {
    153. "extensions": [
    154. "*"
    155. ]
    156. },
    157. "format": "JSON",
    158. "delimiter": null,
    159. "date_format": "yyyy-MM-dd HH:mm:ss",
    160. "time_zone": "GMT+8",
    161. "skipped_line": {
    162. "regex": "(^#|^//).*|"
    163. },
    164. "compression": "NONE",
    165. "header": null,
    166. "charset": "UTF-8",
    167. "list_format": null
    168. },
    169. "vertices": [],
    170. "edges": [
    171. {
    172. "label": "created",
    173. "skip": false,
    174. "source": [
    175. "source_name"
    176. ],
    177. "unfold_source": false,
    178. "target": [
    179. "target_name"
    180. ],
    181. "unfold_target": false,
    182. "field_mapping": {
    183. "source_name": "name",
    184. "target_name": "name"
    185. },
    186. "value_mapping": {},
    187. "selected": [],
    188. "ignored": [],
    189. "null_values": [
    190. ""
    191. ],
    192. "update_strategies": {}
    193. }
    194. ]
    195. }
    196. ]
    197. }

    1.0 版本的映射文件:

    1. {
    2. "vertices": [
    3. {
    4. "label": "person",
    5. "input": {
    6. "type": "file",
    7. "path": "vertex_person.csv",
    8. "format": "CSV",
    9. "header": ["name", "age", "city"],
    10. "charset": "UTF-8"
    11. }
    12. },
    13. {
    14. "label": "software",
    15. "input": {
    16. "type": "file",
    17. "path": "vertex_software.csv",
    18. "format": "CSV"
    19. }
    20. }
    21. ],
    22. "edges": [
    23. {
    24. "label": "knows",
    25. "source": ["source_name"],
    26. "target": ["target_name"],
    27. "input": {
    28. "type": "file",
    29. "path": "edge_knows.json",
    30. "format": "JSON"
    31. },
    32. "field_mapping": {
    33. "source_name": "name",
    34. "target_name": "name"
    35. }
    36. },
    37. {
    38. "label": "created",
    39. "source": ["source_name"],
    40. "target": ["target_name"],
    41. "input": {
    42. "type": "file",
    43. "path": "edge_created.json",
    44. "format": "JSON"
    45. },
    46. "field_mapping": {
    47. "source_name": "name",
    48. "target_name": "name"
    49. }
    50. }
    51. ]
    52. }

    映射文件 1.0 版本是以顶点和边为中心,设置输入源;而 2.0 版本是以输入源为中心,设置顶点和边映射。有些输入源(比如一个文件)既能生成顶点,也能生成边,如果用 1.0 版的格式写,就需要在 vertex 和 egde 映射块中各写一次 input 块,这两次的 input 块是完全一样的;而 2.0 版本只需要写一次 input。所以 2.0 版相比于 1.0 版,能省掉一些 input 的重复书写。

    在 hugegraph-loader-{version} 的 bin 目录下,有一个脚本工具 mapping-convert.sh 能直接将 1.0 版本的映射文件转换为 2.0 版本的,使用方式如下:

    会在 struct.json 的同级目录下生成一个 struct-v2.json。

    3.3.2 输入源

    输入源目前分为三类:FILE、HDFS、JDBC,由type节点区分,我们称为本地文件输入源、HDFS 输入源和 JDBC 输入源,下面分别介绍。

    3.3.2.1 本地文件输入源
    • id: 输入源的 id,该字段用于支持一些内部功能,非必填(未填时会自动生成),强烈建议写上,对于调试大有裨益;
    • skip: 是否跳过该输入源,由于 JSON 文件无法添加注释,如果某次导入时不想导入某个输入源,但又不想删除该输入源的配置,则可以设置为 true 将其跳过,默认为 false,非必填;
    • input: 输入源映射块,复合结构
      • type: 输入源类型,必须填 file 或 FILE;
      • path: 本地文件或目录的路径,绝对路径或相对于映射文件的相对路径,建议使用绝对路径,必填;
      • file_filter: 从path中筛选复合条件的文件,复合结构,目前只支持配置扩展名,用子节点extensions表示,默认为”*”,表示保留所有文件;
      • format: 本地文件的格式,可选值为 CSV、TEXT 及 JSON,必须大写,必填;
      • header: 文件各列的列名,如不指定则会以数据文件第一行作为 header;当文件本身有标题且又指定了 header,文件的第一行会被当作普通的数据行;JSON 文件不需要指定 header,选填;
      • delimiter: 文件行的列分隔符,默认以逗号","作为分隔符,JSON文件不需要指定,选填;
      • charset: 文件的编码字符集,默认UTF-8,选填;
      • time_zone: 设置日期数据是处于哪个时区的,默认值为GMT+8,选填;
      • skipped_line: 想跳过的行,复合结构,目前只能配置要跳过的行的正则表达式,用子节点regex描述,默认不跳过任何行,选填;
      • compression: 文件的压缩格式,可选值为 NONE、GZIP、BZ2、XZ、LZMA、SNAPPY_RAW、SNAPPY_FRAMED、Z、DEFLATE、LZ4_BLOCK、LZ4_FRAMED、ORC 和 PARQUET,默认为 NONE,表示非压缩文件,选填;
      • list_format: 当文件(非 JSON )的某列是集合结构时(对应图中的 PropertyKey 的 Cardinality 为 Set 或 List),可以用此项设置该列的起始符、分隔符、结束符,复合结构:
        • start_symbol: 集合结构列的起始符 (默认值是 [, JSON 格式目前不支持指定)
        • elem_delimiter: 集合结构列的分隔符 (默认值是 |, JSON 格式目前只支持原生,分隔)
        • end_symbol: 集合结构列的结束符 (默认值是 ], JSON 格式目前不支持指定)
    3.3.2.2 HDFS 输入源

    上述本地文件输入源的节点及含义这里基本都适用,下面仅列出 HDFS 输入源不一样的和特有的节点。

    • type: 输入源类型,必须填 hdfs 或 HDFS,必填;
    • path: HDFS 文件或目录的路径,必须是 HDFS 的绝对路径,必填;
    • core_site_path: HDFS 集群的 core-site.xml 文件路径,重点要指明 namenode 的地址(fs.default.name),以及文件系统的实现(fs.hdfs.impl);
    3.3.2.3 JDBC 输入源

    前面说到过支持多种关系型数据库,但由于它们的映射结构非常相似,故统称为 JDBC 输入源,然后用vendor节点区分不同的数据库。

    • type: 输入源类型,必须填 jdbc 或 JDBC,必填;
    • vendor: 数据库类型,可选项为 [MySQL、PostgreSQL、Oracle、SQLServer],不区分大小写,必填;
    • driver: jdbc 使用的 driver 类型,必填;
    • url: jdbc 要连接的数据库的 url,必填;
    • database: 要连接的数据库名,必填;
    • schema: 要连接的 schema 名,不同的数据库要求不一样,下面详细说明;
    • table: 要连接的表名,必填;
    • username: 连接数据库的用户名,必填;
    • password: 连接数据库的密码,必填;
    • batch_size: 按页获取表数据时的一页的大小,默认为 500,选填;

    MYSQL

    schema: 可空,若填写必须与database的值一样

    POSTGRESQL

    schema: 可空,默认值为“public”

    ORACLE

    SQLSERVER

    schema: 必填

    3.3.1 顶点和边映射

    顶点和边映射的节点(JSON 文件中的一个 key)有很多相同的部分,下面先介绍相同部分,再分别介绍顶点映射边映射的特有节点。

    相同部分的节点

    • label: 待导入的顶点/边数据所属的label,必填;
    • field_mapping: 将输入源列的列名映射为顶点/边的属性名,选填;
    • value_mapping: 将输入源的数据值映射为顶点/边的属性值,选填;
    • selected: 选择某些列插入,其他未选中的不插入,不能与ignored同时存在,选填;
    • ignored: 忽略某些列,使其不参与插入,不能与同时存在,选填;
    • null_values: 可以指定一些字符串代表空值,比如”NULL”,如果该列对应的顶点/边属性又是一个可空属性,那在构造顶点/边时不会设置该属性的值,选填;
    • update_strategies: 如果数据需要按特定方式批量更新时可以对每个属性指定具体的更新策略 (具体见下),选填;
    • unfold: 是否将列展开,展开的每一列都会与其他列一起组成一行,相当于是展开成了多行;比如文件的某一列(id 列)的值是[1,2,3],其他列的值是18,Beijing,当设置了 unfold 之后,这一行就会变成 3 行,分别是:1,18,Beijing2,18,Beijing3,18,Beijing。需要注意的是此项只会展开被选作为 id 的列。默认 false,选填;

    更新策略支持8种 : (需要全大写)

    1. 数值累加 : SUM
    2. 两个数字/日期取更大的: BIGGER
    3. 两个数字/日期取更小: SMALLER
    4. Set属性取并集: UNION
    5. Set属性取交集: INTERSECTION
    6. List属性追加元素: APPEND
    7. List/Set属性删除元素: ELIMINATE
    8. 覆盖已有属性: OVERRIDE

    注意: 如果新导入的属性值为空, 会采用已有的旧数据而不会采用空值, 效果可以参考如下示例

    1. // JSON文件中以如下方式指定更新策略
    2. {
    3. "vertices": [
    4. {
    5. "label": "person",
    6. "update_strategies": {
    7. "age": "SMALLER",
    8. "set": "UNION"
    9. },
    10. "input": {
    11. "type": "file",
    12. "path": "vertex_person.txt",
    13. "format": "TEXT",
    14. "header": ["name", "age", "set"]
    15. }
    16. }
    17. ]
    18. }
    19. // 1.写入一行带OVERRIDE更新策略的数据 (这里null代表空)
    20. 'a b null null'
    21. // 2.再写一行
    22. 'null null c d'
    23. // 3.最后可以得到
    24. 'a b c d'
    25. // 如果没有更新策略, 则会得到
    26. 'null null c d'

    注意 : 采用了批量更新的策略后, 磁盘读请求数会大幅上升, 导入速度相比纯写覆盖会慢数倍 (此时HDD磁盘会成为瓶颈, 建议采用SSD以保证速度)

    顶点映射的特有节点

    • id: 指定某一列作为顶点的 id 列,当顶点 id 策略为CUSTOMIZE时,必填;当 id 策略为PRIMARY_KEY时,必须为空;

    边映射的特有节点

    • source: 选择输入源某几列作为源顶点的 id 列,当源顶点的 id 策略为 CUSTOMIZE时,必须指定某一列作为顶点的 id 列;当源顶点的 id 策略为 PRIMARY_KEY时,必须指定一列或多列用于拼接生成顶点的 id,也就是说,不管是哪种 id 策略,此项必填;
    • target: 指定某几列作为目标顶点的 id 列,与 source 类似,不再赘述;
    • unfold_source: 是否展开文件的 source 列,效果与顶点映射中的类似,不再赘述;
    • unfold_target: 是否展开文件的 target 列,效果与顶点映射中的类似,不再赘述;

    3.4 执行命令导入

    准备好图模型、数据文件以及输入源映射关系文件后,接下来就可以将数据文件导入到图数据库中。

    导入过程由用户提交的命令控制,用户可以通过不同的参数控制执行的具体流程。

    3.4.1 参数说明
    3.4.2 断点续导模式

    通常情况下,Loader 任务都需要较长时间执行,如果因为某些原因导致导入中断进程退出,而下次希望能从中断的点继续导,这就是使用断点续导的场景。

    用户设置命令行参数 —incremental-mode 为 true 即打开了断点续导模式。断点续导的关键在于进度文件,导入进程退出的时候,会把退出时刻的导入进度 记录到进度文件中,进度文件位于 ${struct} 目录下,文件名形如 load-progress ${date} ,${struct} 为映射文件的前缀,${date} 为导入开始 的时刻。比如:在 2019-10-10 12:30:30 开始的一次导入任务,使用的映射文件为 struct-example.json,则进度文件的路径为与 struct-example.json 同级的 struct-example/load-progress 2019-10-10 12:30:30

    如果数据文件格式都是合法的,是用户自己停止(CTRL + C 或 kill,kill -9 不支持)的导入任务,也就是说没有错误记录的情况下,下一次导入只需要设置 为断点续导即可。

    但如果是因为太多数据不合法或者网络异常,达到了 —max-parse-errors 或 —max-insert-errors 的限制,Loader 会把这些插入失败的原始行记录到 失败文件中,用户对失败文件中的数据行修改后,设置 —reload-failure 为 true 即可把这些”失败文件”也当作输入源进行导入(不影响正常的文件的导入), 当然如果修改后的数据行仍然有问题,则会被再次记录到失败文件中(不用担心会有重复行)。

    每个顶点映射或边映射有数据插入失败时都会产生自己的失败文件,失败文件又分为解析失败文件(后缀 .parse-error)和插入失败文件(后缀 .insert-error), 它们被保存在 ${struct}/current 目录下。比如映射文件中有一个顶点映射 person 和边映射 knows,它们各有一些错误行,当 Loader 退出后,在 ${struct}/current 目录下会看到如下文件:

    • person-b4cd32ab.parse-error: 顶点映射 person 解析错误的数据
    • person-b4cd32ab.insert-error: 顶点映射 person 插入错误的数据
    • knows-eb6b2bac.parse-error: 边映射 knows 解析错误的数据
    • knows-eb6b2bac.insert-error: 边映射 knows 插入错误的数据

    .parse-error 和 .insert-error 并不总是一起存在的,只有存在解析出错的行才会有 .parse-error 文件,只有存在插入出错的行才会有 .insert-error 文件。

    3.4.3 logs 目录文件说明

    程序执行过程中各日志及错误数据会写入 hugegraph-loader.log 文件中。

    3.4.4 执行命令

    运行 bin/hugeloader 并传入参数

    1. bin/hugegraph-loader -g {GRAPH_NAME} -f ${INPUT_DESC_FILE} -s ${SCHEMA_FILE} -h {HOST} -p {PORT}

    下面给出的是 hugegraph-loader 包中 example 目录下的例子。

    4.1 准备数据

    顶点文件:example/file/vertex_person.csv

    1. marko,29,Beijing
    2. vadas,27,Hongkong
    3. josh,32,Beijing
    4. peter,35,Shanghai
    5. "li,nary",26,"Wu,han"

    顶点文件:example/file/vertex_software.txt

    1. name|lang|price
    2. lop|java|328
    3. ripple|java|199

    边文件:example/file/edge_knows.json

    1. {"source_name": "marko", "target_name": "vadas", "date": "20160110", "weight": 0.5}
    2. {"source_name": "marko", "target_name": "josh", "date": "20130220", "weight": 1.0}

    边文件:example/file/edge_created.json

    1. {"aname": "marko", "bname": "lop", "date": "20171210", "weight": 0.4}
    2. {"aname": "josh", "bname": "lop", "date": "20091111", "weight": 0.4}
    3. {"aname": "josh", "bname": "ripple", "date": "20171210", "weight": 1.0}
    4. {"aname": "peter", "bname": "lop", "date": "20170324", "weight": 0.2}

    4.2 编写schema

    schema文件:example/file/schema.groovy

    1. schema.propertyKey("name").asText().ifNotExist().create();
    2. schema.propertyKey("age").asInt().ifNotExist().create();
    3. schema.propertyKey("city").asText().ifNotExist().create();
    4. schema.propertyKey("weight").asDouble().ifNotExist().create();
    5. schema.propertyKey("lang").asText().ifNotExist().create();
    6. schema.propertyKey("date").asText().ifNotExist().create();
    7. schema.propertyKey("price").asDouble().ifNotExist().create();
    8. schema.vertexLabel("person").properties("name", "age", "city").primaryKeys("name").ifNotExist().create();
    9. schema.vertexLabel("software").properties("name", "lang", "price").primaryKeys("name").ifNotExist().create();
    10. schema.indexLabel("personByName").onV("person").by("name").secondary().ifNotExist().create();
    11. schema.indexLabel("personByAge").onV("person").by("age").range().ifNotExist().create();
    12. schema.indexLabel("personByCity").onV("person").by("city").secondary().ifNotExist().create();
    13. schema.indexLabel("personByAgeAndCity").onV("person").by("age", "city").secondary().ifNotExist().create();
    14. schema.indexLabel("softwareByPrice").onV("software").by("price").range().ifNotExist().create();
    15. schema.edgeLabel("knows").sourceLabel("person").targetLabel("person").properties("date", "weight").ifNotExist().create();
    16. schema.edgeLabel("created").sourceLabel("person").targetLabel("software").properties("date", "weight").ifNotExist().create();
    17. schema.indexLabel("createdByDate").onE("created").by("date").secondary().ifNotExist().create();
    18. schema.indexLabel("createdByWeight").onE("created").by("weight").range().ifNotExist().create();
    19. schema.indexLabel("knowsByWeight").onE("knows").by("weight").range().ifNotExist().create();

    4.3 编写输入源映射文件example/file/struct.json

    1. {
    2. "vertices": [
    3. {
    4. "label": "person",
    5. "input": {
    6. "type": "file",
    7. "path": "example/vertex_person.csv",
    8. "format": "CSV",
    9. "header": ["name", "age", "city"],
    10. "charset": "UTF-8"
    11. },
    12. "mapping": {
    13. "name": "name",
    14. "age": "age",
    15. "city": "city"
    16. }
    17. },
    18. {
    19. "label": "software",
    20. "input": {
    21. "type": "file",
    22. "path": "example/vertex_software.text",
    23. "format": "TEXT",
    24. "delimiter": "|",
    25. "charset": "GBK"
    26. }
    27. }
    28. ],
    29. "edges": [
    30. {
    31. "label": "knows",
    32. "source": ["source_name"],
    33. "target": ["target_name"],
    34. "input": {
    35. "type": "file",
    36. "path": "example/edge_knows.json",
    37. "format": "JSON"
    38. },
    39. "mapping": {
    40. "source_name": "name",
    41. "target_name": "name"
    42. }
    43. },
    44. {
    45. "label": "created",
    46. "source": ["aname"],
    47. "target": ["bname"],
    48. "input": {
    49. "type": "file",
    50. "path": "example/edge_created.json",
    51. "format": "JSON"
    52. },
    53. "mapping": {
    54. "aname": "name",
    55. "bname": "name"
    56. }
    57. }
    58. ]
    59. }

    4.4 执行命令导入

    1. vertices/edges has been loaded this time : 8/6
    2. --------------------------------------------------
    3. count metrics
    4. input read success : 14
    5. input read failure : 0
    6. vertex parse success : 8
    7. vertex parse failure : 0
    8. vertex insert success : 8
    9. vertex insert failure : 0
    10. edge parse success : 6
    11. edge parse failure : 0
    12. edge insert success : 6
    13. edge insert failure : 0