导入CSV文件数据

    如果要向Nebula Graph导入本地CSV文件,请参见Nebula Importer

    本文以为例。

    本文示例在MacOS下完成,以下是相关的环境配置信息:

    • 硬件规格:

      • CPU:1.7 GHz Quad-Core Intel Core i7
      • 内存:16 GB
    • Spark:2.4.7 单机版

    • Hadoop:2.9.2 伪分布式部署

    • Nebula Graph:2.6.0。使用Docker Compose部署

    开始导入数据之前,用户需要确认以下信息:

    • 已经并获取如下信息:

      • 拥有Nebula Graph写权限的用户名和密码。

    • 已经安装Spark。

    • 了解Nebula Graph中创建Schema的信息,包括Tag和Edge type的名称、属性等。

    • 如果文件存储在HDFS上,需要确认Hadoop服务运行正常。

    • 如果文件存储在本地且Nebula Graph是集群架构,需要在集群每台机器本地相同目录下放置文件。

    分析CSV文件中的数据,按以下步骤在Nebula Graph中创建Schema:

    1. 确认Schema要素。Nebula Graph中的Schema要素如下表所示。

    2. 使用Nebula Console创建一个图空间basketballplayer,并创建一个Schema,如下所示。

    更多信息,请参见快速开始

    步骤 2:处理CSV文件

    确认以下信息:

    1. 获取CSV文件存储路径。

    编译Exchange后,复制文件设置CSV数据源相关的配置。在本示例中,复制的文件名为csv_application.conf。各个配置项的详细说明请参见配置说明

    步骤 4:向Nebula Graph导入数据

    运行如下命令将CSV文件数据导入到Nebula Graph中。关于参数的说明,请参见导入命令参数

    Note

    JAR包有两种获取方式:或者从maven仓库下载。

    示例:

    用户可以在返回信息中搜索batchSuccess.<tag_name/edge_name>,确认成功的数量。例如batchSuccess.follow: 300

    用户可以在Nebula Graph客户端(例如Nebula Graph Studio)中执行查询语句,确认数据是否已导入。例如:

    用户也可以使用命令SHOW STATS查看统计数据。

    步骤 6:(如有)在Nebula Graph中重建索引

    导入数据后,用户可以在Nebula Graph中重新创建并重建索引。详情请参见索引介绍