导入CSV文件数据
如果要向Nebula Graph导入本地CSV文件,请参见Nebula Importer。
本文以为例。
本文示例在MacOS下完成,以下是相关的环境配置信息:
硬件规格:
- CPU:1.7 GHz Quad-Core Intel Core i7
- 内存:16 GB
Spark:2.4.7 单机版
Hadoop:2.9.2 伪分布式部署
Nebula Graph:2.6.0。使用Docker Compose部署。
开始导入数据之前,用户需要确认以下信息:
已经并获取如下信息:
拥有Nebula Graph写权限的用户名和密码。
已经安装Spark。
了解Nebula Graph中创建Schema的信息,包括Tag和Edge type的名称、属性等。
如果文件存储在HDFS上,需要确认Hadoop服务运行正常。
如果文件存储在本地且Nebula Graph是集群架构,需要在集群每台机器本地相同目录下放置文件。
分析CSV文件中的数据,按以下步骤在Nebula Graph中创建Schema:
确认Schema要素。Nebula Graph中的Schema要素如下表所示。
使用Nebula Console创建一个图空间basketballplayer,并创建一个Schema,如下所示。
更多信息,请参见快速开始。
步骤 2:处理CSV文件
确认以下信息:
获取CSV文件存储路径。
编译Exchange后,复制文件设置CSV数据源相关的配置。在本示例中,复制的文件名为csv_application.conf
。各个配置项的详细说明请参见配置说明。
步骤 4:向Nebula Graph导入数据
运行如下命令将CSV文件数据导入到Nebula Graph中。关于参数的说明,请参见导入命令参数。
Note
JAR包有两种获取方式:或者从maven仓库下载。
示例:
用户可以在返回信息中搜索batchSuccess.<tag_name/edge_name>
,确认成功的数量。例如batchSuccess.follow: 300
。
用户可以在Nebula Graph客户端(例如Nebula Graph Studio)中执行查询语句,确认数据是否已导入。例如:
用户也可以使用命令SHOW STATS查看统计数据。
步骤 6:(如有)在Nebula Graph中重建索引
导入数据后,用户可以在Nebula Graph中重新创建并重建索引。详情请参见索引介绍。