导入Hive数据
本文以basketballplayer数据集为例。
在本示例中,该数据集已经存入Hive中名为的数据库中,以player
、team
、follow
和serve
四个表存储了所有点和边的信息。以下为各个表的结构。
本文示例在MacOS下完成,以下是相关的环境配置信息:
硬件规格:
- CPU:1.7 GHz Quad-Core Intel Core i7
- 内存:16 GB
Spark:2.4.7,单机版
Hadoop:2.9.2,伪分布式部署
Hive:2.3.7,Hive Metastore 数据库为 MySQL 8.0.22
Nebula Graph:2.6.0。使用。
开始导入数据之前,用户需要确认以下信息:
-
拥有Nebula Graph写权限的用户名和密码。
已经编译Exchange。详情请参见编译Exchange。本示例中使用Exchange 2.6.0。
已经安装Spark。
了解Nebula Graph中创建Schema的信息,包括Tag和Edge type的名称、属性等。
已经安装并开启Hadoop服务,并已启动Hive Metastore数据库(本示例中为 MySQL)。
分析数据,按以下步骤在Nebula Graph中创建Schema:
确认Schema要素。Nebula Graph中的Schema要素如下表所示。
在Nebula Graph中创建一个图空间basketballplayer,并创建一个Schema,如下所示。
## 创建图空间
nebula> CREATE SPACE basketballplayer \
replica_factor = 1, \
vid_type = FIXED_STRING(30));
## 选择图空间basketballplayer
nebula> USE basketballplayer;
## 创建Tag player
nebula> CREATE TAG player(name string, age int);
## 创建Tag team
nebula> CREATE TAG team(name string);
## 创建Edge type follow
nebula> CREATE EDGE follow(degree int);
## 创建Edge type serve
更多信息,请参见。
步骤 2:使用Spark SQL确认Hive SQL语句
以下为表basketball.player
中读出的结果。
+---------+----+-----------------+
| playerid| age| name|
+---------+----+-----------------+
|player100| 42| Tim Duncan|
|player101| 36| Tony Parker|
|player102| 33|LaMarcus Aldridge|
|player103| 32| Rudy Gay|
|player104| 32| Marco Belinelli|
+---------+----+-----------------+
...
编译Exchange后,复制target/classes/application.conf
文件设置Hive数据源相关的配置。在本示例中,复制的文件名为hive_application.conf
。各个配置项的详细说明请参见。
步骤 4:向Nebula Graph导入数据
运行如下命令将Hive数据导入到Nebula Graph中。关于参数的说明,请参见。
Note
JAR包有两种获取方式:自行编译或者从maven仓库下载。
示例:
用户可以在返回信息中搜索batchSuccess.<tag_name/edge_name>
,确认成功的数量。例如batchSuccess.follow: 300
。
用户可以在Nebula Graph客户端(例如Nebula Graph Studio)中执行查询语句,确认数据是否已导入。例如:
用户也可以使用命令查看统计数据。
步骤 6:(如有)在Nebula Graph中重建索引
导入数据后,用户可以在Nebula Graph中重新创建并重建索引。详情请参见。