Ozone 文件系统

    Hadoop 的文件系统接口兼容可以让任意像 Ozone 这样的存储后端轻松地整合进 Hadoop 生态系统,Ozone 文件系统就是一个兼容 Hadoop 的文件系统。 目前ozone支持两种协议: o3fs和ofs。两者最大的区别是o3fs只支持在单个bucket上操作,而ofs则支持跨所有volume和bucket的操作。关于两者在操作上的具体区别请参考OFS(英文页面)中的”Differences from o3fs”。

    要创建一个 ozone 文件系统,我们需要先为它选择一个用来存放数据的桶,这个桶会被用作 Ozone 文件系统的后端存储,所有的文件和目录都存储为这个桶中的键。

    如果你还没有可用的卷和桶的话,请使用下面的命令创建:

    创建之后,请使用 list volumelist bucket 命令来确认桶已存在。

    请在 core-site.xml 中添加以下条目:

    1. <name>fs.AbstractFileSystem.o3fs.impl</name>
    2. <value>org.apache.hadoop.fs.ozone.OzFs</value>
    3. </property>
    4. <property>
    5. <name>fs.defaultFS</name>
    6. <value>o3fs://bucket.volume</value>

    这样会使指定的桶成为 HDFS 的 dfs 命令的默认文件系统,并且将其注册为了 o3fs 文件系统类型。

    你还需要将 ozone-filesystem.jar 文件加入 classpath:

    1. export HADOOP_CLASSPATH=/opt/ozone/share/ozonefs/lib/hadoop-ozone-filesystem-hadoop3-*.jar:$HADOOP_CLASSPATH

    当配置了默认的文件系统之后,用户可以运行 ls、put、mkdir 等命令,比如:

    1. hdfs dfs -ls /

    或者 put 命令。换句话说,所有像 Hive、Spark 和 Distcp 的程序都会在这个文件系统上工作。 请注意,在这个桶里使用 Ozone 文件系统以外的方法来进行键的创建和删除时,最终都会体现为 Ozone 文件系统中的目录和文件的创建和删除。

    注意:桶名和卷名不可以包含句点。 此外,文件系统的 URI 可以由桶名和卷名后跟着 OM 主机的 FQDN 和一个可选的端口组成,比如,你可以同时指定主机和端口:

    1. hdfs dfs -ls o3fs://bucket.volume.om-host.example.com:5678/key

    如果 URI 未指定端口,将会尝试从 配置中获取端口,如果 ozone.om.address 未配置,则使用默认端口 9862,比如,我们在 ozone-site.xml 中配置 ozone.om.address 如下:

    1. <property>
    2. <name>ozone.om.address</name>
    3. <value>0.0.0.0:6789</value>
    4. </property>

    当我们运行下面的命令:

    1. hdfs dfs -ls o3fs://bucket.volume.om-host.example.com/key

    它其实等价于:

    ofs的配置及使用

    这只是一个通用的介绍。了解更详细的用法,请参考OFS(英文页面)

    请在 core-site.xml 中添加以下条目:

    1. <value>org.apache.hadoop.fs.ozone.RootedOzoneFileSystem</value>
    2. </property>
    3. <property>
    4. <name>fs.defaultFS</name>
    5. <value>ofs://om-host.example.com/</value>
    6. </property>

    这样会使该om的所有桶和卷成为 HDFS 的 dfs 命令的默认文件系统,并且将其注册为了 ofs 文件系统类型。

    你还需要将 ozone-filesystem.jar 文件加入 classpath:

    1. export HADOOP_CLASSPATH=/opt/ozone/share/ozonefs/lib/hadoop-ozone-filesystem-hadoop3-*.jar:$HADOOP_CLASSPATH

    (注意:当使用Hadoop 2.x时,应该在classpath上添加hadoop-ozone-filesystem-hadoop2-*.jar)

    当配置了默认的文件系统之后,用户可以运行 ls、put、mkdir 等命令,比如:

    1. hdfs dfs -ls /

    需要注意的是ofs能够作用于所有的桶和卷之上,用户可以使用mkdir自行创建桶和卷,比如创建卷volume1和桶bucket1。

    1. hdfs dfs -put /etc/hosts /volume1/bucket1/test

    更多用法可以参考: