使用 TiUP 部署 TiDB 集群

    目前 TiUP 可以支持部署 TiDB、TiFlash、TiDB Binlog、TiCDC 以及监控系统。本文将介绍不同集群拓扑的具体部署步骤。

    环境与系统配置检查

    第 2 步:在中控机上部署 TiUP 组件

    在中控机上部署 TiUP 组件有两种方式:在线部署和离线部署。

    以普通用户身份登录中控机。以 用户为例,后续安装 TiUP 及集群管理操作均通过该用户完成:

    1. 执行如下命令安装 TiUP 工具:

    2. 按如下步骤设置 TiUP 环境变量:

      1. 重新声明全局环境变量:

        1. source .bash_profile
      2. 确认 TiUP 工具是否安装:

        1. which tiup
    3. 安装 TiUP cluster 组件:

      1. tiup cluster
    4. 如果已经安装,则更新 TiUP cluster 组件至最新版本:

      1. tiup update --self && tiup update cluster

      预期输出 “Update successfully!” 字样。

    5. 验证当前 TiUP cluster 版本信息。执行如下命令查看 TiUP cluster 组件版本:

      1. tiup --binary cluster

    离线部署

    离线部署 TiUP 组件的操作步骤如下。

    准备 TiUP 离线组件包

    方式一:在选择对应版本的 TiDB server 离线镜像包(包含 TiUP 离线组件包)。需要同时下载 TiDB-community-server 软件包和 TiDB-community-toolkit 软件包。

    方式二:使用 tiup mirror clone 命令手动打包离线组件包。步骤如下:

    1. 在在线环境中安装 TiUP 包管理器工具

      1. 执行如下命令安装 TiUP 工具:

        1. curl --proto '=https' --tlsv1.2 -sSf https://tiup-mirrors.pingcap.com/install.sh | sh
      2. 重新声明全局环境变量:

        1. source .bash_profile
      3. 确认 TiUP 工具是否安装:

        1. which tiup
    2. 使用 TiUP 制作离线镜像

      1. 通过 tar 命令将该组件包打包然后发送到隔离环境的中控机:

        此时,tidb-community-server-${version}-linux-amd64.tar.gz 就是一个独立的离线环境包。

    3. 自定义制作的离线镜像,或调整已有离线镜像中的内容

      如果从官网下载的离线镜像不满足你的具体需求,或者希望对已有的离线镜像内容进行调整,例如增加某个组件的新版本等,可以采取以下步骤进行操作:

        1. tiup mirror clone tiup-custom-mirror-v1.11.3 --tiup v1.11.3 --cluster v1.11.3

        如果只需要某一特定平台的组件,也可以通过 --os--arch 参数来指定。

      1. 参考上文“使用 TiUP 制作离线镜像”第 2 步的方式,将此不完整的离线镜像传输到隔离环境的中控机。

      2. 在隔离环境的中控机上,查看当前使用的离线镜像路径。较新版本的 TiUP 可以直接通过命令获取当前的镜像地址:

        1. tiup mirror show

        以上命令如果提示 show 命令不存在,可能当前使用的是较老版本的 TiUP。此时可以通过查看 $HOME/.tiup/tiup.toml 获得正在使用的镜像地址。将此镜像地址记录下来,后续步骤中将以变量 ${base_mirror} 指代此镜像地址。

      3. 将不完整的离线镜像合并到已有的离线镜像中:

        首先将当前离线镜像中的 keys 目录复制到 $HOME/.tiup 目录中:

        1. cp -r ${base_mirror}/keys $HOME/.tiup/

        然后使用 TiUP 命令将不完整的离线镜像合并到当前使用的镜像中:

        1. tiup mirror merge tiup-custom-mirror-v1.11.3
      4. 上述步骤完成后,通过 命令检查执行结果。在本文例子中,使用 tiup list tiuptiup list cluster 均应能看到对应组件的 v1.11.3 版本出现在结果中。

    部署离线环境 TiUP 组件

    将离线包发送到目标集群的中控机后,执行以下命令安装 TiUP 组件:

    1. tar xzvf tidb-community-server-${version}-linux-amd64.tar.gz && \
    2. sh tidb-community-server-${version}-linux-amd64/local_install.sh && \
    3. source /home/tidb/.bash_profile

    local_install.sh 脚本会自动执行 tiup mirror set tidb-community-server-${version}-linux-amd64 命令将当前镜像地址设置为 tidb-community-server-${version}-linux-amd64

    合并离线包

    如果是通过官方下载页面下载的离线软件包,需要将 TiDB-community-server 软件包和 TiDB-community-toolkit 软件包合并到离线镜像中。如果是通过 tiup mirror clone 命令手动打包的离线组件包,不需要执行此步骤。

    执行以下命令合并离线组件到 server 目录下。

    1. tar xf tidb-community-toolkit-${version}-linux-amd64.tar.gz
    2. ls -ld tidb-community-server-${version}-linux-amd64 tidb-community-toolkit-${version}-linux-amd64
    3. cd tidb-community-server-${version}-linux-amd64/
    4. cp -rp keys ~/.tiup/
    5. tiup mirror merge ../tidb-community-toolkit-${version}-linux-amd64

    若需将镜像切换到其他目录,可以通过手动执行 tiup mirror set <mirror-dir> 进行切换。如果需要切换到在线环境,可执行 tiup mirror set https://tiup-mirrors.pingcap.com

    第 3 步:初始化集群拓扑文件

    执行如下命令,生成集群初始化配置文件:

    1. tiup cluster template > topology.yaml

    针对两种常用的部署场景,也可以通过以下命令生成建议的拓扑模板:

    • 混合部署场景:单台机器部署多个实例,详情参见混合部署拓扑架构

      1. tiup cluster template --full > topology.yaml
    • 跨机房部署场景:跨机房部署 TiDB 集群,详情参见。

      1. tiup cluster template --multi-dc > topology.yaml

    执行 vi topology.yaml,查看配置文件的内容:

    下表列出了常用的 7 种场景,请根据链接中的拓扑说明以及配置文件模板配置topology.yaml。如果有其他组合场景的需求,请根据多个模板自行调整。

    注意

    • 对于需要全局生效的参数,请在配置文件中 server_configs 的对应组件下配置。

    • 对于需要某个节点生效的参数,请在具体节点的 config 中配置。

    • 配置的层次结构使用 . 表示。如:。更多格式参考 TiUP 配置参数模版

    • 如果需要指定在目标机创建的用户组名,可以参考。

    更多参数说明,请参考:

    使用 TiUP 部署 - 图2

    通过 TiUP 进行集群部署可以使用密钥或者交互密码方式来进行安全认证:

    • 如果是密钥方式,可以通过 -i 或者 —identity_file 来指定密钥的路径。

    • 如果已经配置免密登录目标机,则不需填写认证。

    一般情况下 TiUP 会在目标机器上创建 topology.yaml 中约定的用户和组,以下情况例外:

    • topology.yaml 中设置的用户名在目标机器上已存在。

    • 在命令行上使用了参数 —skip-create-user 明确指定跳过创建用户的步骤。

    执行部署命令前,先使用 checkcheck --apply 命令检查和自动修复集群存在的潜在风险:

    1. 检查集群存在的潜在风险:

      1. tiup cluster check ./topology.yaml --user root [-p] [-i /home/root/.ssh/gcp_rsa]
    2. 自动修复集群存在的潜在风险:

      1. tiup cluster check ./topology.yaml --apply --user root [-p] [-i /home/root/.ssh/gcp_rsa]
    3. 部署 TiDB 集群:

      1. tiup cluster deploy tidb-test v6.5.2 ./topology.yaml --user root [-p] [-i /home/root/.ssh/gcp_rsa]

    以上部署示例中:

    • tidb-test 为部署的集群名称。
    • v6.5.2 为部署的集群版本,可以通过执行 tiup list tidb 来查看 TiUP 支持的最新可用版本。
    • 初始化配置文件为 topology.yaml
    • --user root 表示通过 root 用户登录到目标主机完成集群部署,该用户需要有 ssh 到目标机器的权限,并且在目标机器有 sudo 权限。也可以用其他有 ssh 和 sudo 权限的用户完成部署。
    • [-i] 及 [-p] 为可选项,如果已经配置免密登录目标机,则不需填写。否则选择其一即可,[-i] 为可登录到目标机的 root 用户(或 —user 指定的其他用户)的私钥,也可使用 [-p] 交互式输入该用户的密码。

    预期日志结尾输出 Deployed cluster `tidb-test` successfully 关键词,表示部署成功。

    第 5 步:查看 TiUP 管理的集群情况

    1. tiup cluster list

    TiUP 支持管理多个 TiDB 集群,该命令会输出当前通过 TiUP cluster 管理的所有集群信息,包括集群名称、部署用户、版本、密钥信息等。

    第 6 步:检查部署的 TiDB 集群情况

    例如,执行如下命令检查 tidb-test 集群情况:

    1. tiup cluster display tidb-test

    预期输出包括 tidb-test 集群中实例 ID、角色、主机、监听端口和状态(由于还未启动,所以状态为 Down/inactive)、目录信息。

    安全启动是 TiUP cluster 从 v1.9.0 起引入的一种新的启动方式,采用该方式启动数据库可以提高数据库安全性。推荐使用安全启动。

    安全启动后,TiUP 会自动生成 TiDB root 用户的密码,并在命令行界面返回密码。

    注意

    • 使用安全启动方式后,不能通过无密码的 root 用户登录数据库,你需要记录命令行返回的密码进行后续操作。

    • 该自动生成的密码只会返回一次,如果没有记录或者忘记该密码,请参照忘记 root 密码修改密码。

    方式一:安全启动

    1. tiup cluster start tidb-test --init

    预期结果如下,表示启动成功。

    1. Started cluster `tidb-test` successfully.
    2. The root password of TiDB database has been changed.
    3. The new password is: 'y_+3Hwp=*AWz8971s6'.
    4. Copy and record it to somewhere safe, it is only displayed once, and will not be stored.
    5. The generated password can NOT be got again in future.

    方式二:普通启动

    1. tiup cluster start tidb-test

    预期结果输出 Started cluster `tidb-test` successfully,表示启动成功。使用普通启动方式后,可通过无密码的 root 用户登录数据库。

    第 8 步:验证集群运行状态

    预期结果输出:各节点 Status 状态信息为 Up 说明集群状态正常。

    探索更多

    如果你已同时部署了 ,接下来可参阅以下文档: