多集群下的故障排除

    多网络安装最常见同时也是最广泛的问题是无法实现跨集群负载平衡。通常表现为仅看到来自服务的群集本地实例(cluster-local instance)的响应:

    按照确认多集群安装指南操作完毕后,我们期待同时看到 和 v2 响应,这表示流量同时到达了两个集群。

    造成响应仅来自集群本地实例的原因有很多:

    总是引导客户端访问最近的服务。如果集群分布于不同地理位置(地区/区域),本地负载均衡将优先选用本地实例提供服务,这与预期相符。而如果禁用了本地负载均衡或者是集群处于同一地理位置,那就可能还存在其他问题。

    受信配置

    与集群内通信一样,跨集群通信依赖于代理之间公共的且可信任的根证书颁发机构(root)。默认情况下 Istio 使用自身单独生成的根证书颁发机构。对于多集群的情况,我们必须手动配置公共的且可信任的根证书颁发机构。阅读下面的 Plug-in Certs 章节或者参考了解更多细节。

    您可以通过比较每个群集中的根证书的方式来确认受信配置是否正确:

    1. $ diff \
    2. <(kubectl --context="${CTX_CLUSTER1}" -n istio-system get secret cacerts -ojsonpath='{.data.root-cert\.pem}') \
    3. <(kubectl --context="${CTX_CLUSTER2}" -n istio-system get secret cacerts -ojsonpath='{.data.root-cert\.pem}')

    您需要根据根证书插件确保在每个集群上都完成了操作。

    逐步分析

    下面这些步骤假定您已经完成了HelloWorld 认证指南,并且确保 helloworldsleep 服务已经在每个集群中被正确的部署。

    针对每个集群,找到 sleep 服务对应的 helloworldendpoints

    1. $ istioctl --context $CTX_CLUSTER1 proxy-config endpoint sleep-dd98b5f48-djwdw.sample | grep helloworld

    故障诊断信息因流量来源的集群不同而不同:

    1. 10.0.0.11:5000 HEALTHY OK outbound|5000||helloworld.sample.svc.cluster.local

    仅显示一个 endpoints,表示控制平面无法从远程群集读取 endpoints。 验证远程 secrets 是否配置正确。

    • secrets 缺失,创建。
    • secrets 存在:
      • 查看配置,确保使用集群名作为远程 的数据键(data key)。
      • 如果 secrets 看起来没问题,检查 istiod 的日志,以确定是连接还是权限问题导致无法连接远程 Kubernetes API。日志可能包括 Failed to add remote cluster from secret 信息和对应的错误原因。
    1. $ istioctl --context $CTX_CLUSTER2 proxy-config endpoint sleep-dd98b5f48-djwdw.sample | grep helloworld
    2. 10.0.1.11:5000 HEALTHY OK outbound|5000||helloworld.sample.svc.cluster.local

    仅显示一个 endpoints,表示控制平面无法从远程群集读取 endpoints。 验证远程 secrets 是否配置正确。

    1. $ kubectl get secrets --context=$CTX_CLUSTER1 -n istio-system -l "istio/multiCluster=true"
    • secrets 缺失,创建。
    • secrets 存在且 endpoints 是位于 primary 群集中的 Pod:
      • 查看配置,确保使用集群名作为远程 kubeconfig 的数据键(data key)。
    • secrets 存在且 是位于 remote 群集中的 Pod:
      • 代理正在从远程集群 istiod 读取配置。当一个远程集群有一个集群内的 istiod 时,它只作用域 sidecar 注入和 CA。您可以通过在 istio-system 命名空间中查找名为 istiod-remote 的服务来确认此问题。如果缺失,请使用 values.global.remotePilotAddress 重新设置。

    主群集和远程群集的步骤仍然适用于多网络,尽管多网络有其他情况:

    1. $ istioctl --context $CTX_CLUSTER1 proxy-config endpoint sleep-dd98b5f48-djwdw.sample | grep helloworld
    2. 10.0.5.11:5000 HEALTHY OK outbound|5000||helloworld.sample.svc.cluster.local
    3. 10.0.6.13:5000 HEALTHY OK outbound|5000||helloworld.sample.svc.cluster.local

    多网络中模型中,我们期望其中一个端点 IP 与远程群集的东西向网关(east-west gateway)公网 IP 匹配。看到多个 Pod IP 说明存在以下两种情况:

    • 无法确定远程网络的网关地址。
    • 无法确定客户端 Pod 或服务器 Pod 的网络。

    如果 EXTERNAL-IP 卡在 <PENDING> 状态, 则说明环境可能不支持 LoadBalancer 服务。在这种情况下,可能需要自定义服务的 spec.exteralIPs 部分,手动为网关提供集群外可达的 IP。

    如果外部 IP 存在,请检查 topology.istio.io/network 标签的值是否正确。如果不正确,请重新安装网关,并确保在生成脚本上设置 –network 标志。

    无法确定客户端 Pod 或服务器 Pod 的网络:

    在源 Pod 上查看代理元数据。

    1. $ kubectl get pod $SLEEP_POD_NAME \
    2. -o jsonpath="{.spec.containers[*].env[?(@.name=='ISTIO_META_NETWORK')].value}"
    1. $ kubectl get pod $HELLOWORLD_POD_NAME \
    2. -o jsonpath="{.metadata.labels.topology\.istio\.io/network}"

    如果没有设置这两个值中的任何一个,或者值不正确,istiod 可能会将源代理和客户端代理视为在同一网络上,并发送网络本地端点。 如果没有设置,请检查安装过程中是否正确设置了 values.global.network 或者是否正确配置了 WebHook 注入。

    Istio 通过 Pod 注入的 topology.istio.io/network 标签来确定网络。对于没有标签的 Pod,Istio 将根据系统命名空间的 标签来确定网络。

    针对每个集群检查网络情况:

      如果上面的命令没有输出预期的网络名称,设置标签: