使用源 IP

    术语表

    本文使用了下列术语:

    网络地址转换

    Source NAT

    替换数据包上的源 IP;在本页面中,这通常意味着替换为节点的 IP 地址

    替换数据包上的目标 IP;在本页面中,这通常意味着替换为 Pod 的 IP 地址

    一个虚拟 IP 地址,例如分配给 Kubernetes 中每个 Service 的 IP 地址

    一个网络守护程序,在每个节点上协调 Service VIP 管理

    先决条件

    你必须拥有一个 Kubernetes 的集群,同时你的 Kubernetes 集群必须带有 kubectl 命令行工具。 建议在至少有两个节点的集群上运行本教程,且这些节点不作为控制平面主机。 如果你还没有集群,你可以通过 构建一个你自己的集群,或者你可以使用下面任意一个 Kubernetes 工具构建:

    示例使用一个小型 nginx Web 服务器,服务器通过 HTTP 标头返回它接收到的请求的源 IP。 你可以按如下方式创建它:

    输出为:

    1. deployment.apps/source-ip-app created
    • 通过多种类型的 Service 暴露一个简单应用
    • 了解每种 Service 类型如何处理源 IP NAT
    • 了解保留源 IP 所涉及的权衡

    Type=ClusterIP 类型 Service 的源 IP

    如果你在 (默认)下运行 kube-proxy,则从集群内发送到 ClusterIP 的数据包永远不会进行源 NAT。 你可以通过在运行 kube-proxy 的节点上获取 http://localhost:10249/proxyMode 来查询 kube-proxy 模式。

    1. kubectl get nodes

    输出类似于:

    1. NAME STATUS ROLES AGE VERSION
    2. kubernetes-node-6jst Ready <none> 2h v1.13.0
    3. kubernetes-node-cx31 Ready <none> 2h v1.13.0
    4. kubernetes-node-jj1t Ready <none> 2h v1.13.0

    在其中一个节点上获取代理模式(kube-proxy 监听 10249 端口):

    1. # 在要查询的节点上的 shell 中运行
    2. curl http://localhost:10249/proxyMode

    输出为:

    1. iptables

    你可以通过在源 IP 应用程序上创建 Service 来测试源 IP 保留:

    1. kubectl expose deployment source-ip-app --name=clusterip --port=80 --target-port=8080

    输出为:

    1. service/clusterip exposed
    1. kubectl get svc clusterip

    输出类似于:

    1. NAME TYPE CLUSTER-IP EXTERNAL-IP PORT(S) AGE
    2. clusterip ClusterIP 10.0.170.92 <none> 80/TCP 51s

    并从同一集群中的 Pod 中访问 ClusterIP

    1. kubectl run busybox -it --image=busybox:1.28 --restart=Never --rm
    1. Waiting for pod default/busybox to be running, status is Pending, pod ready: false
    2. If you don't see a command prompt, try pressing enter.

    然后,你可以在该 Pod 中运行命令:

    1. ip addr
    1. 1: lo: <LOOPBACK,UP,LOWER_UP> mtu 65536 qdisc noqueue
    2. link/loopback 00:00:00:00:00:00 brd 00:00:00:00:00:00
    3. inet 127.0.0.1/8 scope host lo
    4. valid_lft forever preferred_lft forever
    5. inet6 ::1/128 scope host
    6. valid_lft forever preferred_lft forever
    7. 3: eth0: <BROADCAST,MULTICAST,UP,LOWER_UP> mtu 1460 qdisc noqueue
    8. link/ether 0a:58:0a:f4:03:08 brd ff:ff:ff:ff:ff:ff
    9. inet 10.244.3.8/24 scope global eth0
    10. inet6 fe80::188a:84ff:feb0:26a5/64 scope link
    11. valid_lft forever preferred_lft forever

    然后使用 wget 查询本地 Web 服务器:

    1. CLIENT VALUES:
    2. client_address=10.244.3.8
    3. command=GET
    4. ...

    client_address 始终是客户端 Pod 的 IP 地址,不管客户端 Pod 和服务器 Pod 位于同一节点还是不同节点。

    Type=NodePort 类型 Service 的源 IP

    默认情况下,发送到 的 Service 的数据包会经过源 NAT 处理。你可以通过创建一个 NodePort 的 Service 来测试这点:

    1. kubectl expose deployment source-ip-app --name=nodeport --port=80 --target-port=8080 --type=NodePort

    输出为:

    1. service/nodeport exposed
    1. NODEPORT=$(kubectl get -o jsonpath="{.spec.ports[0].nodePort}" services nodeport)
    2. NODES=$(kubectl get nodes -o jsonpath='{ $.items[*].status.addresses[?(@.type=="InternalIP")].address }')

    如果你在云供应商上运行,你可能需要为上面报告的 nodes:nodeport 打开防火墙规则。 现在你可以尝试通过上面分配的节点端口从集群外部访问 Service。

    1. for node in $NODES; do curl -s $node:$NODEPORT | grep -i client_address; done

    输出类似于:

    1. client_address=10.180.1.1
    2. client_address=10.240.0.5
    3. client_address=10.240.0.3

    请注意,这些并不是正确的客户端 IP,它们是集群的内部 IP。这是所发生的事情:

    • 客户端发送数据包到 node2:nodePort
    • node2 使用它自己的 IP 地址替换数据包的源 IP 地址(SNAT)
    • node2 将数据包上的目标 IP 替换为 Pod IP
    • 数据包被路由到 node1,然后到端点
    • Pod 的回复被路由回 node2
    • Pod 的回复被发送回给客户端

    用图表示:

    如图。使用 SNAT 的源 IP(Type=NodePort)

    为避免这种情况,Kubernetes 有一个特性可以。 如果将 service.spec.externalTrafficPolicy 设置为 Local, kube-proxy 只会将代理请求代理到本地端点,而不会将流量转发到其他节点。 这种方法保留了原始源 IP 地址。如果没有本地端点,则发送到该节点的数据包将被丢弃, 因此你可以在任何数据包处理规则中依赖正确的源 IP,你可能会应用一个数据包使其通过该端点。

    设置 service.spec.externalTrafficPolicy 字段如下:

    1. kubectl patch svc nodeport -p '{"spec":{"externalTrafficPolicy":"Local"}}'

    输出为:

      现在,重新运行测试:

      1. for node in $NODES; do curl --connect-timeout 1 -s $node:$NODEPORT | grep -i client_address; done

      输出类似于:

      1. client_address=198.51.100.79

      请注意,你只从运行端点 Pod 的节点得到了回复,这个回复有正确的客户端 IP。

      这是发生的事情:

      • 客户端将数据包发送到没有任何端点的 node2:nodePort
      • 数据包被丢弃
      • 客户端发送数据包到 node1:nodePort,它确实有端点
      • node1 使用正确的源 IP 地址将数据包路由到端点

      用图表示:

      图 2:源 IP NodePort

      如图。源 IP(Type=NodePort)保存客户端源 IP 地址

      默认情况下,发送到 Type=LoadBalancer 的 Service 的数据包经过源 NAT处理,因为所有处于 Ready 状态的可调度 Kubernetes 节点对于负载均衡的流量都是符合条件的。 因此,如果数据包到达一个没有端点的节点,系统会将其代理到一个带有端点的节点,用该节点的 IP 替换数据包上的源 IP(如上一节所述)。

      输出为:

      1. service/loadbalancer exposed

      打印 Service 的 IP 地址:

      1. kubectl get svc loadbalancer

      输出类似于:

      接下来,发送请求到 Service 的 的外部IP(External-IP):

      1. curl 203.0.113.140

      输出类似于:

      1. CLIENT VALUES:
      2. client_address=10.240.0.5
      3. ...

      然而,如果你在 Google Kubernetes Engine/GCE 上运行, 将相同的 service.spec.externalTrafficPolicy 字段设置为 Local, 故意导致健康检查失败,从而强制没有端点的节点把自己从负载均衡流量的可选节点列表中删除。

      用图表示:

      你可以通过设置注解进行测试:

      1. kubectl patch svc loadbalancer -p '{"spec":{"externalTrafficPolicy":"Local"}}'

      你应该能够立即看到 Kubernetes 分配的 service.spec.healthCheckNodePort 字段:

      1. kubectl get svc loadbalancer -o yaml | grep -i healthCheckNodePort

      输出类似于:

      1. healthCheckNodePort: 32122

      service.spec.healthCheckNodePort 字段指向每个在 /healthz 路径上提供健康检查的节点的端口。你可以这样测试:

      1. kubectl get pod -o wide -l run=source-ip-app

      输出类似于:

      1. NAME READY STATUS RESTARTS AGE IP NODE
      2. source-ip-app-826191075-qehz4 1/1 Running 0 20h 10.180.1.136 kubernetes-node-6jst

      使用 curl 获取各个节点上的 /healthz 端点:

      1. # 在你选择的节点上本地运行
      2. curl localhost:32122/healthz
      1. 1 Service Endpoints found

      在不同的节点上,你可能会得到不同的结果:

      1. # 在你选择的节点上本地运行
      2. curl localhost:32122/healthz
      1. No Service Endpoints Found

      在上运行的控制器负责分配云负载均衡器。 同一个控制器还在每个节点上分配指向此端口/路径的 HTTP 健康检查。 等待大约 10 秒,让 2 个没有端点的节点健康检查失败,然后使用 curl 查询负载均衡器的 IPv4 地址:

      1. curl 203.0.113.140

      输出类似于:

      1. CLIENT VALUES:
      2. client_address=198.51.100.79
      3. ...

      跨平台支持

      只有部分云提供商为 Type=LoadBalancer 的 Service 提供保存源 IP 的支持。 你正在运行的云提供商可能会以几种不同的方式满足对负载均衡器的请求:

      1. 使用终止客户端连接并打开到你的节点/端点的新连接的代理。 在这种情况下,源 IP 将始终是云 LB 的源 IP,而不是客户端的源 IP。

      2. 使用数据包转发器,这样客户端发送到负载均衡器 VIP 的请求最终会到达具有客户端源 IP 的节点,而不是中间代理。

      第一类负载均衡器必须使用负载均衡器和后端之间商定的协议来传达真实的客户端 IP, 例如 HTTP 或 X-FORWARDED-FOR 表头,或。 第二类负载均衡器可以通过创建指向存储在 Service 上的 service.spec.healthCheckNodePort 字段中的端口的 HTTP 健康检查来利用上述功能。

      清理现场

      删除 Service:

      1. $ kubectl delete deployment source-ip-app
      • 阅读如何