根据官方文档详细说明 Kubernetes 网络流量走向,包含详细的图文说明和介绍

阿里云国内75折 回扣 微信号:monov8
阿里云国际,腾讯云国际,低至75折。AWS 93折 免费开户实名账号 代冲值 优惠多多 微信号:monov8 飞机:@monov6

根据官方文档详细说明 Kubernetes 网络流量走向包含详细的图文说明和介绍。

在这里插入图片描述

阅读本文你可以了解在 Kubernetes 内外数据包是如何转发的从原始的 Web 请求开始到托管应用程序的容器。

Kubernetes 网络要求
在深入了解在 Kubernetes 集群中数据包如何流转的细节之前先明确一下 Kubernetes 对网络的要求。

Kubernetes 网络模型定义了一组基本规则

在不使用网络地址转换 (NAT) 的情况下集群中的 Pod 能够与任意其他 Pod 进行通信。
在不使用网络地址转换 (NAT) 的情况下在集群节点上运行的程序能与同一节点上的任何 Pod 进行通信。
每个 Pod 都有自己的 IP 地址IP-per-Pod并且任意其他 Pod 都可以通过相同的这个地址访问它。
这些要求不会将具体实现限制在某种解决方案上。

相反它们笼统地描述了集群网络的特性。

为了满足这些限制你必须解决以下挑战:

如何确保同一个 Pod 中的容器行为就像它们在同一个主机上一样
集群中的 Pod 能否访问其他 Pod
Pod 可以访问服务吗服务是负载均衡的吗
Pod 可以接收集群外部的流量吗
在本文中将重点关注前三点从 Pod 内的网络容器到容器的通信说起。

Linux 网络命名空间如何在 Pod 中工作
让我们来看一个运行应用的主容器和伴随一起的另一个容器。

在示例中有一个带有 nginx 和 busybox 容器的 Pod:

apiVersion: v1
kind: Pod
metadata:
  name: multi-container-Pod
spec:
  containers:
    - name: container-1
      image: busybox
      command: ['/bin/sh', '-c', 'sleep 1d']
    - name: container-2
      image: nginx

部署时会发生以下事情

Pod 在节点上拥有独立的网络命名空间。
分配一个 IP 地址给 Pod 两个容器之间共享端口。
两个容器共享相同的网络命名空间并在本地彼此可见。
网络配置在后台迅速完成。

但是让我们退后一步尝试理解为什么运行容器需要上述动作。

在 Linux 中网络命名空间是独立的、隔离的逻辑空间。

你可以将网络命名空间视为将物理网络接口分割小块之后的独立部分。

每个部分都可以单独配置并拥有自己的网络规则和资源。

这些包括防火墙规则、接口虚拟的或物理的、路由以及与网络相关的所有内容。

物理网络接口持有根网络命名空间。
在这里插入图片描述
2. 你可以使用 Linux 网络命名空间来创建独立的网络。每个网络都是独立的除非你进行配置默认不会与其他网络互通。

在这里插入图片描述
但最终还是需要物理接口处理所有真实的数据包所有虚拟接口都是基于物理接口创建的。

网络命名空间可以通过 ip-netns 进行管理使用 ip netns list 可以列出主机上的命名空间。

需要注意的是创建的网络命名空间会出现在 /var/run/netns 下面但 Docker 并没有遵循这一规则。

例如这是 Kubernetes 节点的一些命名空间

$ ip netns list

cni-0f226515-e28b-df13-9f16-dd79456825ac (id: 3)
cni-4e4dfaac-89a6-2034-6098-dd8b2ee51dcd (id: 4)
cni-7e94f0cc-9ee8-6a46-178a-55c73ce58f2e (id: 2)
cni-7619c818-5b66-5d45-91c1-1c516f559291 (id: 1)
cni-3004ec2c-9ac2-2928-b556-82c7fb37a4d8 (id: 0)

注意 cni- 前缀这意味着命名空间是由 CNI 插件创建的。

当你创建一个 PodPod 被分配给一个节点后CNI 将

分配 IP 地址。
将容器连接到网络。
如果 Pod 包含多个容器那么这些容器都将被放在同一个命名空间中。

当创建 Pod 时容器运行时会给容器创建一个网络命名空间。

在这里插入图片描述
2. 然后 CNI 负责给 Pod 分配一个 IP 地址。

在这里插入图片描述
3. 最后 CNI 将容器连接到网络的其余部分。
在这里插入图片描述
那么当你列出节点上的容器的命名空间会发生什么呢

你可以通过 SSH 连接到 Kubernetes 节点并查看命名空间

$ lsns -t net

        NS TYPE NPROCS   PID USER     NETNSID NSFS                           COMMAND
4026531992 net     171     1 root  unassigned /run/docker/netns/default      /sbin/init noembed norestore
4026532286 net       2  4808 65535          0 /run/docker/netns/56c020051c3b /pause
4026532414 net       5  5489 65535          1 /run/docker/netns/7db647b9b187 /pause

lsns 是一个用于列出主机上所有可用命名空间的命令。

请记住Linux 中有多种命名空间类型。

Nginx 容器在哪里

那些 pause 容器是什么

在 Pod 中pause 容器创建了网络命名空间
先列出节点上的所有命名空间看看能否找到 Nginx 容器

$ lsns
        NS TYPE   NPROCS   PID USER            COMMAND
# truncated output
4026532414 net         5  5489 65535           /pause
4026532513 mnt         1  5599 root            sleep 1d
4026532514 uts         1  5599 root            sleep 1d
4026532515 pid         1  5599 root            sleep 1d
4026532516 mnt         3  5777 root            nginx: master process nginx -g daemon off;
4026532517 uts         3  5777 root            nginx: master process nginx -g daemon off;
4026532518 pid         3  5777 root            nginx: master process nginx -g daemon off;

Nginx 容器在挂载 (mnt)、Unix time-sharing (uts) 和 PID (pid) 命名空间中但不在网络命名空间 (net) 中。

不幸的是lsns 只显示每个进程最小的 PID但你可以根据这个进程 ID 进一步过滤。

10T 技术限时资源大放送包括但不限于Linux、虚拟化、容器、云计算、网络、Python、Go 等。在开源Linux公众号内回复「10T」即可免费获取

使用以下命令在所有命名空间中检索 Nginx 容器

$ sudo lsns -p 5777

       NS TYPE   NPROCS   PID USER  COMMAND
4026531835 cgroup    178     1 root  /sbin/init noembed norestore
4026531837 user      178     1 root  /sbin/init noembed norestore
4026532411 ipc         5  5489 65535 /pause
4026532414 net         5  5489 65535 /pause
4026532516 mnt         3  5777 root  nginx: master process nginx -g daemon off;
4026532517 uts         3  5777 root  nginx: master process nginx -g daemon off;
4026532518 pid         3  5777 root  nginx: master process nginx -g daemon off;

pause 进程再次出现它劫持了网络命名空间。

这是怎么回事

集群中的每个 Pod 都有一个额外的隐藏容器在后台运行称为 pause 容器。

列出在节点上运行的容器并获取 pause 容器

$ docker ps | grep pause

fa9666c1d9c6   k8s.gcr.io/pause:3.4.1  "/pause"  k8s_POD_kube-dns-599484b884-sv2js…
44218e010aeb   k8s.gcr.io/pause:3.4.1  "/pause"  k8s_POD_blackbox-exporter-55c457d…
5fb4b5942c66   k8s.gcr.io/pause:3.4.1  "/pause"  k8s_POD_kube-dns-599484b884-cq99x…
8007db79dcf2   k8s.gcr.io/pause:3.4.1  "/pause"  k8s_POD_konnectivity-agent-84f87c…

可以看到节点上的每一个 Pod 都会有一个对应的 pause 容器。

这个 pause 容器负责创建和维持网络命名空间。

底层容器运行时会完成网络命名空间的创建通常是由 containerd 或 CRI-O 完成。

在部署 Pod 和创建容器之前由运行时创建网络命名空间。

容器运行时会自动完成这些不需要手工执行 ip netns 创建命名空间。

话题回到 pause 容器。

它包含非常少的代码并且在部署后立即进入睡眠状态。

但是它是必不可少的并且在 Kubernetes 生态系统中起着至关重要的作用。

创建 Pod 时容器运行时会创建一个带有睡眠容器的网络命名空间。
在这里插入图片描述
2. Pod 中的其他容器都会加入由 pause 容器创建的网络名称空间。

在这里插入图片描述

  1. 此时CNI 分配 IP 地址并将容器连接到网络。
    在这里插入图片描述
    一个进入睡眠状态的容器有什么用

为了理解它的用途让我们想象一个 Pod 有两个容器就像前面的例子一样但没有 pause 容器。

一旦容器启动CNI 将会

使 busybox 容器加入之前的网络命名空间。
分配 IP 地址。
将容器连接到网络。
如果 Nginx 崩溃了怎么办

CNI 将不得不再次执行所有步骤并且两个容器的网络都将中断。

由于睡眠容器不太可能有任何错误因此创建网络命名空间通常是一种更安全、更健壮的选择。

如果 Pod 中的一个容器崩溃了剩下的仍然可以回复其他网络请求。
分配一个 IP 地址给 Pod
前面我提到 Pod 和两个容器将具有同一个 IP 地址。

那是怎样配置的呢

在 Pod 网络命名空间内创建了一个接口并分配了一个 IP 地址。
让我们验证一下。

首先找到 Pod 的 IP 地址

$ kubectl get Pod multi-container-Pod -o jsonpath={.status.PodIP}

10.244.4.40

接下来找到相关的网络命名空间。

由于网络命名空间是从物理接口创建的需要先访问集群节点。

如果你运行的是 minikube使用 minikube ssh 访问节点。如果在云厂中运行那么应该有某种方法可以通过 SSH 访问节点。

进入后找到最新创建的命名网络命名空间

$ ls -lt /var/run/netns

total 0
-r--r--r-- 1 root root 0 Sep 25 13:34 cni-0f226515-e28b-df13-9f16-dd79456825ac
-r--r--r-- 1 root root 0 Sep 24 09:39 cni-4e4dfaac-89a6-2034-6098-dd8b2ee51dcd
-r--r--r-- 1 root root 0 Sep 24 09:39 cni-7e94f0cc-9ee8-6a46-178a-55c73ce58f2e
-r--r--r-- 1 root root 0 Sep 24 09:39 cni-7619c818-5b66-5d45-91c1-1c516f559291
-r--r--r-- 1 root root 0 Sep 24 09:39 cni-3004ec2c-9ac2-2928-b556-82c7fb37a4d8

在示例中就是 cni-0f226515-e28b-df13-9f16-dd79456825ac。然后可以在该命名空间内运行 exec 命令

$ ip netns exec cni-0f226515-e28b-df13-9f16-dd79456825ac ip a

# output truncated
3: eth0@if12: <BROADCAST,MULTICAST,UP,LOWER_UP> mtu 1450 qdisc noqueue state UP group default
    link/ether 16:a4:f8:4f:56:77 brd ff:ff:ff:ff:ff:ff link-netnsid 0
    inet 10.244.4.40/32 brd 10.244.4.40 scope global eth0
       valid_lft forever preferred_lft forever
    inet6 fe80::14a4:f8ff:fe4f:5677/64 scope link
       valid_lft forever preferred_lft forever

这个 IP 就是 Pod 的 IP 地址通过查找 @if12 中的 12 找到网络接口

$ ip link | grep -A1 ^12

12: vethweplb3f36a0@if16: mtu 1376 qdisc noqueue master weave state UP mode DEFAULT group default
    link/ether 72:1c:73:d9:d9:f6 brd ff:ff:ff:ff:ff:ff link-netnsid 1

还可以验证 Nginx 容器是否监听了来自该命名空间内的 HTTP 流量

$ ip netns exec cni-0f226515-e28b-df13-9f16-dd79456825ac netstat -lnp

Active Internet connections (only servers)
Proto Recv-Q Send-Q Local Address           Foreign Address         State       PID/Program name
tcp        0      0 0.0.0.0:80              0.0.0.0:*               LISTEN      692698/nginx: master
tcp6       0      0 :::80                   :::*                    LISTEN      692698/nginx: master

如果你无法通过 SSH 访问集群中的工作节点你可以使用 kubectl exec 获取到 busybox 容器的 shell 并直接在内部使用 ip 和 netstat 命令。

刚刚我们介绍了容器之间的通信再来看看如何建立 Pod 到 Pod 的通信吧。

查看集群中 Pod 到 Pod 的流量
Pod 到 Pod 的通信有两种可能的情况

Pod 流量的目的地是同一节点上的 Pod。
Pod 流量的目的地是在不同节点上的 Pod。
整个工作流依赖于虚拟接口对和网桥下面先来了解一下这部分的内容。

为了让一个 Pod 与其他 Pod 通信它必须先访问节点的根命名空间。
通过虚拟以太网对来实现 Pod 和根命名空间的连接。

这些虚拟接口设备veth 中的 v连接并充当两个命名空间之间的隧道。

使用此 veth 设备你将一端连接到 Pod 的命名空间另一端连接到根命名空间。
在这里插入图片描述
CNI 可以帮你执行这些操作但你也可以手动执行

$ ip link add veth1 netns Pod-namespace type veth peer veth2 netns root

现在 Pod 的命名空间有一个可以访问根命名空间的 隧道。

节点上新建的每一个 Pod 都会设置这样的 veth 对。

一个是创建接口对另一个是为以太网设备分配地址并配置默认路由。

下面看看如何在 Pod 的命名空间中设置 veth1 接口

$ ip netns exec cni-0f226515-e28b-df13-9f16-dd79456825ac ip addr add 10.244.4.40/24 dev veth1
$ ip netns exec cni-0f226515-e28b-df13-9f16-dd79456825ac ip link set veth1 up
$ ip netns exec cni-0f226515-e28b-df13-9f16-dd79456825ac ip route add default via 10.244.4.40

在节点上让我们创建另一个 veth2 对

$ ip addr add 169.254.132.141/16 dev veth2
$ ip link set veth2 up

可以像前面一样检查现有的 veth 对。

在 Pod 的命名空间中检索 eth0 接口的后缀。

$ ip netns exec cni-0f226515-e28b-df13-9f16-dd79456825ac ip link show type veth

3: eth0@if12: <BROADCAST,MULTICAST,UP,LOWER_UP> mtu 1450 qdisc noqueue state UP mode DEFAULT group default
    link/ether 16:a4:f8:4f:56:77 brd ff:ff:ff:ff:ff:ff link-netnsid 0

在这种情况下可以使用命令 grep -A1 ^12 查找或滚动到目标所在处

$ ip link show type veth

# output truncated
12: cali97e50e215bd@if3: <BROADCAST,MULTICAST,UP,LOWER_UP> mtu 1450 qdisc noqueue state UP mode DEFAULT group default
    link/ether ee:ee:ee:ee:ee:ee brd ff:ff:ff:ff:ff:ff link-netns cni-0f226515-e28b-df13-9f16-dd79456825ac

也可以使用 ip -n cni-0f226515-e28b-df13-9f16-dd79456825ac link show type veth.命令

注意 3: eth0@if12和12: cali97e50e215bd@if3 接口上的符号。

从 Pod 命名空间该 eth0 接口连接到根命名空间的 12 号接口因此是 @if12.

在 veth 对的另一端根命名空间连接到 Pod 命名空间的 3 号接口。

接下来是连接 veth 对两端的桥接器。

Pod 网络命名空间连接到以太网桥
网桥会汇聚位于根命名空间中的每一个虚拟接口。这个网桥允许虚拟 pair 之间的流量也允许穿过公共根命名空间的流量。

补充一下相关原理。

以太网桥位于 OSI 网络模型 的第 2 层。

你可以将网桥视为接受来自不同命名空间和接口的连接的虚拟交换机。

以太网桥可以连接节点上的多个可用网络。

因此可以使用网桥连接两个接口即 Pod 命名空间的 veth 连接到同一节点上另一个 Pod 的 veth。

在这里插入图片描述

接下来继续看网桥和 veth 对的用途。

跟踪在同一节点上 Pod 到 Pod 的流量
假设同一个节点上有两个 PodPod-A 向 Pod-B 发送消息。

由于访问目标不在同一个命名空间Pod-A 将数据包发送到其默认接口 eth0。这个接口与 veth 对的一端绑定作为隧道。这样数据包会被转发到节点上的根命名空间。
在这里插入图片描述
2. 以太网网桥作为一个虚拟交换机需要目标 Pod-B 的 MAC 地址才能工作。
在这里插入图片描述
3. ARP 协议会解决这个问题。当帧到达网桥时会向所有连接的设备发送 ARP 广播。网桥广播询问持有 Pod-B 的 IP 地址
在这里插入图片描述
4. 此时会收到一个带有 Pod-B IP 的 MAC 地址应答这条消息会被存储在桥接 ARP 缓存(查找表)中。

在这里插入图片描述
5. IP 地址和 MAC 地址的映射关系存储之后网桥就在表中查找并将数据包转发到正确的端点。数据包到达根命名空间内 Pod-B 的 veth 之后很快又到达 Pod-B 命名空间内的 eth0 接口。
在这里插入图片描述

至此Pod-A 和 Pod-B 之间的通信就成功了。

跟踪不同节点上的 Pod 到 Pod 通信
对于跨节点 Pod 之间的通信会经过额外的通信跳跃。

前几个步骤保持不变直到数据包到达根命名空间并需要发送到 Pod-B。

在这里插入图片描述
2. 当目的 IP 不在本地网络中时报文被转发到节点的默认网关。节点的出口网关或默认网关通常位于节点与网络相连的物理接口 eth0 上。
在这里插入图片描述

此时 不会发生 ARP 解析因为源 IP 和目标 IP 不在同一个网段中。

网段的检查是使用按位运算完成的。

当目的 IP 不在当前网络段时数据包被转发到节点的默认网关。

按位运算的工作原理
在确定数据包的转发位置时源节点必须执行位运算

这也称为与操作。

复习一下按位与运算的规则

0 AND 0 = 0
0 AND 1 = 0
1 AND 0 = 0
1 AND 1 = 1

除了 1 与 1 以外的都是 false。

如果源节点的 IP 为 192.168.1.1子网掩码为 /24目标 IP 为 172.16.1.1/16则按位与运算将得知它们位于不同的网段上。

这意味着目标 IP 与数据包的源不在同一个网络上数据包将通过默认网关转发。

数学时间。

我们必须从二进制的 32 位地址开始进行 AND 操作。

先找出源 IP 网络和目标 IP 网段。

在这里插入图片描述
按位运算之后需要将目标 IP 与数据包源节点的子网进行比较。
在这里插入图片描述
运算的结果是 172.16.1.0不等于 192.168.1.0源节点的网络。说明源 IP 地址和目标 IP 地址不在同一个网络上。

如果目标 IP 是 192.168.1.2即与发送 IP 在同一子网中则 AND 操作将得到节点的本地网络。
在这里插入图片描述

进行逐位比较后ARP 通过查找表查找默认网关的 MAC 地址。

如果有条目将立即转发数据包。

否则先进行广播以找到网关的 MAC 地址。

现在数据包路由到另一个节点的默认接口我们称为 Node-B。

在这里插入图片描述
以相反的顺序。现在数据包位于 Node-B 的根命名空间并到达网桥这里会进行 ARP 解析。
在这里插入图片描述
路由系统将返回与 Pod-B 相连的接口的 MAC 地址。
在这里插入图片描述

网桥通过 Pod-B 的 veth 设备转发帧并到达 Pod-B 的命名空间。

在这里插入图片描述
至此你应该已经熟悉了 Pod 之间的流量是如何流转的。下面让我们花点时间来看看 CNI 如何管理上诉内容。

容器网络接口 - CNI
容器网络接口CNI主要关注的是当前节点中的网络。

在这里插入图片描述
可以将 CNI 看作为解决 Kubernetes 网络需求而遵循的一组规则。

有这些 CNI 实现可供使用

Calico
Cillium
Flannel
Weave Net
其他网络插件
他们都遵循相同的 CNI 标准。

如果没有 CNI你需要人工完成如下操作

创建接口。
创建 veth 对。
设置网络命名空间。
设置静态路由。
配置以太网桥。
分配 IP 地址。
创建 NAT 规则。
还有其他大量事情。
这还不包括在删除或重启 Pod 时需要进行类似的全部操作。

CNI 必须支持四种不同的操作

ADD - 向网络添加一个容器。
DEL - 从网络中删除一个容器。
CHECK - 如果容器的网络出现问题则返回错误。
VERSION - 显示插件的版本。
我们一起看下CNI 是如何工作的。

当 Pod 被分配到特定节点时Kubelet 自身不会初始化网络。

相反Kubelet 将这个任务交给 CNI。

但是Kubelet 以 JSON 格式指定配置并发送至 CNI 插件。

你可以进入节点上的 /etc/cni/net.d 文件夹使用以下命令查看当前的 CNI 配置文件

$ cat 10-calico.conflist

{
  "name": "k8s-Pod-network",
  "cniVersion": "0.3.1",
  "plugins": [
    {
      "type": "calico",
      "datastore_type": "kubernetes",
      "mtu": 0,
      "nodename_file_optional": false,
      "log_level": "Info",
      "log_file_path": "/var/log/calico/cni/cni.log",
      "ipam": { "type": "calico-ipam", "assign_ipv4" : "true", "assign_ipv6" : "false"},
      "container_settings": {
          "allow_ip_forwarding": false
      },
      "policy": {
          "type": "k8s"
      },
      "kubernetes": {
          "k8s_api_root":"https://10.96.0.1:443",
          "kubeconfig": "/etc/cni/net.d/calico-kubeconfig"
      }
    },
    {
      "type": "bandwidth",
      "capabilities": {"bandwidth": true}
    },
    {"type": "portmap", "snat": true, "capabilities": {"portMappings": true}}
  ]
}

每个 CNI 插件都会使用不同类型的网络配置。

例如Calico 使用基于 BGP 的三层网络连接 Pod

Cilium 从三层到七层使用的是基于 eBPF 的 overlay 网络

与 Calico 一样Cilium 也支持通过配置网络策略来限制流量。

那么你应该使用哪一个呢主要有两类 CNI。

在第一类中使用基本网络设置也称为平面网络从集群的 IP 池为 Pod 分配 IP 地址的 CNI。

这种方式可能很快耗尽 IP 地址而成为负担。

相反另一类是使用 overlay 网络。

简单来说overlay 网络是主底层网络之上的重建网络。

overlay 网络通过封装来自底层网络的数据包工作这些数据包被发送到另一个节点上的 Pod。

overlay 网络的一种流行技术是 VXLAN它可以在 L3 网络上建立 L2 域的隧道。

那么哪个更好呢

没有单一的答案这取决于你的需求。

你是否正在构建具有数万个节点的大型集群

也许 overlay 网络更好。

你是否在意更简单的配置和审查网络流量而不会愿意在复杂网络中丢失这种能力

扁平网络更适合你。

现在我们讨论完了 CNI接着让我们来看看 Pod 到服务的通信是如何连接的。

检查 Pod 到 Service 的流量
由于 Pod 在 Kubernetes 中是动态的分配给 Pod 的 IP 地址不是静态的。

Pod 的 IP 是短暂的每次创建或删除 Pod 时都会发生变化。

Kubernetes 中的 Service 解决了这个问题为连接一组 Pod 提供了可靠的机制。
在这里插入图片描述
默认情况下在 Kubernetes 中创建 Service 时被分配一个虚拟 IP。

在 Service 中可以使用选择器将 Service 与目标 Pod 相关联。

当删除或添加一个 Pod 时会发生什么呢

Service 的虚拟 IP 保持静态不变。

但流量可以再无需干预的情况下到达新创建的 Pod。

换句话说Kubernetes 中的 Service 类似于负载均衡器。

但它们是如何工作的

使用 Netfilter 和 Iptables 拦截和重写流量
Kubernetes 中的 Service 是基于 Linux 内核中的两个组件构建的

网络过滤器
iptables

Netfilter 是一个可以配置数据包过滤、创建 NAT 、端口转发规则以及管理网络中流量的框架
此外它可以屏蔽和禁止未经同意的访问。

另一方面iptables 是一个用户态程序可以用来配置 Linux 内核防火墙的 IP 数据包过滤规则。

iptables 是作为不同的 Netfilter 模块实现的。

可以使用 iptables CLI 即时修改过滤规则并将它们插入 netfilters 挂载点。

过滤器配置在不同的表中其中包含用于处理网络流量数据包的链。

不同的协议使用不同的内核模块和程序。

当提到 iptables 时通常指的是 IPv4。对于 IPv6 终端工具是 ip6tables。

iptables 有五种链每一种链都直接映射到 Netfilter 的钩子上。

从 iptables 的角度来看它们是

PRE_ROUTING
INPUT
FORWARD
OUTPUT
POST_ROUTING
它们对应地映射到 Netfilter 钩子

NF_IP_PRE_ROUTING
NF_IP_LOCAL_IN
NF_IP_FORWARD
NF_IP_LOCAL_OUT
NF_IP_POST_ROUTING
当一个数据包到达时根据它所处的阶段将 “触发” 一个 Netfilter 钩子。这个钩子会执行特定的 iptables 过滤规则。

在这里插入图片描述
看起来很复杂

不过没什么好担心的。

这就是我们使用 Kubernetes 的原因以上所有内容都是通过使用 Service 抽象出来的并且一个简单的 YAML 定义可以自动设置这些规则。

如果你有兴趣查看 iptables 规则可以连接到节点并运行

$ iptables-save

还可以使用这个工具来可视化节点上的 iptables 链。

这是来自 GKE 节点上的可视化 iptables 链的示例图
在这里插入图片描述

注意这里可能配置了几百条规则想想一下自己动手怎么配置

至此我们已经了解了相同节点上的 Pod 和不同节点上 Pod 之间是如何通信的。

在 Pod 与 Service 的通信中链路的前半部分是一样的。
在这里插入图片描述
当请求从 Pod-A 走向 Pod-B 时由于 Pod-B 在 Service 的 “后面”在传输的过程中会有一些不一样。

原始的请求在 Pod-A 命名空间的 eth0 接口发出。

接着请求通过 veth到达根名称空间的网桥。

一旦到达网桥数据包就会立即通过默认网关转发。

与 Pod-to-Pod 部分一样主机进行按位比较。由于服务的虚拟 IP 不是节点 CIDR 的一部分因此数据包将立即通过默认网关转发。

如果默认网关的 MAC 地址尚未出现在查找表中则会进行 ARP 解析找出默认网关的 MAC 地址。

现在神奇的事情发生了。

在数据包通过节点的路由之前Netfilter 的 NF_IP_PRE_ROUTING 挂钩被触发并执行 iptables 规则。这个规则会修改 Pod-A 数据包的目标 IP 地址 DNAT。

在这里插入图片描述
前面服务的虚拟 IP 地址被重写为 Pod-B 的 IP 地址。

接下来数据包路由过程与 Pod 到 Pod 的通信一样。

在这里插入图片描述
数据包重写后通信是 Pod 到 Pod。

然而在所有这些通信中使用了一个第三方的功能。

此功能称为 conntrack 或链路跟踪。

当 Pod-B 发回响应时conntrack 会将数据包与链路相关联并跟踪其来源。

NAT 严重依赖于 conntrack。

如果没有链路跟踪将不知道将包含响应的数据包发回何处。

使用 conntrack 时数据包的返回路径很容易设置为相同的源或目标 NAT 更改。

通信的另一部分与现在的链路相反。

Pod-B 接收并处理了请求现在将数据发送回 Pod-A。

现在会发生什么呢

检查来自服务的响应
Pod-B 发送响应将其 IP 地址设置为源地址并将 Pod-A 的 IP 地址设置为目标地址。

在这里插入图片描述
当数据包到达 Pod-A 所在节点的接口时会发生另一个 NAT。
在这里插入图片描述
这时conntrack 开始工作修改源 IP 地址iptables 规则执行 SNAT并将 Pod-B 的源 IP 地址修改为原始服务的虚拟 IP。
在这里插入图片描述
对于 Pod-A 来说响应是来自于 Service 而不是 Pod-B。

其余的都是一样的。一旦 SNAT 完成数据包就会到达根命名空间中的网桥并通过 veth 对转发到 Pod-A。

主要参考
https://learnk8s.io/kubernetes-network-packets

阿里云国内75折 回扣 微信号:monov8
阿里云国际,腾讯云国际,低至75折。AWS 93折 免费开户实名账号 代冲值 优惠多多 微信号:monov8 飞机:@monov6
标签: k8s

“根据官方文档详细说明 Kubernetes 网络流量走向,包含详细的图文说明和介绍” 的相关文章