本文翻译自 https://learnk8s.io/kubernetes-network-packets,并没有逐字翻译,带入了些自己的理解。
阅读本文,你可以了解在 Kubernetes 内外,数据包是如何转发的,从原始的 Web 请求开始,到托管应用程序的容器。
在深入了解在 Kubernetes 集群中数据包如何流转的细节之前,先明确一下 Kubernetes 对网络的要求。
Kubernetes 网络模型定义了一组基本规则:
这些要求,不会将具体实现限制在某种解决方案上。
相反,它们笼统地描述了集群网络的特性。
为了满足这些限制,你必须解决以下挑战:
在本文中,将重点关注前三点,从 Pod 内的网络,容器到容器的通信说起。
让我们来看一个运行应用的主容器和伴随一起的另一个容器。
在示例中,有一个带有 nginx 和 busybox 容器的 Pod:
apiVersion: v1
kind: Pod
metadata:
name: multi-container-Pod
spec:
containers:
- name: container-1
image: busybox
command: ['/bin/sh', '-c', 'sleep 1d']
- name: container-2
image: nginx
部署时,会发生以下事情:
网络配置在后台迅速完成。
但是,让我们退后一步,尝试理解为什么运行容器需要上述动作。
在 Linux 中,网络命名空间是独立的、隔离的逻辑空间。
你可以将网络命名空间视为,将物理网络接口分割小块之后的独立部分。
每个部分都可以单独配置,并拥有自己的网络规则和资源。
这些包括防火墙规则、接口(虚拟的或物理的)、路由以及与网络相关的所有内容。
但最终,还是需要物理接口处理所有真实的数据包,所有虚拟接口都是基于物理接口创建的。
网络命名空间可以通过 ip-netns 进行管理,使用 ip netns list
可以列出主机上的命名空间。
需要注意的是,创建的网络命名空间会出现在
/var/run/netns
下面,但 Docker 并没有遵循这一规则。
例如,这是 Kubernetes 节点的一些命名空间:
$ ip netns listcni-0f226515-e28b-df13-9f16-dd79456825ac (id: 3)
cni-4e4dfaac-89a6-2034-6098-dd8b2ee51dcd (id: 4)
cni-7e94f0cc-9ee8-6a46-178a-55c73ce58f2e (id: 2)
cni-7619c818-5b66-5d45-91c1-1c516f559291 (id: 1)
cni-3004ec2c-9ac2-2928-b556-82c7fb37a4d8 (id: 0)
注意 cni- 前缀;这意味着命名空间是由 CNI 插件创建的。
当你创建一个 Pod,Pod 被分配给一个节点后,CNI 将:
如果 Pod 包含多个容器,那么这些容器都将被放在同一个命名空间中。
那么,当你列出节点上的容器的命名空间会发生什么呢?
你可以通过 SSH 连接到 Kubernetes 节点并查看命名空间:
$ lsns -t net NS TYPE NPROCS PID USER NETNSID NSFS COMMAND
4026531992 net 171 1 root unassigned /run/docker/netns/default /sbin/init noembed norestore
4026532286 net 2 4808 65535 0 /run/docker/netns/56c020051c3b /pause
4026532414 net 5 5489 65535 1 /run/docker/netns/7db647b9b187 /pause
lsns
是一个用于列出主机上所有可用命名空间的命令。
请记住,Linux 中有多种命名空间类型。
Nginx 容器在哪里?
那些 pause 容器是什么?
先列出节点上的所有命名空间,看看能否找到 Nginx 容器:
$ lsns
NS TYPE NPROCS PID USER COMMAND
# truncated output
4026532414 net 5 5489 65535 /pause
4026532513 mnt 1 5599 root sleep 1d
4026532514 uts 1 5599 root sleep 1d
4026532515 pid 1 5599 root sleep 1d
4026532516 mnt 3 5777 root nginx: master process nginx -g daemon off;
4026532517 uts 3 5777 root nginx: master process nginx -g daemon off;
4026532518 pid 3 5777 root nginx: master process nginx -g daemon off;
Nginx 容器在挂载 (mnt
)、Unix time-sharing (uts
) 和 PID (pid
) 命名空间中,但不在网络命名空间 (net
) 中。
不幸的是,lsns
只显示每个进程最小的 PID,但你可以根据这个进程 ID 进一步过滤。
使用以下命令,在所有命名空间中检索 Nginx 容器:
$ sudo lsns -p 5777 NS TYPE NPROCS PID USER COMMAND
4026531835 cgroup 178 1 root /sbin/init noembed norestore
4026531837 user 178 1 root /sbin/init noembed norestore
4026532411 ipc 5 5489 65535 /pause
4026532414 net 5 5489 65535 /pause
4026532516 mnt 3 5777 root nginx: master process nginx -g daemon off;
4026532517 uts 3 5777 root nginx: master process nginx -g daemon off;
4026532518 pid 3 5777 root nginx: master process nginx -g daemon off;
pause
进程再次出现,它劫持了网络命名空间。
这是怎么回事?
集群中的每个 Pod 都有一个额外的隐藏容器在后台运行,称为 pause 容器。
列出在节点上运行的容器并获取 pause 容器:
$ docker ps | grep pausefa9666c1d9c6 k8s.gcr.io/pause:3.4.1 "/pause" k8s_POD_kube-dns-599484b884-sv2js…
44218e010aeb k8s.gcr.io/pause:3.4.1 "/pause" k8s_POD_blackbox-exporter-55c457d…
5fb4b5942c66 k8s.gcr.io/pause:3.4.1 "/pause" k8s_POD_kube-dns-599484b884-cq99x…
8007db79dcf2 k8s.gcr.io/pause:3.4.1 "/pause" k8s_POD_konnectivity-agent-84f87c…
可以看到,节点上的每一个 Pod 都会有一个对应的 pause 容器。
这个 pause
容器负责创建和维持网络命名空间。
底层容器运行时会完成网络命名空间的创建,通常是由 containerd
或 CRI-O
完成。
在部署 Pod 和创建容器之前,由运行时创建网络命名空间。
容器运行时会自动完成这些,不需要手工执行 ip netns
创建命名空间。
话题回到 pause 容器。
它包含非常少的代码,并且在部署后立即进入睡眠状态。
但是,它是必不可少的,并且在 Kubernetes 生态系统中起着至关重要的作用。
一个进入睡眠状态的容器有什么用?
为了理解它的用途,让我们想象一个 Pod 有两个容器,就像前面的例子一样,但没有 pause 容器。
一旦容器启动,CNI 将会:
如果 Nginx 崩溃了怎么办?
CNI 将不得不再次执行所有步骤,并且两个容器的网络都将中断。
由于睡眠容器不太可能有任何错误,因此创建网络命名空间通常是一种更安全、更健壮的选择。
如果 Pod 中的一个容器崩溃了,剩下的仍然可以回复其他网络请求。
前面我提到 Pod 和两个容器将具有同一个 IP 地址。
那是怎样配置的呢?
在 Pod 网络命名空间内,创建了一个接口,并分配了一个 IP 地址。
让我们验证一下。
首先,找到 Pod 的 IP 地址:
$ kubectl get Pod multi-container-Pod -o jsonpath={.status.PodIP}10.244.4.40
接下来,找到相关的网络命名空间。
由于网络命名空间是从物理接口创建的,需要先访问集群节点。
如果你运行的是 minikube,使用
minikube ssh
访问节点。如果在云厂中运行,那么应该有某种方法可以通过 SSH 访问节点。
进入后,找到最新创建的命名网络命名空间:
$ ls -lt /var/run/netnstotal 0
-r--r--r-- 1 root root 0 Sep 25 13:34 cni-0f226515-e28b-df13-9f16-dd79456825ac
-r--r--r-- 1 root root 0 Sep 24 09:39 cni-4e4dfaac-89a6-2034-6098-dd8b2ee51dcd
-r--r--r-- 1 root root 0 Sep 24 09:39 cni-7e94f0cc-9ee8-6a46-178a-55c73ce58f2e
-r--r--r-- 1 root root 0 Sep 24 09:39 cni-7619c818-5b66-5d45-91c1-1c516f559291
-r--r--r-- 1 root root 0 Sep 24 09:39 cni-3004ec2c-9ac2-2928-b556-82c7fb37a4d8
在示例中,就是 cni-0f226515-e28b-df13-9f16-dd79456825ac
。然后,可以在该命名空间内运行 exec
命令:
$ ip netns exec cni-0f226515-e28b-df13-9f16-dd79456825ac ip a# output truncated
3: [email protected]: <BROADCAST,MULTICAST,UP,LOWER_UP> mtu 1450 qdisc noqueue state UP group default
link/ether 16:a4:f8:4f:56:77 brd ff:ff:ff:ff:ff:ff link-netnsid 0
inet 10.244.4.40/32 brd 10.244.4.40 scope global eth0
valid_lft forever preferred_lft forever
inet6 fe80::14a4:f8ff:fe4f:5677/64 scope link
valid_lft forever preferred_lft forever
这个 IP 就是 Pod 的 IP 地址!通过查找 @if12 中的 12 找到网络接口
$ ip link | grep -A1 ^1212: [email protected]: mtu 1376 qdisc noqueue master weave state UP mode DEFAULT group default
link/ether 72:1c:73:d9:d9:f6 brd ff:ff:ff:ff:ff:ff link-netnsid 1
你还可以验证 Nginx 容器是否监听了来自该命名空间内的 HTTP 流量:
$ ip netns exec cni-0f226515-e28b-df13-9f16-dd79456825ac netstat -lnpActive Internet connections (only servers)
Proto Recv-Q Send-Q Local Address Foreign Address State PID/Program name
tcp 0 0 0.0.0.0:80 0.0.0.0:* LISTEN 692698/nginx: master
tcp6 0 0 :::80 :::* LISTEN 692698/nginx: master
如果你无法通过 SSH 访问集群中的工作节点,你可以使用
kubectl exec
获取到 busybox 容器的 shell 并直接在内部使用ip
和netstat
命令。
刚刚我们介绍了容器之间的通信,再来看看如何建立 Pod 到 Pod 的通信吧。
Pod 到 Pod 的通信有两种可能的情况:
整个工作流依赖于虚拟接口对和网桥,下面先来了解一下这部分的内容。
为了让一个 Pod 与其他 Pod 通信,它必须先访问节点的根命名空间。
通过虚拟以太网对来实现 Pod 和根命名空间的连接。
这些虚拟接口设备(veth 中的 v)连接并充当两个命名空间之间的隧道。
使用此 veth
设备,你将一端连接到 Pod 的命名空间,另一端连接到根命名空间。
CNI 可以帮你执行这些操作,但你也可以手动执行:
$ ip link add veth1 netns Pod-namespace type veth peer veth2 netns root
现在 Pod 的命名空间有一个可以访问根命名空间的 隧道
。
节点上,新建的每一个 Pod 都会设置这样的 veth
对。
一个是,创建接口对;另一个是为以太网设备分配地址并配置默认路由。
下面看看如何在 Pod 的命名空间中设置 veth1
接口:
$ ip netns exec cni-0f226515-e28b-df13-9f16-dd79456825ac ip addr add 10.244.4.40/24 dev veth1
$ ip netns exec cni-0f226515-e28b-df13-9f16-dd79456825ac ip link set veth1 up
$ ip netns exec cni-0f226515-e28b-df13-9f16-dd79456825ac ip route add default via 10.244.4.40
在节点上,让我们创建另一个 veth2
对:
$ ip addr add 169.254.132.141/16 dev veth2
$ ip link set veth2 up
可以像前面一样检查现有的 veth
对。
在 Pod 的命名空间中,检索 eth0
接口的后缀。
$ ip netns exec cni-0f226515-e28b-df13-9f16-dd79456825ac ip link show type veth3: [email protected]: <BROADCAST,MULTICAST,UP,LOWER_UP> mtu 1450 qdisc noqueue state UP mode DEFAULT group default
link/ether 16:a4:f8:4f:56:77 brd ff:ff:ff:ff:ff:ff link-netnsid 0
在这种情况下,可以使用命令 grep -A1 ^12
查找(或滚动到目标所在处):
$ ip link show type veth# output truncated
12: [email protected]: <BROADCAST,MULTICAST,UP,LOWER_UP> mtu 1450 qdisc noqueue state UP mode DEFAULT group default
link/ether ee:ee:ee:ee:ee:ee brd ff:ff:ff:ff:ff:ff link-netns cni-0f226515-e28b-df13-9f16-dd79456825ac
也可以使用
ip -n cni-0f226515-e28b-df13-9f16-dd79456825ac link show type veth
.命令
注意 3: [email protected]和12: [email protected]
接口上的符号。
从 Pod 命名空间,该 eth0
接口连接到根命名空间的 12 号接口,因此是 @if12
.
在 veth
对的另一端,根命名空间连接到 Pod 命名空间的 3 号接口。
接下来是连接 veth
对两端的桥接器。
网桥会汇聚位于根命名空间中的每一个虚拟接口。这个网桥允许虚拟 pair 之间的流量,也允许穿过公共根命名空间的流量。
补充一下相关原理。
以太网桥位于 OSI 网络模型 的第 2 层。
你可以将网桥视为接受来自不同命名空间和接口的连接的虚拟交换机。
以太网桥可以连接节点上的多个可用网络。
因此,可以使用网桥连接两个接口,即 Pod 命名空间的 veth
连接到同一节点上另一个 Pod 的 veth
。
接下来,继续看网桥和 veth 对的用途。
假设同一个节点上有两个 Pod,Pod-A 向 Pod-B 发送消息。
至此,Pod-A 和 Pod-B 之间的通信就成功了。
对于跨节点 Pod 之间的通信,会经过额外的通信跳跃。
此时 不会发生 ARP 解析,因为源 IP 和目标 IP 不在同一个网段中。
网段的检查是使用按位运算完成的。
当目的 IP 不在当前网络段时,数据包被转发到节点的默认网关。
在确定数据包的转发位置时,源节点必须执行位运算
这也称为与操作。
复习一下,按位与运算的规则:
0 AND 0 = 0
0 AND 1 = 0
1 AND 0 = 0
1 AND 1 = 1
除了 1 与 1 以外的都是 false。
如果源节点的 IP 为 192.168.1.1,子网掩码为 /24,目标 IP 为 172.16.1.1/16,则按位与运算将得知它们位于不同的网段上。
这意味着目标 IP 与数据包的源不在同一个网络上,数据包将通过默认网关转发。
数学时间。
我们必须从二进制的 32 位地址开始进行 AND 操作。
先找出源 IP 网络和目标 IP 网段。
Type | Binary | Converted |
---|---|---|
Src. IP Address | 11000000.10101000.00000001.00000001 | 192.168.1.1 |
Src. Subnet Mask | 11111111.11111111.11111111.00000000 | 255.255.255.0(/24) |
Src. Network | 11000000.10101000.00000001.00000000 | 192.168.1.0 |
Dst. IP Address | 10101100.00010000.00000001.00000001 | 172.16.1.1 |
Dst. Subnet Mask | 11111111.11111111.00000000.00000000 | 255.255.0.0(/16) |
Dst. Network | 10101100.00010000.00000000.00000000 | 172.16.0.0 |
按位运算之后,需要将目标 IP 与数据包源节点的子网进行比较。
Type | Binary | Converted |
---|---|---|
Dst. IP Address | 10101100.00010000.00000001.00000001 | 172.16.1.1 |
Src. Subnet Mask | 11111111.11111111.11111111.00000000 | 255.255.255.0(/24) |
Network Result | 10101100.00010000.00000001.00000000 | 172.16.1.0 |
运算的结果是 172.16.1.0,不等于 192.168.1.0(源节点的网络)。说明源 IP 地址和目标 IP 地址不在同一个网络上。
如果目标 IP 是 192.168.1.2,即与发送 IP 在同一子网中,则 AND 操作将得到节点的本地网络。
Type | Binary | Converted |
---|---|---|
Dst. IP Address | 11000000.10101000.00000001.00000010 | 192.168.1.2 |
Src. Subnet Mask | 11111111.11111111.11111111.00000000 | 255.255.255.0(/24) |
Network | 11000000.10101000.00000001.00000000 | 192.168.1.0 |
进行逐位比较后,ARP 通过查找表查找默认网关的 MAC 地址。
如果有条目,将立即转发数据包。
否则,先进行广播以找到网关的 MAC 地址。
veth
设备转发帧,并到达 Pod-B 的命名空间。至此,你应该已经熟悉了 Pod 之间的流量是如何流转的。下面,让我们花点时间来看看 CNI 如何管理上诉内容。
容器网络接口(CNI)主要关注的是当前节点中的网络。
可以将 CNI 看作为解决 Kubernetes 网络需求,而遵循的一组规则。
有这些 CNI 实现可供使用:
他们都遵循相同的 CNI 标准。
如果没有 CNI,你需要人工完成如下操作:
这还不包括,在删除或重启 Pod 时,需要进行类似的全部操作。
CNI 必须支持四种不同的操作:
我们一起看下,CNI 是如何工作的。
当 Pod 被分配到特定节点时,Kubelet 自身不会初始化网络。
相反,Kubelet 将这个任务交给 CNI。
但是,Kubelet 以 JSON 格式指定配置并发送至 CNI 插件。
你可以进入节点上的 /etc/cni/net.d
文件夹,使用以下命令查看当前的 CNI 配置文件:
$ cat 10-calico.conflist{
"name": "k8s-Pod-network",
"cniVersion": "0.3.1",
"plugins": [
{
"type": "calico",
"datastore_type": "kubernetes",
"mtu": 0,
"nodename_file_optional": false,
"log_level": "Info",
"log_file_path": "/var/log/calico/cni/cni.log",
"ipam": { "type": "calico-ipam", "assign_ipv4" : "true", "assign_ipv6" : "false"},
"container_settings": {
"allow_ip_forwarding": false
},
"policy": {
"type": "k8s"
},
"kubernetes": {
"k8s_api_root":"https://10.96.0.1:443",
"kubeconfig": "/etc/cni/net.d/calico-kubeconfig"
}
},
{
"type": "bandwidth",
"capabilities": {"bandwidth": true}
},
{"type": "portmap", "snat": true, "capabilities": {"portMappings": true}}
]
}
每个 CNI 插件都会使用不同类型的网络配置。
例如,Calico 使用基于 BGP 的三层网络连接 Pod
Cilium 从三层到七层使用的是基于 eBPF 的 overlay 网络
与 Calico 一样,Cilium 也支持通过配置网络策略来限制流量。
那么你应该使用哪一个呢?主要有两类 CNI。
在第一类中,使用基本网络设置(也称为平面网络),从集群的 IP 池为 Pod 分配 IP 地址的 CNI。
这种方式可能很快耗尽 IP 地址,而成为负担。
相反,另一类是使用 overlay 网络。
简单来说,overlay 网络是主(底层)网络之上的重建网络。
overlay 网络通过封装来自底层网络的数据包工作,这些数据包被发送到另一个节点上的 Pod。
overlay 网络的一种流行技术是 VXLAN,它可以在 L3 网络上建立 L2 域的隧道。
那么哪个更好呢?
没有单一的答案,这取决于你的需求。
你是否正在构建具有数万个节点的大型集群?
也许 overlay 网络更好。
你是否在意更简单的配置和审查网络流量,而不会愿意在复杂网络中丢失这种能力?
扁平网络更适合你。
现在我们讨论完了 CNI,接着让我们来看看 Pod 到服务的通信是如何连接的。
由于 Pod 在 Kubernetes 中是动态的,分配给 Pod 的 IP 地址不是静态的。
Pod 的 IP 是短暂的,每次创建或删除 Pod 时都会发生变化。
Kubernetes 中的 Service 解决了这个问题,为连接一组 Pod 提供了可靠的机制。
默认情况下,在 Kubernetes 中创建 Service 时,被分配一个虚拟 IP。
在 Service 中,可以使用选择器将 Service 与目标 Pod 相关联。
当删除或添加一个 Pod 时会发生什么呢?
Service 的虚拟 IP 保持静态不变。
但流量可以再无需干预的情况下,到达新创建的 Pod。
换句话说,Kubernetes 中的 Service 类似于负载均衡器。
但它们是如何工作的?
Kubernetes 中的 Service 是基于 Linux 内核中的两个组件构建的:
Netfilter 是一个可以配置数据包过滤、创建 NAT 、端口转发规则以及管理网络中流量的框架
此外,它可以屏蔽和禁止未经同意的访问。
另一方面,iptables 是一个用户态程序,可以用来配置 Linux 内核防火墙的 IP 数据包过滤规则。
iptables 是作为不同的 Netfilter 模块实现的。
可以使用 iptables CLI 即时修改过滤规则,并将它们插入 netfilters 挂载点。
过滤器配置在不同的表中,其中包含用于处理网络流量数据包的链。
不同的协议使用不同的内核模块和程序。
当提到 iptables 时,通常指的是 IPv4。对于 IPv6 ,终端工具是 ip6tables。
iptables 有五种链,每一种链都直接映射到 Netfilter 的钩子上。
从 iptables 的角度来看,它们是:
PRE_ROUTING
INPUT
FORWARD
OUTPUT
POST_ROUTING
它们对应地映射到 Netfilter 钩子:
NF_IP_PRE_ROUTING
NF_IP_LOCAL_IN
NF_IP_FORWARD
NF_IP_LOCAL_OUT
NF_IP_POST_ROUTING
当一个数据包到达时,根据它所处的阶段,将 “触发” 一个 Netfilter 钩子。这个钩子会执行特定的 iptables 过滤规则。
哎呀!看起来很复杂!
不过没什么好担心的。
这就是我们使用 Kubernetes 的原因,以上所有内容都是通过使用 Service 抽象出来的,并且一个简单的 YAML 定义可以自动设置这些规则。
如果你有兴趣查看 iptables 规则,可以连接到节点并运行:
$ iptables-save
你还可以使用这个工具来可视化节点上的 iptables 链。
这是来自 GKE 节点上的可视化 iptables 链的示例图:
注意,这里可能配置了几百条规则,想想一下自己动手怎么配置!
至此,我们已经了解了,相同节点上的 Pod 和不同节点上 Pod 之间是如何通信的。
在 Pod 与 Service 的通信中,链路的前半部分是一样的。
当请求从 Pod-A 走向 Pod-B 时,由于 Pod-B 在 Service 的 “后面”,在传输的过程中,会有一些不一样。
原始的请求,在 Pod-A 命名空间的 eth0 接口发出。
接着,请求通过 veth
到达根名称空间的网桥。
一旦到达网桥,数据包就会立即通过默认网关转发。
与 Pod-to-Pod 部分一样,主机进行按位比较。由于服务的虚拟 IP 不是节点 CIDR 的一部分,因此数据包将立即通过默认网关转发。
如果默认网关的 MAC 地址尚未出现在查找表中,则会进行 ARP 解析找出默认网关的 MAC 地址。
现在神奇的事情发生了。
在数据包通过节点的路由之前,Netfilter 的 NF_IP_PRE_ROUTING
挂钩被触发,并执行 iptables 规则。这个规则会修改 Pod-A 数据包的目标 IP 地址 DNAT。
前面服务的虚拟 IP 地址被重写为 Pod-B 的 IP 地址。
接下来,数据包路由过程与 Pod 到 Pod 的通信一样。
数据包重写后,通信是 Pod 到 Pod。
然而,在所有这些通信中,使用了一个第三方的功能。
此功能称为 conntrack 或链路跟踪。
当 Pod-B 发回响应时,conntrack 会将数据包与链路相关联,并跟踪其来源。
NAT 严重依赖于 conntrack。
如果没有链路跟踪,将不知道将包含响应的数据包发回何处。
使用 conntrack 时,数据包的返回路径很容易设置为相同的源或目标 NAT 更改。
通信的另一部分与现在的链路相反。
Pod-B 接收并处理了请求,现在将数据发送回 Pod-A。
现在会发生什么呢?
Pod-B 发送响应,将其 IP 地址设置为源地址,并将 Pod-A 的 IP 地址设置为目标地址。
当数据包到达 Pod-A 所在节点的接口时,会发生另一个 NAT。
这时,conntrack 开始工作,修改源 IP 地址,iptables 规则执行 SNAT,并将 Pod-B 的源 IP 地址修改为原始服务的虚拟 IP。
对于 Pod-A 来说,响应是来自于 Service 而不是 Pod-B。
其余的都是一样的。一旦 SNAT 完成,数据包就会到达根命名空间中的网桥,并通过 veth
对转发到 Pod-A
。
让我们一起回顾下本文相关要点
本文转载自:「 陈少文的博客 」,原文:https://url.hi-linux.com/GQueR ,版权归原作者所有。