大家好,我是张晋涛。
Kubernetes 正式发布了,包含了 40 项目增强更新。
本次 LOGO 的主要表达的意思是 尊重协作和开放的精神 ,这种精神将我们凝聚到一起转变为能改变世界的力量。
其实我每期的 「k8s生态周报」都有一个叫上游进展的部分,所以很多值得关注的内容在之前的文章中已经发过了。
这篇中我会再额外介绍一些之前未涵盖的,和之前介绍过的值得关注的内容。
core CSI Migration 达到 Stable
Kubernetes 对 CSI 的支持是自 v1.9 开始引入的,到 2019 年的 v1.13 时已经正式 GA 。
最近几个版本中,社区正在将原本的 in-tree 插件逐步废弃或删除,并迁移至使用 CSI 驱动的方式。
迁移至使用 CSI 的好处在于,能提高可维护性,并减少因 in-tree 代码导致的漏洞或者错误的发生。
但是迁移也并不是直接替换,社区考虑到用户的迁移成本,于是提出了一种解决方案:CSI Migration ,这个方案是将
in-tree API 转换为等效 CSI API,并将操作委托给 CSI 驱动程序的功能。目前该功能达到 GA,in-tree 的迁移也有很多进展。
- deprecate GlusterFS plugin from available in-tree drivers. by humblec · Pull Request #111485 · kubernetes/kubernetes
在这个 PR 中废弃了 in-tree 的 GlusterFS 的 plugin,这其实是最早的 dynamic provisioner ,自 Kubernetes v1.4 版本开始引入。
在后来 CSI 驱动出现的时候,社区中也立刻出现了对应的驱动实现 https://github.com/gluster/gl... ,只不过该项目并没有积极的进行维护。
现在还有另一个比较推荐的替代方案,可以考虑使用 https://github.com/kadalu/kad... 此项目最新的版本为 v0.8.15 。
经过社区之前的讨论,还是决定在 v1.25 版本开始将 in-tree 的 GlusterFS plugin 标记为废弃,并在后续的版本中进行移除。
如果有正在使用此插件的小伙伴,我建议可以尽早的评估 kadalu 的可行性 & 迁移成本。
- cleanup: Remove storageos volume plugins from k8s codebase by Jiawei0227 · Pull Request #111620 · kubernetes/kubernetes
- cleanup: Remove flocker volume plugins from k8s codebase by Jiawei0227 · Pull Request #111618 · kubernetes/kubernetes
- cleanup: Remove quobyte volume plugins from k8s codebase by Jiawei0227 · Pull Request #111619 · kubernetes/kubernetes
上述的这几个 PR 所做的事情基本类似,是一些清理操作。
将 Kubernetes 项目中 StorageOS
,Flocker
和 Quobyte
等 in-tree 的卷插件都删除掉了。
其中 StorageOS
和 Quobyte
如果有在使用,建议往 CSI plugin 进行迁移,而 Flocker
则是由于不再维护了,所以并没有任何迁移计划。
cgroup v2 支持达到 GA
在 2019 年 GitChat 对我的访谈中让我聊 2020 年的技术趋势,我当时的主要观点摘录如下:
作为云原生技术的基石,Kubernetes 在 2020 年的热度将会持续上升。而各个公司的集群规模,以及对容器技术的推进都将会持续加大。在经历了初步容器化后,更多的公司将面临的问题是稳定性和性能优化问题。与此同时,service mesh,serverless 等技术也都会逐步得到普遍应用。 从底层次技术的角度来看,cgroups v2 将逐步普及,进而取代 cgroups v1,但这个过程可能需要两三年左右。 整体而言,稳定性和性能优化将会是未来的主旋律。
如今,3 年时间已经过去,Kubernetes v1.25 中对 cgroup v2 的支持已经达到 GA ,和我之前的判断是一样的。
我之前也写了一篇 《一篇搞懂容器技术的基石: cgroup》 ,可能该考虑写篇新的 cgroup v2 了 (笑
PodSecurity 特性达到 GA
在 #110459 · kubernetes/kubernetes 中正式将 PodSecurity 特性升级到 GA 。如果我没有记错,这个
特性应该是从引入到 GA 最快的特性之一了。
PodSecurity 是自 Kubernetes v1.22 引入的 alpha 特性,作为 PodSecurityPolicy 的一个替代。在 v1.23 达到 beta 级别,通过上述 PR,在 v1.25 正式 GA ,并且默认启用,可以看到
整个发展过程还是很快的。
PodSecurity 定义了 3 种级别:
- Enforce:如果 Pod 违反策略,则不会被创建;
- Audit:如果 Pod 违反策略,则在审计日志中会被记录,但是 Pod 仍将正常创建;
- Warn:如果 Pod 违反策略,则会在 console 中打印 warning 信息,Pod 仍将正常创建;
使用起来也很简单,只需要给 namespace 添加 pod-security.kubernetes.io/<mode>=<standard>
标签即可。
只要你的 Kubernetes 集群版本先升级到 v1.22 以上,并且开启 PodSecurity 特性,那么就可以按照 Migrate from PodSecurityPolicy to the Built-In PodSecurity Admission Controller | Kubernetes 进行迁移了。
但是如果你的集群版本较低,并且还希望能有一个相对通用的方法,我建议你可以看看我之前写的文章。《理清 Kubernetes 中的准入控制(Admission Controller)》
和 《云原生策略引擎 Kyverno (上)》
通过使用 Admission controller 、OPA/GateKeeper、Kyverno 等来完成统一配置。
初步支持 user namespaces
- Add support for user namespaces phase 1 (KEP 127) by rata · Pull Request #111090 · kubernetes/kubernetes
这个 PR 实现了 KEP127 的第一阶段,KEP127 旨在为 Pod 添加 user namespaces 的支持。
对 user namespaces 不太熟悉的小伙伴,可以看看我之前的系列文章:《搞懂容器技术的基石: namespace (上)》 和 《搞懂容器技术的基石: namespace (下)》 。
在 Kubernetes 中支持使用 user namespaces 的好处在于,可以在与主机有不同 UID/GID 的 Pod 中运行进程,这样在 Pod 内的特权进程
实际是作为主机中的普通进程运行的。这样,假设 Pod 内的特权进程由于安全漏洞被攻破,对主机的影响也可以降到比较低。
直接相关的漏洞,比如 CVE-2019-5736 ,我也曾在 2019 年的文章 《runc 1.0-rc7 发布之际》 专门介绍过,
感兴趣的小伙伴可以到该文章中了解详情。
该实现是在 Pod 的 Spec 中添加了布尔类型的 HostUsers
字段,以决定是否启用主机的 user namespaces,默认是 true 。
此外,目前可预见的情况是,如果 Kubernetes 集群使用的 Linux 内核版本在 v5.19 以下的话,那么使用该特性可能会导致 Pod 的启动时间增加。
CronJobTimeZone 达到 Beta 级别
- Promote CronJobTimeZone to beta by soltysh · Pull Request #111435 · kubernetes/kubernetes
CronJob TimeZone 的特性达到了 Beta 阶段。不过根据 Kubernetes 最新的特性策略,该特性仍然需要手动开启 CronJobTimeZone
feature gate 。
注意,CronJob 如果不设置 TimeZone 的话,默认使用的是 kube-controller-manager 进程的 TimeZone 。
之前有遇到小伙伴在这个问题上浪费了一些时间。
引入 alpha 特性 ContainerCheckpoint
#104907 · kubernetes/kubernetes 这是一个持续了将近一年的 PR,在这个 PR 中引入了一项新的特性:ContainerCheckpoint
。
对 Docker 比较熟悉的小伙伴,可能知道在 Docker 中存在一个 docker checkpoint
的子命令。
这个子命令实际上是可以帮助我们为某个正在运行的容器创建一个状态点的快照,并将其保存到磁盘中。
后续,我们可以使用此 checkpoint 启动容器,恢复其原先的状态,或者将容器迁移到其他的机器上。
同样的,在 Kubernetes 中提供的这个 ContainerCheckpoint
的新特性是自 v1.25 开始作为 alpha 特性加入的,默认是关闭的。
利用此特性可以通过 kubelet 提供的 API,为 container 创建一个有状态的快照,然后将其移动到另一个节点上进行调试,或者其他类似的需求。
此处需要注意的是,创建 checkpoint 可能会产生一些安全隐患,比如 checkpoint 实际上是对当前运行中 container 的内存快照,所以如果在
container 的内存中包含了某些隐私数据,那么有可能在迁移到其他机器上也可以访问到。
另一方面,创建 checkpoint 会产生一些文件,这些文件是需要占用磁盘的。如果频繁的创建 checkpoint 则可能导致磁盘压力过大。
checkpoint 的存档,默认情况下会放在 /var/lib/kubelet/checkpoints
目录下,并且以 checkpoint-<podFullName>-<containerName>-<timestamp>.tar
进行命名。
这个特性使用起来也很简单,直接给 Kubelet 发送一个请求即可:
POST /checkpoint/{namespace}/{pod}/{container}
然后将获取到的归档文件,通过以下命令进行恢复:
crictl restore --import=<archive>
为 kubectl 引入 kuberc 配置文件
KEP-3104 这个 KEP 旨在为 kubectl 引入一个新的配置文件 kuberc
,用来配置一些用户的自定义配置。这在很多的项目,或者工具中都有类似的用法。比如 Vim 中可以通过 -u
指定用户自己的配置文件,或者使用默认的 ~/.vimrc
来完成自定义配置。
这样做的好处就在于可以让 kubeconfig
更加的专注,仅仅需要保留和集群、用户凭证相关的信息即可,对于用户的自定义配置则分离开来。具体而言,这个配置文件看起来就会是这样:
apiVersion: v1alpha1
kind: Preferences
command:
aliases:
- alias: getdbprod
command: get pods -l what=database --namespace us-2-production
overrides:
- command: apply
flags:
- name: server-side
default: "true"
- command: delete
flags:
- name: confirm
default: "true"
- command: "*"
flags:
- name: exec-auth-allowlist
default: /var/kubectl/exec/...
看起来也比较直观,可以用来增加一些 alias
和覆盖一些默认的配置,这样大家不再需要定义很多的 alias,以后使用 kubectl 的时候敲的命令也能少很多。
此特性未实现之前,
在这里顺便推荐另一个项目 kubectl-aliases,此项目中包含了很多 alias,可以让使用 kubectl 的过程更加简单。
但也有一些弊端,就像是每个 Vim 用户都要有自己的 vimrc 配置文件一样,这会养成一定的习惯。在一些没有自己自定义配置的机器上使用时,会有些不习惯。
同时,这在排查问题时,也可能增加排查的链路(比如 kuberc 中增加了一个错误的配置之类的)。
举例来说,我在排查 Vim 的问题时候,通常会直接 vim -u /dev/null
这样,以防使用了任何自定义配置造成影响。那么后续如果这个功能完全实现了,那么大家在
排查问题的时候,需要注意使用 kubectl --kuberc /dev/null
类似这样的方式来避免本地自定义配置造成影响。
为 kubectl 添加 --subresource 的补全
- Add shell completion for new --subresource flag by marckhouzam · Pull Request #109070 · kubernetes/kubernetes
在 Kubernetes v1.24 中,给 kubectl 增加了 subresource 的支持(指 status
和 scale
),这样就可以很方便的直接对 subresource 进行操作了,而不需要每次都 -o yaml
之类的直接进行查看,或者通过 curl 之类的调用 API 来完成其他操作。
使用了此特性后,可以有如下效果:
# v1.24+
tao@moelove:~$ kubectl get -n apisix --subresource status deploy apisix-ingress-controller
NAME AGE
apisix-ingress-controller 2d23h
tao@moelove:~$ kubectl get -n apisix --subresource scale deploy apisix-ingress-controller -ojson
{
"apiVersion": "autoscaling/v1",
"kind": "Scale",
"metadata": {
"creationTimestamp": "2022-08-04T18:57:45Z",
"name": "apisix-ingress-controller",
"namespace": "apisix",
"resourceVersion": "1656",
"uid": "7c191a14-ee55-4254-80ba-7c91b4c833bd"
},
"spec": {
"replicas": 1
},
"status": {
"replicas": 1,
"selector": "app.kubernetes.io/instance=apisix,app.kubernetes.io/name=ingress-controller"
}
}
但是在此之前版本使用该参数的话,会直接提示错误:
# v1.23
tao@moelove:~$ kubectl-v1.23 get -n apisix --subresource status deploy apisix-ingress-controller
Error: unknown flag: --subresource
See 'kubectl get --help' for usage.
此处我提到的这个在 v1.25 中的 PR 实际上是为了给 --subresource
提供一个命令补全的能力(虽然如上文提到的,目前就两种资源),还是比较方便的。
其他
- #109074 · kubernetes/kubernetes
kubeadm 中为 etcd 的 static Pod 增加了一个 --experimental-initial-corrupt-check
选项,可以用来确认 etcd member 中数据的一致性。这个特性预期在 etcd 的 v3.6 版本中会正式可用。此外,etcd 的 Release 页面也写了,当前不建议将 etcd 3.5.x 用于生产环境,如果尚未进行升级,可以先继续使用 3.4.x。如果已经升级了,那么可以自行增加此参数;
- Migrate Ginkgo from v1 to v2 · kubernetes/kubernetes
这个 PR 持续了将近三个月,主要是将 Kubernetes 项目中使用的 Ginkgo 从已经废弃的 v1 版本升级到 v2 版本。
其实目前很多项目都在积极的推进此事,但不同的项目对 Ginkgo 的依赖和使用程度不同,在这个 PR 中修改了超过 600 个文件,非常的庞大。
而之前在 Apache APISIX Ingress controller 项目中,从 Ginkgo v1 升级到 v2 时,仅仅用了一周时间,修改文件不算太多。
此外目前 Kubernetes Ingress-NGINX 项目也同样在进行此升级,可能工作量也不小。
- Introduce KUBECACHEDIR environment variable to override default discovery cache dir by ardaguclu · kubernetes/kubernetes
这个 PR 说起来是比较小的一个改动,但是它的影响却很大。
在这个 PR 中引入了一个新的 KUBECACHEDIR
环境变量,来替代默认的 ~/.kube/cache
缓存目录。通过这个 PR 就有可能会导致用户在使用 kubectl 的时候,可以通过这个环境变量来跳过
缓存。进而可能会引起一些性能问题。
- kube-apiserver: default --enable-logs-handler flag to false · kubernetes/kubernetes
kube-apiserver 中的 /logs
由于安全问题,默认情况下会进行关闭,然后通过 --enable-logs-handler
标签进行启用。如果要进行日志采集的话,需要额外注意下。
- #111060 · kubernetes/kubernetes
kube-proxy 的 container image 将要变更为 distroless 的了。
这可以规避很多安全隐患,提升集群的安全性。
以上就是 Kubernetes v1.25 中比较值得关注的内容。在进行集群升级前一定要注意检查。
好了,我们下期再见!
欢迎订阅我的文章公众号【MoeLove】