kubernetes-yaml/learn/learn-kubernetes-master/chapter9.md

36 KiB
Raw Blame History

第九章 通过 rollouts 和 rollbacks 管理应用发布

你会更频繁地更新现有应用,而不是部署新应用。容器化应用程序从它们使用的基本镜像继承多个发布节奏;Docker Hub上针对操作系统、平台sdk和运行时的官方镜像通常每个月都会发布一个新版本。您应该有一个重建镜像的过程并在这些依赖项更新时发布更新因为它们可能包含关键的安全补丁。这个过程的关键是能够安全地推出更新并在出现错误时为自己提供暂停和回滚更新的选项。Kubernetes 为 Deployments、DaemonSets 和 StatefulSets 提供了这些场景。

单一的更新方法并不适用于所有类型的应用程序,因此 Kubernetes 为控制器提供了不同的更新策略,并提供了调整策略工作方式的选项。我们将在本章探讨所有这些选项。如果你正在考虑跳过这一点,因为你对 6000 字的应用程序更新不感兴趣,我建议你坚持下去。更新是导致应用程序宕机的最大原因,但如果您了解 Kubernetes 提供的工具,就可以显著降低风险。我会试着在这个过程中注入一些有趣的内容。

9.1 Kubernetes 如何管理 rollouts

我们将从 Deployments 开始——实际上,您已经完成了大量的 Deployment 更新。每次我们对现有的 Deployment 进行更改(我们一章要做10次)Kubernetes 都会进行一次 rollout。在展开过程中Deployment 将创建一个新的 ReplicaSet并将其扩展到所需的副本数量同时将先前的 ReplicaSet 缩小到零副本。图 9.1 显示了正在进行的更新。

图9.1

图 9.1 Deployment 控制多个 ReplicaSet以便它们可以管理滚动更新

Rollouts arent triggered from every change to a Deployment, only from a change to the Pod spec. If you make a change that the Deployment can manage with the current ReplicaSet, like updating the number of replicas, thats done without a rollout.

不是 Deployment 的每次更改都会触发 rollout 的,只有 Pod spec 的更改才会触发 rollout。如果您做了一个 Deployemt 可以使用当前 ReplicaSet 管理的更改,比如更新副本的数量,则无需 rollout 即可完成。

现在就试试 部署一个简单的两个副本应用程序,然后更新它以增加规模,并查看如何管理 ReplicaSet

# 切换到章节练习目录:
cd ch09

# 部署一个简单的 web app:
kubectl apply -f vweb/

# 检查 ReplicaSets:
kubectl get rs -l app=vweb

# 现在扩展规模:
kubectl apply -f vweb/update/vweb-v1-scale.yaml

# 检查 ReplicaSets:
kubectl get rs -l app=vweb

# 检查 deployment 历史:
kubectl rollout history deploy/vweb

kubectl rollout 命令提供了查看和管理 rollout 的选项。您可以从图9.2的输出中看到本练习中只有一次rollout即创建ReplicaSet的初始部署。规模更新只更改了现有的ReplicaSet因此没有第二次 rollout。

图9.2

图 9.2 Deployment 通过 rollout 管理变更,但仅限 Pod spec 更改时

您正在进行的应用程序更新将集中于部署运行容器镜像的更新版本的新 Pods。您应该通过更新 YAML spec 来管理这个问题,但是 kubectl 使用 set 命令提供了一个快速的替代方案。使用此命令是更新现有部署的必要方法您应该将其视为与scale 命令相同的方法—它是摆脱棘手情况的有用方法但需要随后更新YAML文件。

现在就试试 使用 kubectl 更新部署的镜像版本。这是对Pod spec 的更改,因此它将触发一个新的 rollout

# 更新web应用程序的镜像:
kubectl set image deployment/vweb web=kiamol/ch09-vweb:v2

# 再次检查 ReplicaSets:
kubectl get rs -l app=vweb

# 检查 rollouts:
kubectl rollout history deploy/vweb

kubectl set 命令改变一个现有对象的 spec 。您可以使用它来更改 Pod 的镜像或环境变量或 Service 的选择器。这是应用新的 YAML spec 的捷径,但它的实现方式是相同的。在这个练习中,更改导致了一个 rollout创建了一个新的ReplicaSet 来运行新的 Pod spec而旧的ReplicaSet缩小到零。在图9.3中可以看到这一点。

图9.3

图 9.3 必要的更新经过相同的 rollout 过程,但现在您的 YAML 和实际状态是不同步的

Kubernetes 对其他 Pod 控制器(DaemonSets和StatefulSets)使用了相同的 rollout 概念。它们是API中一个奇怪的部分因为它们不直接映射到对象(您不需要创建具有“rollout”类型的资源),但是它们是用于您的版本的重要管理工具。您可以使用 rollout 来跟踪版本历史并恢复到以前的版本。

9.2 使用 rollouts 和 rollbacks 更新 Deployments

如果您再次查看图 9.3,您将看到 rollout 历史记录非常没有帮助。每次 rollout 都会记录一个修订号,但没有其他记录。目前还不清楚是什么原因导致了这个变化,也不清楚哪个 ReplicaSet 与哪个修订相关。最好包含一个版本号(或Git提交ID)作为 Pods 的标签,然后 Deployment 也将该标签添加到 ReplicaSet 中,这样可以更容易地跟踪更新。

现在就试试 对 Deployment 应用更新,它使用相同的 Docker 镜像,但更改 Pod 的版本标签。这是对 Pod spec 的更改,因此它将创建一个新的 rollout。

# 通过 record 参数应用新的变更:
kubectl apply -f vweb/update/vweb-v11.yaml --record

# 检查 ReplicaSets 以及它们的标签:
kubectl get rs -l app=vweb --show-labels

# 检查当前 rollout 状态:
kubectl rollout status deploy/vweb

# 检查 rollout history:
kubectl rollout history deploy/vweb

# 根据 ReplicaSets 查看 rollout revision:
kubectl get rs -l app=vweb -o=custom-columns=NAME:.metadata.name,
  REPLICAS:.status.replicas,REVISION:.metadata.annotations.deployment
  \.kubernetes\.io/revision

我的输出如图 9.4 所示。添加 record 标志将 kubectl 命令保存为 rollout 详细信息,如果您的 YAML 文件具有标识名称这将很有帮助。通常情况下他们不会这样做因为您将部署整个文件夹所以Pod spec 中的版本号标签是一个有用的补充。然后,您需要一些笨拙的 JSONPath 来查找 rollout revision 和ReplicaSet之间的链接。

图9.4

图 9.4 Kubernetes 使用标签作为关键信息,额外的细节存储在 annotations 中.

随着 Kubernetes 成熟度的提高,您将希望拥有一组包含在所有对象 spec 中的标准标签。标签和选择器是一个核心特性您将一直使用它们来查找和管理对象。应用程序名称、组件名称和版本都是很好的标签但是区分为方便而包含的标签和Kubernetes用于映射对象关系的标签是很重要的。

清单 9.1 显示了 Pod 标签和前面练习中 Deployment 的选择器。app 标签在选择器中使用Deployment 使用该选择器来查找它的Pods。为了方便起见Pod 还包含一个版本标签但那不是选择器的一部分。如果是则Deployment将链接到一个版本因为一旦创建了Deployment就不能更改选择器。

清单9.1 vweb-v11。yaml在 Pod spec 中有附加标签的 Deployment

spec:
  replicas: 3
  selector:
    matchLabels:
      app: vweb # 用于选择器.
  template:
    metadata:
      labels:
        app: vweb
        version: v1.1 # 多配置了一个 version 标签.

你需要事先仔细规划你的选择器,但你应该在 Pod spec 中添加任何你需要的标签以使你的更新易于管理。Deployment 会保留多个replicaset(10是默认值),并且名称中的 Pod 模板散列使得它们很难直接使用,即使在进行了几次更新之后也是如此。让我们看看我们部署的应用程序实际做了什么,然后在另一个 rollout 中查看ReplicaSets。

现在就试试 向web服务发起HTTP调用以查看响应然后启动另一次更新并再次检查响应

# 因为将会使用 url 很多次,所以把它保存到本地文件中:
kubectl get svc vweb -o
  jsonpath='http://{.status.loadBalancer.ingress[0].*}:8090/v.txt' >
  url.txt
  
# 然后通过保存地址进行 HTTP 请求:
curl $(cat url.txt)

# 部署 v2 更新:
kubectl apply -f vweb/update/vweb-v2.yaml --record

# 再次检查响应:
curl $(cat url.txt)

# 检查 ReplicaSet 详细信息:
kubectl get rs -l app=vweb --show-labels

在本练习中,您将看到 replicaset 并不是易于管理的对象,因此需要使用标准化标签。通过检查 ReplicaSet 的标签,可以很容易地看到应用程序的哪个版本处于活动状态(如图9.5所示),但标签只是文本字段,因此需要流程保障以确保它们是可靠的。

图9.5

图 9.5 Kubernetes 为您管理 rollouts但如果您添加标签它会有所帮助.

rollout 确实有助于抽象 ReplicaSets 的细节,但它们的主要用途是管理发布。我们已经看到了 kubectl 的 rollout 历史,您还可以运行命令暂停正在进行的 rollout 或将部署回滚到较早的版本。一个简单的命令将回滚到以前的部署但是如果您想回滚到特定的版本则需要更多的JSONPath技巧来查找所需的版本。现在我们将看到这一点并使用kubectl的一个非常方便的特性该特性可以告诉您运行命令时会发生什么而无需实际执行该命令。

现在就试试 检查应用的 rollout 历史记录并尝试回滚到应用的v1

# 查看 revisions:
kubectl rollout history deploy/vweb

# 查看 ReplicaSets,带出 revisions 信息:
kubectl get rs -l app=vweb -o=custom-
  columns=NAME:.metadata.name,REPLICAS:.status.replicas,VERSION:.meta
  data.labels.version,REVISION:.metadata.annotations.deployment\.kube
  rnetes\.io/revision
  
# 看一下执行 rollout 会发生什么:
kubectl rollout undo deploy/vweb --dry-run

# 然后运行一个 rollback 到 revision 2:
kubectl rollout undo deploy/vweb --to-revision=2

# 检查 app—可能会惊到你:
curl $(cat url.txt)

如果您在运行该练习时看到图9.6所示的最终输出时感到困惑(这是本章令人兴奋的部分),请举手。我举起手来,我已经知道会发生什么。这就是为什么你需要持续的发布。

图9.6

图 9.6 标签是一个关键的管理特性,但它们是由人类设置的,所以它们很容易出错

过程最好是完全自动化的过程因为一旦开始混合方法就会得到令人困惑的结果。我回滚到版本2从ReplicaSets上的标签判断应该已经恢复到应用程序的v1。但是修订2实际上来自9.1节中的kubectl集合镜像练习因此容器镜像是v2但ReplicaSet标签是v1。

您可以看到,发布过程的移动部分相当简单:部署创建和重用ReplicaSets根据需要扩大和缩小它们对ReplicaSets的更改被记录为rollout。Kubernetes让您可以控制部署策略中的关键因素但在我们继续讨论之前我们将看看还涉及配置更改的版本因为这增加了另一个复杂因素。

在第4章中我讨论了更新Config-Maps和Secrets内容的不同方法您所做的选择会影响您干净地回滚的能力。第一种方法是说配置是可变的因此发布可能包括ConfigMap更改这是对现有ConfigMap对象的更新。但是如果您的发布只是一个配置更改那么您就没有作为rollout的记录也没有回滚的选项。

现在就试试删除现有的部署这样我们就有了一个干净的历史记录然后部署一个使用ConfigMap的新版本看看当你更新相同的ConfigMap时会发生什么

# 删除 app:
kubectl delete deploy vweb

# 部署一个用到 configmap 的新应用:
kubectl apply -f vweb/update/vweb-v3-with-configMap.yaml --record

# 检查响应:
curl $(cat url.txt)

# 更新 ConfigMap, 等待一段时间成功:
kubectl apply -f vweb/update/vweb-configMap-v31.yaml --record
sleep 120

# 检查 app :
curl $(cat url.txt)

# 检查 rollout history:
kubectl rollout history deploy/vweb

如图9.7所示对ConfigMap的更新改变了应用程序的行为但它不是对Deployment的更改因此如果配置更改导致问题也没有回滚的修订。

图9.7

图 9.7 配置更新可能会改变应用程序的行为,但不会记录 rollout.

这就是热重载方法如果您的应用程序支持它那么它工作得很好因为仅配置的更改不需要rollout。现有的pod和容器保持运行因此不存在服务中断的风险。代价是失去回滚选项您必须决定这是否比热重载更重要。

您的替代方案是将所有configmap和Secrets视为不可变的因此在对象名称中包含一些版本控制方案并且在配置对象创建后永远不要更新它。相反您可以创建一个具有新名称的新配置对象并将其与对Deployment的更新一起发布后者引用了新的配置对象。

现在就试试 使用不可更改的配置部署应用的新版本,这样你就可以比较发布过程

# 删除 old Deployment:
kubectl delete deploy vweb

# 使用不可变配置创建一个新的部署:
kubectl apply -f vweb/update/vweb-v4-with-configMap.yaml --record

# 检查输出:
curl $(cat url.txt)

# 发布一个新的 ConfigMap 并更新 Deployment:
kubectl apply -f vweb/update/vweb-v41-with-configMap.yaml --record

# 检查输出:
curl $(cat url.txt)

# 更新将产生完整的 rollout:
kubectl rollout history deploy/vweb

# 因此可以执行回滚:
kubectl rollout undo deploy/vweb
curl $(cat url.txt)

图9.8显示了我的输出其中配置更新伴随着Deployment更新后者保留了 rollout 历史并启用了回滚。

图9.8

图 9.8 不可变配置保留了滚出历史,但它意味着每次配置更改都要 rollout.

Kubernetes 并不真正关心您采用哪种方法,您的选择在一定程度上取决于组织中谁拥有配置。如果项目团队还拥有部署和配置,那么您可能更喜欢可变配置对象,以简化发布过程和要管理的对象数量。如果一个单独的团队拥有配置,那么不可变的方法会更好,因为他们可以在发布之前部署新的配置对象。应用程序的规模也会影响决策:在规模大的情况下,你可能更倾向于减少应用程序部署的数量,并依赖可变配置。

这个决定有文化上的影响,因为它框定了应用程序发布是如何被感知的——把它看作是没什么大不了的日常事件,或者看作是要尽可能避免的有点可怕的事情。在容器世界中,发布应该是一些微不足道的事件,只要需要,您就会乐于以最小的仪式来完成。测试和调整你的发行策略会给你带来很大的信心。

9.3 为 Deployments 配置滚动更新

Deployment 支持两种更新策略:RollingUpdate 是默认的,也是我们目前使用的一种,另一种是 Recreate。您知道 rollout 更新是如何工作的——通过缩小旧的ReplicaSet同时扩大新的ReplicaSet这提供了服务连续性和在较长时间内错开更新的能力。而 Recreate 策略则不提供这两种情况。它仍然使用 ReplicaSets 来实现更改但是在扩展替换之前它将先前的设置缩小到零。清单9.2显示了部署 spec 中的recreate策略。这只是一个设置但它具有重大影响。

清单9.2 vweb-recreate-v2.yaml一个使用重建更新策略的部署

apiVersion: apps/v1
kind: Deployment
metadata:
  name: vweb
spec:
  replicas: 3
  strategy:                                # 更新策略.
    type: Recreate                         
  # selector & Pod spec follow

当你部署这个时你会看到它只是一个普通的应用程序有一个Deployment一个ReplicaSet和一些Pods。如果查看Deployment的详细信息您将看到它使用了 Recreate 更新策略,但这仅在更新 Deployment 时才会起作用。

现在就试试 部署清单9.2中的应用程序,并浏览对象。这就像一个正常的部署

# 删除 app:
kubectl delete deploy vweb

# 部署 Recreate 策略的应用:
kubectl apply -f vweb-strategies/vweb-recreate-v2.yaml

# 检查 ReplicaSets:
kubectl get rs -l app=vweb

# 测试 app:
curl $(cat url.txt)

# 查看 Deployment 详细:
kubectl describe deploy vweb

如图 9.9 所示这是同一个旧web应用程序的新部署使用容器镜像的版本2。有三个pod它们都在运行应用程序按预期运行——到目前为止还不错

图9.9

图 9.9 在你发布更新之前,重新创建更新策略不会影响行为

不过这种配置很危险只有在应用程序的不同版本不能共存时才应该使用这种配置——就像数据库模式更新一样需要确保只有一个版本的应用程序连接到数据库。即使在这种情况下您也有更好的选择但如果您的场景确实需要这种方法那么您最好确保在发布之前测试所有更新。如果你部署了一个更新而新Pods失败了你会直到旧Pods全部被终止才知道你的应用将完全不可用。

现在就试试版本3的web应用程序已经准备好部署。当应用程序离线时你会看到它坏了因为没有Pods在运行

# 部署 v3:
kubectl apply -f vweb-strategies/vweb-recreate-v3.yaml

# 检查状态,有更新的时间限制:
kubectl rollout status deploy/vweb --timeout=2s

# 检查 ReplicaSets:
kubectl get rs -l app=vweb

# 检查 Pods:
kubectl get pods -l app=vweb

# 测试 app将会失败:
curl $(cat url.txt)

在这个练习中你会看到Kubernetes很乐意让你的应用脱机因为这是你所请求的。Recreate 策略使用更新后的Pod模板创建一个新的ReplicaSet然后将先前的ReplicaSet缩小到0并将新的ReplicaSet扩大到3。新的镜像被破坏了所以新的Pods失败了没有任何东西可以响应请求如图9.10所示。

图9.10

图 9.10 如果新的Pod规格被打破Recreate 策略会愉快地关闭你的应用

现在您已经看到了它,您可能应该尝试忘记 Recreate 策略。在某些情况下,它可能看起来很有吸引力,但当它出现时,您仍然应该考虑替代选项,即使这意味着重新查看您的体系结构。应用程序的大规模关闭将导致停机,而且停机时间可能比您计划的要长。

RollingUpdate 是默认的因为它们可以防止停机但即使这样默认行为也是相当激进的。对于产品版本您需要调优一些设置以设置发布的速度以及如何监控它。作为rollout 更新规范的一部分您可以使用以下两个值添加控制新ReplicaSet的扩展速度和旧ReplicaSet的缩小速度的选项:

  • maxUnavailable 是用于缩小旧 ReplicaSet 的加速器。它定义了在更新期间相对于所需的Pod计数可以有多少Pod不可用。您可以把它看作是在旧的ReplicaSet中终止pod的批处理大小。在10个pod的部署中将此设置为30%意味着将立即终止3个pod。
  • maxSurge 是扩展新ReplicaSet的加速器。它定义了在期望的副本计数上可以存在多少额外的pod就像在新的ReplicaSet中创建pod的批处理大小一样。在10个部署中将此设置为40%将创建4个新pod。

很好,很简单,除了这两种设置都是在 rollout 时使用的所以你有一个跷跷板的效果。新的ReplicaSet被放大直到Pod计数是所需的副本计数加上maxSurge值然后部署等待旧的Pod被删除。旧的ReplicaSet被缩小到所需的计数减去maxUnavailable计数然后Deployment等待新Pods达到就绪状态。你不能把两个值都设为0因为这意味着什么都不会改变。图9.11显示了如何组合这些设置,以便对新版本使用先创建再删除、先删除再创建或先删除再创建的方法。

图9.11

图 9.11 正在进行部署更新,使用不同的 rollout 选项

如果您的集群中有空闲的计算能力,您可以调整这些设置以更快地 rollout。您还可以在您的比例设置上创建额外的pod但如果您对新版本有问题那么这样做的风险更大。缓慢的发布更保守:它使用更少的计算,给你更多的机会发现任何问题,但它在发布期间降低了应用程序的整体容量。让我们来看看这些是什么样子,首先通过保守的 rollout 来修复我们的坏应用程序。

现在就试试恢复到工作版本2的镜像使用 maxSurge=1 和 maxUnavailable=0 在RollingUpdate策略

# 更新 Deployment 使用 rolling updates 以及 v2 image:
kubectl apply -f vweb-strategies/vweb-rollingUpdate-v2.yaml

# 检查 Pods:
kubectl get po -l app=vweb

# 检查 rollout status:
kubectl rollout status deploy/vweb

# 检查 ReplicaSets:
kubectl get rs -l app=vweb

# 测试 app:
curl $(cat url.txt)

在本练习中新的部署规范将Pod镜像更改回版本2并将更新策略更改为滚动更新。你可以在图9.12中看到首先进行了策略更改然后根据新策略进行Pod更新一次创建一个新的Pod。

图9.12

图 9.12 如果Pod模板匹配新规范部署更新将使用现有的ReplicaSet

在前面的练习中,您需要快速工作以查看 rollout 的进度因为这个简单的应用程序很快启动只要一个新的Pod正在运行就会继续使用另一个新Pod进行 rollout。在部署规范中您可以通过以下两个字段来控制部署的速度:

  • minReadySeconds 增加了一个延迟即部署等待以确保新pod稳定。它指定了Pod在没有容器崩溃之前应该启动的秒数。默认值为0这就是为什么在 rollout 过程中会快速创建新pod的原因。
  • progressDeadlineSeconds 指定部署更新在被视为进展失败之前可以运行的时间。默认值是600秒因此如果更新没有在10分钟内完成它将被标记为未进行。

监视发布需要多长时间听起来很有用但从Kubernetes 1.19开始超过最后期限实际上并不会影响部署—它只是在部署上设置了一个标志。Kubernetes没有自动回滚功能但是当该功能出现时它将由这个标志触发。等待和检查Pod中失败的容器是一个相当生硬的工具但这比根本不检查要好您应该考虑在所有部署中指定minReadySeconds。

这些安全措施可以添加到你的部署中但它们对我们的web应用没有真正的帮助因为新的Pods总是失败。我们可以使此部署安全并使用滚动更新保持应用程序在线。下一个版本3更新将maxUnavailable和maxSurge设置为1。这样做与默认值(每个25%)具有相同的效果但在规范中使用确切的值更清楚并且在小型部署中Pod计数比百分比更容易处理。

现在就试试再次部署版本3更新。它仍然会失败但通过使用RollingUpdate策略它不会让应用程序离线

# 更新失败的容器镜像:
kubectl apply -f vweb-strategies/vweb-rollingUpdate-v3.yaml

# 检查 Pods:
kubectl get po -l app=vweb

# 检查 rollout:
kubectl rollout status deploy/vweb

# 查看  ReplicaSets:
kubectl get rs -l app=vweb

# 测试 app:
curl $(cat url.txt)

当您运行这个练习时您将看到更新永远不会完成并且部署卡住了两个ReplicaSets其Pod数为2如图9.13所示。旧的ReplicaSet将不会进一步缩小因为部署已经将maxUnavailable设置为1;它的规模已经缩小了1不会有新的pod准备继续推出。新的ReplicaSet将不再扩展因为maxSurge被设置为1并且已经达到了部署的总Pod数。

图9.13

图 9.13 失败的更新不会自动回滚或暂停;他们只是一直在努力

如果您在几分钟后检查新pod您将看到它们处于CrashLoopBackoff状态。Kubernetes通过创建替换容器来重新启动失败的Pods但它在每次重新启动之间添加了暂停这样就不会阻塞节点上的CPU。这个暂停就是后退时间它呈指数级增加——第一次重新启动时为10秒然后是20秒然后是40秒最多5分钟。这些第三版pod将永远无法成功重启但Kubernetes将继续尝试。

Deployments 是您使用最多的控制器,值得花时间研究更新策略和定时设置,以确保您理解.对你的应用的影响。DaemonSets和StatefulSets也有滚动更新功能因为它们有不同的管理pod的方式所以它们也有不同的 rollout 方法。

9.4 DaemonSets 和 StatefulSets 中的滚动更新

DaemonSets 和 StatefulSets 有两个可用的更新策略。默认的是RollingUpdate我们将在本节中探讨它。另一种方法是OnDelete它用于需要密切控制每个Pod何时更新的情况。你部署更新控制器会监视pod但它不会终止任何现有的pod。它会一直等待直到它们被另一个进程删除然后用新规范中的pod替换它们。

当您考虑这些控制器的用例时这并不像听起来那么毫无意义。您可能有一个StatefulSet其中每个Pod在删除之前都需要将数据刷新到磁盘您可以有一个自动化的过程来完成这一点。您可能有一个DaemonSet其中每个Pod都需要从硬件组件断开连接以便下一个Pod可以使用它。这种情况很少见但是OnDelete策略可以让你在删除Pods时拥有所有权并且仍然可以让Kubernetes自动创建替换。

在本节中,我们将重点关注 rollingupdate为此我们将部署一个版本的待办事项列表应用程序它在StatefulSet中运行数据库在Deployment中运行web应用程序在DaemonSet中运行web应用程序的反向代理。

现在就试试 待办事项应用程序可以在6个pod中运行所以首先清理现有的应用程序以腾出空间。然后部署应用程序并测试它是否正常工作

# 删除所有本章节应用:
kubectl delete all -l kiamol=ch09

# 部署 to-do app, database, and proxy:
kubectl apply -f todo-list/db/ -f todo-list/web/ -f todo-list/proxy/

# 获取应用访问url:
kubectl get svc todo-proxy -o
  jsonpath='http://{.status.loadBalancer.ingress[0].*}:8091'

#  浏览应用, 添加条目

这只是为更新做准备。你现在应该有一个工作的应用程序你可以添加项目并看到列表。我的输出如图9.14所示。

图9.14

图 9.14 运行带有各种免费控制器的to-do应用程序

第一个更新是 DaemonSet在那里我们将退出一个新版本的Nginx代理镜像。DaemonSets在集群中的所有(或部分)节点上运行一个Pod通过滚动更新您没有激增选项。在更新期间节点永远不会运行两个pod因此这始终是一种先删除再删除的策略。您可以添加 maxUnavailable 设置来控制并行更新的节点数量但是如果您关闭多个pod您将以较低的容量运行直到替换准备就绪。

我们将使用 maxUnavailable 设置为1和 minReadySeconds 设置为90来更新代理。在单节点实验室集群上延迟不会产生任何影响——一个节点上只有一个Pod需要替换。在更大的集群中这意味着一次更换一个Pod并等待90秒让Pod证明它是稳定的然后再转移到下一个Pod。

现在就试试 启动DaemonSet的滚动更新。在单节点集群中更换Pod启动时会出现短暂停机

# 部署更新后的 DaemonSet :
kubectl apply -f todo-list/proxy/update/nginx-rollingUpdate.yaml

# watch Pod 更新:
kubectl get po -l app=todo-proxy --watch

kubectl 中的 watch 标志对于监视更改非常有用——它会一直查看对象,并在状态更改时打印更新行。在本练习中,您将看到旧的 Pod 在创建新Pod之前被终止这意味着新Pod启动时应用程序有停机时间。图9.15显示了我在发布中有1秒的停机时间。

图9.15

图 9.15 DaemonSets 更新通过删除现有Pod之前创建一个替换

多节点集群不会有任何停机时间因为服务只向准备就绪的Pod发送流量并且一次只更新一个Pod因此其他Pod始终可用。但是您的容量将会减少如果您使用更高的maxUnavailable设置来优化更快的推出这意味着随着更多pod并行更新容量将会减少更多。这是你对DaemonSets的唯一设置所以这是一个简单的选择通过删除pod手动控制更新或让Kubernetes通过指定数量的pod并行推出更新。

statefulset 更有趣尽管它们只有一个选项来配置rollout。Pod由StatefulSet按顺序管理这也适用于更新——从集合中的最后一个Pod向后推出到第一个Pod。这对于Pod 0是主节点的集群应用程序特别有用因为它首先验证从节点上的更新。

StatefulSets 没有maxSurge或maxUnavailable设置。更新总是由一个Pod在一个时间。您的配置选项是使用分区设置定义总共应该更新多少pod。这个设置定义了滚出停止的截止点它对于执行有状态应用的分阶段滚出非常有用。如果你的set中有五个副本并且spec中包含partition=3那么只有Pod 4和Pod 3将被更新;pod 0、1和2仍然运行前一个规范。

现在就试试 在StatefulSet中部署一个分区更新到数据库镜像它在Pod 1之后停止所以Pod 0不会被更新

# 部署更新:
kubectl apply -f todo-list/db/update/todo-db-rollingUpdate-
  partition.yaml

# 检查 rollout status:
kubectl rollout status statefulset/todo-db

# 查看 Pods, 显示镜像及启动时间:
kubectl get pods -l app=todo-db -o=custom-columns=NAME:.metadata.name,
  IMAGE:.spec.containers[0].image,START_TIME:.status.startTime

# 切换 web app 到只读模式, 所以它会使用副本数据库:
kubectl apply -f todo-list/web/update/todo-web-readonly.yaml

# 测试 app—只不过是只读的

这个练习是一个分区更新它推出了Postgres容器镜像的新版本但只对次要Pod进行更新在本例中是单个Pod如图9.16所示。当你在只读模式下使用应用程序时你会看到它连接到更新后的备用程序备用程序仍然包含从上一个Pod复制的数据。

图9.16

图 9.16 对StatefulSets的分区更新允许您更新次要文件而保持主文件不变

这是完整的展示即使在一组pod运行不同的规格。对于StatefulSet中的数据量大的应用程序您可能需要在每个更新的Pod上运行一组验证作业然后才愿意继续推出而分区更新可以让您做到这一点。您可以通过运行分区值递减的连续更新来手动控制发布的节奏直到在最后的更新中完全删除分区以完成集合。

现在就试试将更新部署到数据库主数据库。此规范与前面的练习相同,但删除了分区设置

# 应用更新:
kubectl apply -f todo-list/db/update/todo-db-rollingUpdate.yaml

# 检查 progress:
kubectl rollout status statefulset/todo-db

# Pods 现在拥有相同的配置:
kubectl get pods -l app=todo-db -o=custom-
  columns=NAME:.metadata.name,IMAGE:.spec.containers[0].image,START
  _TIME:.status.startTime

# 重置 web app 回到读写模式:
kubectl apply -f todo-list/web/todo-web.yaml
  
# 测试应用程序是否工作并连接到更新后的主Pod

你可以在图9.17中看到我的输出其中完整的更新已经完成主服务器使用与备用服务器相同的更新版本的Postgres。如果您以前对复制的数据库进行过更新您就会知道这非常简单——当然除非您使用的是托管数据库服务。

图9.17

图 9.17 使用未分区的更新完成StatefulSet rollout

滚动更新是 Deployment 、DaemonSets和StatefulSets的默认设置它们的工作方式大致相同:逐渐用运行新规范的Pods取代运行前一个应用程序规范的Pods。实际的细节不同因为控制器的工作方式不同目标也不同但它们对应用程序的要求是相同的:当多个版本处于活动状态时它需要正确工作。这并不总是可行的还有其他方法可以在Kubernetes中部署应用程序更新。

9.5 理解发布策略

以一个 web 应用程序为例。滚动更新非常棒因为它可以让每个Pod在处理完所有客户端请求后优雅地关闭并且可以按照您的喜好快速或保守地 rollout。rollout 的实际方面很简单,但您也必须考虑用户体验(UX)方面。

应用程序更新很可能会改变ux——使用不同的设计、新功能或更新的工作流。对于用户来说如果他们在推出过程中看到新版本然后刷新并发现自己使用了旧版本那么任何这样的更改都会非常奇怪因为这些请求是由运行不同版本应用程序的Pods提供的。

处理这种情况的策略超出了控制器中的RollingUpdate规范。您可以在web应用程序中设置cookie将客户端链接到特定的用户体验然后使用更高级的流量路由系统以确保用户一直看到新版本。当我们在第15章讲到它时你会看到它引入了更多的活动部分。对于这种方法过于复杂或不能解决双运行多个版本的问题的情况您可以使用蓝绿部署自己管理发布。

蓝绿部署是一个简单的概念:你同时部署了应用程序的新版本和旧版本但只有一个版本是活动的。您可以通过拨动开关来选择激活的版本。在Kubernetes中你可以通过更新Service中的标签选择器来将流量发送到不同部署中的Pods如图9.18所示。

图9.18

图 9.18 在蓝绿部署中运行多个版本的应用程序,但只有一个是活的

你需要在你的集群中有能力运行两个完整的应用程序副本。如果它是一个web或API组件那么新版本应该使用最小的内存和CPU因为它没有接收任何流量。您可以通过更新服务的标签选择器来切换版本因此更新实际上是即时的因为所有Pods都在运行并准备接收流量。您可以轻松地来回翻转因此您可以回滚有问题的版本而无需等待ReplicaSets的伸缩。

蓝绿部署没有滚动更新那么复杂但正因为如此它们更简单。它们可能更适合那些迁移到Kubernetes的组织这些组织有大规模部署的历史但它们是一种计算密集型的方法需要多个步骤并且不能保存应用程序的推出历史。您应该将滚动更新作为首选的部署策略但蓝绿部署是一个很好的跳板可以在您获得信心的同时使用。

以上是关于滚动更新的全部内容,但是当我们讨论生产准备、网络进入和监视等主题时,我们将回到这些概念。我们只需要在去实验室之前整理一下集群。

现在就试试 删除为本章创建的所有对象

kubectl delete all -l kiamol=ch09
kubectl delete cm -l kiamol=ch09
kubectl delete pvc -l kiamol=ch09

9.6 实验室

我们在前一节中学习了蓝绿部署的理论现在在实验室中您将实现它。通过本实验将有助于您清楚地了解选择器如何将Pods与其他对象关联起来并为您提供使用滚动更新的替代方案的经验。

  • 起点是web应用程序的版本1您可以从lab/v1文件夹部署。
  • 你需要为应用程序的版本2创建一个蓝绿色的部署。规范将类似于版本1的规范但使用:v2容器镜像。
  • 当您部署更新时您应该能够通过更改服务在版本1和版本2之间切换而无需对Pods进行任何更新。

这是复制YAML文件并尝试确定需要更改哪些字段的良好实践。你可以在GitHub上找到我的解决方案: https://github.com/yyong-brs/learn-kubernetes/tree/master/kiamol/ch09/lab/README.md