欧美一区二区三区老妇人-欧美做爰猛烈大尺度电-99久久夜色精品国产亚洲a-亚洲福利视频一区二区

更新應(yīng)用時如何實現(xiàn)K8s中斷滾動更新

本篇文章給大家分享的是有關(guān)更新應(yīng)用時如何實現(xiàn)K8s中斷滾動更新,小編覺得挺實用的,因此分享給大家學(xué)習(xí),希望大家閱讀完這篇文章后可以有所收獲,話不多說,跟著小編一起來看看吧。

創(chuàng)新互聯(lián)建站是一家集網(wǎng)站建設(shè),景泰企業(yè)網(wǎng)站建設(shè),景泰品牌網(wǎng)站建設(shè),網(wǎng)站定制,景泰網(wǎng)站建設(shè)報價,網(wǎng)絡(luò)營銷,網(wǎng)絡(luò)優(yōu)化,景泰網(wǎng)站推廣為一體的創(chuàng)新建站企業(yè),幫助傳統(tǒng)企業(yè)提升企業(yè)形象加強企業(yè)競爭力。可充分滿足這一群體相比中小企業(yè)更為豐富、高端、多元的互聯(lián)網(wǎng)需求。同時我們時刻保持專業(yè)、時尚、前沿,時刻以成就客戶成長自我,堅持不斷學(xué)習(xí)、思考、沉淀、凈化自己,讓我們?yōu)楦嗟钠髽I(yè)打造出實用型網(wǎng)站。

Kubernetes 集群中,業(yè)務(wù)通常采用 Deployment + LoadBalancer 類型 Service 的方式對外提供服務(wù),其典型部署架構(gòu)如圖 1 所示。這種架構(gòu)部署和運維都十分簡單方便,但是在應(yīng)用更新或者升級時可能會存在服務(wù)中斷,引發(fā)線上問題。今天我們來詳細(xì)分析下這種架構(gòu)為何在更新應(yīng)用時會發(fā)生服務(wù)中斷以及如何避免服務(wù)中斷。

更新應(yīng)用時如何實現(xiàn)K8s中斷滾動更新
圖1 業(yè)務(wù)部署圖

為何會發(fā)生服務(wù)中斷

Deployment 滾動更新時會先創(chuàng)建新 pod,等待新 pod running 后再刪除舊 pod。

新建 Pod

更新應(yīng)用時如何實現(xiàn)K8s中斷滾動更新
圖 2 服務(wù)中斷示意圖

中斷原因:Pod running 后被加入到 Endpoint 后端,容器服務(wù)監(jiān)控到 Endpoint 變更后將 Node 加入到 SLB 后端。此時請求從 SLB 轉(zhuǎn)發(fā)到 Pod 中,但是 Pod 業(yè)務(wù)代碼還未初始化完畢,無法處理請求,導(dǎo)致服務(wù)中斷,如圖 2 所示。
解決方法:為 pod 配置就緒檢測,等待業(yè)務(wù)代碼初始化完畢后后再將 node 加入到 SLB 后端。

刪除 Pod

在刪除舊 pod 過程中需要對多個對象(如 Endpoint、ipvs/iptables、SLB)進行狀態(tài)同步,并且這些同步操作是異步執(zhí)行的,整體同步流程如圖 3 所示。

更新應(yīng)用時如何實現(xiàn)K8s中斷滾動更新
圖 3 Deployment 更新時序圖

Pod

  1. pod 狀態(tài)變更:將 Pod 設(shè)置為 Terminating 狀態(tài),并從所有 Service 的 Endpoints 列表中刪除。此時,Pod 停止獲得新的流量,但在 Pod 中運行的容器不會受到影響;

  2. 執(zhí)行 preStop Hook:Pod 刪除時會觸發(fā) preStop Hook,preStop Hook 支持 bash 腳本、TCP 或 HTTP 請求;

  3. 發(fā)送 SIGTERM 信號:向 Pod 中的容器發(fā)送 SIGTERM 信號;

  4. 等待指定的時間:terminationGracePeriodSeconds 字段用于控制等待時間,默認(rèn)值為 30 秒。該步驟與 preStop Hook 同時執(zhí)行,因此 terminationGracePeriodSeconds 需要大于 preStop 的時間,否則會出現(xiàn) preStop 未執(zhí)行完畢,pod 就被 kill 的情況;

  5. 發(fā)送 SIGKILL 信號:等待指定時間后,向 pod 中的容器發(fā)送 SIGKILL 信號,刪除 pod。

中斷原因:上述 1、2、3、4步驟同時進行,因此有可能存在 Pod 收到 SIGTERM 信號并且停止工作后,還未從 Endpoints 中移除的情況。此時,請求從 slb 轉(zhuǎn)發(fā)到 pod 中,而 Pod 已經(jīng)停止工作,因此會出現(xiàn)服務(wù)中斷,如圖 4 所示。

更新應(yīng)用時如何實現(xiàn)K8s中斷滾動更新
圖 4 服務(wù)中斷示意圖

解決方法:為 pod 配置 preStop Hook,使 Pod 收到 SIGTERM 時 sleep 一段時間而不是立刻停止工作,從而確保從 SLB 轉(zhuǎn)發(fā)的流量還可以繼續(xù)被 Pod 處理。

iptables/ipvs

中斷原因:當(dāng) pod 變?yōu)?termintaing 狀態(tài)時,會從所有 service 的 endpoint 中移除該 pod。kube-proxy 會清理對應(yīng)的 iptables/ipvs 條目。而容器服務(wù) watch 到 endpoint 變化后,會調(diào)用 slb openapi 移除后端,此操作會耗費幾秒。由于這兩個操作是同時進行,因此有可能存在節(jié)點上的 iptables/ipvs 條目已經(jīng)被清理,但是節(jié)點還未從 slb 移除的情況。此時,流量從 slb 流入,而節(jié)點上已經(jīng)沒有對應(yīng)的 iptables/ipvs 規(guī)則導(dǎo)致服務(wù)中斷,如圖 5 所示。

更新應(yīng)用時如何實現(xiàn)K8s中斷滾動更新
圖 5 服務(wù)中斷示意圖

解決方法

  • Cluster 模式:Cluster 模式下 kube-proxy 會把所有業(yè)務(wù) Pod 寫入 Node 的 iptables/ipvs 中,如果當(dāng)前 Node 沒有業(yè)務(wù) pod,則該請求會被轉(zhuǎn)發(fā)給其他 Node,因此不會存在服務(wù)中斷,如 6 所示;

更新應(yīng)用時如何實現(xiàn)K8s中斷滾動更新
圖 6 Cluster 模式請求轉(zhuǎn)發(fā)示意圖

  • Local 模式:Local 模式下,kube-proxy 僅會把 Node 上的 pod 寫入 iptables/ipvs。當(dāng) Node 上只有一個 pod 且狀態(tài)變?yōu)?terminating 時,iptables/ipvs 會將該 pod 記錄移除。此時請求轉(zhuǎn)發(fā)到這個 node 時,無對應(yīng)的 iptables/ipvs 記錄,導(dǎo)致請求失敗。這個問題可以通過原地升級來避免,即保證更新過程中 Node 上至少有一個 Running Pod。原地升級可以保障 Node 的 iptables/ipvs 中總會有一條業(yè)務(wù) pod 記錄,因此不會產(chǎn)生服務(wù)中斷,如圖 7 所示;

更新應(yīng)用時如何實現(xiàn)K8s中斷滾動更新
圖 7 Local 模式原地升級時請求轉(zhuǎn)發(fā)示意圖

  • ENI 模式 Service:ENI 模式繞過 kube-proxy,將 Pod 直接掛載到 SLB 后端,因此不存在因為 iptables/ipvs 導(dǎo)致的服務(wù)中斷。

更新應(yīng)用時如何實現(xiàn)K8s中斷滾動更新
圖 8  ENI 模式請求轉(zhuǎn)發(fā)示意圖

SLB

更新應(yīng)用時如何實現(xiàn)K8s中斷滾動更新
圖 9  服務(wù)中斷示意圖

中斷原因:容器服務(wù)監(jiān)控到 Endpoints 變化后,會將 Node 從 slb 后端移除。當(dāng)節(jié)點從 slb 后端移除后,SLB 對于繼續(xù)發(fā)往該節(jié)點的長連接會直接斷開,導(dǎo)致服務(wù)中斷。
解決方法:為 SLB 設(shè)置長鏈接優(yōu)雅中斷(依賴具體云廠商)。

如何避免服務(wù)中斷

避免服務(wù)中斷可以從 Pod 和 Service 兩類資源入手,接下來將針對上述中斷原因介紹相應(yīng)的配置方法。

Pod 配置

apiVersion: v1
kind: Pod
metadata:
  name: nginx
  namespace: default
spec:
  containers:
  - name: nginx
    image: nginx
    # 存活檢測
    livenessProbe:
      failureThreshold: 3
      initialDelaySeconds: 30
      periodSeconds: 30
      successThreshold: 1
      tcpSocket:
        port: 5084
      timeoutSeconds: 1
    # 就緒檢測
    readinessProbe:
      failureThreshold: 3
      initialDelaySeconds: 30
      periodSeconds: 30
      successThreshold: 1
      tcpSocket:
        port: 5084
      timeoutSeconds: 1
    # 優(yōu)雅退出
    lifecycle: 
      preStop: 
        exec: 
          command: 
          - sleep
          - 30
  terminationGracePeriodSeconds: 60

注意:需要合理設(shè)置就緒檢測(readinessProbe)的探測頻率、延時時間、不健康閾值等數(shù)據(jù),部分應(yīng)用啟動時間本身較長,如果設(shè)置的時間過短,會導(dǎo)致 POD 反復(fù)重啟。

  • livenessProbe 為存活檢測,如果失敗次數(shù)到達閾值(failureThreshold)后,pod 會重啟,具體配置見 官方文檔;

  • readinessProbe 為就緒檢查,只有就緒檢查通過后,pod 才會被加入到 Endpoint 中。容器服務(wù)監(jiān)控到 Endpoint 變化后才會將 node 掛載到 slb 后端;

  • preStop 時間建議設(shè)置為業(yè)務(wù)處理完所有剩余請求所需的時間,terminationGracePeriodSeconds 時間建議設(shè)置為 preStop 的時間再加 30 秒以上。

Service 配置

Cluster 模式(externalTrafficPolicy: Cluster)

apiVersion: v1
kind: Service
metadata:
  name: nginx
  namespace: default
spec:
  externalTrafficPolicy: Cluster
  ports:
  - port: 80
    protocol: TCP
    targetPort: 80
  selector:
    run: nginx
  type: LoadBalancer

容器服務(wù)會將集群中所有節(jié)點掛載到 SLB 的后端(使用 BackendLabel 標(biāo)簽配置后端的除外),因此會快速消耗 SLB quota。SLB 限制了每個 ECS 上能夠掛載的 SLB 的個數(shù),默認(rèn)值為 50,當(dāng) quota 消耗完后會導(dǎo)致無法創(chuàng)建新的監(jiān)聽及 SLB。

Cluster 模式下,如果當(dāng)前節(jié)點沒有業(yè)務(wù) pod 會將請求轉(zhuǎn)發(fā)給其他 Node。在跨節(jié)點轉(zhuǎn)發(fā)時需要做 NAT,因此會丟失源 IP。

Local 模式(externalTrafficPolicy: Local)

apiVersion: v1
kind: Service
metadata:
  name: nginx
  namespace: default
spec:
  externalTrafficPolicy: Local
  ports:
  - port: 80
    protocol: TCP
    targetPort: 80
  selector:
    run: nginx
  type: LoadBalancer
# 需要盡可能的讓每個節(jié)點在更新的過程中有至少一個的Running的Pod
# 通過修改UpdateStrategy和利用nodeAffinity盡可能的保證在原地rolling update
# * UpdateStrategy可以設(shè)置Max Unavailable為0,保證有新的Pod啟動后才停止之前的pod
# * 先對固定的幾個節(jié)點打上label用來調(diào)度
# * 使用nodeAffinity+和超過相關(guān)node數(shù)量的replicas數(shù)量保證盡可能在原地建新的Pod
# 例如:
apiVersion: apps/v1
kind: Deployment
......
strategy:
  rollingUpdate:
    maxSurge: 50%
    maxUnavailable: 0%
  type: RollingUpdate
......
    affinity:
      nodeAffinity:
          preferredDuringSchedulingIgnoredDuringExecution:
        - weight: 1
          preference:
              matchExpressions:
            - key: deploy
              operator: In
              values:
              - nginx

容器服務(wù)默認(rèn)會將 Service 對應(yīng)的 Pod 所在的節(jié)點加入到 SLB 后端,因此 SLB quota 消耗較慢。Local 模式下請求直接轉(zhuǎn)發(fā)到 pod 所在 node,不存在跨節(jié)點轉(zhuǎn)發(fā),因此可以保留源 IP 地址。Local 模式下可以通過原地升級的方式避免服務(wù)中斷,yaml 文件如上。

ENI 模式(阿里云特有模式)

apiVersion: v1
kind: Service
metadata:
  annotations:
    service.beta.kubernetes.io/backend-type: "eni"
  name: nginx
spec:
  ports:
  - name: http
    port: 30080
    protocol: TCP
    targetPort: 80
  selector:
    app: nginx
  type: LoadBalancer

Terway 網(wǎng)絡(luò)模式下,通過設(shè)置 service.beta.kubernetes.io/backend-type:
“eni” annotation 可以創(chuàng)建 ENI 模式的 SLB。ENI 模式下,pod會直接掛載到 SLB 后端,不經(jīng)過 kube-proxy,因此不存在服務(wù)中斷的問題。請求直接轉(zhuǎn)發(fā)到 pod,因此可以保留源 IP 地址。

三種 svc 模式對比如下表所示。

更新應(yīng)用時如何實現(xiàn)K8s中斷滾動更新
圖 10 Service 對比

結(jié)論

Terway 網(wǎng)絡(luò)模式 (推薦方式)

選用 ENI 模式的 svc + 設(shè)定 Pod 優(yōu)雅終止 + 就緒檢測。

Flannel 網(wǎng)絡(luò)模式 ?

  • 如果集群中 slb 數(shù)量不多且不需要保留源 ip:選用 cluster 模式 + 設(shè)定 Pod 優(yōu)雅終止 + 就緒檢測;

  • 如果集群中 slb 數(shù)量較多或需要保留源 ip:選用 local 模式 + 設(shè)定 Pod 優(yōu)雅終止 + 就緒檢測 + 原地升級(保證更新過程中每個節(jié)點上至少有一個 Running Pod)。

以上就是更新應(yīng)用時如何實現(xiàn)K8s中斷滾動更新,小編相信有部分知識點可能是我們?nèi)粘9ぷ鲿姷交蛴玫降摹OM隳芡ㄟ^這篇文章學(xué)到更多知識。更多詳情敬請關(guān)注創(chuàng)新互聯(lián)行業(yè)資訊頻道。

網(wǎng)站名稱:更新應(yīng)用時如何實現(xiàn)K8s中斷滾動更新
標(biāo)題URL:http://www.chinadenli.net/article26/pgiscg.html

成都網(wǎng)站建設(shè)公司_創(chuàng)新互聯(lián),為您提供服務(wù)器托管企業(yè)建站建站公司ChatGPT網(wǎng)站導(dǎo)航商城網(wǎng)站

廣告

聲明:本網(wǎng)站發(fā)布的內(nèi)容(圖片、視頻和文字)以用戶投稿、用戶轉(zhuǎn)載內(nèi)容為主,如果涉及侵權(quán)請盡快告知,我們將會在第一時間刪除。文章觀點不代表本網(wǎng)站立場,如需處理請聯(lián)系客服。電話:028-86922220;郵箱:631063699@qq.com。內(nèi)容未經(jīng)允許不得轉(zhuǎn)載,或轉(zhuǎn)載時需注明來源: 創(chuàng)新互聯(lián)

成都seo排名網(wǎng)站優(yōu)化