精品欧美一区二区三区在线观看 _久久久久国色av免费观看性色_国产精品久久在线观看_亚洲第一综合网站_91精品又粗又猛又爽_小泽玛利亚一区二区免费_91亚洲精品国偷拍自产在线观看 _久久精品视频在线播放_美女精品久久久_欧美日韩国产成人在线

最簡單的 Kubernetes 高可用安裝方式!

云計算
本文教你如何用一條命令構建 Kubernetes 高可用集群且不依賴 HAProxy 和 Keepalived,也無需 Ansible。通過內核 IPVS 對 apiserver 進行負載均衡,并且帶 apiserver 健康檢測。

本文教你如何用一條命令構建 Kubernetes 高可用集群且不依賴 HAProxy 和 Keepalived,也無需 Ansible。通過內核 IPVS 對 apiserver 進行負載均衡,并且帶 apiserver 健康檢測。架構如下圖所示:

最簡單的 Kubernetes 高可用安裝方式!

本項目名叫 sealos,旨在做一個簡單干凈輕量級穩定的 Kubernetes 安裝工具,能很好的支持高可用安裝。其實把一個東西做的功能強大并不難,但是做到極簡且靈活可擴展就比較難。所以在實現時就必須要遵循這些原則。

設計原則

sealos 特性與優勢:

  • 支持離線安裝,工具與資源包(二進制程序、配置文件、鏡像 yaml 文件等)分離,這樣不同版本替換不同離線包即可
  • 證書延期
  • 使用簡單
  • 支持自定義配置
  • 內核負載,極其穩定,因為簡單所以排查問題也極其簡單

為什么不用 Ansible?

1.0 版本確實是用 Ansible 實現,但是用戶還是需要先裝 Ansible,裝 Ansible 又需要裝 Python 和一些依賴等,為了不讓用戶那么麻煩把 Ansible 放到了容器里供用戶使用。如果不想配置免密鑰使用用戶名密碼時又需要 ssh-pass 等,總之不能讓我滿意,不是我想的極簡。

所以我想就來一個二進制文件工具,沒有任何依賴,文件分發與遠程命令都通過調用 SDK 實現所以不依賴其它任何東西,總算讓我這個有潔癖的人滿意了。

為什么不用 Keepalived 和 HAProxy?

HAProxy 用 static pod 跑沒有太大問題,還算好管理,Keepalived 現在大部分開源 Ansible 腳本都用 yum 或者 apt 等裝,這樣非常的不可控,有如下劣勢:

  • 源不一致可能導致版本不一致,版本不一致連配置文件都不一樣,我曾經檢測腳本不生效一直找不到原因,后來才知道是版本原因。
  • 系統原因安裝不上,依賴庫問題某些環境就直接裝不上了。
  • 看了網上很多安裝腳本,很多檢測腳本與權重調節方式都不對,直接去檢測 HAProxy 進程在不在,其實是應該去檢測 apiserver 是不是 healthz 的,如果 apiserver 掛了,即使 HAProxy 進程存在,集群也會不正常了,就是偽高可用了。
  • 管理不方便,通過 Prometheus 對集群進行監控,是能直接監控到 static pod 的,但是用 systemd 跑又需要單獨設置監控,且重啟還需要單獨拉起。不如 kubelet 統一管理來的干凈簡潔。
  • 我們還出現過 Keepalived 把 CPU 占滿的情況。

所以為了解決這個問題,我把 Keepalived 跑在了容器中(社區提供的鏡像基本是不可用的),改造中間也是發生過很多問題,最終好在解決了。

總而言之,累覺不愛,所以在想能不能甩開 HAProxy 和 Keepalived 做出更簡單更可靠的方案出來,還真找到了。

本地負載為什么不使用 Envoy 或者 Nginx?

我們通過本地負載解決高可用問題。

解釋一下本地負載,就是在每個 Node 節點上都啟動一個負載均衡,上游就是三個 Master。負載方式有很多 IPVS、Envoy、Nginx 等,我們最終使用內核 IPVS。

如果使用 Envoy 之類的負載均衡器,則需要在每個節點上都跑一個進程,消耗的資源更多,這是我不希望的。IPVS 實際也多跑了一個進程 LVScare,但是 LVScare 只是負責管理 IPVS 規則,和 kube-proxy 類似,真正的流量還是從很穩定的內核走的,不需要再把包丟到用戶態中去處理。

在架構實現上有個問題會讓使用 Envoy 等變得非常尷尬,就是 join 時如果負載均衡沒有建立那是會卡住的,kubelet 就不會起來,所以為此你需要先啟動 Envoy,意味著你又不能用 static pod 去管理它,同上面 Keepalived 宿主機部署一樣的問題,用 static pod 就會相互依賴,邏輯死鎖,雞說要先有蛋,蛋說要先有雞,最后誰都沒有。

使用 IPVS 就不一樣,我可以在 join 之前先把 IPVS 規則建立好,再去 join 就可以了,然后對規則進行守護即可。一旦 apiserver 不可訪問了,會自動清理掉所有 Node 上對應的 IPVS 規則, 等到 Master 恢復正常時添加回來。

為什么要定制 kubeadm?

首先是由于 kubeadm 把證書過期時間寫死了,所以需要定制把它改成 99 年,雖然大部分人可以自己去簽個新證書,但是我們還是不想再依賴個別的工具,就直接改源碼了。

其次就是做本地負載時修改 kubeadm 代碼是最方便的,因為在 join 時我們需要做兩個事,第一是 join 之前先創建好 IPVS 規則,第二是創建 static pod。如果這塊不去定制 kubeadm 就報靜態 Pod 目錄已存在的錯誤,忽略這個錯誤很不優雅。而且 kubeadm 中已經提供了一些很好用的 SDK 供我們去實現這個功能。

且這樣做之后最核心的功能都集成到 kubeadm 中了,sealos 就單單變成分發和執行上層命令的輕量級工具了,增加節點時我們也就可以直接用 kubeadm 了。

使用教程

安裝依賴

  1. 安裝并啟動 Docker
  2. 下載 Kubernetes 離線安裝包
  3. 下載最新版本 sealos
  4. 支持 Kubernetes 1.14.0+
  5. 務必同步服務器時間

安裝

多 Master HA 只需執行以下命令: 

  1. $ sealos init --master 192.168.0.2 \ 
  2. --master 192.168.0.3 \ 
  3. --master 192.168.0.4 \ 
  4. --node 192.168.0.5 \ 
  5. --user root \ 
  6. --passwd your-server-password \ 
  7. --version v1.14.1 \ 
  8. --pkg-url /root/kube1.14.1.tar.gz 

然后,就沒有然后了……沒錯,你的高可用集群已經裝好了,是不是覺得一臉懵逼?就是這么簡單快捷!

單 Master 多 Node: 

  1. $ sealos init --master 192.168.0.2 \ 
  2. --node 192.168.0.5 \  
  3. --user root \ 
  4. --passwd your-server-password \ 
  5. --version v1.14.1 \ 
  6. --pkg-url /root/kube1.14.1.tar.gz  

使用免密鑰或者密鑰對: 

  1. $ sealos init --master 172.16.198.83 \ 
  2. --node 172.16.198.84 \ 
  3. --pkg-url https://sealyun.oss-cn-beijing.aliyuncs.com/free/kube1.15.0.tar.gz \ 
  4. --pk /root/kubernetes.pem # this is your ssh private key file \ 
  5. --version v1.15.0 

參數解釋: 

  1. --master   master服務器地址列表 
  2. --node     node服務器地址列表 
  3. --user     服務器ssh用戶名 
  4. --passwd   服務器ssh用戶密碼 
  5. --pkg-url  離線包位置,可以放在本地目錄,也可以放在一個 http 服務器上,sealos 會 wget 到安裝目標機 
  6. --version  kubernetes 版本 
  7. --pk       ssh 私鑰地址,配置免密鑰默認就是 /root/.ssh/id_rsa 

其他參數: 

  1. --kubeadm-config string kubeadm-config.yaml kubeadm 配置文件,可自定義 kubeadm 配置文件  
  2. --vip string virtual ip(default "10.103.97.2")本地負載時虛擬 IP,不推薦修改,集群外不可訪問 

檢查安裝是否正常: 

  1. $ kubectl get node 
  2. NAME                      STATUS   ROLES    AGE     VERSION 
  3. izj6cdqfqw4o4o9tc0q44rz   Ready    master   2m25s   v1.14.1 
  4. izj6cdqfqw4o4o9tc0q44sz   Ready    master   119s    v1.14.1 
  5. izj6cdqfqw4o4o9tc0q44tz   Ready    master   63s     v1.14.1 
  6. izj6cdqfqw4o4o9tc0q44uz   Ready    <none>   38s     v1.14.1 
  7.  
  8. $ kubectl get pod --all-namespaces 
  9. NAMESPACE     NAME                                              READY   STATUS    RESTARTS   AGE 
  10. kube-system   calico-kube-controllers-5cbcccc885-9n2p8          1/1     Running   0          3m1s 
  11. kube-system   calico-node-656zn                                 1/1     Running   0          93s 
  12. kube-system   calico-node-bv5hn                                 1/1     Running   0          2m54s 
  13. kube-system   calico-node-f2vmd                                 1/1     Running   0          3m1s 
  14. kube-system   calico-node-tbd5l                                 1/1     Running   0          118s 
  15. kube-system   coredns-fb8b8dccf-8bnkv                           1/1     Running   0          3m1s 
  16. kube-system   coredns-fb8b8dccf-spq7r                           1/1     Running   0          3m1s 
  17. kube-system   etcd-izj6cdqfqw4o4o9tc0q44rz                      1/1     Running   0          2m25s 
  18. kube-system   etcd-izj6cdqfqw4o4o9tc0q44sz                      1/1     Running   0          2m53s 
  19. kube-system   etcd-izj6cdqfqw4o4o9tc0q44tz                      1/1     Running   0          118s 
  20. kube-system   kube-apiserver-izj6cdqfqw4o4o9tc0q44rz            1/1     Running   0          2m15s 
  21. kube-system   kube-apiserver-izj6cdqfqw4o4o9tc0q44sz            1/1     Running   0          2m54s 
  22. kube-system   kube-apiserver-izj6cdqfqw4o4o9tc0q44tz            1/1     Running   1          47s 
  23. kube-system   kube-controller-manager-izj6cdqfqw4o4o9tc0q44rz   1/1     Running   1          2m43s 
  24. kube-system   kube-controller-manager-izj6cdqfqw4o4o9tc0q44sz   1/1     Running   0          2m54s 
  25. kube-system   kube-controller-manager-izj6cdqfqw4o4o9tc0q44tz   1/1     Running   0          63s 
  26. kube-system   kube-proxy-b9b9z                                  1/1     Running   0          2m54s 
  27. kube-system   kube-proxy-nf66n                                  1/1     Running   0          3m1s 
  28. kube-system   kube-proxy-q2bqp                                  1/1     Running   0          118s 
  29. kube-system   kube-proxy-s5g2k                                  1/1     Running   0          93s 
  30. kube-system   kube-scheduler-izj6cdqfqw4o4o9tc0q44rz            1/1     Running   1          2m43s 
  31. kube-system   kube-scheduler-izj6cdqfqw4o4o9tc0q44sz            1/1     Running   0          2m54s 
  32. kube-system   kube-scheduler-izj6cdqfqw4o4o9tc0q44tz            1/1     Running   0          61s 
  33. kube-system   kube-sealyun-lvscare-izj6cdqfqw4o4o9tc0q44uz      1/1     Running   0  

增加節點

先獲取 join command,在 Master 上執行:

  1. $ kubeadm token create --print-join-command 

可以使用超級 kubeadm,但是 join 時需要增加一個 --master 參數: 

  1. $ cd kube/shell && init.sh  
  2. $ echo "10.103.97.2 apiserver.cluster.local" >> /etc/hosts # using vip  
  3. $ kubeadm join 10.103.97.2:6443 --token 9vr73a.a8uxyaju799qwdjv \  
  4. --master 10.103.97.100:6443 \  
  5. --master 10.103.97.101:6443 \  
  6. --master 10.103.97.102:6443 \  
  7. --discovery-token-ca-cert-hash sha256:7c2e69131a36ae2a042a339b33381c6d0d43887e2de83720eff5359e26aec866 

也可以用 sealos join 命令: 

  1. $ sealos join --master 192.168.0.2 \ 
  2. --master 192.168.0.3 \ 
  3. --master 192.168.0.4 \ 
  4. --vip 10.103.97.2 \ 
  5. --node 192.168.0.5 \ 
  6. --user root \ 
  7. --passwd your-server-password \ 
  8. --pkg-url /root/kube1.15.0.tar.gz 

使用自定義 kubeadm 配置文件

有時你可能需要自定義 kubeadm 的配置文件,比如要在證書里加入域名 sealyun.com。

首先需要獲取配置文件模板:

  1. $ sealos config -t kubeadm >> kubeadm-config.yaml.tmpl 

然后修改 kubeadm-config.yaml.tmpl 即可,將 sealyun.com 添加到配置中: 

  1. apiVersion: kubeadm.k8s.io/v1beta1 
  2. kind: ClusterConfiguration 
  3. kubernetesVersion: {{.Version}} 
  4. controlPlaneEndpoint: "apiserver.cluster.local:6443" 
  5. networking: 
  6. podSubnet: 100.64.0.0/10 
  7. apiServer: 
  8.     certSANs: 
  9.     - sealyun.com # this is what I added 
  10.     - 127.0.0.1 
  11.     - apiserver.cluster.local 
  12.     {{range .Masters -}} 
  13.     - {{.}} 
  14.     {{end -}} 
  15.     - {{.VIP}} 
  16. --- 
  17. apiVersion: kubeproxy.config.k8s.io/v1alpha1 
  18. kind: KubeProxyConfiguration 
  19. mode: "ipvs" 
  20. ipvs: 
  21.     excludeCIDRs:  
  22.     - "{{.VIP}}/32" 

注意:其它部分不用修改,sealos 會自動填充模板里面的內容。

最后在部署時使用 --kubeadm-config 指定配置文件模板即可: 

  1. $ sealos init --kubeadm-config kubeadm-config.yaml.tmpl \ 
  2. --master 192.168.0.2 \ 
  3. --master 192.168.0.3 \ 
  4. --master 192.168.0.4 \ 
  5. --node 192.168.0.5 \ 
  6. --user root \ 
  7. --passwd your-server-password \ 
  8. --version v1.14.1 \ 
  9. --pkg-url /root/kube1.14.1.tar.gz  

版本升級

本教程以 1.14 版本升級到 1.15 為例,其它版本原理類似,懂了這個其它的參考官方教程即可。

升級過程

  1. 升級 kubeadm,所有節點導入鏡像
  2. 升級控制節點
  3. 升級 Master(控制節點)上的 kubelet
  4. 升級其它 Master(控制節點)
  5. 升級 Node
  6. 驗證集群狀態

升級 kubeadm

把離線包拷貝到所有節點執行 cd kube/shell && sh init.sh。這里會把 kubeadm、kubectl、kubelet 的二進制文件都更新掉,而且會導入高版本鏡像。

升級控制節點 

  1. $ kubeadm upgrade plan  
  2. $ kubeadm upgrade apply v1.15.0 

重啟 kubelet:

  1. $ systemctl restart kubelet 

其實 kubelet 升級很簡單粗暴,我們只需要把新版本的 kubelet 拷貝到 /usr/bin 下面,重啟 kubelet service 即可,如果程序正在使用不讓覆蓋那么就停一下 kubelet 再進行拷貝,kubelet bin 文件在 conf/bin 目錄下。

升級其它控制節點:

  1. $ kubeadm upgrade apply 

升級 Node

驅逐節點(要不要驅逐看情況, 喜歡粗暴的直接來也沒啥):

  1. $ kubectl drain $NODE --ignore-daemonsets 

更新 kubelet 配置:

  1. $ kubeadm upgrade node config --kubelet-version v1.15.0 

然后升級 kubelet。同樣是替換二進制再重啟 kubelet service。

  1. $ systemctl restart kubelet 

召回失去的愛情:

  1. $ kubectl uncordon $NODE 

驗證

  1. $ kubectl get nodes 

如果版本信息都對的話基本就升級成功了。

kubeadm upgrade apply 干了啥?

  1. 檢查集群是否可升級
  2. 執行版本升級策略 哪些版本之間可以升級
  3. 確認鏡像是否存在
  4. 執行控制組件升級,如果失敗就回滾,其實就是 apiserver、controller manager、scheduler 等這些容器
  5. 升級 kube-dns 和 kube-proxy
  6. 創建新的證書文件,備份老的如果其超過 180 天

源碼編譯

因為使用了 netlink 庫,所以推薦在容器內進行編譯,只需一條命令:

  1. $ docker run --rm -v $GOPATH/src/github.com/fanux/sealos:/go/src/github.com/fanux/sealos -w /go/src/github.com/fanux/sealos -it golang:1.12.7 go build 

如果你使用的是 go mod,則需要指定通過 vendor 編譯:

  1. $ go build -mod vendor 

卸載 

  1. $ sealos clean \ 
  2. --master 192.168.0.2 \ 
  3. --master 192.168.0.3 \ 
  4. --master 192.168.0.4 \ 
  5. --node 192.168.0.5 \ 
  6. --user root \ 
  7. --passwd your-server-password 

sealos 實現原理

執行流程

  • 通過 sftp 或者 wget 把離線安裝包拷貝到目標機器上(masters 和 nodes)。
  • 在 master0 上執行 kubeadm init。
  • 在其它 Master 上執行 kubeadm join 并設置控制面,這個過程會在其它 Master 上起動 etcd 并與 master0 的 etcd 組成集群,并啟動控制平面的組件(apiserver、controller 等)。
  • join node 節點,會在 Node 上配置 IPVS 規則,配置 /etc/hosts 等。

所有對 apiserver 的請求都是通過域名進行訪問,因為 Node 需要通過虛擬 IP 連接多個 Master,每個節點的 kubelet 與 kube-proxy 訪問 apiserver 的虛擬地址是不一樣的,而 kubeadm 又只能在配置文件中指定一個地址,所以使用一個域名但是每個節點解析的 IP 不同。當 IP 地址發生變化時僅需要修改解析地址即可。

本地內核負載

通過這樣的方式實現每個 Node 上通過本地內核負載均衡訪問 masters: 

  1. +----------+                       +---------------+  virturl server: 127.0.0.1:6443 
  2. | mater0   |<----------------------| ipvs nodes    |    real servers: 
  3. +----------+                      |+---------------+            10.103.97.200:6443 
  4.                                 |                             10.103.97.201:6443 
  5. +----------+                      |                             10.103.97.202:6443 
  6. | mater1   |<---------------------+ 
  7. +----------+                      | 
  8.                                 | 
  9. +----------+                      | 
  10. | mater2   |<---------------------+ 
  11. +----------+ 

在 Node 上起了一個 LVScare 的 static pod 去守護這個 IPVS,一旦 apiserver 不可訪問了,會自動清理掉所有 Node 上對應的 IPVS 規則, Master 恢復正常時添加回來。

所以在你的 Node 上加了三個東西,可以直觀的看到: 

  1. $ cat /etc/kubernetes/manifests   # 這下面增加了 LVScare 的 static pod 
  2. $ ipvsadm -Ln                     # 可以看到創建的 IPVS 規則 
  3. $ cat /etc/hosts                  # 增加了虛擬IP的地址解析 

定制 kubeadm

sealos 對 kubeadm 改動非常少,主要是延長了證書過期時間和擴展了 join 命令。下面主要講講對 join 命令的改造。

首先 join 命令增加 --master 參數用于指定 Master 地址列表: 

  1. lagSet.StringSliceVar( 
  2. &locallb.LVScare.Masters, "master", []string{}, 
  3. "A list of ha masters, --master 192.168.0.2:6443  --master 192.168.0.2:6443  --master 192.168.0.2:6443"

這樣就可以拿到 Master 地址列表去做 IPVS 負載均衡了。

如果不是控制節點且不是單 Master,那么就只創建一條 IPVS 規則,控制節點上不需要創建,連自己的 apiserver 即可: 

  1. if data.cfg.ControlPlane == nil { 
  2.         fmt.Println("This is not a control plan"
  3.         if len(locallb.LVScare.Masters) != 0 { 
  4.             locallb.CreateLocalLB(args[0]) 
  5.         } 
  6.     }  

然后再去創建 lvscare static pod 來守護 IPVS: 

  1. if len(locallb.LVScare.Masters) != 0 { 
  2.             locallb.LVScareStaticPodToDisk("/etc/kubernetes/manifests"
  3.         }  

所以哪怕你不使用 sealos,也可以直接用定制過的 kubeadm 去部署集群,只是麻煩一些。下面給出安裝步驟。

kubeadm 配置文件: 

  1. apiVersion: kubeadm.k8s.io/v1beta1 
  2. kind: ClusterConfiguration 
  3. kubernetesVersion: v1.14.0 
  4. controlPlaneEndpoint: "apiserver.cluster.local:6443" # apiserver DNS name 
  5. apiServer: 
  6.     certSANs: 
  7.     - 127.0.0.1 
  8.     - apiserver.cluster.local 
  9.     - 172.20.241.205 
  10.     - 172.20.241.206 
  11.     - 172.20.241.207 
  12.     - 172.20.241.208 
  13.     - 10.103.97.1          # virturl ip 
  14. --- 
  15. apiVersion: kubeproxy.config.k8s.io/v1alpha1 
  16. kind: KubeProxyConfiguration 
  17. mode: "ipvs" 
  18. ipvs: 
  19.     excludeCIDRs:  
  20.     - "10.103.97.1/32" # 注意不加這個kube-proxy會清理你的規則 

在 master0(假設 vip 地址為 10.103.97.100)上執行以下命令: 

  1. $ echo "10.103.97.100 apiserver.cluster.local" >> /etc/hosts # 解析的是 master0 的地址  
  2. $ kubeadm init --config=kubeadm-config.yaml --experimental-upload-certs  
  3. $ mkdir ~/.kube && cp /etc/kubernetes/admin.conf ~/.kube/config  
  4. $ kubectl apply -f https://docs.projectcalico.org/v3.6/getting-started/kubernetes/installation/hosted/kubernetes-datastore/calico-networking/1.7/calico.yaml 

在 master1(假設 vip 地址為 10.103.97.101)上執行以下命令: 

  1. $ echo "10.103.97.100 apiserver.cluster.local" >> /etc/hosts #解析的是 master0 的地址,為了能正常 join 進去 
  2. $ kubeadm join 10.103.97.100:6443 --token 9vr73a.a8uxyaju799qwdjv \ 
  3. --discovery-token-ca-cert-hash sha256:7c2e69131a36ae2a042a339b33381c6d0d43887e2de83720eff5359e26aec866 \ 
  4. --experimental-control-plane \ 
  5. --certificate-key f8902e114ef118304e561c3ecd4d0b543adc226b7a07f675f56564185ffe0c07  
  6.  
  7. $ sed "s/10.103.97.100/10.103.97.101/g" -i /etc/hosts  # 解析再換成自己的地址,否則就都依賴 ma 

在 master2(假設 vip 地址為 10.103.97.102)上執行以下命令: 

  1. $ echo "10.103.97.100 apiserver.cluster.local" >> /etc/hosts 
  2. $ kubeadm join 10.103.97.100:6443 --token 9vr73a.a8uxyaju799qwdjv \ 
  3. --discovery-token-ca-cert-hash sha256:7c2e69131a36ae2a042a339b33381c6d0d43887e2de83720eff5359e26aec866 \ 
  4. --experimental-control-plane \ 
  5. --certificate-key f8902e114ef118304e561c3ecd4d0b543adc226b7a07f675f56564185ffe0c07   
  6.  
  7. $ sed "s/10.103.97.100/10.103.97.102/g" -i /etc/hosts 

在 node 上 join 時加上 --master 參數指定 master 地址列表: 

  1. $ echo "10.103.97.1 apiserver.cluster.local" >> /etc/hosts   # 需要解析成虛擬 ip 
  2. $ kubeadm join 10.103.97.1:6443 --token 9vr73a.a8uxyaju799qwdjv \ 
  3. --master 10.103.97.100:6443 \ 
  4. --master 10.103.97.101:6443 \ 
  5. --master 10.103.97.102:6443 \ 
  6. --discovery-token-ca-cert-hash sha256:7c2e69131a36ae2a042a339b33381c6d0d43887e2de83720 

離線包結構分析 

  1. ├── bin  # 指定版本的bin文件,只需要這三個,其它組件跑容器里 
  2. │   ├── kubeadm 
  3. │   ├── kubectl 
  4. │   └── kubelet 
  5. ├── conf 
  6. │   ├── 10-kubeadm.conf  # 這個文件新版本沒用到,我在shell里直接生成,這樣可以檢測cgroup driver 
  7. │   ├── dashboard 
  8. │   │   ├── dashboard-admin.yaml 
  9. │   │   └── kubernetes-dashboard.yaml 
  10. │   ├── heapster 
  11. │   │   ├── grafana.yaml 
  12. │   │   ├── heapster.yaml 
  13. │   │   ├── influxdb.yaml 
  14. │   │   └── rbac 
  15. │   │       └── heapster-rbac.yaml 
  16. │   ├── kubeadm.yaml # kubeadm的配置文件 
  17. │   ├── kubelet.service  # kubelet systemd配置文件 
  18. │   ├── net 
  19. │   │   └── calico.yaml 
  20. │   └── promethus 
  21. ├── images  # 所有鏡像包 
  22. │   └── images.tar 
  23. └── shell 
  24. ├── init.sh  # 初始化腳本 
  25. └── master.sh # 運行master腳本 
  • init.sh 腳本會將 bin 目錄下的二進制文件拷貝到 $PATH 下面,并配置好 systemd,關閉 swap 和防火墻等等,然后導入集群所需要的鏡像。
  • master.sh 主要執行了 kubeadm init。
  • conf 目錄下面包含了 kubeadm 的配置文件,calico yaml 文件等等。
  • sealos 會調用上面的兩個腳本,所以大部分兼容。不同版本都可以通過微調腳本來保持兼容。

 

 

責任編輯:未麗燕 來源: Dockone.in
相關推薦

2022-07-08 14:17:18

Kubernetes集群高可用Linux

2024-12-09 00:00:09

2021-05-14 07:02:00

Python方式應用

2023-12-18 09:37:37

2011-02-17 11:19:24

Linux Live

2023-08-21 15:28:36

云原生Kubernetes

2021-03-17 10:05:42

KubernetesRedis數據庫

2021-06-17 06:29:16

kube-vip Kubernetes開源項目

2021-11-02 17:27:40

部署高可用Kubernetes

2013-07-02 15:23:08

MySQL MHA故障轉移

2009-12-02 15:32:51

路由器怎樣安裝

2022-09-02 16:59:13

Kubernetes高可用Linux

2020-06-02 10:43:54

Kubernetes容器服務

2021-09-09 07:45:25

kube-vip Kuberneteshostname

2022-03-01 23:27:08

開發架構服務端

2024-07-25 08:39:48

2022-05-02 18:15:04

KubernetesLinux開源

2010-12-30 10:10:06

NetLinux學習

2021-03-04 13:10:32

KubernetesRedisLinux

2019-02-19 10:30:29

VirtualBoxKali Linux虛擬機
點贊
收藏

51CTO技術棧公眾號

亚洲五月天综合| 日本精品久久中文字幕佐佐木| 天天综合成人网| 日本一本在线免费福利| 成人a免费在线看| 欧美在线欧美在线| 青青操在线视频观看| 2021年精品国产福利在线| 日韩欧美成人区| 在线视频不卡国产| 少妇一级淫片免费看| 日本不卡的三区四区五区| 久热精品在线视频| 全黄一级裸体片| 精品一区二区三区亚洲| 色综合天天视频在线观看 | 色综合久久中文| 欧美丰满嫩嫩电影| 熟妇人妻va精品中文字幕 | 一本色道久久综合亚洲精品酒店| 欧美精品三级在线观看| 日本免费不卡一区二区| av在线看片| 国产欧美精品区一区二区三区 | 五月婷婷六月丁香激情| 国产传媒在线观看| 亚洲欧美激情一区二区| 先锋影音欧美| 四虎影院在线域名免费观看| ccyy激情综合| 日韩中文字幕区一区有砖一区 | 亚洲成人动漫在线播放| 蜜桃麻豆91| 亚洲精品18在线观看| 免费在线观看不卡| 日本高清不卡在线| 国产精品 欧美 日韩| 欧美3p在线观看| 亚洲欧美日韩综合| 熟妇高潮精品一区二区三区| 一区二区视频| 欧美一区二区三区在线观看 | 蜜臀av性久久久久蜜臀aⅴ| 国产91对白在线播放| 国产一二三四在线| 午夜欧美精品久久久久久久| 精品国产一区二区三区久久狼黑人| 91精彩刺激对白露脸偷拍| 99国产精品久久一区二区三区| 欧美男女性生活在线直播观看| 黄色国产小视频| 日韩久久一区二区三区| 色综合网站在线| 狠狠97人人婷婷五月| 极品视频在线| 精品国产老师黑色丝袜高跟鞋| 波多野结衣综合网| 老色鬼在线视频| 天天操天天色综合| 99精品人妻少妇一区二区| 蜜桃视频在线观看免费视频| 狠狠色香婷婷久久亚洲精品| 北条麻妃69av| 免费福利视频一区二区三区| 色婷婷亚洲精品| 午夜免费福利在线| 亚洲国产精选| 欧美一区二区三区人| 亚洲熟女乱综合一区二区| 色播一区二区| 久久蜜桃精品| 亚洲第一中文字幕| 国产精品无码永久免费不卡| jizz欧美性11| 色影院视频在线| 亚洲日本青草视频在线怡红院| 一区二区三区我不卡| 男人的天堂在线视频免费观看| 亚洲丝袜美腿综合| 日本欧美视频在线观看| 蜜桃麻豆影像在线观看| 91官网在线免费观看| 孩娇小videos精品| av综合网站| 亚洲欧美日韩中文视频| 99精品中文字幕| 国产精品va| 欧美一级高清免费播放| 这里只有精品999| 国产精品12区| 女同一区二区| 成人在线直播| 狠狠躁夜夜躁人人爽天天天天97| 国产aaaaa毛片| 欧美日韩午夜电影网| 精品五月天久久| 国产精品久久久免费看| 亚洲电影av| 国产精品一区二区性色av| 亚洲卡一卡二卡三| 日本一区二区三区国色天香| 国产传媒久久久| 欧美三级精品| 日韩一区二区三| 91中文字幕永久在线| 亚洲老妇激情| 日韩免费在线视频| 亚洲国产成人一区二区| 亚洲国产成人午夜在线一区| 日本中文字幕在线视频观看| 欧美成人家庭影院| 精品爽片免费看久久| 黄色一级片在线| 日韩成人一级大片| 久久久久欧美| 污污的网站在线免费观看| 欧美日韩国产一级二级| 中文字幕日韩三级片| 欧美午夜不卡| 国产在线精品自拍| 成年女人的天堂在线| 亚洲第一福利一区| 99久久综合网| 天天做天天爱综合| 国产精品免费久久久久久| 人妻无码中文字幕免费视频蜜桃| 亚洲同性同志一二三专区| 国产一级不卡毛片| 伊人成综合网yiren22| 欧美精品久久久久久久免费观看 | 99精品视频网| 91观看网站| 免费av网站在线看| 欧美日韩在线三区| 日韩黄色中文字幕| 久色成人在线| 欧洲亚洲一区| 中国字幕a在线看韩国电影| 亚洲成人三级在线| 国产一级一片免费播放| 国产大片一区二区| 最新视频 - x88av| 亚洲网站免费| 久久国产精品久久久久| 91禁在线观看| 综合久久久久久| 性chinese极品按摩| 日本a口亚洲| 国产伦精品一区二区三区精品视频| 国产在线观看精品一区| 色八戒一区二区三区| 97人妻精品一区二区免费| 日韩主播视频在线| 亚洲欧美在线网| 四虎国产精品免费久久5151| 久久精品欧美视频| 99国产在线播放| 一个色妞综合视频在线观看| 国产免费a级片| 在线成人h网| 久热这里只精品99re8久| 亚洲成人短视频| 中文字幕无线精品亚洲乱码一区| 这里只有精品999| 亚洲成人第一区| 91免费精品国自产拍在线不卡| 成 年 人 黄 色 大 片大 全| 欧美重口另类| 国产精品扒开腿做爽爽爽男男| www.黄在线观看| 欧美精品免费视频| 国产一级在线播放| 久久久蜜桃精品| 91制片厂毛片| 午夜日韩av| 欧美精品七区| 欧美天堂一区| 欧美极品xxxx| 激情福利在线| 欧美一区二区三区在线看| 国产乡下妇女做爰| 久久精品一区二区三区不卡牛牛| 亚洲欧美日韩三级| 黄色日韩精品| 日本一区二区高清视频| 无码国模国产在线观看| 日本久久精品视频| av理论在线观看| 97精品视频在线看| 久久精品五月| 日本一区二区在线不卡| 在线日韩av片| 日本一区二区三区在线视频| 亚洲二区av| 国内成人精品一区| 在线免费观看黄色网址| 欧美不卡一二三| 中文字幕免费观看| 亚洲欧美偷拍卡通变态| 国产精品无码久久久久一区二区| 国产最新精品免费| 黄色国产精品视频| 你懂的国产精品永久在线| 免费中文日韩| 伊人久久影院| 91精品免费看| av综合电影网站| 色综合久久88| 日本免费在线视频| 亚洲天堂精品在线| 色呦呦中文字幕| 欧美一级一级性生活免费录像| 日本视频在线观看免费| 亚洲一二三专区| 国产在视频线精品视频| 91一区二区在线| 伊人性伊人情综合网| 黄页网站在线看| 奇米影视一区二区三区| 成人毛片一区二区| 国内精品99| 精品91一区二区三区| 日韩大片在线播放| 欧美日韩国产精品一卡| 日韩成人动漫在线观看| 成人情视频高清免费观看电影| 视频欧美精品| 国产精品日韩欧美大师| 成人午夜精品| 欧洲精品在线视频| 中文在线资源| 8090成年在线看片午夜| xxxx在线视频| 久久99国产精品久久久久久久久| 欧美成人三区| 日韩网站免费观看| 1024视频在线| 色偷偷888欧美精品久久久| 国外av在线| 国产一区二区三区中文 | 国产精品1区二区.| www黄色av| 99国产精品视频免费观看一公开 | 在线一区二区三区视频| 色偷偷偷综合中文字幕;dd| 国产一级免费在线观看| 国产在线69| 久久夜夜操妹子| 亚洲一区二区五区| 欧美大片xxxx| 亚洲色图另类专区| 成人自拍小视频| 最好看的中文字幕久久| 欧美h片在线观看| 亚洲另类在线制服丝袜| 欧美日韩免费做爰视频| 亚洲国产一区二区在线播放| 日本中文字幕网址| 国内自拍亚洲| 国产欧美精品xxxx另类| 欧美系列精品| 成人羞羞国产免费| 视频二区欧美| 国产综合欧美在线看| 秋霞蜜臀av久久电影网免费 | h视频久久久| 国产精品手机视频| 亚洲区小说区图片区qvod按摩| 欧美极品色图| 日韩欧美在线中字| 欧美这里只有精品| 一区二区三区四区五区精品视频 | 欧美日韩国产精品一区二区三区| 亚洲一级二级三级在线免费观看| 综合激情网五月| 欧美日韩国产美| 亚洲精品911| 亚洲欧美日韩区| 黄色av免费在线| 国a精品视频大全| 亚洲成人人体| 91在线精品视频| 偷拍亚洲精品| 久久久一二三四| 亚洲国产一区二区三区a毛片| 成人免费xxxxx在线视频| 国产一区二区在线看| 亚洲综合自拍网| |精品福利一区二区三区| 日本在线观看视频网站| 欧美午夜精品电影| 欧美一级特黄aaaaaa| 中文字幕欧美精品在线| 久久五月精品中文字幕| 国产精品视频一区二区高潮| 51精品国产| 亚洲精品一品区二品区三品区 | 欧美激情一区不卡| 国产在线视频第一页| 欧美在线不卡视频| 东京干手机福利视频| 在线亚洲男人天堂| 黄在线观看免费网站ktv| 成人有码在线视频| 奇米狠狠一区二区三区| 人妻无码一区二区三区四区| 人人爽香蕉精品| 水蜜桃av无码| 亚洲男人天堂一区| 精品一区二三区| 亚洲国产三级网| av网站大全在线| 国产精品福利观看| 岛国精品一区| 日本美女爱爱视频| 麻豆国产精品一区二区三区| 菠萝菠萝蜜网站| 亚洲国产欧美在线| 99久久精品日本一区二区免费| 在线观看欧美视频| 在线精品亚洲欧美日韩国产| 国产日韩欧美二区| 欧美激情亚洲| 国产在线观看中文字幕| 中文字幕免费观看一区| 一级黄色在线观看| 日韩精品中文字幕在线| heyzo在线| www.成人av.com| 午夜精品婷婷| 亚洲一区二区三区三州| 亚洲欧洲精品一区二区三区| 波多野结衣一二区| 亚洲免费精彩视频| 国产精欧美一区二区三区蓝颜男同| 精品不卡在线| 99pao成人国产永久免费视频| 又色又爽又黄18网站| 亚洲综合一二区| 91好吊色国产欧美日韩在线| 麻豆精品少妇| 国产aaa免费视频| 国产不卡在线视频| 久久久久久久极品内射| 91精品国产综合久久精品图片| 日本美女在线中文版| 国产乱肥老妇国产一区二| 91视频综合| 不用播放器的免费av| 成人欧美一区二区三区视频网页| 国产精品无码专区av免费播放| 久久精品福利视频| 视频一区视频二区欧美| 日本老太婆做爰视频| 国产精品69毛片高清亚洲| 国产亚洲成人av| 亚洲精品久久久久中文字幕二区| 69av成人| 欧美日韩在线精品一区二区三区| 亚洲制服少妇| 亚洲码无人客一区二区三区| 欧美色图天堂网| 免费观看在线午夜影视| 99在线免费观看视频| 亚洲精品1234| aaaaa级少妇高潮大片免费看| 欧洲精品一区二区| 黄视频在线观看网站| 成人久久18免费网站漫画| 亚洲无吗在线| 麻豆av免费观看| 欧美人牲a欧美精品| 综合图区亚洲| 久久99欧美| 日本亚洲欧美天堂免费| 久久免费看少妇高潮v片特黄| 精品久久一区二区| 另类专区亚洲| 宅男噜噜99国产精品观看免费| 国产91精品一区二区麻豆亚洲| 日本道在线观看| 日韩在线观看网址| 91久久精品无嫩草影院| 男女av免费观看| 亚洲欧洲综合另类| 天天操天天干天天爱| 国产精品一区二区女厕厕| 欧美日韩天堂| 极品人妻videosss人妻| 日韩欧美国产wwwww| 卡通欧美亚洲| 小泽玛利亚av在线| 国产日韩欧美综合在线| 亚洲国产www| 国产男人精品视频| 在线亚洲免费| 人妻久久一区二区| 亚洲一二三在线| 澳门久久精品| 久久久久久久高清|