當(dāng)前位置:首頁 > 芯聞號(hào) > 充電吧
[導(dǎo)讀] 原文鏈接:https://mp.weixin.qq.com/s/MFSvDWtue4YruFV3jyLQVw 在本篇文章中我將以在Mac筆記本中安裝兩臺(tái)Ubantu系統(tǒng)的方式,演示如何部署一套具

原文鏈接:https://mp.weixin.qq.com/s/MFSvDWtue4YruFV3jyLQVw

在本篇文章中我將以在Mac筆記本中安裝兩臺(tái)Ubantu系統(tǒng)的方式,演示如何部署一套具備一個(gè)控制節(jié)點(diǎn)(Master)和一個(gè)計(jì)算節(jié)點(diǎn)(Worker)的Kubernetes學(xué)習(xí)集群。

1、系統(tǒng)環(huán)境準(zhǔn)備

要安裝部署Kubernetes集群,首先需要準(zhǔn)備機(jī)器,最直接的辦法可以到公有云(如阿里云等)申請(qǐng)幾臺(tái)虛擬機(jī)。而如果條件允許,拿幾臺(tái)本地物理服務(wù)器來組建集群自然是最好不過了。但是這些機(jī)器需要滿足以下幾個(gè)條件:

要求64位Linux操作系統(tǒng),且內(nèi)核版本要求3.10及以上,能滿足安裝Docker項(xiàng)目所需的要求; 機(jī)器之間要保持網(wǎng)絡(luò)互通,這是未來容器之間網(wǎng)絡(luò)互通的前提條件; 要有外網(wǎng)訪問權(quán)限,因?yàn)椴渴鸬倪^程中需要拉取相應(yīng)的鏡像,要求能夠訪問到gcr.io、quay.io這兩個(gè)dockerregistry,因?yàn)橛行〔糠昼R像需要從這里拉取; 單機(jī)可用資源建議2核CPU、8G內(nèi)存或以上,如果小一點(diǎn)也可以但是能調(diào)度的Pod數(shù)量就比較有限了; 磁盤空間要求在30GB以上,主要用于存儲(chǔ)Docker鏡像及相關(guān)日志文件;

在本次實(shí)驗(yàn)中由于條件有限,我是在Mac筆記本上通過虛擬軟件準(zhǔn)備了兩臺(tái)虛擬機(jī),其具體配置如下:

2核CPU、2GB內(nèi)存,30GB的磁盤空間; Unbantu 20.04 LTS的Sever版本,其Linux內(nèi)核為5.4.0; 內(nèi)網(wǎng)互通,外網(wǎng)訪問權(quán)限不受控制;

2、Kubeadm一鍵部署工具簡介

作為典型的分布式系統(tǒng),Kubernetes的部署一直是困擾初學(xué)者進(jìn)入Kubernetes世界的一大障礙。在發(fā)布早期Kubernetes的部署主要依賴于社區(qū)維護(hù)的各種腳本,但這其中會(huì)涉及二進(jìn)制編譯、配置文件以及kube-apiserver授權(quán)配置文件等諸多運(yùn)維工作。目前各大云服務(wù)廠商常用的Kubernetes部署方式是使用SaltStack、Ansible等運(yùn)維工具自動(dòng)化地執(zhí)行這些繁瑣的步驟,但即使這樣,這個(gè)部署的過程對(duì)于初學(xué)者來說依然是非常繁瑣的。

正是基于這樣的痛點(diǎn),在志愿者的推動(dòng)下Kubernetes社區(qū)終于發(fā)起了kubeadm這一獨(dú)立的一鍵部署工具,使用kubeadm我們可以通過幾條簡單的指令來快速地部署一個(gè)kubernetes集群。后面的內(nèi)容,就將具體演示如何使用kubeadm來部署一個(gè)Kubernetes集群。

3、安裝Kubeadm及Docker環(huán)境

在準(zhǔn)備的兩臺(tái)虛擬機(jī)中,分別安裝Kubeadm部署工具及Docker環(huán)境。步驟如下:

1)、編輯操作系統(tǒng)安裝源配置文件,添加kubernetes鏡像源,命令如下:

#添加Kubernetes官方鏡像源apt-key root@kubenetesnode01:~#curl -s https://packages.cloud.google.com/apt/doc/apt-key.gpg | apt-key add - #添加Kubernetes官方鏡像源地址 root@kubernetesnode01:~# vim /etc/apt/sources.list #add kubernetes source deb http://apt.kubernetes.io/ kubernetes-xenial main

上述操作添加的是kubernetes的官方鏡像源,如果apt.kubernetes.io因?yàn)榫W(wǎng)絡(luò)原因訪問不到,也可以換成國內(nèi)Ubantu鏡像源,如阿里云鏡像源地址:

#添加阿里云Kubernetes鏡像源apt-key root@kubenetesnode01:~# curl -s https://mirrors.aliyun.com/kubernetes/apt/doc/apt-key.gpg | apt-key add - #添加阿里云Kubernetes鏡像源地址 root@kubernetesnode01:~# vim /etc/apt/sources.list deb https://mirrors.aliyun.com/kubernetes/apt/ kubernetes-xenial main

2)、鏡像源添加后更新apt資源列表,命令如下:

root@kubernetesnode01:~# apt-get update Hit:1 http://cn.archive.ubuntu.com/ubuntu focal InRelease Hit:2 http://cn.archive.ubuntu.com/ubuntu focal-updates InRelease Hit:3 http://cn.archive.ubuntu.com/ubuntu focal-backports InRelease Hit:4 http://cn.archive.ubuntu.com/ubuntu focal-security InRelease Get:5 https://packages.cloud.google.com/apt kubernetes-xenial InRelease [8,993 B] Get:6 https://packages.cloud.google.com/apt kubernetes-xenial/main amd64 Packages [37.7 kB] Fetched 46.7 kB in 7s (6,586 B/s) Reading package lists... Done

3)、完成上述2步后就可以通過apt-get命令安裝kubeadm了,如下:

root@kubernetesnode01:~# apt-get install -y docker.io kubeadm Reading package lists... Done Building dependency tree Reading state information... Done The following additional packages will be installed: bridge-utils cgroupfs-mount conntrack containerd cri-tools dns-root-data dnsmasq-base ebtables kubectl kubelet kubernetes-cni libidn11 pigz runc socat ubuntu-fan ....

這里直接使用Ubantu的docker.io安裝源。在上述安裝kubeadm的過程中,kubeadm和kubelet、kubectl、kubernetes-cni這幾個(gè)kubernetes核心組件的二進(jìn)制文件都會(huì)被自動(dòng)安裝好。

4)、Docker服務(wù)啟動(dòng)及限制修改

完成上述步驟側(cè)操作后,系統(tǒng)中會(huì)自動(dòng)安裝Docker引擎,但是在具體運(yùn)行kubernetes部署之前需要對(duì)Docker的配置信息進(jìn)行一些調(diào)整。

首先,編輯系統(tǒng)/etc/default/grub文件,在配置項(xiàng)GRUB_CMDLINE_LINUX中添加如下參數(shù):

GRUB_CMDLINE_LINUX=" cgroup_enable=memory swapaccount=1"

完成編輯后保存執(zhí)行如下命令,并重啟服務(wù)器,命令如下:

root@kubernetesnode01:/opt/kubernetes-config# update-grub root@kubernetesnode01:/opt/kubernetes-config# reboot

上述修改主要解決的是可能出現(xiàn)的“docker警告WARNING: No swap limit support”問題。

其次,編輯創(chuàng)建/etc/docker/daemon.json文件,添加如下內(nèi)容:

{ "exec-opts": ["native.cgroupdriver=systemd"] }

完成保存后執(zhí)行重啟Docker命令,如下:

root@kubernetesnode01:/opt/kubernetes-config# systemctl restart docker

此時(shí)可以查看Docker的Cgroup信息,如下:

root@kubernetesnode01:/opt/kubernetes-config# docker info | grep Cgroup Cgroup Driver: systemd

上述修改主要解決的是“Dockercgroup driver. The recommended driver is "systemd"”的問題。需要強(qiáng)調(diào)的是以上修改只是作者在具體安裝操作是遇到的具體問題的解決整理,如在實(shí)踐過程中遇到其他問題還需要自行查閱相關(guān)資料!

最后,需要注意由于kubernetes禁用虛擬內(nèi)存,所以要先關(guān)閉掉swap否則就會(huì)在kubeadm初始化kubernetes的時(shí)候報(bào)錯(cuò),具體如下:

root@kubernetesnode01:/opt/kubernetes-config# swapoff -a

該命令只是臨時(shí)禁用swap,如要保證系統(tǒng)重啟后仍然生效則需要“edit /etc/fstab”文件,并注釋掉swap那一行。

完成以上操作后啟動(dòng)系統(tǒng)Docker服務(wù),命令如下:

root@kubenetesnode02:~# systemctl enable docker.service

4、部署Kubernetes的Master節(jié)點(diǎn)

在Kubernetes中Master節(jié)點(diǎn)是集群的控制節(jié)點(diǎn),它是由三個(gè)緊密協(xié)作的獨(dú)立組件組合而成,分別是負(fù)責(zé)API服務(wù)的kube-apiserver、負(fù)責(zé)調(diào)度的kube-scheduler以及負(fù)責(zé)容器編排的kube-controller-manager,其中整個(gè)集群的持久化數(shù)據(jù)由kube-apiserver處理后保存在Etcd中。

要部署Master節(jié)點(diǎn)可以直接通過kubeadm進(jìn)行一鍵部署,但這里我們希望能夠部署一個(gè)相對(duì)完整的Kubernetes集群,可以通過配置文件來開啟一些實(shí)驗(yàn)性的功能。具體在系統(tǒng)中新建/opt/kubernetes-config/目錄,并創(chuàng)建一個(gè)給kubeadm用的YAML文件(kubeadm.yaml),具體內(nèi)容如下:

apiVersion: kubeadm.k8s.io/v1beta2 kind: ClusterConfiguration controllerManager: extraArgs: horizontal-pod-autoscaler-use-rest-clients: "true" horizontal-pod-autoscaler-sync-period: "10s" node-monitor-grace-period: "10s" apiServer: extraArgs: runtime-config: "api/all=true" kubernetesVersion: "v1.18.1"

在上述yaml配置文件中“horizontal-pod-autoscaler-use-rest-clients: "true"”這個(gè)配置,表示將來部署的kuber-controller-manager能夠使用自定義資源(CustomMetrics)進(jìn)行自動(dòng)水平擴(kuò)展,感興趣的讀者可以自行查閱相關(guān)資料!而“v1.18.1”就是要kubeadm幫我們部署的Kubernetes版本號(hào)。

需要注意的是,如果執(zhí)行過程中由于國內(nèi)網(wǎng)絡(luò)限制問題導(dǎo)致無法下載相應(yīng)的Docker鏡像,可以根據(jù)報(bào)錯(cuò)信息在國內(nèi)網(wǎng)站(如阿里云)上找到相關(guān)鏡像,然后再將這些鏡像重新tag之后再進(jìn)行安裝。具體如下:

#從阿里云Docker倉庫拉取Kubernetes組件鏡像 docker pull registry.cn-hangzhou.aliyuncs.com/google_containers/kube-apiserver-amd64:v1.18.1 docker pull registry.cn-hangzhou.aliyuncs.com/google_containers/kube-controller-manager-amd64:v1.18.1 docker pull registry.cn-hangzhou.aliyuncs.com/google_containers/kube-scheduler-amd64:v1.18.1 docker pull registry.cn-hangzhou.aliyuncs.com/google_containers/kube-proxy-amd64:v1.18.1 docker pull registry.cn-hangzhou.aliyuncs.com/google_containers/etcd-amd64:3.4.3-0 docker pull registry.cn-hangzhou.aliyuncs.com/google_containers/pause:3.2 docker pull registry.cn-hangzhou.aliyuncs.com/google_containers/coredns:1.6.7

下載完成后再將這些Docker鏡像重新tag下,具體命令如下:

#重新tag鏡像 docker tag registry.cn-hangzhou.aliyuncs.com/google_containers/pause:3.2 k8s.gcr.io/pause:3.2 docker tag registry.cn-hangzhou.aliyuncs.com/google_containers/coredns:1.6.7 k8s.gcr.io/coredns:1.6.7 docker tag registry.cn-hangzhou.aliyuncs.com/google_containers/etcd-amd64:3.4.3-0 k8s.gcr.io/etcd:3.4.3-0 docker tag registry.cn-hangzhou.aliyuncs.com/google_containers/kube-scheduler-amd64:v1.18.1 k8s.gcr.io/kube-scheduler:v1.18.1 docker tag registry.cn-hangzhou.aliyuncs.com/google_containers/kube-controller-manager-amd64:v1.18.1 k8s.gcr.io/kube-controller-manager:v1.18.1 docker tag registry.cn-hangzhou.aliyuncs.com/google_containers/kube-apiserver-amd64:v1.18.1 k8s.gcr.io/kube-apiserver:v1.18.1 docker tag registry.cn-hangzhou.aliyuncs.com/google_containers/kube-proxy-amd64:v1.18.1 k8s.gcr.io/kube-proxy:v1.18.1

此時(shí)通過Docker命令就可以查看到這些Docker鏡像信息了,命令如下:

root@kubernetesnode01:/opt/kubernetes-config# docker images REPOSITORY TAG IMAGE ID CREATED SIZE k8s.gcr.io/kube-proxy v1.18.1 4e68534e24f6 2 months ago 117MB registry.cn-hangzhou.aliyuncs.com/google_containers/kube-proxy-amd64 v1.18.1 4e68534e24f6 2 months ago 117MB k8s.gcr.io/kube-controller-manager v1.18.1 d1ccdd18e6ed 2 months ago 162MB registry.cn-hangzhou.aliyuncs.com/google_containers/kube-controller-manager-amd64 v1.18.1 d1ccdd18e6ed 2 months ago 162MB k8s.gcr.io/kube-apiserver v1.18.1 a595af0107f9 2 months ago 173MB registry.cn-hangzhou.aliyuncs.com/google_containers/kube-apiserver-amd64 v1.18.1 a595af0107f9 2 months ago 173MB k8s.gcr.io/kube-scheduler v1.18.1 6c9320041a7b 2 months ago 95.3MB registry.cn-hangzhou.aliyuncs.com/google_containers/kube-scheduler-amd64 v1.18.1 6c9320041a7b 2 months ago 95.3MB k8s.gcr.io/pause 3.2 80d28bedfe5d 4 months ago 683kB registry.cn-hangzhou.aliyuncs.com/google_containers/pause 3.2 80d28bedfe5d 4 months ago 683kB k8s.gcr.io/coredns 1.6.7 67da37a9a360 4 months ago 43.8MB registry.cn-hangzhou.aliyuncs.com/google_containers/coredns 1.6.7 67da37a9a360 4 months ago 43.8MB k8s.gcr.io/etcd 3.4.3-0 303ce5db0e90 8 months ago 288MB registry.cn-hangzhou.aliyuncs.com/google_containers/etcd-amd64

解決鏡像拉取問題后再次執(zhí)行kubeadm部署命令就可以完成Kubernetes Master控制節(jié)點(diǎn)的部署了,具體命令及執(zhí)行結(jié)果如下:

root@kubernetesnode01:/opt/kubernetes-config# kubeadm init --config kubeadm.yaml --v=5 ... Your Kubernetes control-plane has initialized successfully! To start using your cluster, you need to run the following as a regular user: mkdir -p $HOME/.kube sudo cp -i /etc/kubernetes/admin.conf $HOME/.kube/config sudo chown $(id -u):$(id -g) $HOME/.kube/config You should now deploy a pod network to the cluster. Run "kubectl apply -f [podnetwork].yaml" with one of the options listed at: https://kubernetes.io/docs/concepts/cluster-administration/addons/ Then you can join any number of worker nodes by running the following on each as root: kubeadm join 10.211.55.6:6443 --token jfulwi.so2rj5lukgsej2o6 --discovery-token-ca-cert-hash sha256:d895d512f0df6cb7f010204193a9b240e8a394606090608daee11b988fc7fea6

從上面部署執(zhí)行結(jié)果中可以看到,部署成功后kubeadm會(huì)生成如下指令:

kubeadm join 10.211.55.6:6443 --token d35pz0.f50zacvbdarqn2vi --discovery-token-ca-cert-hash sha256:58958a3bf4ccf4a4c19b0d1e934e77bf5b5561988c2274364aaadc9b1747141d

這個(gè)kubeadm join命令就是用來給該Master節(jié)點(diǎn)添加更多Worker(工作節(jié)點(diǎn))的命令,后面具體部署Worker節(jié)點(diǎn)的時(shí)候?qū)?huì)使用到它。此外,kubeadm還會(huì)提示我們第一次使用Kubernetes集群所需要配置的命令:

mkdir -p $HOME/.kube sudo cp -i /etc/kubernetes/admin.conf $HOME/.kube/config sudo chown $(id -u):$(id -g) $HOME/.kube/config

而需要這些配置命令的原因在于Kubernetes集群默認(rèn)是需要加密方式訪問的,所以這幾條命令就是將剛才部署生成的Kubernetes集群的安全配置文件保存到當(dāng)前用戶的.kube目錄,之后kubectl會(huì)默認(rèn)使用該目錄下的授權(quán)信息訪問Kubernetes集群。如果不這么做的化,那么每次通過集群就都需要設(shè)置“export KUBE CONFIG 環(huán)境變量”來告訴kubectl這個(gè)安全文件的位置。

執(zhí)行完上述命令后,現(xiàn)在我們就可以使用kubectlget命令來查看當(dāng)前Kubernetes集群節(jié)點(diǎn)的狀態(tài)了,執(zhí)行效果如下:

root@kubernetesnode01:/opt/kubernetes-config# kubectl get nodes NAME STATUS ROLES AGE VERSION kubernetesnode01 NotReady master 35m v1.18.4

在以上命令輸出的結(jié)果中可以看到Master節(jié)點(diǎn)的狀態(tài)為“NotReady”,為了查找具體原因可以通過“kuberctl describe”命令來查看下該節(jié)點(diǎn)(Node)對(duì)象的詳細(xì)信息,命令如下:

root@kubernetesnode01:/opt/kubernetes-config# kubectl describe node kubernetesnode01

該命令可以非常詳細(xì)地獲取節(jié)點(diǎn)對(duì)象的狀態(tài)、事件等詳情,這種方式也是調(diào)試Kubernetes集群時(shí)最重要的排查手段。根據(jù)顯示的如下信息:

... Conditions ... Ready False... KubeletNotReady runtime network not ready: NetworkReady=false reason:NetworkPluginNotReady message:docker: network plugin is not ready: cni config uninitialized ...

可以看到節(jié)點(diǎn)處于“NodeNotReady”的原因在于尚未部署任何網(wǎng)絡(luò)插件,為了進(jìn)一步驗(yàn)證著一點(diǎn)還可以通過kubectl檢查這個(gè)節(jié)點(diǎn)上各個(gè)Kubernetes系統(tǒng)Pod的狀態(tài),命令及執(zhí)行效果如下:

root@kubernetesnode01:/opt/kubernetes-config# kubectl get pods -n kube-system NAME READY STATUS RESTARTS AGE coredns-66bff467f8-l4wt6 0/1 Pending 0 64m coredns-66bff467f8-rcqx6 0/1 Pending 0 64m etcd-kubernetesnode01 1/1 Running 0 64m kube-apiserver-kubernetesnode01 1/1 Running 0 64m kube-controller-manager-kubernetesnode01 1/1 Running 0 64m kube-proxy-wjct7 1/1 Running 0 64m kube-scheduler-kubernetesnode01 1/1 Running 0 64m

命令中“kube-system”表示的是Kubernetes項(xiàng)目預(yù)留的系統(tǒng)Pod空間(Namespace),需要注意它并不是Linux Namespace,而是Kuebernetes劃分的不同工作空間單位?;氐矫钶敵鼋Y(jié)果,可以看到coredns等依賴于網(wǎng)絡(luò)的Pod都處于Pending(調(diào)度失敗)的狀態(tài),這樣說明了該Master節(jié)點(diǎn)的網(wǎng)絡(luò)尚未部署就緒。

5、部署Kubernetes網(wǎng)絡(luò)插件

前面部署Master節(jié)點(diǎn)中由于沒有部署網(wǎng)絡(luò)插件,所以節(jié)點(diǎn)狀態(tài)顯示“NodeNotReady”狀態(tài)。接下來的內(nèi)容我們就來具體部署下網(wǎng)絡(luò)插件。在Kubernetes“一切皆容器”的設(shè)計(jì)理念指導(dǎo)下,網(wǎng)絡(luò)插件也會(huì)以獨(dú)立Pod的方式運(yùn)行在系統(tǒng)中,所以部署起來也很簡單只需要執(zhí)行“kubectl apply”指令即可,例如以Weave網(wǎng)絡(luò)插件為例:

root@kubernetesnode01:/opt/kubernetes-config# kubectl apply -f https://cloud.weave.works/k8s/net?k8s-version=$(kubectl version | base64 | tr -d ' ') serviceaccount/weave-net created clusterrole.rbac.authorization.k8s.io/weave-net created clusterrolebinding.rbac.authorization.k8s.io/weave-net created role.rbac.authorization.k8s.io/weave-net created rolebinding.rbac.authorization.k8s.io/weave-net created daemonset.apps/weave-net created

部署完成后通過“kubectl get”命令重新檢查Pod的狀態(tài):

root@kubernetesnode01:/opt/kubernetes-config# kubectl get pods -n kube-system NAME READY STATUS RESTARTS AGE coredns-66bff467f8-l4wt6 1/1 Running 0 116m coredns-66bff467f8-rcqx6 1/1 Running 0 116m etcd-kubernetesnode01 1/1 Running 0 116m kube-apiserver-kubernetesnode01 1/1 Running 0 116m kube-controller-manager-kubernetesnode01 1/1 Running 0 116m kube-proxy-wjct7 1/1 Running 0 116m kube-scheduler-kubernetesnode01 1/1 Running 0 116m weave-net-746qj

可以看到,此時(shí)所有的系統(tǒng)Pod都成功啟動(dòng)了,而剛才部署的Weave網(wǎng)絡(luò)插件則在kube-system下面新建了一個(gè)名叫“weave-net-746qj”的Pod,而這個(gè)Pod就是容器網(wǎng)絡(luò)插件在每個(gè)節(jié)點(diǎn)上的控制組件。

到這里,Kubernetes的Master節(jié)點(diǎn)就部署完成了,如果你只需要一個(gè)單節(jié)點(diǎn)的Kubernetes,那么現(xiàn)在就可以使用了。但是在默認(rèn)情況下,Kubernetes的Master節(jié)點(diǎn)是不能運(yùn)行用戶Pod的,需要通過額外的操作進(jìn)行調(diào)整,感興趣的朋友可以自己查閱下其他資料。

6、部署Kubernetes的Worker節(jié)點(diǎn)

為了構(gòu)建一個(gè)完整的Kubernetes集群,這里還需要繼續(xù)介紹如何部署Worker節(jié)點(diǎn)。實(shí)際上Kubernetes的Worker節(jié)點(diǎn)和Master節(jié)點(diǎn)幾乎是相同的,它們都運(yùn)行著一個(gè)kubelet組件,主要的區(qū)別在于“kubeadm init”的過程中,kubelet啟動(dòng)后,Master節(jié)點(diǎn)還會(huì)自動(dòng)啟動(dòng)kube-apiserver、kube-scheduler及kube-controller-manager這三個(gè)系統(tǒng)Pod。

在具體部署之前與Master節(jié)點(diǎn)一樣,也需要在所有Worker節(jié)點(diǎn)上執(zhí)行前面“安裝kubeadm及Decker環(huán)境”小節(jié)中的所有步驟。之后在Worker節(jié)點(diǎn)執(zhí)行部署Master節(jié)點(diǎn)時(shí)生成的“kubeadm join”指令即可,具體如下:

root@kubenetesnode02:~# kubeadm join 10.211.55.6:6443 --token jfulwi.so2rj5lukgsej2o6 --discovery-token-ca-cert-hash sha256:d895d512f0df6cb7f010204193a9b240e8a394606090608daee11b988fc7fea6 --v=5 ... This node has joined the cluster: * Certificate signing request was sent to apiserver and a response was received. * The Kubelet was informed of the new secure connection details. Run 'kubectl get nodes' on the control-plane to see this node join the cluster.

完成集群加入后為了便于在Worker節(jié)點(diǎn)執(zhí)行kubectl相關(guān)命令,需要進(jìn)行如下配置:

#創(chuàng)建配置目錄 root@kubenetesnode02:~# mkdir -p $HOME/.kube #將Master節(jié)點(diǎn)中$/HOME/.kube/目錄中的config文件拷貝至Worker節(jié)點(diǎn)對(duì)應(yīng)目錄 root@kubenetesnode02:~# scp root@10.211.55.6:$HOME/.kube/config $HOME/.kube/ #權(quán)限配置 root@kubenetesnode02:~# sudo chown $(id -u):$(id -g) $HOME/.kube/config

之后可以在Worker或Master節(jié)點(diǎn)執(zhí)行節(jié)點(diǎn)狀態(tài)查看命令“kubectl get nodes”,具體如下:

root@kubernetesnode02:~# kubectl get nodes NAME STATUS ROLES AGE VERSION kubenetesnode02 NotReady 33m v1.18.4 kubernetesnode01 Ready master 29h v1.18.4

通過節(jié)點(diǎn)狀態(tài)顯示此時(shí)Work節(jié)點(diǎn)還處于NotReady狀態(tài),具體查看節(jié)點(diǎn)描述信息如下:

root@kubernetesnode02:~# kubectl describe node kubenetesnode02 ... Conditions: ... Ready False ... KubeletNotReady runtime network not ready: NetworkReady=false reason:NetworkPluginNotReady message:docker: network plugin is not ready: cni config uninitialized ...

根據(jù)描述信息,發(fā)現(xiàn)Worker節(jié)點(diǎn)NotReady的原因也在于網(wǎng)絡(luò)插件沒有部署,繼續(xù)執(zhí)行“部署Kubernetes網(wǎng)絡(luò)插件”小節(jié)中的步驟即可。但是要注意部署網(wǎng)絡(luò)插件時(shí)會(huì)同時(shí)部署kube-proxy,其中會(huì)涉及從k8s.gcr.io倉庫獲取鏡像的動(dòng)作,如果無法訪問外網(wǎng)可能會(huì)導(dǎo)致網(wǎng)絡(luò)部署異常,這里可以參考前面安裝Master節(jié)點(diǎn)時(shí)的做法,通過國內(nèi)鏡像倉庫下載后通過tag的方式進(jìn)行標(biāo)記,具體如下:

root@kubenetesnode02:~# docker pull registry.cn-hangzhou.aliyuncs.com/google_containers/kube-proxy-amd64:v1.18.1 root@kubenetesnode02:~# docker tag registry.cn-hangzhou.aliyuncs.com/google_containers/kube-proxy-amd64:v1.18.1 k8s.gcr.io/kube-proxy:v1.18.1

如若一切正常,則繼續(xù)查看節(jié)點(diǎn)狀態(tài),命令如下:

root@kubenetesnode02:~# kubectl get node NAME STATUS ROLES AGE VERSION kubenetesnode02 Ready 7h52m v1.18.4 kubernetesnode01 Ready master 37h v1.18.4

可以看到此時(shí)Worker節(jié)點(diǎn)的狀態(tài)已經(jīng)變成“Ready”,不過細(xì)心的讀者可能會(huì)發(fā)現(xiàn)Worker節(jié)點(diǎn)的ROLES并不像Master節(jié)點(diǎn)那樣顯示“master”而是顯示了,這是因?yàn)樾掳惭b的Kubernetes環(huán)境Node節(jié)點(diǎn)有時(shí)候會(huì)丟失ROLES信息,遇到這種情況可以手工進(jìn)行添加,具體命令如下:

root@kubenetesnode02:~# kubectl label node kubenetesnode02 node-role.kubernetes.io/worker=worker

再次運(yùn)行節(jié)點(diǎn)狀態(tài)命令就能看到正常的顯示了,命令效果如下:

root@kubenetesnode02:~# kubectl get node NAME STATUS ROLES AGE VERSION kubenetesnode02 Ready worker 8h v1.18.4 kubernetesnode01 Ready master 37h v1.18.4

到這里就部署完成了具有一個(gè)Master節(jié)點(diǎn)和一個(gè)Worker節(jié)點(diǎn)的Kubernetes集群了,作為實(shí)驗(yàn)環(huán)境它已經(jīng)具備了基本的Kubernetes集群功能!

7、部署Dashboard可視化插件

在Kubernetes社區(qū)中,有一個(gè)很受歡迎的Dashboard項(xiàng)目,它可以給用戶一個(gè)可視化的Web界面來查看當(dāng)前集群中的各種信息。該插件也是以容器化方式進(jìn)行部署,操作也非常簡單,具體可在Master、Worker節(jié)點(diǎn)或其他能夠安全訪問Kubernetes集群的Node上進(jìn)行部署,命令如下:

root@kubenetesnode02:~# kubectl apply -f https://raw.githubusercontent.com/kubernetes/dashboard/v2.0.3/aio/deploy/recommended.yaml

部署完成后就可以查看Dashboard對(duì)應(yīng)的Pod運(yùn)行狀態(tài),執(zhí)行效果如下:

root@kubenetesnode02:~# kubectl get pods -n kubernetes-dashboard NAME READY STATUS RESTARTS AGE dashboard-metrics-scraper-6b4884c9d5-xfb8b 1/1 Running 0 12h kubernetes-dashboard-7f99b75bf4-9lxk8 1/1 Running 0 12h

除此之外還可以查看Dashboard的服務(wù)(Service)信息,命令如下:

root@kubenetesnode02:~# kubectl get svc -n kubernetes-dashboard NAME TYPE CLUSTER-IP EXTERNAL-IP PORT(S) AGE dashboard-metrics-scraper ClusterIP 10.97.69.158 8000/TCP 13h kubernetes-dashboard ClusterIP 10.111.30.214 443/TCP 13h

需要注意的是,由于Dashboard是一個(gè)Web服務(wù),從安全角度出發(fā)Dashboard默認(rèn)只能通過Proxy的方式在本地訪問。具體方式為在本地機(jī)器安裝kubectl管理工具,并將Master節(jié)點(diǎn)$HOME/.kube/目錄中的config文件拷貝至本地主機(jī)相同目錄,之后運(yùn)行“kubectl proxy”命令,如下:

qiaodeMacBook-Pro-2:.kube qiaojiang$ kubectl proxy Starting to serve on 127.0.0.1:8001

本地proxy代理啟動(dòng)后,訪問Kubernetes Dashboard地址,具體如下:

http://localhost:8001/api/v1/namespaces/kubernetes-dashboard/services/https:kubernetes-dashboard:/proxy/

如果訪問正常,就會(huì)看到相應(yīng)的界面!以上就是Kubernetes基本集群的搭建方式,希望能對(duì)你學(xué)習(xí)Kubernetes容器編排技術(shù)有所幫助!

本站聲明: 本文章由作者或相關(guān)機(jī)構(gòu)授權(quán)發(fā)布,目的在于傳遞更多信息,并不代表本站贊同其觀點(diǎn),本站亦不保證或承諾內(nèi)容真實(shí)性等。需要轉(zhuǎn)載請(qǐng)聯(lián)系該專欄作者,如若文章內(nèi)容侵犯您的權(quán)益,請(qǐng)及時(shí)聯(lián)系本站刪除。
換一批
延伸閱讀

9月2日消息,不造車的華為或?qū)⒋呱龈蟮莫?dú)角獸公司,隨著阿維塔和賽力斯的入局,華為引望愈發(fā)顯得引人矚目。

關(guān)鍵字: 阿維塔 塞力斯 華為

倫敦2024年8月29日 /美通社/ -- 英國汽車技術(shù)公司SODA.Auto推出其旗艦產(chǎn)品SODA V,這是全球首款涵蓋汽車工程師從創(chuàng)意到認(rèn)證的所有需求的工具,可用于創(chuàng)建軟件定義汽車。 SODA V工具的開發(fā)耗時(shí)1.5...

關(guān)鍵字: 汽車 人工智能 智能驅(qū)動(dòng) BSP

北京2024年8月28日 /美通社/ -- 越來越多用戶希望企業(yè)業(yè)務(wù)能7×24不間斷運(yùn)行,同時(shí)企業(yè)卻面臨越來越多業(yè)務(wù)中斷的風(fēng)險(xiǎn),如企業(yè)系統(tǒng)復(fù)雜性的增加,頻繁的功能更新和發(fā)布等。如何確保業(yè)務(wù)連續(xù)性,提升韌性,成...

關(guān)鍵字: 亞馬遜 解密 控制平面 BSP

8月30日消息,據(jù)媒體報(bào)道,騰訊和網(wǎng)易近期正在縮減他們對(duì)日本游戲市場的投資。

關(guān)鍵字: 騰訊 編碼器 CPU

8月28日消息,今天上午,2024中國國際大數(shù)據(jù)產(chǎn)業(yè)博覽會(huì)開幕式在貴陽舉行,華為董事、質(zhì)量流程IT總裁陶景文發(fā)表了演講。

關(guān)鍵字: 華為 12nm EDA 半導(dǎo)體

8月28日消息,在2024中國國際大數(shù)據(jù)產(chǎn)業(yè)博覽會(huì)上,華為常務(wù)董事、華為云CEO張平安發(fā)表演講稱,數(shù)字世界的話語權(quán)最終是由生態(tài)的繁榮決定的。

關(guān)鍵字: 華為 12nm 手機(jī) 衛(wèi)星通信

要點(diǎn): 有效應(yīng)對(duì)環(huán)境變化,經(jīng)營業(yè)績穩(wěn)中有升 落實(shí)提質(zhì)增效舉措,毛利潤率延續(xù)升勢 戰(zhàn)略布局成效顯著,戰(zhàn)新業(yè)務(wù)引領(lǐng)增長 以科技創(chuàng)新為引領(lǐng),提升企業(yè)核心競爭力 堅(jiān)持高質(zhì)量發(fā)展策略,塑強(qiáng)核心競爭優(yōu)勢...

關(guān)鍵字: 通信 BSP 電信運(yùn)營商 數(shù)字經(jīng)濟(jì)

北京2024年8月27日 /美通社/ -- 8月21日,由中央廣播電視總臺(tái)與中國電影電視技術(shù)學(xué)會(huì)聯(lián)合牽頭組建的NVI技術(shù)創(chuàng)新聯(lián)盟在BIRTV2024超高清全產(chǎn)業(yè)鏈發(fā)展研討會(huì)上宣布正式成立。 活動(dòng)現(xiàn)場 NVI技術(shù)創(chuàng)新聯(lián)...

關(guān)鍵字: VI 傳輸協(xié)議 音頻 BSP

北京2024年8月27日 /美通社/ -- 在8月23日舉辦的2024年長三角生態(tài)綠色一體化發(fā)展示范區(qū)聯(lián)合招商會(huì)上,軟通動(dòng)力信息技術(shù)(集團(tuán))股份有限公司(以下簡稱"軟通動(dòng)力")與長三角投資(上海)有限...

關(guān)鍵字: BSP 信息技術(shù)
關(guān)閉
關(guān)閉