k8s集群環(huán)境配置-VMware16pro安裝集群(三)

1.首先下載MobaXterm這個(gè)軟件。

MobaXterm 又名 MobaXVT,是一款增強(qiáng)型終端、X 服務(wù)器和 Unix 命令集(GNU/ Cygwin)工具箱。
MobaXterm 可以開啟多個(gè)終端視窗,以最新的 X 服務(wù)器為基礎(chǔ)的 X.Org,可以輕松地來試用 Unix/Linux 上的 GNU Unix 命令。這樣一來,我們可以不用安裝虛擬機(jī)來試用虛擬環(huán)境,然后只要通過 MobaXterm 就可以使用大多數(shù)的 linux 命令。MobaXterm 還有很強(qiáng)的擴(kuò)展能力,可以集成插件來運(yùn)行 Gcc, Perl、Curl、Tcl / Tk / Expect 等程序。
MobaXterm 分免費(fèi)開源版和收費(fèi)專業(yè)版。官網(wǎng)提供 MobaXterm 的免費(fèi)開源版 “[Home Edition] 下載, 免費(fèi)開源版又分綠色免安裝版(解壓即用)和安裝版(需要一步步安裝)。MobaXterm 免費(fèi)版(personal)和專業(yè)版(Professional)除了 sessions 數(shù)、SSH tunnels 數(shù)和其他一些定制化配置外限制外,免費(fèi)版在終端底部還多了一個(gè) “UNREGISTERED VERSION” 提示。

MobaXterm主要功能:

  • 支持各種連接 SSH,X11,RDP,VNC,F(xiàn)TP,MOSH
  • 支持 Unix 命令(bash,ls,cat,sed,grep,awk,rsync,…)
  • 連接 SSH 終端后支持 SFTP 傳輸文件
  • 各種豐富的插件(git/dig/aria2…)
  • 可運(yùn)行 Windows 或軟件

(1) 軟件的安裝

官網(wǎng)下載后解壓文件,運(yùn)行 MobaXterm_Personal_11.1.exe 即可開始安裝。第一次打開會(huì)自解壓,會(huì)比較慢,后續(xù)就正常了。官網(wǎng)鏈接為:

https://mobaxterm.mobatek.net/download.html

下載后的界面長這樣,首先設(shè)置一下快捷鍵,MobaXterm默認(rèn)鼠標(biāo)右鍵粘貼不是很方便,所以取消右鍵默認(rèn)粘貼。


image

image

image

image

image

重復(fù)3次,分別輸入master、node1和node2的IP地址,root名字和密碼。此處以master節(jié)點(diǎn)的IP為例。


image

image

image

(2) 這里可以為了方便可以三個(gè)實(shí)例一起配置。

image

image

2.環(huán)境初始化

(1) 檢查操作系統(tǒng)的版本

此方式下安裝kubernetes集群要求Centos版本要在7.5或之上

 [root@master ~]# cat /etc/redhat-release
 CentOS Linux release 7.5.1804 (Core)
image

(2) 主機(jī)名解析

為了方便后面集群節(jié)點(diǎn)間的直接調(diào)用,在這配置一下主機(jī)名解析,企業(yè)中推薦使用內(nèi)部DNS服務(wù)器。

vim /etc/hosts

輸入i,進(jìn)入編輯模式。
主機(jī)名成解析 編輯三臺(tái)服務(wù)器的/etc/hosts文件,添加下面內(nèi)容

192.168.109.100 master
192.168.109.101 node1
192.168.109.102 node2

以一個(gè)為例,這些都是master、node1和node23個(gè)節(jié)點(diǎn)共同設(shè)置部分。輸入完成后點(diǎn)擊esc鍵后輸入:wq后保存退出。


image

(3) 時(shí)間同步

kubernetes要求集群中的節(jié)點(diǎn)時(shí)間必須精確一致,這里直接使用chronyd服務(wù)從網(wǎng)絡(luò)同步時(shí)間。企業(yè)中建議配置內(nèi)部的時(shí)間同步服務(wù)器。

啟動(dòng)chronyd服務(wù)

[root@master ~]# systemctl start chronyd
# 設(shè)置chronyd服務(wù)開機(jī)自啟
[root@master ~]# systemctl enable chronyd
 # chronyd服務(wù)啟動(dòng)稍等幾秒鐘,就可以使用date命令驗(yàn)證時(shí)間了
[root@master ~]# date
image

(4) 禁用iptables和firewalld服務(wù)

kubernetes和docker在運(yùn)行中會(huì)產(chǎn)生大量的iptables規(guī)則,為了不讓系統(tǒng)規(guī)則跟它們混淆,直接關(guān)閉系統(tǒng)的規(guī)則

1 關(guān)閉firewalld服務(wù)

[root@master ~]# systemctl stop firewalld
 [root@master ~]# systemctl disable firewalld

2 關(guān)閉iptables服務(wù)

[root@master ~]# systemctl stop iptables
[root@master ~]# systemctl disable iptables
image

(5) 禁用selinux

selinux是linux系統(tǒng)下的一個(gè)安全服務(wù),如果不關(guān)閉它,在安裝集群中會(huì)產(chǎn)生各種各樣的奇葩問題。
編輯 /etc/selinux/config 文件,修改SELINUX的值為disabled

vim /etc/selinux/config

注意修改完畢之后需要重啟linux服務(wù)

SELINUX=disabled
image

image

(6) 禁用swap分區(qū)

swap分區(qū)指的是虛擬內(nèi)存分區(qū),它的作用是在物理內(nèi)存使用完之后,將磁盤空間虛擬成內(nèi)存來使用。
啟用swap設(shè)備會(huì)對系統(tǒng)的性能產(chǎn)生非常負(fù)面的影響,因此kubernetes要求每個(gè)節(jié)點(diǎn)都要禁用swap設(shè)備。
但是如果因?yàn)槟承┰虼_實(shí)不能關(guān)閉swap分區(qū),就需要在集群安裝過程中通過明確的參數(shù)進(jìn)行配置說明

編輯分區(qū)配置文件/etc/fstab,注釋掉swap分區(qū)一行

vim /etc/fstab

注意修改完畢之后需要重啟linux服務(wù)

UUID=455cc753-7a60-4c17-a424-7741728c44a1 /boot    xfs    defaults        0 0
/dev/mapper/centos-home /home                      xfs    defaults        0 0
# /dev/mapper/centos-swap swap                      swap    defaults        0 0
image

image

(7) 修改linux的內(nèi)核參數(shù)

修改linux的內(nèi)核參數(shù),添加網(wǎng)橋過濾和地址轉(zhuǎn)發(fā)功能

編輯/etc/sysctl.d/kubernetes.conf文件,添加如下配置:

vim /etc/sysctl.d/kubernetes.conf
net.bridge.bridge-nf-call-ip6tables = 1
net.bridge.bridge-nf-call-iptables = 1
net.ipv4.ip_forward = 1
image

image
# 重新加載配置
[root@master ~]# sysctl -p
# 加載網(wǎng)橋過濾模塊
 [root@master ~]# modprobe br_netfilter
# 查看網(wǎng)橋過濾模塊是否加載成功
 [root@master ~]# lsmod | grep br_netfilter
image

(8)配置ipvs功能

在kubernetes中service有兩種代理模型,一種是基于iptables的,一種是基于ipvs的。兩者比較的話,ipvs的性能明顯要高一些,但是如果要使用它,需要手動(dòng)載入ipvs模塊

1 安裝ipset和ipvsadm

[root@master ~]# yum install ipset ipvsadmin -y
image

image

2 添加需要加載的模塊寫入腳本文件

[root@master ~]# cat <<EOF >  /etc/sysconfig/modules/ipvs.modules
>#!/bin/bash
>modprobe -- ip_vs
>modprobe -- ip_vs_rr
>modprobe -- ip_vs_wrr
>modprobe -- ip_vs_sh
>modprobe -- nf_conntrack_ipv4 
> EOF
image

3 為腳本文件添加執(zhí)行權(quán)限

[root@master ~]# chmod +x /etc/sysconfig/modules/ipvs.modules 

4 執(zhí)行腳本文件

[root@master ~]# /bin/bash /etc/sysconfig/modules/ipvs.modules

5 查看對應(yīng)的模塊是否加載成功

[root@master ~]# lsmod | grep -e ip_vs -e nf_conntrack_ipv4
image

(9) 重啟服務(wù)器

上面步驟完成之后,需要重新啟動(dòng)linux系統(tǒng)

[root@master ~]# reboot
image

(10) 重啟后重新登陸3個(gè)節(jié)點(diǎn)

image

3.安裝docker

(1) 切換鏡像源

[root@master ~]# wget https://mirrors.aliyun.com/docker-ce/linux/centos/docker-ce.repo -O /etc/yum.repos.d/docker-ce.repo
image

(2) 查看當(dāng)前鏡像源中支持的docker版本

[root@master ~]# yum list docker-ce --showduplicates
image

(3) 安裝特定版本的docker-ce

# 必須指定--setopt=obsoletes=0,否則yum會(huì)自動(dòng)安裝更高版本
[root@master ~]# yum install --setopt=obsoletes=0 docker-ce-18.06.3.ce-3.el7 -y
image

(4) 添加一個(gè)配置文件

等3個(gè)節(jié)點(diǎn)的docker都安裝成功后再進(jìn)行這一步。

# Docker在默認(rèn)情況下使用的Cgroup Driver為cgroupfs,而kubernetes推薦使用systemd來代替cgroupfs
[root@master ~]# mkdir /etc/docker
> [root@master ~]# cat <<EOF >  /etc/docker/daemon.json 
> {
>   "exec-opts": ["native.cgroupdriver=systemd"],
>   "registry-mirrors": ["https://kn0t2bca.mirror.aliyuncs.com"] 
> } 
> EOF
image

(5) 啟動(dòng)docker

[root@master ~]# systemctl restart docker
[root@master ~]# systemctl enable docker

(6) 檢查docker狀態(tài)和版本

[root@master ~]# docker version
image

4.安裝kubernetes組件

(1) 由于kubernetes的鏡像源在國外,速度比較慢,這里切換成國內(nèi)的鏡像源

# 編輯/etc/yum.repos.d/kubernetes.repo,添加下面的配置
vim /etc/yum.repos.d/kubernetes.repo
image
[kubernetes]
name=Kubernetes
baseurl=http://mirrors.aliyun.com/kubernetes/yum/repos/kubernetes-el7-x86_64
enabled=1
gpgcheck=0
repo_gpgcheck=0
gpgkey=http://mirrors.aliyun.com/kubernetes/yum/doc/yum-key.gpg 
              http://mirrors.aliyun.com/kubernetes/yum/doc/rpm-package-key.gpg
image

(2) 安裝kubeadm、kubelet和kubectl

[root@master ~]# yum install --setopt=obsoletes=0 kubeadm-1.17.4-0 kubelet-1.17.4-0 kubectl-1.17.4-0 -y
image

image

(3) 配置kubelet的cgroup

# 編輯/etc/sysconfig/kubelet,添加下面的配置
vim /etc/sysconfig/kubelet
image
KUBELET_CGROUP_ARGS="--cgroup-driver=systemd"
KUBE_PROXY_MODE="ipvs"
image

(4) 設(shè)置kubelet開機(jī)自啟

 [root@master ~]# systemctl enable kubelet
image

5.準(zhǔn)備集群鏡像

(1) 在安裝kubernetes集群之前,必須要提前準(zhǔn)備好集群需要的鏡像,所需鏡像可以通過下面命令查看

[root@master ~]# kubeadm config images list
image

(2) 下載鏡像

此鏡像在kubernetes的倉庫中,由于網(wǎng)絡(luò)原因,無法連接,下面提供了一種替代方案

images=( 
>     kube-apiserver:v1.17.4
>     kube-controller-manager:v1.17.4
>     kube-scheduler:v1.17.4
>     kube-proxy:v1.17.4
>     pause:3.1
>     etcd:3.4.3-0
>     coredns:1.6.5
> )
image
for imageName in ${images[@]} ; do
> docker pull registry.cn-hangzhou.aliyuncs.com/google_containers/$imageName
> docker tag registry.cn-hangzhou.aliyuncs.com/google_containers/$imageName k8s.gcr.io/$imageName
> docker rmi registry.cn-hangzhou.aliyuncs.com/google_containers/$imageName
> done
image

image

6.集群初始化

下面開始對集群進(jìn)行初始化,并將node節(jié)點(diǎn)加入到集群中

(1) 下面的操作只需要在master節(jié)點(diǎn)上執(zhí)行即可


創(chuàng)建集群

[root@master ~]# kubeadm init \
> --kubernetes-version=v1.17.4 \
>     --pod-network-cidr=10.244.0.0/16 \
>     --service-cidr=10.96.0.0/12 \
>     --apiserver-advertise-address=192.168.56.200(自己的master節(jié)點(diǎn)IP)
image

創(chuàng)建必要文件

[root@master ~]# mkdir -p $HOME/.kube
[root@master ~]# sudo cp -i /etc/kubernetes/admin.conf $HOME/.kube/config
[root@master ~]# sudo chown $(id -u):$(id -g) $HOME/.kube/config
image

(2) 下面的操作只需要在node節(jié)點(diǎn)上執(zhí)行即可

將node節(jié)點(diǎn)加入集群

[root@master ~]# kubeadm join 192.168.56.200:6443 --token 24xyml.eni8jsk1qw1d6bde \ --discovery-token-ca-cert-hash sha256:4120dabd8ade8ffb67504658f16ea8788d5f9aa00047bc2f9728d2fb9ffd3c39
image
# 查看集群狀態(tài) 此時(shí)的集群狀態(tài)為NotReady,這是因?yàn)檫€沒有配置網(wǎng)絡(luò)插件
[root@master ~]# kubectl get nodes
NAME    STATUS    ROLES    AGE    VERSION

master  NotReady  master  6m43s  v1.17.4

node1    NotReady  <none>  22s    v1.17.4

node2    NotReady  <none>  19s    v1.17.4

7.安裝網(wǎng)絡(luò)插件

kubernetes支持多種網(wǎng)絡(luò)插件,比如flannel、calico、canal等等,任選一種使用即可,本次選擇flannel。下面操作依舊只在master節(jié)點(diǎn)執(zhí)行即可,插件使用的是DaemonSet的控制器,它會(huì)在每個(gè)節(jié)點(diǎn)上都運(yùn)行。

(1)安裝flannel鏡像(master和node節(jié)點(diǎn)都需要安裝)

[root@master ~]# docker pull rancher/mirrored-flannelcni-flannel-cni-plugin:v1.1.0
[root@master ~]# docker pull rancher/mirrored-flannelcni-flannel:v0.19.2
image

(2) 獲取fannel的配置文件(僅master節(jié)點(diǎn))

[root@master ~]# wget https://raw.githubusercontent.com/coreos/flannel/master/Documentation/kube-flannel.yml
# 修改文件中quay.io倉庫為quay-mirror.qiniu.com
# 使用配置文件啟動(dòng)fannel,網(wǎng)絡(luò)可能比較慢,可以提前把kube-flannel.yml文件拉到root里面。
[root@master ~]# kubectl apply -f kube-flannel.yml

稍等片刻,再次查看集群節(jié)點(diǎn)的狀態(tài)

[root@master ~]# kubectl get nodes
image

至此,kubernetes的集群環(huán)境搭建完成。

8.服務(wù)部署

接下來在kubernetes集群中部署一個(gè)nginx程序,測試下集群是否在正常工作。

(1) 部署nginx

[root@master ~]# kubectl create deployment nginx --image=nginx:1.14-alpine

(2) 暴露端口

 [root@master ~]# kubectl expose deployment nginx --port=80 --type=NodePort

(3) 查看服務(wù)狀態(tài)

[root@master ~]# kubectl get pods
image
 [root@master ~]# kubectl get service

注意綠色框內(nèi)的數(shù)字,為暴露的端口。


image

(4) 最后在電腦上訪問下部署的nginx服務(wù)

image
?著作權(quán)歸作者所有,轉(zhuǎn)載或內(nèi)容合作請聯(lián)系作者
【社區(qū)內(nèi)容提示】社區(qū)部分內(nèi)容疑似由AI輔助生成,瀏覽時(shí)請結(jié)合常識(shí)與多方信息審慎甄別。
平臺(tái)聲明:文章內(nèi)容(如有圖片或視頻亦包括在內(nèi))由作者上傳并發(fā)布,文章內(nèi)容僅代表作者本人觀點(diǎn),簡書系信息發(fā)布平臺(tái),僅提供信息存儲(chǔ)服務(wù)。

相關(guān)閱讀更多精彩內(nèi)容

友情鏈接更多精彩內(nèi)容