k8s集群搭建记录
tbghg

前言

本次环境搭建需要安装三台Centos服务器(一主二从),然后在每台服务器中分别安装docker(18.06.3),kubeadm(1.17.4)、kubelet(1.17.4)、kubectl(1.17.4)程序

之前配置hadoop集群的时候配置过hosts,设置过免密登录,这里直接拿来用了,参考黑马程序员的配置过程进行配置的

有个坑需要注意一下,我一开始是登录三个tbh-0001主机,然后免密登录直接切换,同时执行reboot命令可能会造成混乱,所以推荐直接登录三台主机

环境初始化

  1. 检查操作系统的版本
1
2
3
# 此方式下安装kubernetes集群要求Centos版本要在7.5或之上
[root@tbh-0001 ~]# cat /etc/redhat-release
CentOS Linux release 7.6.1810 (Core)
  1. 主机名解析

以前搭建hadoop集群实验时做过了,正好接着用,同时都配置了免密登录

企业中建议配置DNS服务器

1
2
3
4
5
6
7
8
[root@tbh-0001 ~]# cat /etc/hosts
::1 localhost localhost.localdomain localhost6 localhost6.localdomain6
192.168.0.181 tbh-0001 tbh-0001
192.168.0.75 tbh-0003 tbh-0003
192.168.0.105 tbh-0002 tbh-0002

127.0.0.1 localhost localhost.localdomain localhost4 localhost4.localdomain4
127.0.0.1 tbh tbh
  1. 时间同步

kubernetes要求集群中的节点时间必须精确一致,这里直接使用chronyd服务从网络同步时间

企业中建议配置内部的时间同步服务器

这里三个都要配,我这里用的是xshell的“发送键至所有的会话框”,下面就展示一个了

1
2
3
4
5
6
# 启动chronyd服务
[root@tbh-0001 ~]# systemctl start chronyd
# 设置chronyd服务开机自启
[root@tbh-0001 ~]# systemctl enable chronyd
# chronyd服务启动稍等几秒钟,就可以使用date命令验证时间了
[root@tbh-0001 ~]# date

看到三个的输出时间一致证明配置成功

  1. 禁用iptables和firewalld服务

kubernetes和docker在运行中会产生大量的iptables规则,为了不让系统规则跟它们混淆,直接关闭系统的规则

1
2
3
4
5
6
# 1 关闭firewalld服务
[root@tbh-0001 ~]# systemctl stop firewalld
[root@tbh-0001 ~]# systemctl disable firewalld
# 2 关闭iptables服务
[root@tbh-0001 ~]# systemctl stop iptables
[root@tbh-0001 ~]# systemctl disable iptables
  1. 禁用selinux

selinux是linux系统下的一个安全服务,如果不关闭它,在安装集群中会产生各种各样的奇葩问题

1
2
3
# 编辑 /etc/selinux/config 文件,修改SELINUX的值为disabled
# 注意修改完毕之后需要重启linux服务
SELINUX=disabled
  1. 禁用swap分区

swap分区指的是虚拟内存分区,它的作用是在物理内存使用完之后,将磁盘空间虚拟成内存来使用

启用swap设备会对系统的性能产生非常负面的影响,因此kubernetes要求每个节点都要禁用swap设备

但是如果因为某些原因确实不能关闭swap分区,就需要在集群安装过程中通过明确的参数进行配置说明

1
2
3
4
5
# 编辑分区配置文件/etc/fstab,注释掉swap分区一行
# 注意修改完毕之后需要重启linux服务
UUID=455cc753-7a60-4c17-a424-7741728c44a1 /boot xfs defaults 0 0
/dev/mapper/centos-home /home xfs defaults 0 0
# /dev/mapper/centos-swap swap swap defaults 0 0

7)修改linux的内核参数

1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
# 修改linux的内核参数,添加网桥过滤和地址转发功能
# 编辑/etc/sysctl.d/kubernetes.conf文件,添加如下配置:
net.bridge.bridge-nf-call-ip6tables = 1
net.bridge.bridge-nf-call-iptables = 1
net.ipv4.ip_forward = 1

# 重新加载配置
[root@tbh-0001 ~]# sysctl -p
vm.swappiness = 0
net.core.somaxconn = 1024
net.ipv4.tcp_max_tw_buckets = 5000
net.ipv4.tcp_max_syn_backlog = 1024

# 加载网桥过滤模块
[root@tbh-0001 ~]# modprobe br_netfilter

# 查看网桥过滤模块是否加载成功
[root@tbh-0001 ~]# lsmod | grep br_netfilter
br_netfilter 22256 0
bridge 151336 1 br_netfilter
  1. 配置ipvs功能

在kubernetes中service有两种代理模型,一种是基于iptables的,一种是基于ipvs的

两者比较的话,ipvs的性能明显要高一些,但是如果要使用它,需要手动载入ipvs模块

1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
# 1 安装ipset和ipvsadm
[root@tbh-0001 ~]# yum install ipset ipvsadmin -y

# 2 添加需要加载的模块写入脚本文件
[root@tbh-0001 ~]# cat <<EOF > /etc/sysconfig/modules/ipvs.modules
#!/bin/bash
modprobe -- ip_vs
modprobe -- ip_vs_rr
modprobe -- ip_vs_wrr
modprobe -- ip_vs_sh
modprobe -- nf_conntrack_ipv4
EOF

# 3 为脚本文件添加执行权限
[root@tbh-0001 ~]# chmod +x /etc/sysconfig/modules/ipvs.modules

# 4 执行脚本文件
[root@tbh-0001 ~]# /bin/bash /etc/sysconfig/modules/ipvs.modules

# 5 查看对应的模块是否加载成功
[root@tbh-0001 ~]# lsmod | grep -e ip_vs -e nf_conntrack_ipv4
  1. 重启服务器

上面步骤完成之后,需要重新启动linux系统

1
[root@tbh-0001 ~]# reboot

安装docker

1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
# 1 切换镜像源
[root@tbh-0001 ~]# wget https://mirrors.aliyun.com/docker-ce/linux/centos/docker-ce.repo -O /etc/yum.repos.d/docker-ce.repo

# 2 查看当前镜像源中支持的docker版本
[root@tbh-0001 ~]# yum list docker-ce --showduplicates

# 3 安装特定版本的docker-ce
# 必须指定--setopt=obsoletes=0,否则yum会自动安装更高版本
[root@tbh-0001 ~]# yum install --setopt=obsoletes=0 docker-ce-18.06.3.ce-3.el7 -y

# 4 添加一个配置文件
# Docker在默认情况下使用的Cgroup Driver为cgroupfs,而kubernetes推荐使用systemd来代替cgroupfs
[root@tbh-0001 ~]# mkdir /etc/docker
[root@tbh-0001 ~]# cat <<EOF > /etc/docker/daemon.json
{
"exec-opts": ["native.cgroupdriver=systemd"],
"registry-mirrors": ["https://kn0t2bca.mirror.aliyuncs.com"]
}
EOF

# 5 启动docker
[root@tbh-0001 ~]# systemctl restart docker
[root@tbh-0001 ~]# systemctl enable docker

# 6 检查docker状态和版本
[root@tbh-0001 ~]# docker version

安装kubernetes组件

1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
# 由于kubernetes的镜像源在国外,速度比较慢,这里切换成国内的镜像源
# 编辑/etc/yum.repos.d/kubernetes.repo,添加下面的配置
[kubernetes]
name=Kubernetes
baseurl=http://mirrors.aliyun.com/kubernetes/yum/repos/kubernetes-el7-x86_64
enabled=1
gpgcheck=0
repo_gpgcheck=0
gpgkey=http://mirrors.aliyun.com/kubernetes/yum/doc/yum-key.gpg
http://mirrors.aliyun.com/kubernetes/yum/doc/rpm-package-key.gpg

# 安装kubeadm、kubelet和kubectl
[root@tbh-0001 ~]# yum install --setopt=obsoletes=0 kubeadm-1.17.4-0 kubelet-1.17.4-0 kubectl-1.17.4-0 -y

# 配置kubelet的cgroup
# 编辑/etc/sysconfig/kubelet,添加下面的配置
KUBELET_CGROUP_ARGS="--cgroup-driver=systemd"
KUBE_PROXY_MODE="ipvs"

# 4 设置kubelet开机自启
[root@tbh-0001 ~]# systemctl enable kubelet

准备集群镜像

1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
# 在安装kubernetes集群之前,必须要提前准备好集群需要的镜像,所需镜像可以通过下面命令查看
[root@tbh-0001 ~]# kubeadm config images list

# 下载镜像
# 此镜像在kubernetes的仓库中,由于网络原因,无法连接,下面提供了一种替代方案
images=(
kube-apiserver:v1.17.4
kube-controller-manager:v1.17.4
kube-scheduler:v1.17.4
kube-proxy:v1.17.4
pause:3.1
etcd:3.4.3-0
coredns:1.6.5
)

for imageName in ${images[@]} ; do
docker pull registry.cn-hangzhou.aliyuncs.com/google_containers/$imageName
docker tag registry.cn-hangzhou.aliyuncs.com/google_containers/$imageName k8s.gcr.io/$imageName
docker rmi registry.cn-hangzhou.aliyuncs.com/google_containers/$imageName
done

集群初始化

下面开始对集群进行初始化,并将node节点加入到集群中

下面的操作只需要在tbh-0001节点上执行即可

1
2
3
4
5
6
# 创建集群
[root@tbh-0001 ~]# kubeadm init \
--kubernetes-version=v1.17.4 \
--pod-network-cidr=10.244.0.0/16 \
--service-cidr=10.96.0.0/12 \
--apiserver-advertise-address=192.168.0.181

直接kubectl get nodes会报错:The connection to the server localhost:8080 was refused - did you specify the right host or port?,出现这个问题的原因是kubectl命令需要使用kubernetes-admin来运行,上文输出中提示了解决办法:

1
2
3
4
5
6
7
8
# 创建必要文件
[root@tbh-0001 ~]# mkdir -p $HOME/.kube
[root@tbh-0001 ~]# sudo cp -i /etc/kubernetes/admin.conf $HOME/.kube/config
[root@tbh-0001 ~]# sudo chown $(id -u):$(id -g) $HOME/.kube/config
# 成功运行
[root@tbh-0001 ~]# kubectl get nodes
NAME STATUS ROLES AGE VERSION
tbh-0001 NotReady tbh-0001 5m7s v1.17.4

下面的操作只需要在node节点上执行即可

在tbh-0001上执行后会输出node节点加入集群所需要输入的命令,直接复制即可

1
2
3
4
5
6
7
8
9
10
11
# 将node节点加入集群
[root@tbh-0002 ~]# kubeadm join 192.168.0.181:6443 --token 1p2izv.b6arlpik2red8wyq \
--discovery-token-ca-cert-hash \
sha256:514ef66c3a916ef5a9174e3414140d668e24db612ebd24ca068eedcc288d07e1

# 查看集群状态 此时的集群状态为NotReady,这是因为还没有配置网络插件
[root@tbh-0001 ~]# kubectl get nodes
NAME STATUS ROLES AGE VERSION
tbh-0001 NotReady tbh-0001 8m10s v1.17.4
tbh-0002 NotReady <none> 11s v1.17.4
tbh-0003 NotReady <none> 4s v1.17.4

安装网络插件

kubernetes支持多种网络插件,比如flannel、calico、canal等等,任选一种使用即可,本次选择flannel

下面操作依旧只在tbh-0001节点执行即可,插件使用的是DaemonSet的控制器,它会在每个节点上都运行

1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
# 获取fannel的配置文件
[root@tbh-0001 ~]# wget https://raw.githubusercontent.com/coreos/flannel/tbh-0001/Documentation/kube-flannel.yml

vim kube-flannel.yml
# 查询image,注释掉第一个留下带mirror的那个即可(换源)

# 使用配置文件启动fannel
[root@tbh-0001 ~]# kubectl apply -f kube-flannel.yml

# 稍等片刻,再次查看集群节点的状态(得等一会儿)
[root@tbh-0001 ~]# kubectl get nodes
NAME STATUS ROLES AGE VERSION
tbh-0001 Ready tbh-0001 21m v1.17.4
tbh-0002 Ready <none> 13m v1.17.4
tbh-0003 Ready <none> 13m v1.17.4

至此,kubernetes的集群环境搭建完成

服务部署

接下来在kubernetes集群中部署一个nginx程序,测试下集群是否在正常工作。

1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
28
29
30
31
32
33
34
35
36
37
38
39
40
41
42
43
# 部署nginx
[root@tbh-0001 ~]# kubectl create deployment nginx --image=nginx:1.14-alpine

# 暴露端口
[root@tbh-0001 ~]# kubectl expose deployment nginx --port=80 --type=NodePort

# 查看服务状态
[root@tbh-0001 ~]# kubectl get pods,service
NAME READY STATUS RESTARTS AGE
pod/nginx-6867cdf567-flcfc 0/1 ContainerCreating 0 13s

NAME TYPE CLUSTER-IP EXTERNAL-IP PORT(S) AGE
service/kubernetes ClusterIP 10.96.0.1 <none> 443/TCP 23m
service/nginx NodePort 10.99.122.158 <none> 80:31450/TCP 7s


# 4 最后访问下部署的nginx服务
[root@tbh-0001 ~]# curl 192.168.0.181:31450
<!DOCTYPE html>
<html>
<head>
<title>Welcome to nginx!</title>
<style>
body {
width: 35em;
margin: 0 auto;
font-family: Tahoma, Verdana, Arial, sans-serif;
}
</style>
</head>
<body>
<h1>Welcome to nginx!</h1>
<p>If you see this page, the nginx web server is successfully installed and
working. Further configuration is required.</p>

<p>For online documentation and support please refer to
<a href="http://nginx.org/">nginx.org</a>.<br/>
Commercial support is available at
<a href="http://nginx.com/">nginx.com</a>.</p>

<p><em>Thank you for using nginx.</em></p>
</body>
</html>

k8s部署测试成功!

 评论
评论插件加载失败
正在加载评论插件