轉(zhuǎn)自:http://blog.51cto.com/itdby/1980018
一、實(shí)驗(yàn)環(huán)境
3臺(tái)centos7的主機(jī):
master 192.168.111.131部署etcd,kube-apiserver,kube-controller-manager,kube-scheduler 4個(gè)應(yīng)用。
node01 192.168.111.130 部署docker,kubelet, kube-proxy 3個(gè)應(yīng)用
node02 192.168.111.129 部署docker,kubelet, kube-proxy 3個(gè)應(yīng)用
二、實(shí)驗(yàn)步驟
1. 修改主機(jī)名和ip,三個(gè)主機(jī)網(wǎng)卡均設(shè)置為橋接模式,能夠聯(lián)網(wǎng)。
修改主機(jī)名:
hostnamectl set-hostname master
hostnamectl set-hostname node1
hostnamectl set-hostname node2
查看:
vi /etc/hostname
重啟:
reboot
2. 分別修改/etc/hosts文件:
- Master配置
#vim /etc/hosts
Node01
#scp root@192.168.111.128:/etc/hosts /etc/
Node02
#scp root@192.168.111.128:/etc/hosts /etc/
3. 三臺(tái)均設(shè)置防火墻的默認(rèn)區(qū)域?yàn)閠rusted。
4. 三臺(tái)均關(guān)閉selinux
vi /etc/selinux/config
將SELINUX=enforcing改為SELINUX=disabled
設(shè)置后需要重啟才能生效
5. 三臺(tái)均安裝docker,并啟動(dòng)。因?yàn)閙aster之后還需要做registry倉(cāng)庫(kù),所以也需要安裝docker.
#yum install -y docker
6. 三臺(tái)均開啟路由轉(zhuǎn)發(fā)功能:
7、實(shí)現(xiàn)node01和node02之間容器互通。
1)node01和node02新建網(wǎng)橋,并固定網(wǎng)橋ip。
node01上操作:
刪除網(wǎng)橋docker0,新建網(wǎng)橋kbr0:
首先安裝網(wǎng)橋管理工具brctl:yum install bridge-utils
新建網(wǎng)橋的配置文件:
新建路由文件:route-eth0,eth0為node1上的網(wǎng)卡名。
修改docker配置文件,添加-b=kbr0參數(shù)
reboot重啟系統(tǒng)使網(wǎng)橋設(shè)置生效。2)對(duì)node02做同樣的設(shè)置:
新建網(wǎng)橋:
新建網(wǎng)橋配置文件:
· #scp root@192.168.111.129:/etc/sysconfig/network-scripts/ifcfg-kbr0 /etc/sysconfig/network-scripts/
創(chuàng)建路由文件:
修改docker 配置文件:
重啟系統(tǒng)reboot.#vim /etc/sysconfig/docker
3)系統(tǒng)啟動(dòng)之后,查看網(wǎng)卡信息和路由信息。
#ifconfig
4)驗(yàn)證兩個(gè)宿主機(jī)間容器的互通性:
- node01上運(yùn)行一個(gè)容器:
- node02上運(yùn)行一個(gè)容器:
- 容器間互ping:
#docker run -it docker.io/centos:centos6
# yum install -y iputils 進(jìn)入容器安裝
#dcoker run -it docker.io/centos:centos6
master上部署應(yīng)用:
1、安裝etcd.
查看etcd配置文件:
2、修改配置文件:
3、啟動(dòng)etcd服務(wù): 查看服務(wù)端口號(hào):4、部署k8s-master組件(apiserver+controller-manager+scheduler)
安裝軟件:
#yum install -y kubernetes-master
查看配置文件:
5、修改配置文件:
解釋:#vim /etc/kubernetes/config
KUBE_LOGTOSTDERR 日志設(shè)置
KUBE_LOG_KEVEL 日志級(jí)別設(shè)置
KUBE_ALLOW_PRIV 是否允許運(yùn)行特權(quán)容器
KUBE_MASTER 主節(jié)點(diǎn)的地址,主要為replication controller和scheduler及kubelet可以順利找到apiserver
KUBE_API_ADDRESS 監(jiān)聽的接口,如果配置為127.0.0.1則只監(jiān)聽localhost,配置為0.0.0.0會(huì)監(jiān)聽所有接口,這里配置為0.0.0.0。#vim /etc/kubernetes/apiserver
KUBE_API_PORT="--port=8080" apiserver的監(jiān)聽端口,默認(rèn)8080,不用修改。
KUBELET_PORT="--kubelet_port=10250" kubelet監(jiān)聽的端口,默認(rèn)10250,無需修改
KUBE_ETCD_SERVERS //指定etcd節(jié)點(diǎn)的地址
KUBE_SERVICE_ADDRESSES 這個(gè)是設(shè)置今后運(yùn)行Service所在的ip網(wǎng)段
KUBE_API_ARGS=”--secure-port=0” 默認(rèn)是要求https安全通信,”--secure-port=0”則不要求https安全通信
注:這里需要注意原來KUBE_ADMISSION_CONTROL默認(rèn)包含的要?jiǎng)h掉,不然啟動(dòng)API server的時(shí)候會(huì)報(bào)錯(cuò)
6、啟動(dòng)服務(wù):
查看服務(wù)端口:
部署node主機(jī):
1、安裝kubernetes-node軟件:
#yum install -y kubernetes-node
2、修改配置文件:
#vim /etc/kubernetes/config
配置項(xiàng)KUBELET_POD_INFRA_CONTAINER="--pod-infra-container-image=registry.access.redhat.com/rhel7/pod-infrastructure:latest"作用k8s創(chuàng)建pod的時(shí)候需要起一個(gè)基本容器,所以node節(jié)點(diǎn)要能連網(wǎng)。也可以自己搭建一個(gè)私有倉(cāng)庫(kù),將pod-infrastructure:latest鏡像上傳到私有倉(cāng)庫(kù)中,修改此配置文件的地址就可以。#vim /etc/kubernetes/kubelet
3、啟動(dòng)服務(wù):
4、在node02主機(jī)上重復(fù)上面的操作。
5、在master上檢查node 狀態(tài):
建私有倉(cāng)庫(kù):
Kubernetes管理容器如果是第一次操作,可能會(huì)有一定的等待時(shí)間,這是因?yàn)榈谝淮蜗螺dimages需要一段時(shí)間。如果本地沒有docker registry,要確保節(jié)點(diǎn)能訪問互聯(lián)網(wǎng),所以我們可以搭建一個(gè)私有倉(cāng)庫(kù),由私有倉(cāng)庫(kù)提供所需要的鏡像,
本實(shí)驗(yàn)環(huán)境中用kubernetes同時(shí)作為registry。
1、導(dǎo)入鏡像:
2、基于私有倉(cāng)庫(kù)鏡像運(yùn)行容器
3、本地訪問私有倉(cāng)庫(kù):
4、上傳鏡像到私有倉(cāng)庫(kù)。
- 導(dǎo)入之后用到的鏡像到本地
- 給基礎(chǔ)鏡像打個(gè)標(biāo)簽:
- 在三臺(tái)主機(jī)上均修改docker 的配置文件,指定私有倉(cāng)庫(kù)的url.
- 重啟docker服務(wù):
- 上傳鏡像到私有倉(cāng)庫(kù)并查看:
- 測(cè)試,下載剛才上傳的鏡像:
部署web應(yīng)用
1、為了部署pod的時(shí)候,下載鏡像速度快點(diǎn),把node節(jié)點(diǎn)主機(jī)配置文件中的pod鏡像下載地址修改為本地私有倉(cāng)庫(kù)地址:
#vim /etc/kubernetes/kubelet
#systemctl restart kubelet.service
2、創(chuàng)建apache-rc.yaml文件,根據(jù)文件內(nèi)容創(chuàng)建rc和pod。
注意:必須按照此格式編寫否則會(huì)報(bào)錯(cuò)
#kubectl create -f apache-rc.yaml
error: error validating "apache-rc.yaml": error validating data: found invalid field spec for v1.ReplicationControllerSpec; if you choose to ignore these errors, turn validation off with --validate=false
- 查看pods狀態(tài):
- 查看pods詳細(xì)狀態(tài):
附:刪除pod
kubectl delete pod podName
由于設(shè)置了兩份副本,所以刪除pod的時(shí)候,k8s會(huì)迅速起另外一個(gè)一模一樣的pod以保持副本數(shù)量為2不變。
要徹底刪除pod,只能刪除創(chuàng)建它的replication controller
查看replication controller
kubectl get rc
刪除replication controller
kubectl delete rc rcName
刪除rc之后,其創(chuàng)建的pod會(huì)一并刪除
3、部署節(jié)點(diǎn)內(nèi)部可訪問的apache service
Server的type有ClusterIP和 NodePort之分,缺省是ClusterIp,這種類型的service只能在集群內(nèi)部訪問
- 創(chuàng)建配置文件:
#vim apache-service-clusterip.yaml
- 創(chuàng)建service:
- 查看service狀態(tài):
- 驗(yàn)證apache服務(wù):(在node節(jié)點(diǎn)執(zhí)行)
4、部署外部可訪問的apache service。
創(chuàng)建nodeport類型的service . 這種類型的Service在集群外部是可以訪問
#vim apache-nodeport-service.yaml
- 創(chuàng)建service:
- 查看service:
外部訪問:
內(nèi)部訪問:
到此為止kubernetes 集群搭建完畢!!!