ubuntu 16.04 下安裝kubernetes 1.6 之kube-dns

1 前言

如果說service解決了pod 服務發現和負載均衡的問題,那么kube-dns則是為了解決service的發現問題而誕生的。試想下這樣一個場景,當不知道service ip 的情況下,應用程序如果想要訪問后端服務,只有用kubectl get svc -n namespace來查詢service對應的IP和端口,再改配置,這樣每新建一個服務就要改一次配置,也是夠折騰的。那么這個問題如果解決,這就是本文所要將的內容。

2 使用kube-dns發現service

kube-dns插件提供了三個容器功能如下:

kubedns容器

監視kubernetes service資源并更新DNS記錄
替換etcd,使用TreeCache數據結構保存DNS記錄并實現skydns的backend接口
接入skydns,對dnsmasq提供DNS查詢服務

dnsmasq容器

對集群提供DNS查詢服務
設置kubedns為upstream
提供DNS緩存,降低kubedns負載,提高性能

exechealthz容器

定期檢查kubedns和dnsmasq的監控狀態
為kubernetes的活性檢測提供HTTP API

3 kubedns,dnsmasq,exechealthz原理圖

4 kube-dns插件安裝

kube-dns的安裝其實就是啟動三個容器:kubedns,dnsmasq,exechealthz
先創建一個kube-dns service

cat kubedns-svc.yaml
apiVersion: v1
kind: Service
metadata:
  name: kube-dns
  namespace: kube-system
  labels:
    k8s-app: kube-dns
spec:
  selector:
    k8s-app: kube-dns
  clusterIP: 10.10.10.10  #和各個節點的kubelet啟動參數的--cluster-dns保持一致**
  ports:
  - name: dns
    port: 53
    protocol: UDP
  - name: dns-tcp
    port: 53
    protocol: TCP

創建kube-dns RC,創建三個容器

cat kubedns-rc.yaml
apiVersion: v1
kind: ReplicationController
metadata:
  name: kube-dns-v6
  namespace: kube-system
  labels:
    k8s-app: kube-dns
    version: v6
    kubernetes.io/cluster-service: "true"
spec:
  replicas: 1
  selector:
    k8s-app: kube-dns
    version: v6
  template:
    metadata:
    labels:
      k8s-app: kube-dns
      version: v6
  spec:
    containers:
    - name: kubedns
      image: siriuszg/kubedns-amd64:latest
      imagePullPolicy: IfNotPresent
      resources:
        limits:
          cpu: 100m
          memory: 50Mi
        livenessProbe:
          httpGet:
            path: /healthz-kubedns
            port: 8080
            scheme: HTTP
          initialDelaySeconds: 60
          timeoutSeconds: 5
          successThreshold: 1
          failureThreshold: 5
        readinessProbe:
          httpGet:
            path: /readiness
            port: 8081
            scheme: HTTP
          initialDelaySeconds: 3
          timeoutSeconds: 5
        args:
        - --domain=cluster.local.  #和各個節點的kubelet中的啟動參數--cluster-domain保持一致,cluster.local后面有個“.”**
        - --dns-port=10053
        - --kube-master-url=http://192.168.100.20:8080
        ports:
        - containerPort: 10053
          name: dns-local
          protocol: UDP
     - name: kube-dnsmasq
       image: ist0ne/kube-dnsmasq-amd64:latest
       imagePullPolicy: IfNotPresent
       livenessProbe:
         httpGet:
           path: /healthz-dnsmasq
           port: 8080
           scheme: HTTP
         initialDelaySeconds: 60
         timeoutSeconds: 5
         successThreshold: 1
         failureThreshold: 5
       args:
       - --cache-size=1000
       - --no-resolv
       - --server=127.0.0.1#10053
       - --log-facility=-
       ports:
       - containerPort: 53
          name: dns
          protocol: UDP
       - containerPort: 53
         name: dns-tcp
         protocol: TCP
     - name: healthz
       image: ist0ne/exechealthz-amd64:latest
       imagePullPolicy: IfNotPresent
       resources:
         limits: 
           memory: 50Mi
         requests:
           cpu: 10m
           memory: 50Mi
       args:
       - --cmd=nslookup kubernetes.default.svc.cluster.local 127.0.0.1 >/dev/null
       - --url=/healthz-dnsmasq
       - --cmd=nslookup kubernetes.default.svc.cluster.local 127.0.0.1:10053 >/dev/null
       - --url=/healthz-kubedns
       - --port=8080
       - --quiet
       ports:
       - containerPort: 8080
         protocol: TCP
     dnsPolicy: Default

注意:各個節點的kubelet啟動參數中要加上--cluster-dns和--cluster-domain,--cluster-dns的值就是service中的clusterIP: 10.10.10.10,--cluster-domain就是rc中的- --domain=cluster.local
這樣容器啟動就自動在/etc/resolv.conf中添加如下字段

image.png

分別執行kubectl create -f kubedns-svc.yaml ,kubectl create -f kubedns-rc.yaml 創建kubedns的service和pod

5 驗證

通過上述各步的操作,kube-dns的插件就安裝好了,先來看看我們都安裝了什么,可以通過kubectl也可以通過dashboard來查看我們創建的service,rc和pod,下面的截圖是通過kubectl來查看的

image.png

從圖中可以看出啟動了kube-dns-v6-41d2c這個pod,啟在192.168.100.93這個節點上,分配的IP是172.17.2.5,共啟了3個容器,這三個容器共享IP。
從default namespace中找一個pod,用這個pod驗證kube-dns

image.png

選擇 tomcat-gllz3這個pod,理由是這個pod中的容器裝有nslookup。

image.png

從圖中可以看出所有的service都可以通過kubedns解析出來
注意:kubedns的域名規則是service-name.namespace.svc.domain
service-name 即為某個service的name
namespace 為該service所在的namespace
svc 為固定字符
domain 為創建kubedns pod時指定的domain也就是各節點kubelete啟動參數中的--cluster-domain,本文是cluster.local
不要試圖去ping service ip ,可以telnet 或是nslookup去驗證service是否有效。

最后編輯于
?著作權歸作者所有,轉載或內容合作請聯系作者
平臺聲明:文章內容(如有圖片或視頻亦包括在內)由作者上傳并發布,文章內容僅代表作者本人觀點,簡書系信息發布平臺,僅提供信息存儲服務。
  • 序言:七十年代末,一起剝皮案震驚了整個濱河市,隨后出現的幾起案子,更是在濱河造成了極大的恐慌,老刑警劉巖,帶你破解...
    沈念sama閱讀 229,836評論 6 540
  • 序言:濱河連續發生了三起死亡事件,死亡現場離奇詭異,居然都是意外死亡,警方通過查閱死者的電腦和手機,發現死者居然都...
    沈念sama閱讀 99,275評論 3 428
  • 文/潘曉璐 我一進店門,熙熙樓的掌柜王于貴愁眉苦臉地迎上來,“玉大人,你說我怎么就攤上這事。” “怎么了?”我有些...
    開封第一講書人閱讀 177,904評論 0 383
  • 文/不壞的土叔 我叫張陵,是天一觀的道長。 經常有香客問我,道長,這世上最難降的妖魔是什么? 我笑而不...
    開封第一講書人閱讀 63,633評論 1 317
  • 正文 為了忘掉前任,我火速辦了婚禮,結果婚禮上,老公的妹妹穿的比我還像新娘。我一直安慰自己,他們只是感情好,可當我...
    茶點故事閱讀 72,368評論 6 410
  • 文/花漫 我一把揭開白布。 她就那樣靜靜地躺著,像睡著了一般。 火紅的嫁衣襯著肌膚如雪。 梳的紋絲不亂的頭發上,一...
    開封第一講書人閱讀 55,736評論 1 328
  • 那天,我揣著相機與錄音,去河邊找鬼。 笑死,一個胖子當著我的面吹牛,可吹牛的內容都是我干的。 我是一名探鬼主播,決...
    沈念sama閱讀 43,740評論 3 446
  • 文/蒼蘭香墨 我猛地睜開眼,長吁一口氣:“原來是場噩夢啊……” “哼!你這毒婦竟也來了?” 一聲冷哼從身側響起,我...
    開封第一講書人閱讀 42,919評論 0 289
  • 序言:老撾萬榮一對情侶失蹤,失蹤者是張志新(化名)和其女友劉穎,沒想到半個月后,有當地人在樹林里發現了一具尸體,經...
    沈念sama閱讀 49,481評論 1 335
  • 正文 獨居荒郊野嶺守林人離奇死亡,尸身上長有42處帶血的膿包…… 初始之章·張勛 以下內容為張勛視角 年9月15日...
    茶點故事閱讀 41,235評論 3 358
  • 正文 我和宋清朗相戀三年,在試婚紗的時候發現自己被綠了。 大學時的朋友給我發了我未婚夫和他白月光在一起吃飯的照片。...
    茶點故事閱讀 43,427評論 1 374
  • 序言:一個原本活蹦亂跳的男人離奇死亡,死狀恐怖,靈堂內的尸體忽然破棺而出,到底是詐尸還是另有隱情,我是刑警寧澤,帶...
    沈念sama閱讀 38,968評論 5 363
  • 正文 年R本政府宣布,位于F島的核電站,受9級特大地震影響,放射性物質發生泄漏。R本人自食惡果不足惜,卻給世界環境...
    茶點故事閱讀 44,656評論 3 348
  • 文/蒙蒙 一、第九天 我趴在偏房一處隱蔽的房頂上張望。 院中可真熱鬧,春花似錦、人聲如沸。這莊子的主人今日做“春日...
    開封第一講書人閱讀 35,055評論 0 28
  • 文/蒼蘭香墨 我抬頭看了看天上的太陽。三九已至,卻和暖如春,著一層夾襖步出監牢的瞬間,已是汗流浹背。 一陣腳步聲響...
    開封第一講書人閱讀 36,348評論 1 294
  • 我被黑心中介騙來泰國打工, 沒想到剛下飛機就差點兒被人妖公主榨干…… 1. 我叫王不留,地道東北人。 一個月前我還...
    沈念sama閱讀 52,160評論 3 398
  • 正文 我出身青樓,卻偏偏與公主長得像,于是被迫代替她去往敵國和親。 傳聞我的和親對象是個殘疾皇子,可洞房花燭夜當晚...
    茶點故事閱讀 48,380評論 2 379

推薦閱讀更多精彩內容