k8s list-watch

k8s list-watch

Background

參考kubernetes設(shè)計理念分析 | 從運行流程和list-watch看kubernetes系統(tǒng)的設(shè)計理念

k8s各個組件與api-server通過list-watch機制通信。list-watch需要解決以下問題:

  1. 實時性:各個組件必須及時得知數(shù)據(jù)變化;
  2. 順序性:保證數(shù)據(jù)變化的順序性,如果刪除在創(chuàng)建之前,畫面太美;
  3. 可靠性:由于網(wǎng)絡(luò)波動等因素,必須保證消息必達,AMQP?

解決之道

實時性

http streaming,client發(fā)起HTTP長連接請求,server如果有數(shù)據(jù)更新就發(fā)送response。HTTP2通過連接復(fù)用技術(shù),可以優(yōu)化多個HTTP長連接共用一個TCP長連接。

順序性

每一種資源都有resverison,當發(fā)生變化時,resverion加1。resversionde 一致性,由etcd保證全局單調(diào)遞增,類似redis-incr。

所以client watch的response都是按照resversion排好序的。

resourceVersion參數(shù)說明

When specified with a watch call, shows changes that occur after that particular version of a resource. Defaults to changes from the beginning of history. When specified for list: - if unset, then the result is returned from remote storage based on quorum-read flag; - if it's 0, then we simply return what we currently have in cache, no guarantee; - if set to non zero, then the result is at least as fresh as given rv. (optional)

可靠性

list-watch總是先list,獲取apiserver cache中的所有數(shù)據(jù),然后根據(jù)最后的resversion watch。這樣如果網(wǎng)絡(luò)波動,client先list獲取之前未處理的數(shù)據(jù),然后watch處理更新的數(shù)據(jù)。保證數(shù)據(jù)不丟失。

watch優(yōu)化

參考apiserver-watch

問題

  1. 以前watch請求都是直接watch etcd,太多長連接給etcd以及apiserver都造成壓力;
  2. 很多相同的watch請求,造成太多重復(fù)序列化/反序列化操作。

優(yōu)化

  1. 每種REST,apiserver會watch etcd,然后cache到對應(yīng)的storage;
  2. apiserver接收watch請求,只讀對應(yīng)的REST storage,避免直接連接etcd;
  3. list返回全量數(shù)據(jù),每次watch失敗都會relist。在大規(guī)模場景,如果所有client同時發(fā)生relist,那server肯定受不了。為了應(yīng)對這種情況,提供了EtcdResync
  4. apiserver為了減少沒用的長連接(client掛了),給每個watch都加了一個隨機的超時參數(shù)。

Reflector

在k8s組件中,采用k8s.io\client-go\tools\cache\controller.goNewInformer()對REST監(jiān)控,其中核心是ReflectorReflector監(jiān)控指定的REST資源,然后將所有的變化保存在store中,一般采用DeltaFIFO,DeltaFIFO is like FIFO, but allows you to process deletes

k8s.io\client-go\tools\cache\reflector.go

// ListAndWatch first lists all items and get the resource version at the moment of call,
// and then use the resource version to watch.
// It returns error if ListAndWatch didn't even try to initialize watch.
func (r *Reflector) ListAndWatch(stopCh <-chan struct{}) error {
    options := metav1.ListOptions{ResourceVersion: "0"}
    list, err := r.listerWatcher.List(options)
    resourceVersion = listMetaInterface.GetResourceVersion()
    r.setLastSyncResourceVersion(resourceVersion)
    
    for {
        timemoutseconds := int64(minWatchTimeout.Seconds() * (rand.Float64() + 1.0))
        options = metav1.ListOptions{
            ResourceVersion: resourceVersion,
            // We want to avoid situations of hanging watchers. Stop any wachers that do not
            // receive any events within the timeout window.
            TimeoutSeconds: &timemoutseconds,
        }
        
        w, err := r.listerWatcher.Watch(options)
        r.watchHandler(w, &resourceVersion, resyncerrc, stopCh)
    }
}

// watchHandler watches w and keeps *resourceVersion up to date.
func (r *Reflector) watchHandler(w watch.Interface, resourceVersion *string, errc chan error, stopCh <-chan struct{}) error {
    for {
        select {
            // streamwatch
            case event, ok := <-w.ResultChan():
                meta, err := meta.Accessor(event.Object)
                newResourceVersion := meta.GetResourceVersion()
                
            switch event.Type {
            case watch.Added:
                err := r.store.Add(event.Object)
            case watch.Modified:
                err := r.store.Update(event.Object)
            case watch.Deleted:
                // TODO: Will any consumers need access to the "last known
                // state", which is passed in event.Object? If so, may need
                // to change this.
                err := r.store.Delete(event.Object)
            default:
                utilruntime.HandleError(fmt.Errorf("%s: unable to understand watch event %#v", r.name, event))
            }
            *resourceVersion = newResourceVersion
            r.setLastSyncResourceVersion(newResourceVersion)
        }
    }
}
?著作權(quán)歸作者所有,轉(zhuǎn)載或內(nèi)容合作請聯(lián)系作者
平臺聲明:文章內(nèi)容(如有圖片或視頻亦包括在內(nèi))由作者上傳并發(fā)布,文章內(nèi)容僅代表作者本人觀點,簡書系信息發(fā)布平臺,僅提供信息存儲服務(wù)。
  • 序言:七十年代末,一起剝皮案震驚了整個濱河市,隨后出現(xiàn)的幾起案子,更是在濱河造成了極大的恐慌,老刑警劉巖,帶你破解...
    沈念sama閱讀 228,739評論 6 534
  • 序言:濱河連續(xù)發(fā)生了三起死亡事件,死亡現(xiàn)場離奇詭異,居然都是意外死亡,警方通過查閱死者的電腦和手機,發(fā)現(xiàn)死者居然都...
    沈念sama閱讀 98,634評論 3 419
  • 文/潘曉璐 我一進店門,熙熙樓的掌柜王于貴愁眉苦臉地迎上來,“玉大人,你說我怎么就攤上這事。” “怎么了?”我有些...
    開封第一講書人閱讀 176,653評論 0 377
  • 文/不壞的土叔 我叫張陵,是天一觀的道長。 經(jīng)常有香客問我,道長,這世上最難降的妖魔是什么? 我笑而不...
    開封第一講書人閱讀 63,063評論 1 314
  • 正文 為了忘掉前任,我火速辦了婚禮,結(jié)果婚禮上,老公的妹妹穿的比我還像新娘。我一直安慰自己,他們只是感情好,可當我...
    茶點故事閱讀 71,835評論 6 410
  • 文/花漫 我一把揭開白布。 她就那樣靜靜地躺著,像睡著了一般。 火紅的嫁衣襯著肌膚如雪。 梳的紋絲不亂的頭發(fā)上,一...
    開封第一講書人閱讀 55,235評論 1 324
  • 那天,我揣著相機與錄音,去河邊找鬼。 笑死,一個胖子當著我的面吹牛,可吹牛的內(nèi)容都是我干的。 我是一名探鬼主播,決...
    沈念sama閱讀 43,315評論 3 442
  • 文/蒼蘭香墨 我猛地睜開眼,長吁一口氣:“原來是場噩夢啊……” “哼!你這毒婦竟也來了?” 一聲冷哼從身側(cè)響起,我...
    開封第一講書人閱讀 42,459評論 0 289
  • 序言:老撾萬榮一對情侶失蹤,失蹤者是張志新(化名)和其女友劉穎,沒想到半個月后,有當?shù)厝嗽跇淞掷锇l(fā)現(xiàn)了一具尸體,經(jīng)...
    沈念sama閱讀 49,000評論 1 335
  • 正文 獨居荒郊野嶺守林人離奇死亡,尸身上長有42處帶血的膿包…… 初始之章·張勛 以下內(nèi)容為張勛視角 年9月15日...
    茶點故事閱讀 40,819評論 3 355
  • 正文 我和宋清朗相戀三年,在試婚紗的時候發(fā)現(xiàn)自己被綠了。 大學(xué)時的朋友給我發(fā)了我未婚夫和他白月光在一起吃飯的照片。...
    茶點故事閱讀 43,004評論 1 370
  • 序言:一個原本活蹦亂跳的男人離奇死亡,死狀恐怖,靈堂內(nèi)的尸體忽然破棺而出,到底是詐尸還是另有隱情,我是刑警寧澤,帶...
    沈念sama閱讀 38,560評論 5 362
  • 正文 年R本政府宣布,位于F島的核電站,受9級特大地震影響,放射性物質(zhì)發(fā)生泄漏。R本人自食惡果不足惜,卻給世界環(huán)境...
    茶點故事閱讀 44,257評論 3 347
  • 文/蒙蒙 一、第九天 我趴在偏房一處隱蔽的房頂上張望。 院中可真熱鬧,春花似錦、人聲如沸。這莊子的主人今日做“春日...
    開封第一講書人閱讀 34,676評論 0 26
  • 文/蒼蘭香墨 我抬頭看了看天上的太陽。三九已至,卻和暖如春,著一層夾襖步出監(jiān)牢的瞬間,已是汗流浹背。 一陣腳步聲響...
    開封第一講書人閱讀 35,937評論 1 288
  • 我被黑心中介騙來泰國打工, 沒想到剛下飛機就差點兒被人妖公主榨干…… 1. 我叫王不留,地道東北人。 一個月前我還...
    沈念sama閱讀 51,717評論 3 393
  • 正文 我出身青樓,卻偏偏與公主長得像,于是被迫代替她去往敵國和親。 傳聞我的和親對象是個殘疾皇子,可洞房花燭夜當晚...
    茶點故事閱讀 48,003評論 2 374

推薦閱讀更多精彩內(nèi)容