Zookeeper實現分布式鎖(二)Watcher版

在Zookeeper實現分布式鎖的第一篇文章Zookeeper實現分布式鎖(一)While版中,我們使用Zookeeper實現了一個分布式鎖,過程原理如下:

1.所有客戶端都使用create方法創建同一個名字的節點
2.創建成功的獲取到鎖,其余的客戶端不斷while循環重試
3.獲取到鎖的客戶端執行完邏輯代碼后delete節點,其余客戶端繼續爭搶

這種方式會存在一下問題:

1.while循環浪費cpu
2.頻繁進行create重試會對Zookeeper服務器造成壓力

針對以上問題我們可以通過Zookeeper的watcher來解決,首先我們來看watcher的使用。

Watcher使用

在zookeeper中,watcher機制是當服務端的節點信息發生了變化時通知所有監聽了該節點的客戶端。其允許客戶端向服務端注冊一個watcher監聽,當服務端的一些指定事件觸發了這個watcher,就會向指定的客戶端發送一個事件通知。

public static void watch() throws Exception{
        zk.create("/zx3", "aaa".getBytes(), ZooDefs.Ids.OPEN_ACL_UNSAFE, CreateMode.PERSISTENT);
        zk.exists("/zx3", new Watcher() {
            public void process(WatchedEvent watchedEvent) {
                try {
                    System.out.println("監聽的節點有變化,觸發事件");
                    System.out.println(watchedEvent.getPath());
                    System.out.println(watchedEvent.getState());
                    System.out.println(watchedEvent.getType());
                } catch (Exception e) {
                    // TODO: handle exception
                }
                
            }
        });
        //通過刪除/zx3節點來觸發watcher事件
        zk.delete("/zx3", -1);
}

輸出結果

監聽的節點有變化,觸發事件
/zx3
SyncConnected
NodeDeleted

通過watcher的這種特性我們可以避免while循環不斷重試的弊端。

Watcher鎖實現

根據watcher可以監聽某個節點的變化這個特點,可以用來優化我們的while鎖。

1.實現原理

1.所有客戶端都使用create方法創建同一個名字的節點
2.創建成功的獲取到鎖,失敗的客戶端對該節點設置一個watcher
3.獲取到鎖的客戶端delete節點,其余客戶端收到watcher的通知,此時再執行一次create方法
4.1-3進行循環

上述方式避免了獲取不到鎖的客戶端不斷循環重試的風險,而是當有人釋放鎖的時候,通知剩下的所有人來嘗試獲取鎖。

2.獲取方法
public boolean lock() throws Exception {
        String path = null;
        while (true) {
            CountDownLatch countDownLatch =  new CountDownLatch(1);
            try {
                path = zk.create(nodeString, "".getBytes(), ZooDefs.Ids.OPEN_ACL_UNSAFE, CreateMode.EPHEMERAL);
            } catch (KeeperException e) {
                System.out.println(Thread.currentThread().getName() + "  請求失敗");
                
                try {
                    zk.exists(nodeString, new Watcher() {
                        @Override
                        public void process(WatchedEvent watchedEvent) {
                            System.out.println("事件來了:" + watchedEvent.toString());
                            if (watchedEvent.getType() == Event.EventType.NodeDeleted) {
                                System.out.println("delete事件");
                                countDownLatch.countDown();
                            }
                        }
                    });
                } catch (KeeperException e1) {
                    e.printStackTrace();
                }
            }
            if (path != null && !path.isEmpty()) {
                System.out.println(Thread.currentThread().getName() + " 拿到 Lock...");
                break;
            }
            countDownLatch.await();
        }
        return true;
        
}

上述代碼還是使用了while循環?
代碼邏輯:

1.首先嘗試create節點獲取鎖,如果拿鎖失敗,就通過watcher監聽nodeString節點
2.在while循環最后使用countDownLatch.await()阻止繼續循環
3.直到watcher收到釋放鎖的通知才countDownLatch.countDown()解開阻塞,重新執行create獲取鎖
4.重復1-3

3.釋放鎖
public void unlock() {
        try {
            zk.delete(nodeString, -1);
            System.out.println(Thread.currentThread().getName() +  "釋放 Lock...");
        } catch (InterruptedException e) {
            e.printStackTrace();
        } catch (KeeperException e) {
            e.printStackTrace();
        }
}
4.main方法
public static void main(String args[]) throws InterruptedException {
        ZookeeperLock_2_Watch test = new ZookeeperLock_2_Watch();
        try {
            Thread.sleep(100);
            zk.create(lockNameSpace, "".getBytes(), ZooDefs.Ids.OPEN_ACL_UNSAFE, CreateMode.PERSISTENT);
        } catch (KeeperException e) {
        } catch (InterruptedException e) {
        }
        ExecutorService service = Executors.newFixedThreadPool(10);
        for (int i = 0; i < 4; i++) {
            service.execute(() -> {
                try {
                    test.lock();
                    Thread.sleep(1000);
                } catch (Exception e) {
                    e.printStackTrace();
                }
                test.unlock();
            });
        }
        service.shutdown();
    }
5.輸出結果
Receive event WatchedEvent state:SyncConnected type:None path:null
connection is ok
pool-1-thread-2 拿到 Lock...
pool-1-thread-4  請求失敗
pool-1-thread-1  請求失敗
pool-1-thread-3  請求失敗
事件來了:WatchedEvent state:SyncConnected type:NodeDeleted path:/mylock/lock1
delete事件
事件來了:WatchedEvent state:SyncConnected type:NodeDeleted path:/mylock/lock1
delete事件
事件來了:WatchedEvent state:SyncConnected type:NodeDeleted path:/mylock/lock1
delete事件
pool-1-thread-2釋放 Lock...
pool-1-thread-1 拿到 Lock...
pool-1-thread-4  請求失敗
pool-1-thread-3  請求失敗
事件來了:WatchedEvent state:SyncConnected type:NodeDeleted path:/mylock/lock1
delete事件
事件來了:WatchedEvent state:SyncConnected type:NodeDeleted path:/mylock/lock1
delete事件
pool-1-thread-1釋放 Lock...
pool-1-thread-4 拿到 Lock...
pool-1-thread-3  請求失敗
事件來了:WatchedEvent state:SyncConnected type:NodeDeleted path:/mylock/lock1
delete事件
pool-1-thread-4釋放 Lock...
pool-1-thread-3 拿到 Lock...
pool-1-thread-3釋放 Lock...

通過輸出結果可以看到,只要有一個客戶端拿到鎖,其余的客戶端都不會再重復請求,減少了cpu和zookeeper的壓力,當釋放鎖時,zookeeper會通知所有監聽的客戶端,客戶端再執行create來競爭鎖,完美解決了while版本的問題。

存在的問題

通過Watcher實現的鎖雖然解決了While的無限循環問題,但還是存在一個比較棘手的麻煩:

當有極多的客戶端在watcher等待鎖時,一旦持有鎖的客戶端釋放,就會引起“驚群效應”,無數個客戶端的請求壓力直接打到zookeeper服務器上

githup代碼:https://github.com/granett/zookeeper/blob/master/src/main/java/zookeeper/zookeeper/Zookeeper_2_Watcher.java

最后編輯于
?著作權歸作者所有,轉載或內容合作請聯系作者
平臺聲明:文章內容(如有圖片或視頻亦包括在內)由作者上傳并發布,文章內容僅代表作者本人觀點,簡書系信息發布平臺,僅提供信息存儲服務。
  • 序言:七十年代末,一起剝皮案震驚了整個濱河市,隨后出現的幾起案子,更是在濱河造成了極大的恐慌,老刑警劉巖,帶你破解...
    沈念sama閱讀 230,527評論 6 544
  • 序言:濱河連續發生了三起死亡事件,死亡現場離奇詭異,居然都是意外死亡,警方通過查閱死者的電腦和手機,發現死者居然都...
    沈念sama閱讀 99,687評論 3 429
  • 文/潘曉璐 我一進店門,熙熙樓的掌柜王于貴愁眉苦臉地迎上來,“玉大人,你說我怎么就攤上這事。” “怎么了?”我有些...
    開封第一講書人閱讀 178,640評論 0 383
  • 文/不壞的土叔 我叫張陵,是天一觀的道長。 經常有香客問我,道長,這世上最難降的妖魔是什么? 我笑而不...
    開封第一講書人閱讀 63,957評論 1 318
  • 正文 為了忘掉前任,我火速辦了婚禮,結果婚禮上,老公的妹妹穿的比我還像新娘。我一直安慰自己,他們只是感情好,可當我...
    茶點故事閱讀 72,682評論 6 413
  • 文/花漫 我一把揭開白布。 她就那樣靜靜地躺著,像睡著了一般。 火紅的嫁衣襯著肌膚如雪。 梳的紋絲不亂的頭發上,一...
    開封第一講書人閱讀 56,011評論 1 329
  • 那天,我揣著相機與錄音,去河邊找鬼。 笑死,一個胖子當著我的面吹牛,可吹牛的內容都是我干的。 我是一名探鬼主播,決...
    沈念sama閱讀 44,009評論 3 449
  • 文/蒼蘭香墨 我猛地睜開眼,長吁一口氣:“原來是場噩夢啊……” “哼!你這毒婦竟也來了?” 一聲冷哼從身側響起,我...
    開封第一講書人閱讀 43,183評論 0 290
  • 序言:老撾萬榮一對情侶失蹤,失蹤者是張志新(化名)和其女友劉穎,沒想到半個月后,有當地人在樹林里發現了一具尸體,經...
    沈念sama閱讀 49,714評論 1 336
  • 正文 獨居荒郊野嶺守林人離奇死亡,尸身上長有42處帶血的膿包…… 初始之章·張勛 以下內容為張勛視角 年9月15日...
    茶點故事閱讀 41,435評論 3 359
  • 正文 我和宋清朗相戀三年,在試婚紗的時候發現自己被綠了。 大學時的朋友給我發了我未婚夫和他白月光在一起吃飯的照片。...
    茶點故事閱讀 43,665評論 1 374
  • 序言:一個原本活蹦亂跳的男人離奇死亡,死狀恐怖,靈堂內的尸體忽然破棺而出,到底是詐尸還是另有隱情,我是刑警寧澤,帶...
    沈念sama閱讀 39,148評論 5 365
  • 正文 年R本政府宣布,位于F島的核電站,受9級特大地震影響,放射性物質發生泄漏。R本人自食惡果不足惜,卻給世界環境...
    茶點故事閱讀 44,838評論 3 350
  • 文/蒙蒙 一、第九天 我趴在偏房一處隱蔽的房頂上張望。 院中可真熱鬧,春花似錦、人聲如沸。這莊子的主人今日做“春日...
    開封第一講書人閱讀 35,251評論 0 28
  • 文/蒼蘭香墨 我抬頭看了看天上的太陽。三九已至,卻和暖如春,著一層夾襖步出監牢的瞬間,已是汗流浹背。 一陣腳步聲響...
    開封第一講書人閱讀 36,588評論 1 295
  • 我被黑心中介騙來泰國打工, 沒想到剛下飛機就差點兒被人妖公主榨干…… 1. 我叫王不留,地道東北人。 一個月前我還...
    沈念sama閱讀 52,379評論 3 400
  • 正文 我出身青樓,卻偏偏與公主長得像,于是被迫代替她去往敵國和親。 傳聞我的和親對象是個殘疾皇子,可洞房花燭夜當晚...
    茶點故事閱讀 48,627評論 2 380

推薦閱讀更多精彩內容