本文來自于HeapDump性能社區(qū)! !有性能問題,上HeapDump性能社區(qū)!
數(shù)據(jù)庫連接池泄漏其實非常普遍,本文簡單記員一次數(shù)據(jù)庫連接池泄漏問題,排查和思考。
問題與分析
問題:服務(wù)器上的負(fù)載激增, Postgres 查詢的時間和CPU消耗都異常飆升。
分析:經(jīng)過調(diào)試,得出以下分析:
有一個有 200 行的表,但是顯示的活動元組的數(shù)量不止這個(大約 60K),我們正在使用的是 Postgresql 9.3。
以下是查詢結(jié)果:
select count(*) from subscriber_offset_manager;
count
-------
200 (1 row)
SELECT schemaname,relname,n_live_tup,n_dead_tup FROM pg_stat_user_tables where relname='subscriber_offset_manager' ORDER BY n_dead_tup ;
schemaname | relname | n_live_tup | n_dead_tup
------------+---------------------------+------------+------------
public | subscriber_offset_manager | 61453 | 5 (1 row)
但是從 pg_stat_activity 和 pg_locks 可以看出,我們無法跟蹤任何打開的連接。
SELECT query, state,locktype,mode FROM pg_locks JOIN pg_stat_activity USING (pid) WHERE relation::regclass = 'subscriber_offset_manager'::regclass ;
query | state | locktype | mode
-------+-------+----------+------
(0 rows)
我還在這張表上嘗試了 full vacuum 。結(jié)果如下:
一直無法刪除行
有幾次,所有的活動元組突然變成了死元組。
這是運行 full vacuum 命令的輸出:
vacuum FULL VERBOSE ANALYZE subscriber_offset_manager;
INFO: vacuuming "public.subscriber_offset_manager"
INFO: "subscriber_offset_manager": found 0 removable, 67920 nonremovable row versions in714 pages
DETAIL: 67720 dead row versions cannot be removed yet. CPU 0.01s/0.06u sec elapsed 0.13 sec.
INFO: analyzing "public.subscriber_offset_manager"
INFO: "subscriber_offset_manager": scanned 710 of 710 pages, containing 200 live rows and67720 dead rows; 200 rows in sample, 200 estimated total rows VACUUM
after that i checked for live and dead tuples for that table as follows :
SELECT schemaname,relname,n_live_tup,n_dead_tup FROM pg_stat_user_tables where relname='subscriber_offset_manager' ORDER BY n_dead_tup ;
schemaname | relname | n_live_tup | n_dead_tup
------------+---------------------------+------------+------------
public | subscriber_offset_manager | 200 | 67749
10 秒后:
SELECT schemaname,relname,n_live_tup,n_dead_tup FROM pg_stat_user_tables where relname='subscriber_offset_manager' ORDER BY n_dead_tup ;
schemaname | relname | n_live_tup | n_dead_tup
------------+---------------------------+------------+------------
public | subscriber_offset_manager | 68325 | 132
結(jié)果所有死元組都移動到活元組,而不是被清理。
有趣的是:當(dāng)我停止Java 程序,然后做一個full vacuum時,它工作正常(行數(shù)和活動元組變得相等)。因此,如果我們從 Java 程序中去進(jìn)行選擇和更新,就會出現(xiàn)問題。
之后對堆棧溢出進(jìn)行了分析和研究,經(jīng)過許多嘗試,我找到了以下根本原因。
根本原因:
當(dāng)有一個長時間運行的事務(wù)或數(shù)據(jù)庫會話泄漏時,死元組會在該事務(wù)的開始時間之后創(chuàng)建,并且無法被該數(shù)據(jù)庫的所有表清理。這因為 PostgreSQL 在執(zhí)行清理進(jìn)程前,會檢查事務(wù) ID 是否小于最舊事務(wù)的事務(wù) ID ,而事務(wù) ID 是全局生成的。
所以當(dāng)我發(fā)現(xiàn)一個交易打開的時間太長時,只要殺死它,vacuum 就能工作正常。
更多數(shù)據(jù)庫性能案例:
5G時代,如何徹底搞定海量數(shù)據(jù)庫的設(shè)計與實踐
數(shù)據(jù)庫系列1:高并發(fā)下的數(shù)據(jù)字段變更
Prometheus時序數(shù)據(jù)庫-數(shù)據(jù)的查詢
Mysql數(shù)據(jù)庫查詢好慢,除了索引,還能因為什么?
數(shù)據(jù)庫系列:MySQL索引優(yōu)化與性能提升總結(jié)(綜合版)