Redis中有刪除單條數據的命令DEL但是他沒有批量刪除多條數據的方法,那我們怎么去批量刪除多條數據呢!
第一種方式
/work/app/redis/bin/redis-cli -a youpassword keys'Volume:*'| xargs? /work/app/redis/bin/redis-cli -a youpassworddel
注釋:
通過:keys 'Volume'去匹配你要刪除的Key:Value條目,然后把結果傳給xargs然后刪除數據
如果要刪除指定的Redis庫加個參數即可:(-n)一般不建議在Redis中使用多庫存儲數據!
/work/app/redis/bin/redis-cli -a youpassword -n 0 keys'Volume:*'| xargs? /work/app/redis/bin/redis-cli -a youpassword -n 0del
這樣一個壞處每次都要建立一個連接,量小的話還可以接受,量大的話,效率不行。
第二種方式
/work/app/redis/bin/redis-cli -a youpassword EVAL"return redis.call('del', unpack(redis.call('keys', ARGV[1])))"0'Volume:*'
注釋:
這樣的方式,通過內置的 Lua 解釋器,可以使用 EVAL 命令對 Lua 腳本
但這種處理方式,量大的情況下,lua函數unpack會出現問題,會報錯誤
'''(error) ERR Error running script (call to f_e177a091510d969af3b388ee986dbe6658df6b57): @user_script:1: user_script:1: too many results to unpack'''
優化后的第二種方式
/work/app/redis/bin/redis-cli -a youpassword EVAL"local keys = redis.call('keys', ARGV[1]) for i=1,#keys,5000 do redis.call('del', unpack(keys, i, math.min(i+4999, #keys))) end return #keys"0'Volume:*'
注釋:
實際上是對第二種方式的改進,一次性unpack太多會出問題,那就干脆一次5000吧,這樣就不會有問題了!
這段腳本的意思,首先定義一個數組 keys,里面存儲了模式匹配的所有的以 ‘Volume:’的key,然后for循環,每次處理5000個key,也就是說每次del 5000個key。
相關腳本:http://www.cnblogs.com/luotianshuai/
注:
KEYS操作在線上是禁止使用的!
Redis是單線程的,如果量很大的話,keys是遍歷key的,會導致阻塞,這樣其他的客戶端就沒法連接了!
第三種方式
自從redis2.8以后就開始支持scan命令,模式匹配可以采取下面的形式來批刪除大量的key
/work/app/redis/bin/redis-cli -a youpassowrd -n 0 -p 6379 --scan --pattern"Volume:*"| xargs -L 5000 /work/app/redis/bin/redis-cli -a youpassword -n 0 -p 6379 DEL
結果:
/work/app/redis/bin/redis-cli -a youpassword -n 0 -p 6379 --scan --pattern "Volume:*" | xargs -L 5000 /work/app/redis/bin/redis-cli -a youpassword -n 0 -p 6379 DEL
(integer) 5000
(integer) 5000
(integer) 5000
(integer) 5000
(integer) 5000
(integer) 5000
(integer) 5000
(integer) 207'''
集群刪除?
#!/bin/bash
PATTERN=$1
IP=$2
PORT=$3
RESULT1=`redis-cli -c #!/bin/bash
PATTERN=$1
RESULT1=`redis-cli -c -h $2 -p $3 << EOF
keys $PATTERN
EOF`
#echo $RESULT1
for var in ${RESULT1[*]}
do
echo $var
redis-cli -c? -h $2 -p $3 << EOF
DEL $var
EOF
done