1 概述
本文對配額,RAID,LVM的概念和具體創(chuàng)建過程做了介紹
2 配額
2.1 配額概念
在內(nèi)核中執(zhí)行
以文件系統(tǒng)為單位啟用
對不同組或者用戶的策略不同
根據(jù)塊或者節(jié)點進行限制
執(zhí)行軟限制(soft limit)
硬限制(hard limit)
實現(xiàn)控制用戶使用磁盤空間,防止某個用戶無限制使用磁盤空間,對系統(tǒng)造成損害
配額要對磁盤獨立分區(qū)進行控制,而且只能針對文件系統(tǒng)來進行配額,不能對文件夾進行控制,文件系統(tǒng)掛載選項要具備quota功能,在fstab里添加usrquota,grpquota
2.2 搬移目錄數(shù)據(jù)到獨立分區(qū)
假設原來家目錄/home和根目錄在同一磁盤上,當用戶在自己家目錄下無限使用空間,可能會導致磁盤空間不夠,對系統(tǒng)造成嚴重的損害,因此,遷移舊磁盤/home的數(shù)據(jù)到獨立的磁盤上,步驟如下
1新建一個磁盤/dev/sdb1,格式化后分區(qū)掛載到系統(tǒng)上,如掛載點/mnt/home
2數(shù)據(jù)遷移完成了,發(fā)通知告訴所有用戶說明我們什么時間要維護系統(tǒng),如取消舊目錄/home掛載,系統(tǒng)暫時不能使用
3切換到單用戶模式下進行操作init 1,確保所有用戶不再對/home繼續(xù)數(shù)據(jù)寫入。
4遷移數(shù)據(jù)cp-a/home/* /mnt/home注意。這里我們明確home下都是用戶的家目錄,沒有隱藏文件,所以我們就用/home/*形式進行拷貝
5建議提前做備份,如果確認數(shù)據(jù)遷移都完成,第4步操作完成后,數(shù)據(jù)都在磁盤/dev/sdb1下了
清空舊目錄數(shù)據(jù)rm-rf/home/*
6.卸載掉/dev/sdb1在原來的掛載點/mnt/home。重新掛載到/home下
mount/dev/sdb1 /mnt/home
umount/dev/sdb1/home
這一步建議寫入配置文件/etc/fstab里
vim/etc/fstab
/dev/sdb1/home ext4 defaults 0 0
到這里數(shù)據(jù)遷移完成,/home已經(jīng)在獨立的分區(qū)/dev/sdb1上
2.3 啟用分區(qū)配額功能
1.在fstab里對應掛載分區(qū)的掛載選項添加usrquota,grpquota
生效配置,重新掛載分區(qū)mount –a remount /home
2創(chuàng)建磁盤配額數(shù)據(jù)庫
配額是放到二進制的數(shù)據(jù)庫里
quotacheck -cug/home在home里會生成兩個quota的二進制文件,c是創(chuàng)建的意思,u對應usrquota,g對應grpquota
執(zhí)行語句后,發(fā)現(xiàn)在/home下生成了兩個二進制的文件,執(zhí)行命令file /aquota.*查看新生成的文件的類型
如果出現(xiàn)如下的報錯,請堅持selinux是否開啟,getenforce,如果開啟請關閉,setenforce0
3開啟數(shù)據(jù)庫
quotaon /home
4查看配額設置是否已經(jīng)生效,如果顯示on,表示已經(jīng)生效
quotaon -p /home
5針對每個用戶設置配額
這里的blocks單位就是1k。block是目前已經(jīng)暫用多少空間,不可以通過設置得到。
inodes是當前已經(jīng)創(chuàng)建文件的數(shù)量,后面的hard soft才是對文件數(shù)的現(xiàn)在,不可以通過設置得到。
grace是指寬限期,超出soft現(xiàn)在后,才會出現(xiàn)的日期,表示超過soft多少天后,即使沒有超過hard現(xiàn)在,超過時間也是會導致不能創(chuàng)建任何的文件。可以通過edquota -t這個命令修改block或者是inode的值
edquota wang//針對sunny用戶來修改配額
另外,edquota是交互式的命令,可以通過setquota實現(xiàn)非交換的配額設置
setquota sunny80000 100000 175 180 /home前面兩個數(shù)字80000
100000分別對應block的soft和hard,后面的0 0是inode的現(xiàn)在,0 0表示不對文件數(shù)進行限制
到這里,quato針對用戶的設置已經(jīng)完成。接下來測試
6測試
切換到對應用戶賬號,然后在家目錄下創(chuàng)建文件
su -wang
dd if=/dev/zero of=test1bs=1M count=65正常創(chuàng)建
dd if=/dev/zero of=test2bs=1M count=85出現(xiàn)報警,但是還是可以成功
dd if=/dev/zero of=test2bs=1M count=105失敗,文件大小為上限100M
如果要針對用戶去掉配額限制,只要把配合對應的hard和soft都調(diào)整為0就可以
文件占用的空間的大小是根據(jù)所有者來設置的。以下例子,把f1所有者改為mage后,可以看到files數(shù)量就少了一個
edquota –p wang mage 復制wang的磁盤配額設置給到mage這個賬號
2.4針對組進行配額
組管理配額是針對整個組所有用戶的空間或者文件數(shù)量使用總和進行限制
對組quota進行配置
edquota -g quota,限制如下
實驗截圖
管理員賬號下repquato可以查看配額使用情況
2.5 xfs文件系統(tǒng)配額
XFS基于目錄配額的Project Quota配置,和ext4是根據(jù)用戶和組創(chuàng)建方法不一樣。
關于xfs_quota的詳細介紹,建議manxfs_quota查看,里面有詳細的例子和各個參數(shù)的介紹
/etc/projectsMapping ofnumeric project identifiers to directories trees.
/etc/projidMapping ofnumeric project identifiers to project names.
這里簡要介紹步驟
1.分區(qū)和掛載見ext4格式的例子
2.建立一個使用配置文件的Project
Quota文件目錄并設置配額
mkdir -p /home/app
echo 42:/home/app >>/etc/projects
echo application:42 >>/etc/projid
xfs_quota -x -c 'project -s application'/home
xfs_quota -x -c 'limit -p bhard=100Mapplication' /home/
xfs_quota -x -c 'report /home/app'
xfs_quota -x -c 'limit -p bsoft=80Mapplication' /home/
3.查看配額報告信息
xfs_quota -x -c 'report /home/app
4. 測試,在/app下創(chuàng)建大于100M的文件,就會報警
3 RAID
3.1 RAID概念
raid每個硬盤取出的空間大小是要一致的
假設有一個3個硬盤組成的raid0,一個100M的文件要放到raid0里,該大文件會分成很多chunk(小塊),然后分別將這些塊放到raid的三塊硬盤上寫入。
raid1防止的是硬件損壞,如果在其中一塊盤修改數(shù)據(jù),另一塊盤也會被修改。同步的。
raid4具有容錯性和性能提高,一塊當做校驗的硬盤,但是raid4的問題是校驗位固定往一塊硬盤上寫入的,根據(jù)經(jīng)驗,該校驗位的硬盤損壞頻率很高。
raid5.和raid4差不多,使用率也是(n-1)/n,但是校驗位是平均放到其他硬盤上的,沒有固定在一塊硬盤,這樣同一機器上硬盤的使用頻率就差不多,所以損壞頻率就都一樣,也叫帶有奇偶校驗位的磁帶機。當壞掉一塊硬盤后,服務器的性能會下降,因為要去反正算錯校驗位的數(shù)據(jù),對系統(tǒng)造成了壓力。所以為了應對這種情況,raid5還有一個spare disk,要在機器上準備一個備用的硬盤。平常不參與raid工作。即spare disk。當發(fā)現(xiàn)有故障的硬盤,這塊備用的硬盤會立即使用
raid6有兩個校驗位.使用率為(n-2)/n。壞掉兩塊硬盤也不會有問題。
raid10,先1后0,假設8塊盤,先兩兩做成1,再把4組做成0,相對raid01容錯性好,所以生產(chǎn)環(huán)境一般用raid10
raid01即先0后1,假設有8塊硬盤,先4塊4塊做成raid0,然后再把兩組raid0做成了raid1.
3.2 創(chuàng)建raid5
1.做raid先分區(qū),類型選擇raid
注意,這里如果整塊硬盤都拿來做raid,可以不用做分區(qū),更不存在選擇類型raid。測試一下整塊盤拿來用的情況
2.mdadm -C創(chuàng)建
mdadm -C /dev/md0-a yes-l 5-n 3-x 1 /dev/sd{c,d,e,f}1
注意,這個創(chuàng)建過程比較慢
可以用
cat/proc/mdstat
mdadm-D/dev/md0查看raid的狀態(tài)
3.寫入配置文件,系統(tǒng)默認沒有mdadm.conf的文件,需要手動生成
mdadm-Ds> /etc/mdadm.conf
這里的s是小寫字母s,這個配置文件如果不生成,那么當禁用raid后,想要再次重啟就起不來了
/etc/mdadm.conf語法如下
4. 格式化新的raid分區(qū)文件
mkfs.ext4/dev/md0
5 掛載
mount/dev/md0/mnt/raid
寫入配置文件
vim /etc/fstab
/dev/md0/mnt/raidext4defaults00
到這里raid就創(chuàng)建完成了。
3.3 測試性能和容錯性
3.3.1 測試寫性能
raid5寫性能并沒有提高太多
dd if=/dev/zeroof=/dev/raid/bigfile bs=1M count=1024
3.3.2 測試讀性能
raid5讀性能相對普通硬盤有較大的提高
dd if=/dev/raid/bigfileof=/dev/null
3.3.3 測試容錯性
模擬邏輯故障mdadm /dev/md0 -f /dev/sdc1
移除損壞的sdc1mdadm /dev/md0-r/dev/sdc1
添加硬盤mdadm/dev/md0-a /dev /sdc1
模擬物理性的損壞,硬盤故障后,raid的性能會嚴重降低
直接移除一個硬盤,在虛擬機上,直接移除掉一塊硬盤,如果要添加回去用,添加硬盤后,執(zhí)行
mdadm/dev/md0-a /dev /sdc1
3.4 增加新的成員
#mdadm –G /dev/md0 –n4 -a /dev/sdf1這樣就會在增加一塊硬盤到raid里,由原來的3塊硬盤變成了4塊硬盤做raid5.
如果要加一塊是spare,即備用的盤,spare狀態(tài)的盤可以有很多塊,執(zhí)行如下語句
mdadm/dev/md0-a /dev/sdf2.
3.5 停止raid
1.取消掛載,umount,同時把配置文件/etc/fstab里的對應md0信息刪掉
2.停止raid ,
mdadm -S /dev/md0//注意,這里-S是大寫字母S
這里如果要重新激活,可以用語句mdadm ?-A ?-s /dev/md0 激活,然后才能重新掛載
3.清掉生成的配置文件
rm –rf /etc/mdadm.conf
4.清除raid上元數(shù)據(jù)
mdadm--zero-superblock /dev/sd{b,c,d,e}
刪掉raid后,raid的信息還在,如果不清,這些盤就不能用,重啟機器后這些盤還會啟用raid,所以要清除raid數(shù)據(jù)。注意,如果這些數(shù)據(jù)不清除,即使做了1—3步驟,當重啟機器后,就會變成md127的raid。處理辦法是先停掉md127: mdadm
-S /dev/md127,然后在通過blkid把查出來之前做raid的盤全部用第4步的方法清空。
這里如果沒有清干凈,下次重新給這些盤分區(qū),分區(qū)還是會顯示舊的raid原信息。所以拿掉raid建議都做一下這步,如果比較頑強,重啟后還是出現(xiàn),再次執(zhí)行這個清空步驟,把對應的分區(qū)raid舊的元數(shù)據(jù)清掉
清除raid,如果停raidmd0后,執(zhí)行mdadm--zero-superblock /dev/sd{b,c,d,e},這個raid md0
又復活了,如下,多次停掉還是一樣的問題,這個情況可能是raid里某個分區(qū)處于忙碌狀態(tài),導致整個raid都不能被清空,建議直接刪掉raid對應的每個分區(qū),然后同步硬盤,看看是否同步磁盤partprobe后,看看磁盤是否正常被清掉了,用blkid查看對應分區(qū)的相同UUID是否沒了,如果沒了,就正常。如果同步還是有問題,在具體看是哪個盤有問題,可以重復清空對應分區(qū)的元數(shù)據(jù),已經(jīng)刪掉分區(qū)進行同步處理
備注,特殊情況下,清掉raid有時比較麻煩,可以通過清空元數(shù)據(jù),重啟,清空對應分區(qū),三個方式進行處理。如果再次重啟,沒有啟動raid,說明已經(jīng)完成卸載raid的工作。
3.6 創(chuàng)建raid10
以下僅介紹創(chuàng)建raid的方法,分區(qū),格式化和掛載需讀者自行創(chuàng)建
方法一,先建1后建0
mdadm -C /dev/md0 -a yes -l 1 -n 2 /dev/sdb{1,2}
mdadm -C /dev/md1 -a yes -l 1 -n 2 /dev/sdc{1,2}
mdadm -C /dev/md2 -a yes -l 0 ?-n 2 /dev/md{0,1}
方法二,直接創(chuàng)建
mdadm -C /dev/md0 -a yes -l 10 -n 4 /dev/sdb{1,2} /dev/sdc{1,2}
4 LVM
4.1 LVM概念
創(chuàng)建成物理卷后相當于給分區(qū)貼了一個標簽,告訴系統(tǒng)這些硬盤以后可以用來創(chuàng)建LV,然后要把物理卷組合在一起,創(chuàng)建卷組,卷組的空間為物理卷空間的總和。然后再將卷組創(chuàng)建為邏輯卷。
擴容的時候,就是要將新的硬盤建成物理卷,然后再加到對應的卷組,則卷組的空間就擴展了。邏輯卷的讀寫性能不比物理分區(qū)差
LVM的LV的容量默認是256G,原因是一個lv里面PE最多是65536個,每個PE默認大小是4M,所以65536*4M/1024=256G,因為PE數(shù)量調(diào)整不了,所以我們可以通過調(diào)整PE的大小來進行調(diào)整,在創(chuàng)建VG的時候用選項-s來指定PE的值,如將PE=16M,那么LV的最大總量就可以達到1TB的容量。
LVM的相關指令匯總如下
4.2 創(chuàng)建邏輯卷
1.分區(qū),選擇類型是8e,這里組合的分區(qū)的大小可以不一樣大
2.pvcreate /dev/sdb1 /dev/sdc1
3 pvs或pvdisplay進行查看
4創(chuàng)建卷組vgcreate ?vg0 ?/dev/sd{b,c}1
5 vgs或vgdisplay查看卷組
6創(chuàng)建邏輯卷lvcreate-n lv0 -l 50%vg vg0
這里-L也可以跟大小10G
7查看lvdisplay
ll/dev/vg0/*可以看到有鏈接文件
8格式化,給文件創(chuàng)建系統(tǒng)
mkfs.xfs /dev/vg0/lv0
9掛載,寫入配置文件
到這里,創(chuàng)建成功
4.3 擴展LVM空間
擴展是先擴展邏輯卷后再同步文件系統(tǒng)
先用vgdisplay查看空間。看看剩余有多少卷組空間可以分配,
4.3.1 如果有剩余空間
擴展邏輯卷,兩個寫法,如下
lvextend -l +2000 /dev/vg0/lv0
lvextend -L +5G /dev/vg0/lv0
注意大寫L和小寫l后面跟的單位不一樣,大寫L后面跟單位,多少M或G等,小寫的l跟多少個邏輯卷單位
增加完成后,用lvdisplay查看空間增加情況
然后用df –h查看邏輯卷目前的文件系統(tǒng)空間情況,因為新增加的空間還沒有創(chuàng)建文件系統(tǒng),所以用df看不到新增加后的大小。需要同步
如果是xfs文件系統(tǒng),同步命令為xfs_growfs /mnt/lv0后面跟著的是掛載點,將同步新增加的空間的文件系統(tǒng),xfs的文件系統(tǒng)只能增加,不能減少
如果是ext文件系統(tǒng)的同步用resize2fs /dev/vg0/lv17G
如果出現(xiàn)如下的報錯,建議同步語句中不要寫擴容后的大小,命令resize2fs /dev/vg0/lv1
[root@localhost lv0]# resize2fs/dev/vg0/lv0 9.6G
resize2fs 1.41.12 (17-May-2010)
resize2fs: Invalid new size: 9.6G
ext4文件系統(tǒng)可以縮減空間,但是一般生產(chǎn)環(huán)境不縮減空間,如果要縮減,要先做好原來數(shù)據(jù)備份后再進行縮減
4.3.2 步驟如下
1.分出一塊分區(qū),類型選擇邏輯卷sda7
fdisk/dev/sda--> n-->7-->+3G-->t—8e->w
2.pvcreate /dev/sda7
3.vgextend vg0 /dev/sda7
4.擴展邏輯卷
lvextend -L? 7G /dev/vg0/lv1
5.同步文件系統(tǒng)
resize2fs /dev/vg0/lv1
注意,這里擴展邏輯卷和同步文件系統(tǒng),可以直接用一條命令創(chuàng)建,如下
lvextend -r -L +500M? /dev/vg0/lv1
4.4 縮減空間
縮減則是先縮減文件系統(tǒng)再縮減邏輯卷,注意縮減前要先把數(shù)據(jù)做好備份,才能做縮減,否則數(shù)據(jù)可能丟失,如果,當前數(shù)據(jù)量大于要減少后的盤的大小,則數(shù)據(jù)會部分丟失,步驟如下:
umount /mnt/lv1
e2fsck? -f? /dev/vg0/lv1 //系統(tǒng)強制要求的步驟
resize2fs /dev/vg0/lv1 5G
lvreduce -L 5G /dev/vg0/lv1
mount-a
4.5 遷移邏輯卷
首先要確保要遷移的邏輯卷和新的機器上已有的邏輯卷名稱不一樣,可以重命名
1.umount /mnt/lv0
2.確保邏輯卷的名字和新機器上的邏輯卷不同名,同名就直接改掉
lvrename /dev/vg0/lv0 newlv0
vgrename vg0 newvg0
3.改成非活動狀態(tài),pvdisplay查看
vgchange -an newvg0
4.導出邏輯卷
vgexportnewvg0
5.拆除硬盤,把拔下來的硬盤插入目標主機,這邊虛擬機上操作硬盤移除和插入新主機,主要是把硬盤文件移動到新主機的目錄下,新主機添加硬盤選擇已有的磁盤,選中對應的移動過來的硬盤文件.vmk,完成硬盤的添加
6.在新主機上用pvscan掃描,這步可以不操作
7.導入硬盤
vgimport newvg0
8.激活新增加的硬盤
vgchange -ay newvg0
9.掛載
mount /dev/newvg0/newlv0 ?/mnt/newlv0
完成遷移
4.6 從邏輯卷里刪除正在使用的物理分區(qū)
pvdisplay看看要移走的分區(qū)是否有人用,有人用的話,
pvdispaly查看到如果total PE和free PE一樣大,表示沒人用,可以直接移走
4.6.1 沒有數(shù)據(jù),方法如下
1.從邏輯卷里移走
vgreduce vg0 /dev/sda7
2.去掉物理卷標簽
pvremove /dev/sda7
3.直接刪掉分區(qū)fdisk/dev/sda -->d-->7
如果用pvdiskpaly查看到有數(shù)據(jù),表示有人用,就要遷走數(shù)據(jù)到同一卷組的其他可用的PE上執(zhí)行
pvmove /dev/sda6
移走sda6上的PE到同一卷組的剩余PE后才能拆掉空間,這里要確認同一卷組還有多余的空間,即PE,才能移走數(shù)據(jù)
4.6.2 如果同一卷組沒有多余的空間,要先加卷組空間
1.新建一塊分區(qū)fdisk/dev/sda->n-->7-->t—8e-->w
2.pvcreate /dev/sda7
3.vgextend vg0 /dev/sda7
4.有空間后就可以移走數(shù)據(jù),pvmove命令會在同一卷組里找到其他空閑空間進行數(shù)據(jù)的存放
pvmove /dev/sda6
5.從vg0里刪掉/dev/sda6這塊盤
vgreduce vg0/dev/sda6
6.刪掉空間
pvremove /dev/sda6
7.通過fdisk移除分區(qū)
4.7 邏輯卷快照
邏輯卷快照相當于是把當前的狀態(tài)記錄下來,有備份的效果,但是不能代替?zhèn)浞荩驗閭浞菘梢詡浞莸狡渌麢C器上,快照都是在本地磁盤下
邏輯卷快照的原理是在同一個卷組里也要創(chuàng)建一個快照邏輯卷,快照會占用一定大小的空間。快照之所以快,原因是沒有真正拷貝數(shù)據(jù),而是分配了一定的空間來使用,但是后期數(shù)據(jù)有變更時,舊的數(shù)據(jù)就會被推送到快照空間,即快照存放最舊的數(shù)據(jù),當前的邏輯卷存放最新的數(shù)據(jù),沒有變更的數(shù)據(jù)就不會存放到快照里。但是快照會導致服務器性能下降,因為快照會做備份的操作,導致快照會導致服務器性能下降,所以一般用于測試環(huán)境。
新建快照速度很快
4.7.1 創(chuàng)建LVM快照
創(chuàng)建快照命令如下,-s表明是做快照,-p指定屬性為只讀
lvcreate-nlv1-snapshot-s-L100M-pr/dev/vg0/lv1
掛載快照
mount/dev/lv1-snapshot/mnt/snap
測試
在數(shù)據(jù)還沒修改前,/mnt/snap看到的快照數(shù)據(jù)實際是lv1上的原始數(shù)據(jù),此時還沒做任何備份操作
1.當在lv1上修改數(shù)據(jù),一旦數(shù)據(jù)被修改后,/mnt/snap就保存舊的數(shù)據(jù),新的數(shù)據(jù)在lv1上
2.將原來的lv1刪掉一個文件,則被刪掉的文件就會被復制到snap上
3.在lv1上新建一個文件,snap上不會生成有新的文件
4.7.2 恢復LVM備份
1.取消邏輯卷和快照的掛載
2.合并數(shù)據(jù),恢復后,快照會被刪掉。
lvconvert--merge/dev/vg0/lv1-snapshot
如果沒有取消掛載,就進行數(shù)據(jù)恢復,就會出現(xiàn)如下對的報錯
[root@localhost ~]# lvconvert --merge/dev/vg0/lv0-snap3
Can't merge over open origin volume
Can't merge when snapshot is open
Merging of snapshot lv0-snap3 will start next activation.
然后,即使取消掛載,要再次恢復原始數(shù)據(jù)時候,就會出現(xiàn)如下的報錯
[root@localhost ~]#lvconvert --merge /dev/vg0/lv0-snap3
Snapshot lv0-snap3 is already merging
Unable to merge LV "lv0-snap3" intoits origin.
如果遇到這樣的報錯,查看還是出現(xiàn)異常,因為lv0還沒被恢復到原始數(shù)據(jù),但是重啟發(fā)現(xiàn)就正常了,出現(xiàn)這個報錯,原因是未取消快照盤的掛載就執(zhí)行了恢復的操作
所以,要恢復快照,即恢復原始數(shù)據(jù),一定要取消掛快照的掛載后才能進行恢復
如果不重啟機器,解決辦法是同時取消快照盤和lv0盤的掛載,將lv0設為未激活,然后再次激活,最后重新掛載,就可以恢復到快照時的數(shù)據(jù)
umount /mnt/lv0
umount /mnt/snap
lvchange -an /dev/vg0/lv0
lvchange -ay /dev/vg0/lv0
mount /dev/vg0/lv0 /mnt/lv0
4.8 刪除邏輯卷
1.取消掛載,
2.刪除邏輯卷,如果邏輯卷上有快照,系統(tǒng)會提示先刪快照再刪邏輯卷,此次操作,會清空數(shù)據(jù)
lvremove? /dev/vg0/lv1
3.刪卷組
vgremove vg0
4.刪除物理卷
pvremove /dev/sd{a,b,c}
5.通過fdisk刪掉之前創(chuàng)建邏輯卷的分區(qū),達到徹底刪除的效果
5 附錄
創(chuàng)造一個即有LVM的的優(yōu)點,彈性調(diào)整filesystem的大小,同時又具備磁盤陣列的效能和備份功能的文件系統(tǒng)
思路先建raid再建LVM
1.用fdisk分區(qū)sd{b,c,d,e,f}1,五個
2.將多個分區(qū)通過命令mdadm創(chuàng)建一個raid5的磁盤陣列,并生成配置文件
mdadm-C/dev/md0-ayes-l5-n 4-x 1/dev/sd{b,c,d,e,f}1
mdadm-Ds >/etc/mdadm.conf
3.創(chuàng)建PG,VG,LV
pvcreate/dev/md0
vgcreatesunny_raid_vg/dev/md0
lvcreate-L 10G-nsunny_raid_lvsunny_raid_vg
4.格式化lv文件系統(tǒng)
mkfs.ext4/dev/sunny_raid_vg/sunny_raid_lv
5.掛載
mkdir /dev/raidlv
mount/dev/sunny_raid_vg/sunny_raid_lv/mnt/raidlv
移除設備
思路卸載lv的掛載后,先拆除lv,后停掉raid
步驟如下
umount /dev/raidlv
lvremove/dev/sunny_raid_vg/sunny_raid_lv
vgchange-ansunny_raid_vg
vgremovesunny_raid_vg
pvremove/dev/md0
mdadm-S/dev/md0
rm-rf/etc/mdadm.conf
mdadm--zero-superblock /dev/sd{b,c,d,e,f}1
用fdisk將對應的分區(qū)刪掉
到此,實驗完成。