Linux 磁盤管理 高級篇 -- quota,RAID,LVM

1 概述

本文對配額,RAID,LVM的概念和具體創(chuàng)建過程做了介紹

2 配額

2.1 配額概念

在內(nèi)核中執(zhí)行

以文件系統(tǒng)為單位啟用

對不同組或者用戶的策略不同

根據(jù)塊或者節(jié)點進行限制

執(zhí)行軟限制(soft limit)

硬限制(hard limit)

實現(xiàn)控制用戶使用磁盤空間,防止某個用戶無限制使用磁盤空間,對系統(tǒng)造成損害

配額要對磁盤獨立分區(qū)進行控制,而且只能針對文件系統(tǒng)來進行配額,不能對文件夾進行控制,文件系統(tǒng)掛載選項要具備quota功能,在fstab里添加usrquota,grpquota

2.2 搬移目錄數(shù)據(jù)到獨立分區(qū)

假設原來家目錄/home和根目錄在同一磁盤上,當用戶在自己家目錄下無限使用空間,可能會導致磁盤空間不夠,對系統(tǒng)造成嚴重的損害,因此,遷移舊磁盤/home的數(shù)據(jù)到獨立的磁盤上,步驟如下

1新建一個磁盤/dev/sdb1,格式化后分區(qū)掛載到系統(tǒng)上,如掛載點/mnt/home

2數(shù)據(jù)遷移完成了,發(fā)通知告訴所有用戶說明我們什么時間要維護系統(tǒng),如取消舊目錄/home掛載,系統(tǒng)暫時不能使用

3切換到單用戶模式下進行操作init 1,確保所有用戶不再對/home繼續(xù)數(shù)據(jù)寫入。

4遷移數(shù)據(jù)cp-a/home/* /mnt/home注意。這里我們明確home下都是用戶的家目錄,沒有隱藏文件,所以我們就用/home/*形式進行拷貝

5建議提前做備份,如果確認數(shù)據(jù)遷移都完成,第4步操作完成后,數(shù)據(jù)都在磁盤/dev/sdb1下了

清空舊目錄數(shù)據(jù)rm-rf/home/*

6.卸載掉/dev/sdb1在原來的掛載點/mnt/home。重新掛載到/home下

mount/dev/sdb1 /mnt/home

umount/dev/sdb1/home

這一步建議寫入配置文件/etc/fstab里

vim/etc/fstab

/dev/sdb1/home ext4 defaults 0 0

到這里數(shù)據(jù)遷移完成,/home已經(jīng)在獨立的分區(qū)/dev/sdb1上

2.3 啟用分區(qū)配額功能

1.在fstab里對應掛載分區(qū)的掛載選項添加usrquota,grpquota

生效配置,重新掛載分區(qū)mount –a remount /home

2創(chuàng)建磁盤配額數(shù)據(jù)庫

配額是放到二進制的數(shù)據(jù)庫里

quotacheck -cug/home在home里會生成兩個quota的二進制文件,c是創(chuàng)建的意思,u對應usrquota,g對應grpquota

執(zhí)行語句后,發(fā)現(xiàn)在/home下生成了兩個二進制的文件,執(zhí)行命令file /aquota.*查看新生成的文件的類型

如果出現(xiàn)如下的報錯,請堅持selinux是否開啟,getenforce,如果開啟請關閉,setenforce0

3開啟數(shù)據(jù)庫

quotaon /home

4查看配額設置是否已經(jīng)生效,如果顯示on,表示已經(jīng)生效

quotaon -p /home

5針對每個用戶設置配額

這里的blocks單位就是1k。block是目前已經(jīng)暫用多少空間,不可以通過設置得到。

inodes是當前已經(jīng)創(chuàng)建文件的數(shù)量,后面的hard soft才是對文件數(shù)的現(xiàn)在,不可以通過設置得到。

grace是指寬限期,超出soft現(xiàn)在后,才會出現(xiàn)的日期,表示超過soft多少天后,即使沒有超過hard現(xiàn)在,超過時間也是會導致不能創(chuàng)建任何的文件。可以通過edquota -t這個命令修改block或者是inode的值

edquota wang//針對sunny用戶來修改配額

另外,edquota是交互式的命令,可以通過setquota實現(xiàn)非交換的配額設置

setquota sunny80000 100000 175 180 /home前面兩個數(shù)字80000

100000分別對應block的soft和hard,后面的0 0是inode的現(xiàn)在,0 0表示不對文件數(shù)進行限制

到這里,quato針對用戶的設置已經(jīng)完成。接下來測試

6測試

切換到對應用戶賬號,然后在家目錄下創(chuàng)建文件

su -wang

dd if=/dev/zero of=test1bs=1M count=65正常創(chuàng)建

dd if=/dev/zero of=test2bs=1M count=85出現(xiàn)報警,但是還是可以成功

dd if=/dev/zero of=test2bs=1M count=105失敗,文件大小為上限100M

如果要針對用戶去掉配額限制,只要把配合對應的hard和soft都調(diào)整為0就可以

文件占用的空間的大小是根據(jù)所有者來設置的。以下例子,把f1所有者改為mage后,可以看到files數(shù)量就少了一個

edquota –p wang mage 復制wang的磁盤配額設置給到mage這個賬號

2.4針對組進行配額

組管理配額是針對整個組所有用戶的空間或者文件數(shù)量使用總和進行限制

對組quota進行配置

edquota -g quota,限制如下

實驗截圖

管理員賬號下repquato可以查看配額使用情況

2.5 xfs文件系統(tǒng)配額

XFS基于目錄配額的Project Quota配置,和ext4是根據(jù)用戶和組創(chuàng)建方法不一樣。

關于xfs_quota的詳細介紹,建議manxfs_quota查看,里面有詳細的例子和各個參數(shù)的介紹

/etc/projectsMapping ofnumeric project identifiers to directories trees.

/etc/projidMapping ofnumeric project identifiers to project names.

這里簡要介紹步驟

1.分區(qū)和掛載見ext4格式的例子

2.建立一個使用配置文件的Project

Quota文件目錄并設置配額

mkdir -p /home/app

echo 42:/home/app >>/etc/projects

echo application:42 >>/etc/projid

xfs_quota -x -c 'project -s application'/home

xfs_quota -x -c 'limit -p bhard=100Mapplication' /home/

xfs_quota -x -c 'report /home/app'

xfs_quota -x -c 'limit -p bsoft=80Mapplication' /home/

3.查看配額報告信息

xfs_quota -x -c 'report /home/app

4. 測試,在/app下創(chuàng)建大于100M的文件,就會報警

3 RAID

3.1 RAID概念

raid每個硬盤取出的空間大小是要一致的

假設有一個3個硬盤組成的raid0,一個100M的文件要放到raid0里,該大文件會分成很多chunk(小塊),然后分別將這些塊放到raid的三塊硬盤上寫入。

raid1防止的是硬件損壞,如果在其中一塊盤修改數(shù)據(jù),另一塊盤也會被修改。同步的。

raid4具有容錯性和性能提高,一塊當做校驗的硬盤,但是raid4的問題是校驗位固定往一塊硬盤上寫入的,根據(jù)經(jīng)驗,該校驗位的硬盤損壞頻率很高。

raid5.和raid4差不多,使用率也是(n-1)/n,但是校驗位是平均放到其他硬盤上的,沒有固定在一塊硬盤,這樣同一機器上硬盤的使用頻率就差不多,所以損壞頻率就都一樣,也叫帶有奇偶校驗位的磁帶機。當壞掉一塊硬盤后,服務器的性能會下降,因為要去反正算錯校驗位的數(shù)據(jù),對系統(tǒng)造成了壓力。所以為了應對這種情況,raid5還有一個spare disk,要在機器上準備一個備用的硬盤。平常不參與raid工作。即spare disk。當發(fā)現(xiàn)有故障的硬盤,這塊備用的硬盤會立即使用

raid6有兩個校驗位.使用率為(n-2)/n。壞掉兩塊硬盤也不會有問題。

raid10,先1后0,假設8塊盤,先兩兩做成1,再把4組做成0,相對raid01容錯性好,所以生產(chǎn)環(huán)境一般用raid10

raid01即先0后1,假設有8塊硬盤,先4塊4塊做成raid0,然后再把兩組raid0做成了raid1.

3.2 創(chuàng)建raid5

1.做raid先分區(qū),類型選擇raid

注意,這里如果整塊硬盤都拿來做raid,可以不用做分區(qū),更不存在選擇類型raid。測試一下整塊盤拿來用的情況

2.mdadm -C創(chuàng)建

mdadm -C /dev/md0-a yes-l 5-n 3-x 1 /dev/sd{c,d,e,f}1

注意,這個創(chuàng)建過程比較慢

可以用

cat/proc/mdstat

mdadm-D/dev/md0查看raid的狀態(tài)

3.寫入配置文件,系統(tǒng)默認沒有mdadm.conf的文件,需要手動生成

mdadm-Ds> /etc/mdadm.conf

這里的s是小寫字母s,這個配置文件如果不生成,那么當禁用raid后,想要再次重啟就起不來了

/etc/mdadm.conf語法如下

4. 格式化新的raid分區(qū)文件

mkfs.ext4/dev/md0

5 掛載

mount/dev/md0/mnt/raid

寫入配置文件

vim /etc/fstab

/dev/md0/mnt/raidext4defaults00

到這里raid就創(chuàng)建完成了。

3.3 測試性能和容錯性

3.3.1 測試寫性能

raid5寫性能并沒有提高太多

dd if=/dev/zeroof=/dev/raid/bigfile bs=1M count=1024

3.3.2 測試讀性能

raid5讀性能相對普通硬盤有較大的提高

dd if=/dev/raid/bigfileof=/dev/null

3.3.3 測試容錯性

模擬邏輯故障mdadm /dev/md0 -f /dev/sdc1

移除損壞的sdc1mdadm /dev/md0-r/dev/sdc1

添加硬盤mdadm/dev/md0-a /dev /sdc1

模擬物理性的損壞,硬盤故障后,raid的性能會嚴重降低

直接移除一個硬盤,在虛擬機上,直接移除掉一塊硬盤,如果要添加回去用,添加硬盤后,執(zhí)行

mdadm/dev/md0-a /dev /sdc1

3.4 增加新的成員

#mdadm –G /dev/md0 –n4 -a /dev/sdf1這樣就會在增加一塊硬盤到raid里,由原來的3塊硬盤變成了4塊硬盤做raid5.

如果要加一塊是spare,即備用的盤,spare狀態(tài)的盤可以有很多塊,執(zhí)行如下語句

mdadm/dev/md0-a /dev/sdf2.

3.5 停止raid

1.取消掛載,umount,同時把配置文件/etc/fstab里的對應md0信息刪掉

2.停止raid ,

mdadm -S /dev/md0//注意,這里-S是大寫字母S

這里如果要重新激活,可以用語句mdadm ?-A ?-s /dev/md0 激活,然后才能重新掛載

3.清掉生成的配置文件

rm –rf /etc/mdadm.conf

4.清除raid上元數(shù)據(jù)

mdadm--zero-superblock /dev/sd{b,c,d,e}

刪掉raid后,raid的信息還在,如果不清,這些盤就不能用,重啟機器后這些盤還會啟用raid,所以要清除raid數(shù)據(jù)。注意,如果這些數(shù)據(jù)不清除,即使做了1—3步驟,當重啟機器后,就會變成md127的raid。處理辦法是先停掉md127: mdadm

-S /dev/md127,然后在通過blkid把查出來之前做raid的盤全部用第4步的方法清空。

這里如果沒有清干凈,下次重新給這些盤分區(qū),分區(qū)還是會顯示舊的raid原信息。所以拿掉raid建議都做一下這步,如果比較頑強,重啟后還是出現(xiàn),再次執(zhí)行這個清空步驟,把對應的分區(qū)raid舊的元數(shù)據(jù)清掉

清除raid,如果停raidmd0后,執(zhí)行mdadm--zero-superblock /dev/sd{b,c,d,e},這個raid md0

又復活了,如下,多次停掉還是一樣的問題,這個情況可能是raid里某個分區(qū)處于忙碌狀態(tài),導致整個raid都不能被清空,建議直接刪掉raid對應的每個分區(qū),然后同步硬盤,看看是否同步磁盤partprobe后,看看磁盤是否正常被清掉了,用blkid查看對應分區(qū)的相同UUID是否沒了,如果沒了,就正常。如果同步還是有問題,在具體看是哪個盤有問題,可以重復清空對應分區(qū)的元數(shù)據(jù),已經(jīng)刪掉分區(qū)進行同步處理

備注,特殊情況下,清掉raid有時比較麻煩,可以通過清空元數(shù)據(jù),重啟,清空對應分區(qū),三個方式進行處理。如果再次重啟,沒有啟動raid,說明已經(jīng)完成卸載raid的工作。

3.6 創(chuàng)建raid10

以下僅介紹創(chuàng)建raid的方法,分區(qū),格式化和掛載需讀者自行創(chuàng)建

方法一,先建1后建0

mdadm -C /dev/md0 -a yes -l 1 -n 2 /dev/sdb{1,2}

mdadm -C /dev/md1 -a yes -l 1 -n 2 /dev/sdc{1,2}

mdadm -C /dev/md2 -a yes -l 0 ?-n 2 /dev/md{0,1}

方法二,直接創(chuàng)建

mdadm -C /dev/md0 -a yes -l 10 -n 4 /dev/sdb{1,2} /dev/sdc{1,2}

4 LVM

4.1 LVM概念

創(chuàng)建成物理卷后相當于給分區(qū)貼了一個標簽,告訴系統(tǒng)這些硬盤以后可以用來創(chuàng)建LV,然后要把物理卷組合在一起,創(chuàng)建卷組,卷組的空間為物理卷空間的總和。然后再將卷組創(chuàng)建為邏輯卷。

擴容的時候,就是要將新的硬盤建成物理卷,然后再加到對應的卷組,則卷組的空間就擴展了。邏輯卷的讀寫性能不比物理分區(qū)差

LVM的LV的容量默認是256G,原因是一個lv里面PE最多是65536個,每個PE默認大小是4M,所以65536*4M/1024=256G,因為PE數(shù)量調(diào)整不了,所以我們可以通過調(diào)整PE的大小來進行調(diào)整,在創(chuàng)建VG的時候用選項-s來指定PE的值,如將PE=16M,那么LV的最大總量就可以達到1TB的容量。

LVM的相關指令匯總如下

4.2 創(chuàng)建邏輯卷

1.分區(qū),選擇類型是8e,這里組合的分區(qū)的大小可以不一樣大

2.pvcreate /dev/sdb1 /dev/sdc1

3 pvs或pvdisplay進行查看

4創(chuàng)建卷組vgcreate ?vg0 ?/dev/sd{b,c}1

5 vgs或vgdisplay查看卷組

6創(chuàng)建邏輯卷lvcreate-n lv0 -l 50%vg vg0

這里-L也可以跟大小10G

7查看lvdisplay

ll/dev/vg0/*可以看到有鏈接文件

8格式化,給文件創(chuàng)建系統(tǒng)

mkfs.xfs /dev/vg0/lv0

9掛載,寫入配置文件

到這里,創(chuàng)建成功

4.3 擴展LVM空間

擴展是先擴展邏輯卷后再同步文件系統(tǒng)

先用vgdisplay查看空間。看看剩余有多少卷組空間可以分配,

4.3.1 如果有剩余空間

擴展邏輯卷,兩個寫法,如下

lvextend -l +2000 /dev/vg0/lv0

lvextend -L +5G /dev/vg0/lv0

注意大寫L和小寫l后面跟的單位不一樣,大寫L后面跟單位,多少M或G等,小寫的l跟多少個邏輯卷單位

增加完成后,用lvdisplay查看空間增加情況

然后用df –h查看邏輯卷目前的文件系統(tǒng)空間情況,因為新增加的空間還沒有創(chuàng)建文件系統(tǒng),所以用df看不到新增加后的大小。需要同步

如果是xfs文件系統(tǒng),同步命令為xfs_growfs /mnt/lv0后面跟著的是掛載點,將同步新增加的空間的文件系統(tǒng),xfs的文件系統(tǒng)只能增加,不能減少

如果是ext文件系統(tǒng)的同步用resize2fs /dev/vg0/lv17G

如果出現(xiàn)如下的報錯,建議同步語句中不要寫擴容后的大小,命令resize2fs /dev/vg0/lv1

[root@localhost lv0]# resize2fs/dev/vg0/lv0 9.6G

resize2fs 1.41.12 (17-May-2010)

resize2fs: Invalid new size: 9.6G

ext4文件系統(tǒng)可以縮減空間,但是一般生產(chǎn)環(huán)境不縮減空間,如果要縮減,要先做好原來數(shù)據(jù)備份后再進行縮減

4.3.2 步驟如下

1.分出一塊分區(qū),類型選擇邏輯卷sda7

fdisk/dev/sda--> n-->7-->+3G-->t—8e->w

2.pvcreate /dev/sda7

3.vgextend vg0 /dev/sda7

4.擴展邏輯卷

lvextend -L? 7G /dev/vg0/lv1

5.同步文件系統(tǒng)

resize2fs /dev/vg0/lv1

注意,這里擴展邏輯卷和同步文件系統(tǒng),可以直接用一條命令創(chuàng)建,如下

lvextend -r -L +500M? /dev/vg0/lv1

4.4 縮減空間

縮減則是先縮減文件系統(tǒng)再縮減邏輯卷,注意縮減前要先把數(shù)據(jù)做好備份,才能做縮減,否則數(shù)據(jù)可能丟失,如果,當前數(shù)據(jù)量大于要減少后的盤的大小,則數(shù)據(jù)會部分丟失,步驟如下:

umount /mnt/lv1

e2fsck? -f? /dev/vg0/lv1 //系統(tǒng)強制要求的步驟

resize2fs /dev/vg0/lv1 5G

lvreduce -L 5G /dev/vg0/lv1

mount-a

4.5 遷移邏輯卷

首先要確保要遷移的邏輯卷和新的機器上已有的邏輯卷名稱不一樣,可以重命名

1.umount /mnt/lv0

2.確保邏輯卷的名字和新機器上的邏輯卷不同名,同名就直接改掉

lvrename /dev/vg0/lv0 newlv0

vgrename vg0 newvg0

3.改成非活動狀態(tài),pvdisplay查看

vgchange -an newvg0

4.導出邏輯卷

vgexportnewvg0

5.拆除硬盤,把拔下來的硬盤插入目標主機,這邊虛擬機上操作硬盤移除和插入新主機,主要是把硬盤文件移動到新主機的目錄下,新主機添加硬盤選擇已有的磁盤,選中對應的移動過來的硬盤文件.vmk,完成硬盤的添加

6.在新主機上用pvscan掃描,這步可以不操作

7.導入硬盤

vgimport newvg0

8.激活新增加的硬盤

vgchange -ay newvg0

9.掛載

mount /dev/newvg0/newlv0 ?/mnt/newlv0

完成遷移

4.6 從邏輯卷里刪除正在使用的物理分區(qū)

pvdisplay看看要移走的分區(qū)是否有人用,有人用的話,

pvdispaly查看到如果total PE和free PE一樣大,表示沒人用,可以直接移走

4.6.1 沒有數(shù)據(jù),方法如下

1.從邏輯卷里移走

vgreduce vg0 /dev/sda7

2.去掉物理卷標簽

pvremove /dev/sda7

3.直接刪掉分區(qū)fdisk/dev/sda -->d-->7

如果用pvdiskpaly查看到有數(shù)據(jù),表示有人用,就要遷走數(shù)據(jù)到同一卷組的其他可用的PE上執(zhí)行

pvmove /dev/sda6

移走sda6上的PE到同一卷組的剩余PE后才能拆掉空間,這里要確認同一卷組還有多余的空間,即PE,才能移走數(shù)據(jù)

4.6.2 如果同一卷組沒有多余的空間,要先加卷組空間

1.新建一塊分區(qū)fdisk/dev/sda->n-->7-->t—8e-->w

2.pvcreate /dev/sda7

3.vgextend vg0 /dev/sda7

4.有空間后就可以移走數(shù)據(jù),pvmove命令會在同一卷組里找到其他空閑空間進行數(shù)據(jù)的存放

pvmove /dev/sda6

5.從vg0里刪掉/dev/sda6這塊盤

vgreduce vg0/dev/sda6

6.刪掉空間

pvremove /dev/sda6

7.通過fdisk移除分區(qū)

4.7 邏輯卷快照

邏輯卷快照相當于是把當前的狀態(tài)記錄下來,有備份的效果,但是不能代替?zhèn)浞荩驗閭浞菘梢詡浞莸狡渌麢C器上,快照都是在本地磁盤下

邏輯卷快照的原理是在同一個卷組里也要創(chuàng)建一個快照邏輯卷,快照會占用一定大小的空間。快照之所以快,原因是沒有真正拷貝數(shù)據(jù),而是分配了一定的空間來使用,但是后期數(shù)據(jù)有變更時,舊的數(shù)據(jù)就會被推送到快照空間,即快照存放最舊的數(shù)據(jù),當前的邏輯卷存放最新的數(shù)據(jù),沒有變更的數(shù)據(jù)就不會存放到快照里。但是快照會導致服務器性能下降,因為快照會做備份的操作,導致快照會導致服務器性能下降,所以一般用于測試環(huán)境。

新建快照速度很快

4.7.1 創(chuàng)建LVM快照

創(chuàng)建快照命令如下,-s表明是做快照,-p指定屬性為只讀

lvcreate-nlv1-snapshot-s-L100M-pr/dev/vg0/lv1

掛載快照

mount/dev/lv1-snapshot/mnt/snap

測試

在數(shù)據(jù)還沒修改前,/mnt/snap看到的快照數(shù)據(jù)實際是lv1上的原始數(shù)據(jù),此時還沒做任何備份操作

1.當在lv1上修改數(shù)據(jù),一旦數(shù)據(jù)被修改后,/mnt/snap就保存舊的數(shù)據(jù),新的數(shù)據(jù)在lv1上

2.將原來的lv1刪掉一個文件,則被刪掉的文件就會被復制到snap上

3.在lv1上新建一個文件,snap上不會生成有新的文件

4.7.2 恢復LVM備份

1.取消邏輯卷和快照的掛載

2.合并數(shù)據(jù),恢復后,快照會被刪掉。

lvconvert--merge/dev/vg0/lv1-snapshot

如果沒有取消掛載,就進行數(shù)據(jù)恢復,就會出現(xiàn)如下對的報錯

[root@localhost ~]# lvconvert --merge/dev/vg0/lv0-snap3

Can't merge over open origin volume

Can't merge when snapshot is open

Merging of snapshot lv0-snap3 will start next activation.

然后,即使取消掛載,要再次恢復原始數(shù)據(jù)時候,就會出現(xiàn)如下的報錯

[root@localhost ~]#lvconvert --merge /dev/vg0/lv0-snap3

Snapshot lv0-snap3 is already merging

Unable to merge LV "lv0-snap3" intoits origin.

如果遇到這樣的報錯,查看還是出現(xiàn)異常,因為lv0還沒被恢復到原始數(shù)據(jù),但是重啟發(fā)現(xiàn)就正常了,出現(xiàn)這個報錯,原因是未取消快照盤的掛載就執(zhí)行了恢復的操作

所以,要恢復快照,即恢復原始數(shù)據(jù),一定要取消掛快照的掛載后才能進行恢復

如果不重啟機器,解決辦法是同時取消快照盤和lv0盤的掛載,將lv0設為未激活,然后再次激活,最后重新掛載,就可以恢復到快照時的數(shù)據(jù)

umount /mnt/lv0

umount /mnt/snap

lvchange -an /dev/vg0/lv0

lvchange -ay /dev/vg0/lv0

mount /dev/vg0/lv0 /mnt/lv0

4.8 刪除邏輯卷

1.取消掛載,

2.刪除邏輯卷,如果邏輯卷上有快照,系統(tǒng)會提示先刪快照再刪邏輯卷,此次操作,會清空數(shù)據(jù)

lvremove? /dev/vg0/lv1

3.刪卷組

vgremove vg0

4.刪除物理卷

pvremove /dev/sd{a,b,c}

5.通過fdisk刪掉之前創(chuàng)建邏輯卷的分區(qū),達到徹底刪除的效果

5 附錄

創(chuàng)造一個即有LVM的的優(yōu)點,彈性調(diào)整filesystem的大小,同時又具備磁盤陣列的效能和備份功能的文件系統(tǒng)

思路先建raid再建LVM

1.用fdisk分區(qū)sd{b,c,d,e,f}1,五個

2.將多個分區(qū)通過命令mdadm創(chuàng)建一個raid5的磁盤陣列,并生成配置文件

mdadm-C/dev/md0-ayes-l5-n 4-x 1/dev/sd{b,c,d,e,f}1

mdadm-Ds >/etc/mdadm.conf

3.創(chuàng)建PG,VG,LV

pvcreate/dev/md0

vgcreatesunny_raid_vg/dev/md0

lvcreate-L 10G-nsunny_raid_lvsunny_raid_vg

4.格式化lv文件系統(tǒng)

mkfs.ext4/dev/sunny_raid_vg/sunny_raid_lv

5.掛載

mkdir /dev/raidlv

mount/dev/sunny_raid_vg/sunny_raid_lv/mnt/raidlv

移除設備

思路卸載lv的掛載后,先拆除lv,后停掉raid

步驟如下

umount /dev/raidlv

lvremove/dev/sunny_raid_vg/sunny_raid_lv

vgchange-ansunny_raid_vg

vgremovesunny_raid_vg

pvremove/dev/md0

mdadm-S/dev/md0

rm-rf/etc/mdadm.conf

mdadm--zero-superblock /dev/sd{b,c,d,e,f}1

用fdisk將對應的分區(qū)刪掉

到此,實驗完成。

最后編輯于
?著作權歸作者所有,轉載或內(nèi)容合作請聯(lián)系作者
平臺聲明:文章內(nèi)容(如有圖片或視頻亦包括在內(nèi))由作者上傳并發(fā)布,文章內(nèi)容僅代表作者本人觀點,簡書系信息發(fā)布平臺,僅提供信息存儲服務。

推薦閱讀更多精彩內(nèi)容