第三十三節(jié)、RAID/LVM

一、RAID磁盤陣列組

近年來(lái), CPU的處理性能保持著高速增長(zhǎng),Intel公司在2017年最新發(fā)布的i9-7980XE處理器芯片更是達(dá)到了18核心36線程。但與此同時(shí),硬盤設(shè)備的性能提升卻不是很大,因此逐漸成為當(dāng)代計(jì)算機(jī)整體性能的瓶頸。而且,由于硬盤設(shè)備需要進(jìn)行持續(xù)、頻繁、大量的IO操作,相較于其他設(shè)備,其損壞幾率也大幅增加,導(dǎo)致重要數(shù)據(jù)丟失的幾率也隨之增加。
RAID技術(shù)通過(guò)把多個(gè)硬盤設(shè)備組合成一個(gè)容量更大、安全性更好的磁盤陣列,并把數(shù)據(jù)切割成多個(gè)區(qū)段后分別存放在各個(gè)不同的物理硬盤設(shè)備上,然后利用分散讀寫技術(shù)來(lái)提升磁盤陣列整體的性能,同時(shí)把多個(gè)重要數(shù)據(jù)的副本同步到不同的物理硬盤設(shè)備上,從而起到了非常好的數(shù)據(jù)冗余備份效果。

  • RAID 0
    RAID 0技術(shù)把多塊物理硬盤設(shè)備(至少兩塊)通過(guò)硬件或軟件的方式串聯(lián)在一起,組成一個(gè)大的卷組,并將數(shù)據(jù)依次寫入到各個(gè)物理硬盤中。這樣一來(lái),在最理想的狀態(tài)下,硬盤設(shè)備的讀寫性能會(huì)提升數(shù)倍,但是若任意一塊硬盤發(fā)生故障將導(dǎo)致整個(gè)系統(tǒng)的數(shù)據(jù)都受到破壞。通俗來(lái)說(shuō),RAID 0技術(shù)能夠有效地提升硬盤數(shù)據(jù)的吞吐速度,但是不具備數(shù)據(jù)備份和錯(cuò)誤修復(fù)能力。如圖所示,數(shù)據(jù)被分別寫入到不同的硬盤設(shè)備中,即disk1和disk2硬盤設(shè)備會(huì)分別保存數(shù)據(jù)資料,最終實(shí)現(xiàn)分開(kāi)寫入、讀取的效果。


    RAID0.png
  • RAID 1
    盡管RAID 0技術(shù)提升了硬盤設(shè)備的讀寫速度,但是它是將數(shù)據(jù)依次寫入到各個(gè)物理硬盤中,也就是說(shuō),它的數(shù)據(jù)是分開(kāi)存放的,其中任何一塊硬盤發(fā)生故障都會(huì)損壞整個(gè)系統(tǒng)的數(shù)據(jù)。因此,如果生產(chǎn)環(huán)境對(duì)硬盤設(shè)備的讀寫速度沒(méi)有要求,而是希望增加數(shù)據(jù)的安全性時(shí),就需要用到RAID 1技術(shù)了。
    在圖所示的RAID 1技術(shù)示意圖中可以看到,它是把兩塊以上的硬盤設(shè)備進(jìn)行綁定,在寫入數(shù)據(jù)時(shí),是將數(shù)據(jù)同時(shí)寫入到多塊硬盤設(shè)備上(可以將其視為數(shù)據(jù)的鏡像或備份)。當(dāng)其中某一塊硬盤發(fā)生故障后,一般會(huì)立即自動(dòng)以熱交換的方式來(lái)恢復(fù)數(shù)據(jù)的正常使用


    raid1.jpg

    RAID 1技術(shù)雖然十分注重?cái)?shù)據(jù)的安全性,但是因?yàn)槭窃诙鄩K硬盤設(shè)備中寫入了相同的數(shù)據(jù),因此硬盤設(shè)備的利用率得以下降,從理論上來(lái)說(shuō),圖7-2所示的硬盤空間的真實(shí)可用率只有50%,由三塊硬盤設(shè)備組成的RAID 1磁盤陣列的可用率只有33%左右,以此類推。而且,由于需要把數(shù)據(jù)同時(shí)寫入到兩塊以上的硬盤設(shè)備,這無(wú)疑也在一定程度上增大了系統(tǒng)計(jì)算功能的負(fù)載。

  • RAID 5
    如圖所示,RAID5技術(shù)是把硬盤設(shè)備的數(shù)據(jù)奇偶校驗(yàn)信息保存到其他硬盤設(shè)備中。RAID 5磁盤陣列組中數(shù)據(jù)的奇偶校驗(yàn)信息并不是單獨(dú)保存到某一塊硬盤設(shè)備中,而是存儲(chǔ)到除自身以外的其他每一塊硬盤設(shè)備上,這樣的好處是其中任何一設(shè)備損壞后不至于出現(xiàn)致命缺陷;圖中parity部分存放的就是數(shù)據(jù)的奇偶校驗(yàn)信息,換句話說(shuō),就是RAID 5技術(shù)實(shí)際上沒(méi)有備份硬盤中的真實(shí)數(shù)據(jù)信息,而是當(dāng)硬盤設(shè)備出現(xiàn)問(wèn)題后通過(guò)奇偶校驗(yàn)信息來(lái)嘗試重建損壞的數(shù)據(jù)。RAID這樣的技術(shù)特性“妥協(xié)”地兼顧了硬盤設(shè)備的讀寫速度、數(shù)據(jù)安全性與存儲(chǔ)成本問(wèn)題。


    raid5.gif
  • RAID 10
    鑒于RAID 5技術(shù)是因?yàn)橛脖P設(shè)備的成本問(wèn)題對(duì)讀寫速度和數(shù)據(jù)的安全性能而有了一定的妥協(xié),但是大部分企業(yè)更在乎的是數(shù)據(jù)本身的價(jià)值而非硬盤價(jià)格,因此生產(chǎn)環(huán)境中主要使用RAID 10技術(shù)。
    顧名思義,RAID 10技術(shù)是RAID 1+RAID 0技術(shù)的一個(gè)“組合體”。如圖7-4所示,RAID 10技術(shù)需要至少4塊硬盤來(lái)組建,其中先分別兩兩制作成RAID 1磁盤陣列,以保證數(shù)據(jù)的安全性;然后再對(duì)兩個(gè)RAID 1磁盤陣列實(shí)施RAID 0技術(shù),進(jìn)一步提高硬盤設(shè)備的讀寫速度。這樣從理論上來(lái)講,只要壞的不是同一組中的所有硬盤,那么最多可以損壞50%的硬盤設(shè)備而不丟失數(shù)據(jù)。由于RAID 10技術(shù)繼承了RAID 0的高讀寫速度和RAID 1的數(shù)據(jù)安全性,在不考慮成本的情況下RAID 10的性能都超過(guò)了RAID 5,因此當(dāng)前成為廣泛使用的一種存儲(chǔ)技術(shù)。


    raid-10-1024x508.png
部署RAID10

目前市場(chǎng)上主流RAID技術(shù)分為軟硬兩種

  • 硬RAID,服務(wù)器購(gòu)買時(shí)可以選購(gòu)廠商提供的RAID卡,插入用硬盤后直接配置好RAID,這樣系統(tǒng)安裝讀取時(shí)直接獲取到一整塊配置好的硬盤
  • 軟RAID,服務(wù)器直接安裝后插入多塊硬盤,在系統(tǒng)層面將多塊硬盤進(jìn)行RAID配置組合使用,一旦出現(xiàn)故障盤直接卸載替換
    除了RAID磁盤陣列一般還會(huì)使用一塊熱備盤,平時(shí)完全閑置,一旦某塊RAID陣列的磁盤出現(xiàn)故障,熱備盤立刻頂替并進(jìn)行數(shù)據(jù)同步,達(dá)到保障數(shù)據(jù)安全的目的.不過(guò)處于性價(jià)比的考慮熱備盤一般是和RAID5搭配使用,因?yàn)镽AID5容錯(cuò)率較低,只允許壞1塊硬盤,如果修復(fù)期間再損壞一塊數(shù)據(jù)會(huì)完全丟失.
  • 模擬實(shí)驗(yàn)環(huán)境:安裝好的虛擬機(jī)關(guān)機(jī)后編輯配置添加4塊硬盤(sdb/c/d/e),開(kāi)機(jī)后通過(guò)mdadm命令進(jìn)行配置
[root@localhost ~]#  mdadm -Cv /dev/md0 -a yes -n 4  -l 10 /dev/sd[b-e]
#參數(shù)大寫C表示創(chuàng)建
#參數(shù)v表示顯示創(chuàng)建過(guò)程
#/dev/md0是創(chuàng)建磁盤陣列組名字,掛載/dev目錄下md0
#參數(shù)-a yes 表示檢查名稱是否沖突
#參數(shù)-n 4表示組成磁盤陣列的硬盤數(shù)量
#參數(shù)-l 10表示磁盤陣列組的模式是RAID10
#/dev/sd[b-e]通配使用的4塊硬盤
[root@localhost ~]#  mdadm -Q  /dev/md0
/dev/md0: 39.97GiB raid10  4devices, 0 spares. Use mdadm
--detail for more detail.
#參數(shù)Q查看磁盤陣列組的簡(jiǎn)要信息
#參數(shù)D查看磁盤陣列組的詳細(xì)信息
  • 設(shè)置完磁盤陣列組后使用fdisk /dev/md0命令對(duì)磁盤陣列組md0進(jìn)行分區(qū)
    一般分區(qū)后編號(hào)就是/dev/mdop1表示第一個(gè)主分區(qū),如果/dev目錄下沒(méi)刷新出新的分區(qū)md0p1的信息即分區(qū)信息沒(méi)有自動(dòng)同步,兩種處理辦法:一、是重啟服務(wù)器reboot.二、是手動(dòng)執(zhí)行partprobe命令兩次進(jìn)行強(qiáng)制同步分區(qū)信息到內(nèi)核中.
  • 如果磁盤陣列本身空間比較小可以直接跳過(guò)分區(qū)的步驟,進(jìn)行格式化設(shè)置文件系統(tǒng),命令mkfs.xfs /dev/md0p1
  • 完成格式化后對(duì)分區(qū)進(jìn)行掛載,關(guān)聯(lián)分區(qū)和目錄mount /dev/md0p1 /media/data/base
  • 編輯/etc/fstab文件添加語(yǔ)句使md0掛載永久生效
    /dev/md0p1 /media/data/base xfs defaults 0 0
部署RAID5和熱備盤
  • 模擬實(shí)驗(yàn)環(huán)境:安裝好的虛擬機(jī)關(guān)機(jī)后編輯配置添加4塊硬盤(sdb/c/d/e),開(kāi)機(jī)后通過(guò)mdadm命令進(jìn)行配置,bcd三塊盤設(shè)置RAID5,e盤設(shè)置為熱備盤
[root@localhost ~]#  mdadm -Cv /dev/md0 -a yes -n 3  -l 5  -x 1  /dev/sd[b-e]
#參數(shù)-x 1表示設(shè)置一塊熱備盤
#通過(guò)上述參數(shù)系統(tǒng)會(huì)選出3塊硬盤設(shè)置RAID5,剩下的一塊作為熱備盤

磁盤陣列組故障移除故障盤以及添加新硬盤(新硬盤會(huì)自動(dòng)作為熱備盤)

[root@localhost ~]# mdadm  /dev/md0  --remove  /dev/sdc
mdadm: hot removed  /dev/sdc  from  /dev/md0
[root@localhost ~]# mdadm  -a  /dev/md0  /dev/sdc 
mdadm: added  /dev/sdc
二、LVM邏輯卷管理器

邏輯卷管理器是Linux系統(tǒng)用于對(duì)硬盤分區(qū)進(jìn)行管理的一種機(jī)制,理論性較強(qiáng),其創(chuàng)建初衷是為了解決硬盤設(shè)備在創(chuàng)建分區(qū)后不易修改分區(qū)大小的缺陷。盡管對(duì)傳統(tǒng)的硬盤分區(qū)進(jìn)行強(qiáng)制擴(kuò)容或縮容從理論上來(lái)講是可行的,但是卻可能造成數(shù)據(jù)的丟失。而LVM技術(shù)是在硬盤分區(qū)和文件系統(tǒng)之間添加了一個(gè)邏輯層,它提供了一個(gè)抽象的卷組,可以把多塊硬盤進(jìn)行卷組合并。這樣一來(lái),用戶不必關(guān)心物理硬盤設(shè)備的底層架構(gòu)和布局,就可以實(shí)現(xiàn)對(duì)硬盤分區(qū)的動(dòng)態(tài)調(diào)整。LVM的技術(shù)架構(gòu)如圖所示


邏輯卷.png

舉一個(gè)吃貨的例子。比如小明家里想吃饅頭但是面粉不夠了,于是媽媽從隔壁老王家、老李家、老張家分別借來(lái)一些面粉,準(zhǔn)備蒸饅頭吃。首先需要把這些面粉(物理卷[PV,Physical Volume])揉成一個(gè)大面團(tuán)(卷組[VG,Volume Group]),然后再把這個(gè)大團(tuán)面分割成一個(gè)個(gè)小饅頭(邏輯卷[LV,Logical Volume]),而且每個(gè)小饅頭的重量必須是每勺面粉(基本單元[PE,Physical Extent])的倍數(shù)。
我們可以通過(guò)部署LVM來(lái)解決上述問(wèn)題。部署LVM時(shí),需要逐個(gè)配置物理卷、卷組和邏輯卷。常用的部署命令如表所示

功能/命令      物理卷管理         卷組管理      邏輯卷管理
掃描                pvscan           vgscan        lvscan
建立               pvcreate       vgcreate       lvcreate
顯示          pvdisplay       vgdisplay       lvdisplay
刪除            pvremove         vgremove   lvremove
擴(kuò)展                                vgextend  lvextend
縮小                               vgreduce   lvreduce
  • LVM邏輯卷管理器沒(méi)有冗余備份功能要做好數(shù)據(jù)的備份
    還有xfs文件系統(tǒng)不支持LVM的縮小功能因此一般統(tǒng)一使用ext4
    這里先定義涉及的設(shè)備
    PV: /dev/sdb /dev/sdc
    VG: storage(自定義的卷組名)
    LV: vo(自定義的單元名)
部署LVM
  • 第一步、讓新添加的兩塊硬盤設(shè)備支持LVM技術(shù)
[root@linuxprobe ~]# pvcreate /dev/sdb /dev/sdc
 Physical volume "/dev/sdb" successfully created
 Physical volume "/dev/sdc" successfully created
  • 第二步、把兩塊硬盤設(shè)備加入到storage卷組中,然后查看卷組的狀態(tài)。storage存儲(chǔ),是自定義的卷組名稱
[root@linuxprobe ~]# vgcreate storage /dev/sdb /dev/sdc
 Volume group "storage" successfully created
[root@linuxprobe ~]# vgdisplay
--- Volume group ---
 VG Name storage
 System ID 
 Format lvm2
 Metadata Areas 2
 Metadata Sequence No 1
 VG Access read/write
 VG Status resizable
 MAX LV 0
 Cur LV 0
 Open LV 0
 Max PV 0
 Cur PV 2
 Act PV 2
 VG Size 39.99 GiB
 PE Size 4.00 MiB
 Total PE 10238
 Alloc PE / Size 0 / 0  Free PE / Size 10238 / 39.99 GiB
 VG UUID KUeAMF-qMLh-XjQy-ArUo-LCQI-YF0o-pScxm1
  • 第三步、切割出一個(gè)約為150MB的邏輯卷設(shè)備。這里需要注意切割單位的問(wèn)題。在對(duì)邏輯卷進(jìn)行切割時(shí)有兩種計(jì)量單位。第一種是以容量為單位,所使用的參數(shù)為-L。例如,使用-L 150M生成一個(gè)大小為150MB的邏輯卷。另外一種是以基本單元的個(gè)數(shù)為單位,所使用的參數(shù)為-l。每個(gè)基本單元的大小默認(rèn)為4MB。例如,使用-l 37可以生成一個(gè)大小為37×4MB=148MB的邏輯卷。
[root@linuxprobe ~]# lvcreate -n vo -l 37 storage
 Logical volume "vo" created
[root@linuxprobe ~]# lvdisplay 
 --- Logical volume ---
 LV Path /dev/storage/vo
 LV Name vo
 VG Name storage
 LV UUID D09HYI-BHBl-iXGr-X2n4-HEzo-FAQH-HRcM2I
 LV Write Access read/write
 LV Creation host, time localhost.localdomain, 2017-02-01 01:22:54 -0500
 LV Status available
 # open 0
 LV Size 148.00 MiB
 Current LE 37
 Segments 1
 Allocation inherit
 Read ahead sectors auto
 - currently set to 8192
 Block device 253:2
  • 第四步、把生成好的邏輯卷進(jìn)行格式化,然后掛載使用
    Linux系統(tǒng)會(huì)把LVM中的邏輯卷設(shè)備存放在/dev設(shè)備目錄中(實(shí)際上是做了一個(gè)符號(hào)鏈接),同時(shí)會(huì)以卷組的名稱來(lái)建立一個(gè)目錄,其中保存了邏輯卷的設(shè)備映射文件(即/dev/卷組名稱/邏輯卷名稱)如: /dev/storage/vo
[root@linuxprobe ~]# mkfs.ext4 /dev/storage/vo 
mke2fs 1.42.9 (28-Dec-2013)
Filesystem label=
OS type: Linux
Block size=1024 (log=0)
Fragment size=1024 (log=0)
Stride=0 blocks, Stripe width=0 blocks
38000 inodes, 151552 blocks
7577 blocks (5.00%) reserved for the super user
First data block=1
Maximum filesystem blocks=33816576
19 block groups
8192 blocks per group, 8192 fragments per group
2000 inodes per group
Superblock backups stored on blocks: 
 8193, 24577, 40961, 57345, 73729
Allocating group tables: done 
Writing inode tables: done 
Creating journal (4096 blocks): done
Writing superblocks and filesystem accounting information: done 
[root@linuxprobe ~]# mkdir /linuxprobe
[root@linuxprobe ~]# mount /dev/storage/vo /linuxprobe
  • 第五步、查看掛載狀態(tài),并寫入到配置文件,使其永久生效。
[root@linuxprobe ~]# df -h
 Filesystem Size Used Avail Use% Mounted on
 /dev/mapper/rhel-root 18G 3.0G 15G 17% /
 devtmpfs 905M 0 905M 0% /dev
 tmpfs 914M 140K 914M 1% /dev/shm
 tmpfs 914M 8.8M 905M 1% /run
 tmpfs 914M 0 914M 0% /sys/fs/cgroup
 /dev/sr0 3.5G 3.5G 0 100% /media/cdrom
 /dev/sda1 497M 119M 379M 24% /boot
 /dev/mapper/storage-vo 145M 7.6M 138M 6% /linuxprobe
 [root@linuxprobe ~]# echo "/dev/storage/vo /linuxprobe ext4 defaults 0 0" >> /etc/fstab
LVM擴(kuò)容

卷組是由兩塊硬盤設(shè)備共同組成的。用戶在使用存儲(chǔ)設(shè)備時(shí)感知不到設(shè)備底層的架構(gòu)和布局,更不用關(guān)心底層是由多少塊硬盤組成的,只要卷組中有足夠的資源,就可以一直為邏輯卷擴(kuò)容

  • 首先卸載設(shè)備和掛載點(diǎn)的關(guān)聯(lián)
    [root@linuxprobe ~]# umount /linuxprobe
  • 把上一個(gè)實(shí)驗(yàn)中的邏輯卷vo擴(kuò)展至290MB,擴(kuò)容邏輯卷LV
[root@linuxprobe ~]# lvextend -L 290M /dev/storage/vo
 Rounding size to boundary between physical extents: 292.00 MiB
 Extending logical volume vo to 292.00 MiB
 Logical volume vo successfully resized
  • 檢查硬盤完整性,并重置硬盤容量
[root@linuxprobe ~]# e2fsck -f /dev/storage/vo #檢查文件系統(tǒng)完整性看有無(wú)數(shù)據(jù)丟失
e2fsck 1.42.9 (28-Dec-2013)
Pass 1: Checking inodes, blocks, and sizes
Pass 2: Checking directory structure
Pass 3: Checking directory connectivity
Pass 4: Checking reference counts
Pass 5: Checking group summary information
/dev/storage/vo: 11/38000 files (0.0% non-contiguous), 10453/151552 blocks
[root@linuxprobe ~]# resize2fs /dev/storage/vo  #通知文件系統(tǒng)容量大小發(fā)生變化,容量調(diào)整后的同步
resize2fs 1.42.9 (28-Dec-2013)
Resizing the filesystem on /dev/storage/vo to 299008 (1k) blocks.
The filesystem on /dev/storage/vo is now 299008 blocks long.
  • 重新掛載硬盤設(shè)備并查看掛載狀態(tài)
[root@linuxprobe ~]# mount -a
#掛載/etc/fstab中沒(méi)有被使用的設(shè)備,自動(dòng)掛載
[root@linuxprobe ~]# df -h
Filesystem Size Used Avail Use% Mounted on
/dev/mapper/rhel-root 18G 3.0G 15G 17% /
devtmpfs 985M 0 985M 0% /dev
tmpfs 994M 80K 994M 1% /dev/shm
tmpfs 994M 8.8M 986M 1% /run
tmpfs 994M 0 994M 0% /sys/fs/cgroup
/dev/sr0 3.5G 3.5G 0 100% /media/cdrom
/dev/sda1 497M 119M 379M 24% /boot
/dev/mapper/storage-vo 279M 2.1M 259M 1% /linuxprobe
縮小邏輯卷

相較于擴(kuò)容邏輯卷,在對(duì)邏輯卷進(jìn)行縮容操作時(shí),其丟失數(shù)據(jù)的風(fēng)險(xiǎn)更大。所以在生產(chǎn)環(huán)境中執(zhí)行相應(yīng)操作時(shí),一定要提前備份好數(shù)據(jù)。另外Linux系統(tǒng)規(guī)定,在對(duì)LVM邏輯卷進(jìn)行縮容操作之前,要先檢查文件系統(tǒng)的完整性(當(dāng)然這也是為了保證我們的數(shù)據(jù)安全)。在執(zhí)行縮容操作前記得先把文件系統(tǒng)卸載掉。[root@linuxprobe ~]# umount /linuxprobe

  • 檢查文件系統(tǒng)的完整性,并通知文件系統(tǒng)榮i昂縮小
[root@linuxprobe ~]# e2fsck -f /dev/storage/vo
e2fsck 1.42.9 (28-Dec-2013)
Pass 1: Checking inodes, blocks, and sizes
Pass 2: Checking directory structure
Pass 3: Checking directory connectivity
Pass 4: Checking reference counts
Pass 5: Checking group summary information
/dev/storage/vo: 11/74000 files (0.0% non-contiguous), 15507/299008 blocks
[root@linuxprobe ~]# resize2fs /dev/storage/vo 120M
resize2fs 1.42.9 (28-Dec-2013)
Resizing the filesystem on /dev/storage/vo to 122880 (1k) blocks.
The filesystem on /dev/storage/vo is now 122880 blocks long.
  • 把邏輯卷vo的容量減小到120MB
[root@linuxprobe ~]# lvreduce -L 120M /dev/storage/vo
 WARNING: Reducing active logical volume to 120.00 MiB
 THIS MAY DESTROY YOUR DATA (filesystem etc.)
Do you really want to reduce vo? [y/n]: y
 Reducing logical volume vo to 120.00 MiB
 Logical volume vo successfully resized
  • 重新掛載文件系統(tǒng)并查看系統(tǒng)狀態(tài)
[root@linuxprobe ~]# mount -a
[root@linuxprobe ~]# df -h
Filesystem Size Used Avail Use% Mounted on
/dev/mapper/rhel-root 18G 3.0G 15G 17% /
devtmpfs 985M 0 985M 0% /dev
tmpfs 994M 80K 994M 1% /dev/shm
tmpfs 994M 8.8M 986M 1% /run
tmpfs 994M 0 994M 0% /sys/fs/cgroup
/dev/sr0 3.5G 3.5G 0 100% /media/cdrom
/dev/sda1 497M 119M 379M 24% /boot
/dev/mapper/storage-vo 113M 1.6M 103M 2% /linuxprobe
邏輯卷快照

LVM還具備有“快照卷”功能,該功能類似于虛擬機(jī)軟件的還原時(shí)間點(diǎn)功能。例如,可以對(duì)某一個(gè)邏輯卷設(shè)備做一次快照,如果日后發(fā)現(xiàn)數(shù)據(jù)被改錯(cuò)了,就可以利用之前做好的快照卷進(jìn)行覆蓋還原。LVM的快照卷功能有兩個(gè)特點(diǎn):

  • 快照卷的容量必須等同于邏輯卷的容量
  • 快照卷僅一次有效,一旦執(zhí)行還原操作后則會(huì)被立即自動(dòng)刪除。
    使用-s參數(shù)生成一個(gè)快照卷,使用-L參數(shù)指定切割的大小。另外,還需要在命令后面寫上是針對(duì)哪個(gè)邏輯卷執(zhí)行的快照操作
[root@linuxprobe ~]# lvcreate -L 120M -s -n SNAP /dev/storage/vo
 Logical volume "SNAP" created

恢復(fù)快照需要先卸載設(shè)備然后還原

[root@linuxprobe ~]# umount /linuxprobe
[root@linuxprobe ~]# lvconvert --merge /dev/storage/SNAP
 Merging of volume SNAP started.
 vo: Merged: 21.4%
 vo: Merged: 100.0%
 Merge of snapshot into logical volume vo has finished.
 Logical volume "SNAP" successfully removed

快照卷會(huì)被自動(dòng)刪除掉。

刪除LVM

需要提前備份好重要的數(shù)據(jù)信息,然后依次刪除邏輯卷、卷組、物理卷設(shè)備,這個(gè)順序不可顛倒

  • 取消邏輯卷與目錄的掛載關(guān)聯(lián),刪除配置文件中永久生效的設(shè)備參數(shù)。
[root@linuxprobe ~]# umount /linuxprobe
[root@linuxprobe ~]# vim /etc/fstab
#
# /etc/fstab
# Created by anaconda on Fri Feb 19 22:08:59 2017
#
# Accessible filesystems, by reference, are maintained under '/dev/disk'
# See man pages fstab(5), findfs(8), mount(8) and/or blkid(8) for more info
#
/dev/mapper/rhel-root / xfs defaults 1 1
UUID=50591e35-d47a-4aeb-a0ca-1b4e8336d9b1 /boot xfs defaults 1 2
/dev/mapper/rhel-swap swap swap defaults 0 0
/dev/cdrom /media/cdrom iso9660 defaults 0 0 
/dev/storage/vo /linuxprobe ext4 defaults 0 0
  • 刪除邏輯卷設(shè)備,需要輸入y來(lái)確認(rèn)操作
[root@linuxprobe ~]# lvremove /dev/storage/vo 
Do you really want to remove active logical volume vo? [y/n]: y
 Logical volume "vo" successfully removed
  • 刪除卷組,此處只寫卷組名稱即可,不需要設(shè)備的絕對(duì)路徑
[root@linuxprobe ~]# vgremove storage
 Volume group "storage" successfully removed
  • 刪除物理卷設(shè)備
[root@linuxprobe ~]# pvremove /dev/sdb /dev/sdc
 Labels on physical volume "/dev/sdb" successfully wiped
 Labels on physical volume "/dev/sdc" successfully wiped

在上述操作執(zhí)行完畢之后,再執(zhí)行l(wèi)vdisplay、vgdisplay、pvdisplay命令來(lái)查看LVM的信息時(shí)就不會(huì)再看到信息了(前提是上述步驟的操作是正確的)

?著作權(quán)歸作者所有,轉(zhuǎn)載或內(nèi)容合作請(qǐng)聯(lián)系作者
【社區(qū)內(nèi)容提示】社區(qū)部分內(nèi)容疑似由AI輔助生成,瀏覽時(shí)請(qǐng)結(jié)合常識(shí)與多方信息審慎甄別。
平臺(tái)聲明:文章內(nèi)容(如有圖片或視頻亦包括在內(nèi))由作者上傳并發(fā)布,文章內(nèi)容僅代表作者本人觀點(diǎn),簡(jiǎn)書(shū)系信息發(fā)布平臺(tái),僅提供信息存儲(chǔ)服務(wù)。

相關(guān)閱讀更多精彩內(nèi)容

友情鏈接更多精彩內(nèi)容