Ceph之塊存儲(chǔ)

Ceph 塊存儲(chǔ)簡(jiǎn)介

塊是一個(gè)字節(jié)序列(例如,一個(gè) 512 字節(jié)的數(shù)據(jù)塊)?;趬K的存儲(chǔ)接口是最常見(jiàn)的存儲(chǔ)數(shù)據(jù)方法,它們基于旋轉(zhuǎn)介質(zhì),像硬盤、 CD 、軟盤、甚至傳統(tǒng)的 9 磁道磁帶。無(wú)處不在的塊設(shè)備接口使虛擬塊設(shè)備成為與 Ceph 這樣的海量存儲(chǔ)系統(tǒng)交互的理想之選。

Ceph 塊設(shè)備是精簡(jiǎn)配置的、大小可調(diào)且將數(shù)據(jù)條帶化存儲(chǔ)到集群內(nèi)的多個(gè) OSD 。 Ceph 塊設(shè)備利用 RADOS 的多種能力,如快照、復(fù)制和一致性。 Ceph 的 RADOS 塊設(shè)備( RBD )使用內(nèi)核模塊或 librbd 庫(kù)與 OSD 交互。


image.png
Note: 內(nèi)核模塊可使用 Linux 頁(yè)緩存。對(duì)基于 librbd 的應(yīng)用程序, Ceph 可提供 RBD 緩存。

Ceph 塊設(shè)備靠無(wú)限伸縮性提供了高性能,如向內(nèi)核模塊、或向 abbr:KVM (kernel virtual machines) (如 Qemu 、 OpenStack 和 CloudStack 等云計(jì)算系統(tǒng)通過(guò) libvirt 和 Qemu 可與 Ceph 塊設(shè)備集成)。你可以用同一個(gè)集群同時(shí)運(yùn)行 Ceph RADOS 網(wǎng)關(guān)、 Ceph FS 文件系統(tǒng)、和 Ceph 塊設(shè)備。

Ceph 塊設(shè)備RBP

2.1 創(chuàng)建Ceph POOL

###ceph osd pool create {pool-name} {pg-num} [{pgp-num}]
###pg-num 與 pgp-num 只可以擴(kuò)大不可以縮小
#創(chuàng)建測(cè)試Pool
[root@ceph01 ceph]# ceph osd pool create rbd  32 32  
pool 'rbd' created

2.2 查看創(chuàng)建的Ceph Pool

 [root@ceph01 ceph]#ceph osd pool ls
rbd
 [root@ceph01 ceph]# ceph osd pool stats  rbd
pool rbd id 11
  nothing is going on

2.3 創(chuàng)建客戶端賬號(hào)

創(chuàng)建賬號(hào)

[root@ceph01 ceph]ceph auth get-or-create client.rbd mon 'allow r' osd 'allow class-read object_prefix rbd_children,allow rwx pool=rbd'
[client.rbd]
        key = AQAEdYJgD4ceJRAA/ARqDJoeDWc7QkT8nRelGQ==

查看創(chuàng)建客戶端賬號(hào)權(quán)限

[root@ceph01 ceph]# ceph auth get client.rbd
exported keyring for client.rbd
[client.rbd]
        key = AQAEdYJgD4ceJRAA/ARqDJoeDWc7QkT8nRelGQ==
        caps mon = "allow r"
        caps osd = "allow class-read object_prefix rbd_children,allow rwx pool=rbd"
#導(dǎo)出客戶端keyring
[root@ceph01 ceph]# ceph auth get client.rbd -o ./ceph.client.rbd.keyring
exported keyring for client.rbd

2.3 Pool 啟動(dòng) RBD

[root@ceph01 ceph]# ceph osd pool application enable rbd rbd 
enabled application 'rbd' on pool 'rbd'

客戶端配置

3.1 安裝客戶端

yum install ceph-common -y

3.2 同步rbd用戶的keyring 配置文件

[root@ceph01 ceph]# cp ceph.client.rbd.keyring  /etc/ceph/
[root@ceph01 ceph]# ls /etc/ceph/
ceph.client.admin.keyring  ceph.conf  tmpr6slZ5
ceph.client.rbd.keyring    rbdmap

# 使用 創(chuàng)建的用戶 rbd 查看集群狀態(tài)
ceph.client.rbd.keyring    rbdmap
[root@ceph01 ceph]# ceph -s --user rbd
  cluster:
    id:     2cecb349-bd00-42de-98e9-d9948157de50
    health: HEALTH_OK
 
  services:
    mon: 1 daemons, quorum ceph01
    mgr: ceph01(active), standbys: ceph03, ceph02
    mds: 32-1/1/1 up  {0=ceph01=up:active}, 1 up:standby
    osd: 3 osds: 3 up, 3 in
 
  data:
    pools:   8 pools, 232 pgs
    objects: 241  objects, 8.4 KiB
    usage:   20 GiB used, 40 GiB / 60 GiB avail
    pgs:     232 active+clean
 

3.3 創(chuàng)建Ceph image

[root@ceph01 ceph]# rbd create rbd1 -p rbd --size 1G --user rbd
[root@ceph01 ceph]# rbd create rbd/rbd2 --size 2G --user rbd

3.4 查看創(chuàng)建的image

# 查看創(chuàng)建的 image
[root@ceph01 ceph]# rbd ls -l --user rbd
NAME  SIZE PARENT FMT PROT LOCK 
rbd1 1 GiB          2           
rbd2 2 GiB          2 

#通過(guò)json格式查看
[root@ceph01 ceph]# rbd ls -p rbd -l --format json --user rbd --pretty-format
[
    {
        "image": "rbd1",
        "size": 1073741824,
        "format": 2
    },
    {
        "image": "rbd2",
        "size": 2147483648,
        "format": 2
    }
]

# 顯示 image 的詳細(xì)信息
[root@ceph01 ceph]# rbd info rbd1 --user rbd
rbd image 'rbd1':
        size 1 GiB in 256 objects
        order 22 (4 MiB objects)
        id: 126f6b8b4567
        block_name_prefix: rbd_data.126f6b8b4567
        format: 2
        features: layering, exclusive-lock, object-map, fast-diff, deep-flatten
        op_features: 
        flags: 
        create_timestamp: Fri Apr 23 15:37:59 2021

3.5 禁止 image 的特性

默認(rèn) image 的特性包括:

features: layering, exclusive-lock, object-map, fast-diff, deep-flatten

作為 rbd 一般只需要 layering ,需要把其他的特性全部禁止掉。

#禁止image 特性
[root@ceph01 ceph]# rbd feature disable rbd/rbd1 exclusive-lock, object-map, fast-diff, deep-flatten --user rbd
[root@ceph01 ceph]# rbd feature disable rbd/rbd2 exclusive-lock, object-map, fast-diff, deep-flatten --user rbd

#查看詳細(xì)信息
[root@ceph01 ceph]# rbd info rbd/rbd1 --user rbd
rbd image 'rbd1':
        size 1 GiB in 256 objects
        order 22 (4 MiB objects)
        id: 126f6b8b4567
        block_name_prefix: rbd_data.126f6b8b4567
        format: 2
        features: layering
        op_features: 
        flags: 
        create_timestamp: Fri Apr 23 15:37:59 2021
[root@ceph01 ceph]# rbd info rbd/rbd2 --user rbd
rbd image 'rbd2':
        size 2 GiB in 512 objects
        order 22 (4 MiB objects)
        id: 12716b8b4567
        block_name_prefix: rbd_data.12716b8b4567
        format: 2
        features: layering
        op_features: 
        flags: 
        create_timestamp: Fri Apr 23 15:42:42 2021

3.6 客戶端掛載 Image

[root@ceph01 ceph]# lsblk
NAME                                                                 MAJ:MIN RM  SIZE RO TYPE MOUNTPOINT
sda                                                                    8:0    0   20G  0 disk 
├─sda1                                                                 8:1    0    1G  0 part /boot
└─sda2                                                                 8:2    0   19G  0 part 
  ├─centos-root                                                      253:0    0   17G  0 lvm  /
  └─centos-swap                                                      253:1    0    2G  0 lvm  [SWAP]
sdb                                                                    8:16   0   20G  0 disk 
└─ceph--2c2a40e1--5672--4d7b--a2fa--54e87e2af0b1-osd--block--894dedaf--6740--4607--8375--1a459e57c705
                                                                     253:2    0   20G  0 lvm  
sr0                                                                   11:0    1 1024M  0 rom 

[root@ceph01 ceph]# rbd ls -l --user rbd
NAME  SIZE PARENT FMT PROT LOCK 
rbd1 1 GiB          2           
rbd2 2 GiB          2 

# RBD 映射到客戶端主機(jī)
[root@ceph01 ceph]# rbd map rbd/rbd1 --user rbd
/dev/rbd0

#客戶端掛載 Image
[root@ceph01 ceph]# lsblk
NAME                                         MAJ:MIN RM  SIZE RO TYPE MOUNTPOINT
sda                                            8:0    0   20G  0 disk 
├─sda1                                         8:1    0    1G  0 part /boot
└─sda2                                         8:2    0   19G  0 part 
  ├─centos-root                              253:0    0   17G  0 lvm  /
  └─centos-swap                              253:1    0    2G  0 lvm  [SWAP]
sdb                                            8:16   0   20G  0 disk 
└─ceph--2c2a40e1--5672--4d7b--a2fa--54e87e2af0b1-osd--block--894dedaf--6740--4607--8375--1a459e57c705
                                             253:2    0   20G  0 lvm  
sr0                                           11:0    1 1024M  0 rom  
rbd0                                         252:0    0    1G  0 disk 

3.7 初始化文件系統(tǒng)

# 格式化磁盤
[root@ceph01 ceph]# mkfs.xfs /dev/rbd0
meta-data=/dev/rbd0              isize=512    agcount=8, agsize=32768 blks
         =                       sectsz=512   attr=2, projid32bit=1
         =                       crc=1        finobt=0, sparse=0
data     =                       bsize=4096   blocks=262144, imaxpct=25
         =                       sunit=1024   swidth=1024 blks
naming   =version 2              bsize=4096   ascii-ci=0 ftype=1
log      =internal log           bsize=4096   blocks=2560, version=2
         =                       sectsz=512   sunit=8 blks, lazy-count=1
realtime =none                   extsz=4096   blocks=0, rtextents=0

#創(chuàng)建
[root@ceph01 ceph]# mkdir /data/ceph-disk0
[root@ceph01 ceph]# mount  /dev/rbd0  /data/ceph-disk0
[root@ceph01 ceph]# df -Th
Filesystem              Type      Size  Used Avail Use% Mounted on
devtmpfs                devtmpfs  1.9G     0  1.9G   0% /dev
tmpfs                   tmpfs     1.9G     0  1.9G   0% /dev/shm
tmpfs                   tmpfs     1.9G   59M  1.8G   4% /run
tmpfs                   tmpfs     1.9G     0  1.9G   0% /sys/fs/cgroup
/dev/mapper/centos-root xfs        17G  2.2G   15G  13% /
/dev/sda1               xfs      1014M  150M  865M  15% /boot
tmpfs                   tmpfs     1.9G   52K  1.9G   1% /var/lib/ceph/osd/ceph-0
tmpfs                   tmpfs     378M     0  378M   0% /run/user/0
/dev/rbd0               xfs      1014M   33M  982M   4% /data/ceph-disk0

3.8 客戶端卸載磁盤

[root@ceph01 ceph]# umount /dev/rbd0
#查看本地image映射
[root@ceph01 ceph]# rbd showmapped --user rbd
id pool image snap device    
0  rbd  rbd1  -    /dev/rbd0 

#卸載 image 
[root@ceph01 ceph]# rbd unmap rbd/rbd1 --user rbd
[root@ceph01 ceph]# lsblk
NAME                                         MAJ:MIN RM  SIZE RO TYPE MOUNTPOINT
sda                                            8:0    0   20G  0 disk 
├─sda1                                         8:1    0    1G  0 part /boot
└─sda2                                         8:2    0   19G  0 part 
  ├─centos-root                              253:0    0   17G  0 lvm  /
  └─centos-swap                              253:1    0    2G  0 lvm  [SWAP]
sdb                                            8:16   0   20G  0 disk 
└─ceph--2c2a40e1--5672--4d7b--a2fa--54e87e2af0b1-osd--block--894dedaf--6740--4607--8375--1a459e57c705
                                             253:2    0   20G  0 lvm  
sr0                                           11:0    1 1024M  0 rom  

3.9 調(diào)整image大小

[root@ceph01 ceph]# rbd resize -s 3G rbd/rbd1 --user rbd
Resizing image: 100% complete...done.
[root@ceph01 ceph]# rbd ls -l --user rbd
NAME  SIZE PARENT FMT PROT LOCK 
rbd1 3 GiB          2           
rbd2 2 GiB          2   

3.10 刪除image

[root@ceph01 ceph]# rbd ls -l --user rbd
NAME  SIZE PARENT FMT PROT LOCK 
rbd1 3 GiB          2           
rbd2 2 GiB          2           
[root@ceph01 ceph]# rbd rm rbd2 --user rbd
Removing image: 100% complete...done.
[root@ceph01 ceph]# rbd ls -l --user rbd
NAME  SIZE PARENT FMT PROT LOCK 
rbd1 3 GiB          2  

3.11 image 放進(jìn)回收站

#查看image列表
[root@ceph01 ceph]# rbd ls -l --user rbd
NAME  SIZE PARENT FMT PROT LOCK 
rbd1 3 GiB          2  
  
# 將 rbd1 放進(jìn)回收站       
[root@ceph01 ceph]# rbd trash move rbd/rbd1 --user rbd
[root@ceph01 ceph]# rbd ls -l --user rbd
# 查看回收站
[root@ceph01 ceph]# rbd trash list -p rbd --user rbd
126f6b8b4567 rbd1

3.12 回收站恢復(fù) image

[root@ceph01 ceph]# rbd trash list -p rbd --user rbd
126f6b8b4567 rbd1
[root@ceph01 ceph]# rbd trash restore -p rbd --image rbd1 --image-id 126f6b8b4567  --user rbd
[root@ceph01 ceph]# rbd ls -l --user rbd
NAME  SIZE PARENT FMT PROT LOCK 
rbd1 3 GiB          2   

RBD 快照

4.1 快照前準(zhǔn)備工作

[root@ceph01 ceph]# lsblk
NAME                                         MAJ:MIN RM  SIZE RO TYPE MOUNTPOINT
sda                                            8:0    0   20G  0 disk 
├─sda1                                         8:1    0    1G  0 part /boot
└─sda2                                         8:2    0   19G  0 part 
  ├─centos-root                              253:0    0   17G  0 lvm  /
  └─centos-swap                              253:1    0    2G  0 lvm  [SWAP]
sdb                                            8:16   0   20G  0 disk 
└─ceph--2c2a40e1--5672--4d7b--a2fa--54e87e2af0b1-osd--block--894dedaf--6740--4607--8375--1a459e57c705
                                             253:2    0   20G  0 lvm  
sr0                                           11:0    1 1024M  0 rom  
[root@ceph01 ceph]# rbd map rbd/rbd1 --user rbd
/dev/rbd0
[root@ceph01 ceph]# lsblk
NAME                                         MAJ:MIN RM  SIZE RO TYPE MOUNTPOINT
sda                                            8:0    0   20G  0 disk 
├─sda1                                         8:1    0    1G  0 part /boot
└─sda2                                         8:2    0   19G  0 part 
  ├─centos-root                              253:0    0   17G  0 lvm  /
  └─centos-swap                              253:1    0    2G  0 lvm  [SWAP]
sdb                                            8:16   0   20G  0 disk 
└─ceph--2c2a40e1--5672--4d7b--a2fa--54e87e2af0b1-osd--block--894dedaf--6740--4607--8375--1a459e57c705
                                             253:2    0   20G  0 lvm  
sr0                                           11:0    1 1024M  0 rom  
rbd0                                         252:0    0    3G  0 disk 

[root@ceph01 ceph]#mount /dev/rbd0 /data/ceph-disk0
[root@ceph01 ceph]# echo "This is Test 01 " >/data/ceph-disk0/test01.txt
[root@ceph01 ceph]# echo "This is Test 02 " >/data/ceph-disk0/test02.txt
[root@ceph01 ceph]# ls /data/ceph-disk0/
test01.txt  test02.txt

4.2 創(chuàng)建快照

[root@ceph01 ceph]# rbd snap create rbd/rbd1@snap1-20210423 --user rbd
[root@ceph01 ceph]# rbd snap list rbd/rbd1 --user rbd
SNAPID NAME            SIZE TIMESTAMP                
     4 snap1-20210423 3 GiB Fri Apr 23 17:53:38 2021 

4.3 還原快照

[root@ceph01 ceph]# ls /data/ceph-disk0/
test01.txt  test02.txt
## 為了檢驗(yàn)快照恢復(fù)后數(shù)據(jù)正確性,這里刪除 2.txt 文件
[root@ceph01 ceph]# rm  /data/ceph-disk0/test02.txt  -rf
[root@ceph01 ceph]# ls /data/ceph-disk0/
test01.txt

##4.5 卸載image
[root@ceph01 ceph]# umount /dev/rbd0
[root@ceph01 ceph]# rbd unmap rbd/rbd1 --user rbd
[root@ceph01 ceph]# lsblk
NAME                                         MAJ:MIN RM  SIZE RO TYPE MOUNTPOINT
sda                                            8:0    0   20G  0 disk 
├─sda1                                         8:1    0    1G  0 part /boot
└─sda2                                         8:2    0   19G  0 part 
  ├─centos-root                              253:0    0   17G  0 lvm  /
  └─centos-swap                              253:1    0    2G  0 lvm  [SWAP]
sdb                                            8:16   0   20G  0 disk 
└─ceph--2c2a40e1--5672--4d7b--a2fa--54e87e2af0b1-osd--block--894dedaf--6740--4607--8375--1a459e57c705
                                             253:2    0   20G  0 lvm  
sr0                                           11:0    1 1024M  0 rom  

##4.6 還原快照
[root@ceph01 ceph]# rbd snap list rbd/rbd1 --user rbd
SNAPID NAME            SIZE TIMESTAMP                
     4 snap1-20210423 3 GiB Fri Apr 23 17:53:38 2021 
[root@ceph01 ceph]# rbd snap rollback rbd/rbd1@snap1-20210423 --user rbd
Rolling back to snapshot: 100% complete...done

##4.7 映射image
[root@ceph01 ceph]# rbd map rbd/rbd1 --user rbd
/dev/rbd0
[root@ceph01 ceph]# lsblk
NAME                                         MAJ:MIN RM  SIZE RO TYPE MOUNTPOINT
sda                                            8:0    0   20G  0 disk 
├─sda1                                         8:1    0    1G  0 part /boot
└─sda2                                         8:2    0   19G  0 part 
  ├─centos-root                              253:0    0   17G  0 lvm  /
  └─centos-swap                              253:1    0    2G  0 lvm  [SWAP]
sdb                                            8:16   0   20G  0 disk 
└─ceph--2c2a40e1--5672--4d7b--a2fa--54e87e2af0b1-osd--block--894dedaf--6740--4607--8375--1a459e57c705
                                             253:2    0   20G  0 lvm  
sr0                                           11:0    1 1024M  0 rom  
rbd0                                         252:0    0    3G  0 disk 
[root@ceph01 ceph]# mount /dev/rbd0 /data/ceph-disk0

# 驗(yàn)證數(shù)據(jù)恢復(fù)到快照前
[root@ceph01 ceph]# ls /data/ceph-disk0/
test01.txt  test02.txt
[root@ceph01 ceph]# cat /data/ceph-disk0/test02.txt 
This is Test 02 

4.8 刪除快照

[root@ceph01 ceph]# rbd snap list rbd/rbd1 --user rbd
SNAPID NAME            SIZE TIMESTAMP                
     4 snap1-20210423 3 GiB Fri Apr 23 17:53:38 2021 
[root@ceph01 ceph]# rbd snap rm rbd/rbd1@snap1-20210423 --user rbd
Removing snap: 100% complete...done.
[root@ceph01 ceph]# rbd snap list rbd/rbd1 --user rbd

4.9 快照次數(shù)限制

[root@ceph01 ceph]# rbd snap limit set rbd/rbd1 --limit 10 --user rbd

4.10 清除快照次數(shù)限制

[root@ceph01 ceph]# rbd snap limit clear rbd/rbd1 --user rbd

克隆

 基于快照的克隆,克隆所采用的也是 cow,叫做 copy on write 也就是常說(shuō)的 “寫時(shí)復(fù)制”,更貼切的說(shuō)法叫“寫的時(shí)候,再?gòu)?fù)制”。這里的克隆就是基于快照創(chuàng)建的克隆只創(chuàng)建了映射到源的邏輯,還沒(méi)有給克隆分配真實(shí)的物理空間。這里要理解這一點(diǎn)。雖然快照是只讀的,但是基于快照創(chuàng)建的克隆是可讀可寫的。當(dāng)我們對(duì)克隆的鏡像執(zhí)行寫操作的時(shí)候,系統(tǒng)才會(huì)真正的給克隆的鏡像分配物理空間??寺〉溺R像或者被寫過(guò)的克隆鏡像都是可以正常使用的和鏡像本身是一樣的。這就是所謂的 cow。當(dāng)對(duì)克隆的鏡像沒(méi)有寫而是讀的時(shí)候,那么讀取的是被克隆的快照,明白了上面的道理所有我們知道從快照克隆的鏡像是依賴于快照的,一旦快照被刪除則這個(gè)克隆鏡像也就毀了,所以我們要保護(hù)這個(gè)快照。

5.1 創(chuàng)建克隆

#創(chuàng)建SNAP 快照
[root@ceph01 ceph]# rbd snap create rbd/rbd1@snap1-20210423 --user rbd
# 創(chuàng)建克隆前,第一步要保護(hù)快照,以下錯(cuò)誤提示要求先執(zhí)行保護(hù)快照
[root@ceph01 ceph]# rbd clone rbd/rbd1@snap1-20210423 rbd/rbd1-snap1-20210423-clone --user rbd
2021-04-23 18:12:37.968 7f8f7081c840 -1 librbd::image::CloneRequest: parent snapshot must be protected
rbd: clone error: (22) Invalid argument

# 執(zhí)行保護(hù)快照
[root@ceph01 ceph]# rbd snap protect rbd/rbd1@snap1-20210423  --user rbd
[root@ceph01 ceph]# rbd snap list rbd/rbd1 --user rbd
SNAPID NAME            SIZE TIMESTAMP                
     6 snap1-20210423 3 GiB Fri Apr 23 18:11:57 2021
# 創(chuàng)建克隆
[root@ceph01 ceph]# rbd clone rbd/rbd1@snap1-20210423 rbd/rbd1-snap1-20210423-clone --user rbd

# 查看克隆
[root@ceph01 ceph]# rbd ls -l --user rbd
NAME                       SIZE PARENT                  FMT PROT LOCK 
rbd1                      3 GiB                           2           
rbd1@snap1-20210423       3 GiB                           2 yes       
rbd1-snap1-20210423-clone 3 GiB rbd/rbd1@snap1-20210423   2 

# 查看克隆的詳細(xì)信息
[root@ceph01 ceph]# rbd info rbd1-snap1-20210423-clone --user rbd
rbd image 'rbd1-snap1-20210423-clone':
        size 3 GiB in 768 objects
        order 22 (4 MiB objects)
        id: 12bc6b8b4567
        block_name_prefix: rbd_data.12bc6b8b4567
        format: 2
        features: layering
        op_features: 
        flags: 
        create_timestamp: Fri Apr 23 18:16:08 2021
        parent: rbd/rbd1@snap1-20210423
        overlap: 3 GiB
克隆成功的鏡像是依賴于快照的,能看到 parent 和 overlap

克隆獨(dú)立存在,不依賴于快照,就需要對(duì)克隆和快照做一個(gè)合并

# 對(duì)克隆進(jìn)行合并
[root@ceph01 ceph]# rbd flatten rbd/rbd1-snap1-20210423-clone --user rbd
Image flatten: 100% complete...done.

# 查看克隆是否獨(dú)立存在,沒(méi)有了 parent 和 overlap
[root@ceph01 ceph]# rbd info rbd/rbd1-snap1-20210423-clone --user rbd
rbd image 'rbd1-snap1-20210423-clone':
        size 3 GiB in 768 objects
        order 22 (4 MiB objects)
        id: 12bc6b8b4567
        block_name_prefix: rbd_data.12bc6b8b4567
        format: 2
        features: layering
        op_features: 
        flags: 
        create_timestamp: Fri Apr 23 18:16:08 2021

#如果快照不在時(shí)候用這里就可以直接刪除快照:(注意:刪除快照需要先解除保護(hù)模式)
[root@ceph01 ceph]# rbd info rbd/rbd1@snap1-20210423 --user rbd
rbd image 'rbd1':
        size 3 GiB in 768 objects
        order 22 (4 MiB objects)
        id: 126f6b8b4567
        block_name_prefix: rbd_data.126f6b8b4567
        format: 2
        features: layering
        op_features: 
        flags: 
        create_timestamp: Fri Apr 23 15:37:59 2021
        protected: True
# 解除對(duì)快照的保護(hù)
[root@ceph01 ceph]# rbd snap unprotect rbd/rbd1@snap1-20210423 --user rbd
[root@ceph01 ceph]# rbd info rbd/rbd1@snap1-20210423 --user rbd
rbd image 'rbd1':
        size 3 GiB in 768 objects
        order 22 (4 MiB objects)
        id: 126f6b8b4567
        block_name_prefix: rbd_data.126f6b8b4567
        format: 2
        features: layering
        op_features: 
        flags: 
        create_timestamp: Fri Apr 23 15:37:59 2021
        protected: False
#刪除快照
[root@ceph01 ceph]# rbd ls -l --user rbd
NAME                       SIZE PARENT FMT PROT LOCK 
rbd1                      3 GiB          2           
rbd1@snap1-20210423       3 GiB          2           
rbd1-snap1-20210423-clone 3 GiB          2      
     
[root@ceph01 ceph]# rbd snap rm rbd/rbd1@snap1-20210423 --user rbd
Removing snap: 100% complete...done.

[root@ceph01 ceph]# rbd ls -l --user rbd
NAME                       SIZE PARENT FMT PROT LOCK 
rbd1                      3 GiB          2           
rbd1-snap1-20210423-clone 3 GiB          2 

參考:
Blog: https://www.cnblogs.com/hukey/p/13283351.html

?著作權(quán)歸作者所有,轉(zhuǎn)載或內(nèi)容合作請(qǐng)聯(lián)系作者
【社區(qū)內(nèi)容提示】社區(qū)部分內(nèi)容疑似由AI輔助生成,瀏覽時(shí)請(qǐng)結(jié)合常識(shí)與多方信息審慎甄別。
平臺(tái)聲明:文章內(nèi)容(如有圖片或視頻亦包括在內(nèi))由作者上傳并發(fā)布,文章內(nèi)容僅代表作者本人觀點(diǎn),簡(jiǎn)書(shū)系信息發(fā)布平臺(tái),僅提供信息存儲(chǔ)服務(wù)。

相關(guān)閱讀更多精彩內(nèi)容

友情鏈接更多精彩內(nèi)容