CephFS 簡介
CephFS 是一個支持POSFIX 接口的文件系統(tǒng),它使用Ceph 存儲集群來存儲數(shù)據(jù)。文件系統(tǒng)對于客戶端來說可以方便的掛載至本地使用。CephFS 構(gòu)建在RADOS之上,繼承RADOS的容錯性和擴展性,支持榮譽副本和數(shù)據(jù)高可靠性。
MDS元數(shù)據(jù)服務(wù)器
Ceph 文件系統(tǒng)要求 Ceph 存儲集群內(nèi)至少有一個 Ceph 元數(shù)據(jù)服務(wù)器
創(chuàng)建Ceph 文件系統(tǒng)
一個 Ceph 文件系統(tǒng)需要至少兩個 RADOS 存儲池,一個用于數(shù)據(jù)、一個用于元數(shù)據(jù)。配置這些存儲池時需考慮:
1、為元數(shù)據(jù)存儲池設(shè)置較高的副本水平,因為此存儲池丟失任何數(shù)據(jù)都會導(dǎo)致整個文件系統(tǒng)失效。
2、為元數(shù)據(jù)存儲池分配低延時存儲器(像 SSD ),因為它會直接影響到客戶端的操作延時。
創(chuàng)建存儲池
默認(rèn)設(shè)置為文件系統(tǒng)創(chuàng)建兩個存儲池
#ceph osd pool create cephfs_data 128
#ceph osd pool create cephfs_metadata 128
創(chuàng)建文件系統(tǒng)
#ceph fs new cephfs cephfs_metadata cephfs_data
查看創(chuàng)建的文件系統(tǒng)
#ceph fs ls
查看MDS 服務(wù)器狀態(tài)
[root@ceph01 ceph]# ceph osd pool create cephfs_data 128
pool 'cephfs_data' created
[root@ceph01 ceph]# ceph osd pool create cephfs_metadata 128
pool 'cephfs_metadata' created
[root@ceph01 ceph]# ceph fs new cephfs cephfs_metadata cephfs_data
new fs with metadata pool 2 and data pool 1
[root@ceph01 ceph]# ceph fs ls
name: cephfs, metadata pool: cephfs_metadata, data pools: [cephfs_data ]
[root@ceph01 ceph]# ceph mds stat
e3: 1/1/1 up {0=ceph4=up:active
創(chuàng)建Ceph 用戶,用于訪問CephFS
[root@ceph01 ceph]# ceph auth get-or-create client.cephfs mon 'allow r' mds 'allow rw' osd 'allow rw pool=cephfs_data, allow rw pool=cephfs_metadata'
[client..cephfs]
key = CQCFHHxgK7eGIRAApzUf2Gr+M6bJkKwXTLS3tQ==
驗證key 是否生效
[root@ceph01 ceph]#ceph auth get client.cephfs
exported keyring for client.cephfs
[client.cephfs]
key = AQAXTwte09lkFhAA0sSPRRm5+391tYUwte2qYg==
caps mds = "allow rw"
caps mon = "allow r"
caps osd = "allow rw pool=cephfs-data, allow rw pool=cephfs-metadata"
客戶端掛載Ceph
Ceph監(jiān)視器為: 10.65.3.76
以Kernel client 形式掛載CephFS
掛載整改文件系統(tǒng)
#mkdir /data/cephfs
#mount -t ceph 10.65.3.76:6789:/ /data/cephfs -o name=cephfs,secret=CQCFHHxgK7eGIRAApzUf2Gr+M6bJkKwXTLS3tQ==
卸載掛載
#umount /data/cephfs
CephFS 用戶臺掛載
安裝ceph-fuse
#yum install ceph-fuse -y
掛載CeophFS
# scp /etc/ceph/ceph.client.admin.keyring 10.65.3.83:/etc/ceph
#mkdir /data/cephfs
# ceph-fuse -m 10.65.3.76:6789 /data/cephfs