1. Pool 생성
```shell
$ ceph osd pool create {{ DATA_POOL_NAME }}
$ ceph osd pool create {{ METADATA_POOL_NAME }}
```
\#CephFS는 데이터용과 메타데이터용 각각 2개이상의 RADOS풀 필요
2. 생성된 Pool을 애플리케이션에 연결 (cephfs로 연결) ```shell
$ ceph osd pool application enable {{ DATA_POOL_NAME }} cephfs
```
3. 파일시스템 생성 ```shell
$ ceph fs new {{ FS_NAME }} {{ METADATA_POOL_NAME }} {{DATANAME }}
```
4. NFS export
```shell
$ ceph mgr module enable nfs
```
\# 2. nfs ganesha 클러스터 생성
```shell
$ ceph nfs cluster create {{ clusterid }}
```
```shell
$ ceph nfs export create cephfs {{ NAME }} {{ clusterid }
```
*reference*
- ef) gluster volume create data replica 3 192.168.150.18:/data 192.168.150.19:/data 192.168.150.16:/data
\\/data or a prefix of it is already part of a volume
- 이 경우, 등록한 노드 폴더에 들어가면, .glusterfs라는 폴더가 존재한다. ```shell
root@localhost data]# ls -al
합계 44
drwxr-xr-x 4 root root 4096 12월 6 16:00 .
drwxr-xr-x 24 root root 4096 12월 6 16:01 ..
drw------- 7 root root 4096 12월 6 15:17 .glusterfs
drwx------ 2 root root 16384 12월 5 13:48 lost+found
```
해결책은 해당 폴더 권한 수정 후 폴더 삭제하면 된다.
```shell
setfattr -x trusted.glusterfs.volume-id /data/
setfattr -x trusted.gfid /data/
rm -rf .glusterfs
```
13. 생성할 볼륨 활성화 ```shell
gluster> volume start data
```
14. 생성한 볼륨 접근 허가 대역 지정 ```shell
gluster volume set