mfs使用指引
客户端工具集
mfsgetgoal #设定副本数
mfssetgoal #获取副本数
mfscopygoal #
mfsgetsclass
mfssetsclass
mfscopysclass
mfsxchgsclass
mfslistsclass
mfsgettrashtime #设定回收站时间
mfssettrashtime #设定回收站时间
mfscopytrashtime
mfsgeteattr #设置权限
mfsseteattr #获取权限
mfsdeleattr
mfscopyeattr
mfsgetquota
mfssetquota
mfsdelquota
mfscopyquota
mfscheckfile #检查文件
mfsfileinfo #文件信息
mfsappendchunks
mfsdirinfo #目录信息
mfsfilerepair #文件修复
mfsmakesnapshot #快照
mfsfilepaths
mfschkarchive
mfssetarchive
mfsclrarchive
mfsscadmin
deprecated tools: // 递归设置
mfsrgetgoal = mfsgetgoal -r
mfsrsetgoal = mfssetgoal -r
mfsrgettrashtime = mfsgettreshtime -r
mfsrsettrashtime = mfssettreshtime -r
mfsmaster运行目录下的文件介绍
metadata.mfs.back #MFS元数据信息,延迟将内存数据写入文件,默认频率1h,默认1d同步一次此文件到metalogger server
changelog.*.mfs #文件操作日志记录,实时记录、同步到metalogger server
sessions.mfs #客户操作状态记录
stats.mfs #?
mfsmaster的权限管理(类似于nfs的exports文件)
vi /etc/mfs/mfsexports.cfg
#客户端IP 允许挂载的目录 客户端拥有的权限
192.168.1.5 / rw,alldirs,maproot=0 # /标识MFS的根(读写的方式共享,允许挂载任何指定的子目录)
192.168.0.0/24 . rw # .标识MFSMETA 文件系统
#客户端 #目录部分需要注意两点 #权限部分
#* 所有客户机 / 标识MooseFS 根 ro 只读模式共享
#f.f.f.f 单个主机 . 表示MFSMETA 文件系统 rw 读写的方式共享
#f.f.f.f/p 某个子网段 alldirs 允许挂载任何指定的子目录
#f.f.f.f-d.d.d.d 某两个ip段区间 maproot 映射为root,还是指定的用户
password 指定客户端密码
客户端挂载文件系统(使用命令:mfsmount)
mfsmount可用参数
-H #接管理服务器IP
-P #接管理服务器端口
-S #指出被挂接mfs 目录的子目录,默认是/目录,就是挂载整个mfs 目录
-m #这样可以挂载一个辅助的文件系统mfsmeta,辅助文件系统可以在如下两个方面恢复丢失的数据
设定数据副本数量
#设定数据副本数量
#在客户挂载好的目录下创建,两个用于测试的目录
mkdir /data/test{1,2}
#设置存放文件的份数
mfssetgoal 1 /data/test1 #注意:对于已经存在的文件不会改变其副本数,只对后续新写入的文件副本数生效
mfssetgoal -r 2 /data/test2 #此时所有已存在的文件及子目录副本数为2,并且新写入的文件和子目录的副本数也为2
#注意若是空文件,那么在后端chunk上是不会创建文件的,只会出现在元数据中
#注意:文件及目录所保留的真实副本数是依据数据存储服务器的数量,如果数据存储服服务器只有两台,但却为文件及目录设定了3个副本的话,最后的真实副本数为2
#复制文件到对应的目录
cp /etc/hosts /data/test1
cp /etc/hosts /data/test2
#验证1
[root@client68 ~]# mfsfileinfo /data/test1/hosts
/data/test1/hosts:
chunk 0: 0000000000000029_00000001 / (id:41 ver:1)
copy 1: 192.168.1.65:9422 (status:VALID)
[root@client68 ~]# mfsfileinfo /data/test2/hosts
/data/test2/hosts:
chunk 0: 000000000000002A_00000001 / (id:42 ver:1)
copy 1: 192.168.1.66:9422 (status:VALID)
copy 2: 192.168.1.67:9422 (status:VALID)
#验证2
[root@client68 ~]# mfsgetgoal /data/
/data/: 2
[root@client68 ~]# mfsgetgoal /data/test1
/data/test1: 1
[root@client68 ~]# mfsgetgoal /data/test2
/data/test2: 2
设定垃圾回收站,回收时间(使用命令:mfssettrashtime ,可以使用-r 参数递归)
#一个被删除文件能够存放在一个“ 垃圾箱”的时间就是一个隔离时间, 这个时间可以用 mfsgettrashtime 命令来验证,也可以使用`mfssettrashtime 命令来设置
#设置删除文件最长保留时间,单位为秒(0:表示立即彻底删除,1小时:3600;1天:86400;一周:604800;1月:2592000)
mfssettrashtime 64800 /data/test1
mfsgettrashtime /data/test1 #获取删除文件最长保留时间(验证)
快照snapshot(使用命令:mfsmakesnapshot)
快照snapshot(使用命令:mfsmakesnapshot)
#可以给任何一个文件或目录树做快照,前提是必须是在mfs体系里的
#语法:mfsmakesnapshot src dst
mfsmakesnapshot /data/test2/hosts /data/
#是在一次执行中整合了一个或是一组文件的拷贝,而且任何修改这些文件的源文件都不会影响到源文件的快照, 就是说任何对源文件的操作,例如写入源文件,将不会修改副本
a:对一个文件做snapshot后,查看两个文件的块,是同一个块。把原文件删除,原文件删除后(回收站中最初可以看到,但一段时间后,回收站中就彻底删除了),snapshot文件仍然存在,并且可以访问。使用mfsfileinfo查看,发现仍然是原来的块。
b:对一个文件做snapshot后,查看两个文件的块,是同一个块。把原文件修改后,发现原文件使用的块名变了,即使用的是一个新块。而snapshot文件仍然使用原来的块。
如何在回收站(trash)中将删除的数据恢复
如何在回收站(trash)中将删除的数据恢复
#思路:在垃圾箱有效时限内,挂载mfsmeta文件系统,定位到被删除的文件,将其移动到所在目录下的 undel 目录即可
1:确保垃圾箱的回收时间稍大一点,方便做实验
[root@client68 undel]# mfsgettrashtime /data/test1/
/data/test1/: 86400
2:创建文件,输入内容,然后保存,并删除
touch /data/test1/hello
echo "我们是共产主义接班人" >> /data/test1/hello
rm /data/test1/hello
3:先挂载mfsmeta文件系统
mount -m -H 192.168.1.61 /tmp/ceshi
4:定位文件(根据文件名)
[root@client68 ~]# find /tmp/ceshi/trash/ -name "*hello*"
/tmp/ceshi/trash/00F/0000000F|test1|hello
5:查看定位到文件内容(注意:一定要用单引号)
[root@client68 ~]# cat '/tmp/ceshi/trash/00F/0000000F|test1|hello'
test1/hello
6:恢复文件成功(移动这个文件到文件所在目录下的undel下面,将会使原始的文件恢复到正确的MFS文件系统原来的路径下)
[root@client68 ~]# cd /tmp/ceshi/trash/00F
[root@client68 00F]# ls
0000000F|test1|hello undel
[root@client68 00F]# pwd
/tmp/ceshi/trash/00F
[root@client68 00F]# mv 0000000F|test1|hello ./undel/
[root@client68 00F]# ls /data/test1/
hello
[root@client68 00F]# cat /data/test1/hello
我们是共产主义接班人
#注意:在恢复文件的时候,原来被删文件下面的目录下,不能有同名文件,不然恢复不成功
MFS元数据备份
通常元数据有两部分的数据:
#主要元数据文件metadata.mfs,当mfsmaster 运行的时候会被命名为metadata.mfs.back
元数据改变日志changelog.*.mfs,存储了过去的N 小时的文件改变(N 的数值是由BACK_LOGS参数设置的,参数的设置在mfschunkserver.cfg 配置文件中)。
#主要的元数据文件需要定期备份,备份的频率取决于取决于多少小时changelogs 储存。元数据changelogs 实时的自动复制。1.6版本中这个工作都由metalogger完成。
MFSMaster的恢复
#需要最后一个元数据日志changelog 并入主要的metadata 中。这个操作时通过 mfsmetarestore 工具做的
#先修复(几次测试发现:如果mfsmetarestore -a无法修复,则使用metalogger也无法修复)
mfsmetarestore -a
#如果master 数据被存储在MooseFS 编译指定地点外的路径,则要利用-d 参数指定使用,如:
mfsmetarestore -a -d /opt/mfsmaster
#再启动(才能成功)
#强制使用metadata.mfs.back创建metadata.mfs,可以启动master,但应该会丢失1小时的数据。
#明确表示会丢失故障点到上一个整点之间的数据。和之前我猜测的一致。因为对mfs的操作日志都记录到changelog.0.mfs里面。changelog.0.mfs每小时合并一次到metadata.mfs中,如果突然断电,则changelog.0.mfs里面的信息就没有合并到metadata中,强制使用metadata.mfs.back创建metadata.mfs,就会导致丢失changelog.0.mfs里的数据。
从MetaLogger中恢复Master
#在MetaLogger上,使用mfsmetarestore -a 命令,合并changelogs,然后将其角色提升为mfsmaster.
#强制使用metadata.mfs.back创建metadata.mfs,可以启动master,但丢失的数据暂无法确定