mdadm简介
mdadm是一个用于创建、管理、监控RAID设备的工具,它使用linux中的md驱动。mdadm程序是一个独立的程序,能完成所有软件RAID的管理功能,主要有7中使用模式。
模式名字 | 主要功能 | (对于存储管理系统) |
---|---|---|
Create | 使用空闲的设备创建一个新的阵列,每个设备具有元数据块 | 创建RAID时使用的命令 |
Assemble | 将原来属于一个阵列的每个块设备组装为阵列 | 在存储管理系统一般不使用该模式 |
Build | 创建或组装不需要元数据的阵列,每个设备没有元数据块 | 在存储管理系统一般不使用该模式 |
Manage | 管理已经存储阵列中的设备,比如增加热备磁盘或者设置某个磁盘失效,然后从阵列中删除这个磁盘 | 用于增加热备盘 |
Misc | 报告或者修改阵列中相关设备的信息,比如查询阵列或者设备的状态信息 | 用于查询RAID信息 |
Grow | 改变阵列中每个设备被使用的容量或阵列中的设备的数目,改变阵列属性(不能改变阵列的级别) | 在存储管理系统一般不使用该模式 |
Monitor | 监控一个或多个阵列,上报指定的事件,可以实现全局热备 | 监控RAID,写入日志 |
mdadm相关概念介绍:
/proc/mdstat
: 当前md(软RAID)的状态信息/etc/mdadm/mdadm.conf
: mdadm的配置文件Active devices
: RAID中的活动组件设备Faulty device
: RAID中失效的设备Spare device
: RAID中热备盘Device Names
: RAID设备名、标准格式是”/dev/mdNN”或者”/dev/md/NN”md
: Multiple Devices虚拟块设备(利用底层多个块设备虚拟出一个新的虚拟块设备)。md driver
: MD的驱动Array
: 阵列,跟RAID意思相同Raid
:不解释md device
: 就是使用MD创建的软件RAIDmd array
: 同上md设备
:同上
mdadm各模式选项详细介绍:
命令格式: mdadm [模式选项] [RAID设备名] [子选项…] [组件设备名…]
无特定模式:
--verbose
:显示更详细的信息,用于 –detail –scan 或者 –examine –scan--force
:某些选项强制执行--config=
:指定配置文件,默认是”/etc/mdadm.conf”或者是”/etc/mdadm/mdadm.conf”,假如配置文件名是 “partitions”,则mdadm会读取/proc/partitions的设备用于scan。假如配置文件名是”none”,则mdadm会认为配置文件是空的。--scan
:从配置文件或者/proc/mdstat中扫描信息。--metadata=
:定义组件设备上超级块的类型。对于–create,默认是0.90。0,0.90 : 限制一个RAID中的设备数为28个,限制组件设备大小为2TB。1,1.0,1.1,1.2 :不同的子版本号标识在不同的地方存储超级块。1.0在设备的结尾,1.1在设备的开头,1.2在设备的4K处。--homehost=
:在创建一个RAID时,homehost名会记录在超级块中。在1.X超级块中,它是RAID名字的前缀。0.90超级块中,homehost名的的SHA1值会保存在UUID的后半部分。当使用Auto-Assemble时,只有相同homehost名的RAID才会被组建。
--create
/--build
/--grow
模式:
--raid-devices=
:指定一个RAID中active devices的数目。--spare-devices=
:指定创建一个RAID时spare devices中的数目。--size=
:在RAID1/4/5/6中每个设备所能利用的数据容量。这个值必须是 chunk size的整数倍。而且必须留128K的设备空间用于RAID超级块。假如没有指定,则默认使用最小设备空间。该选项能用–grow 进行扩容。--chunk=
:条带大小--rounding=
:在linear array中的rounding factor,等于条带大小。--level=
:设置RAID级别,RAID级别有(有些是同义词,比如raid5和5):Linear,raid0,0,stripe,raid1,1,mirror,raid4,4,raid5,5,raid6,6,raid10,10,multipath,mp,faulty。--build
只支持linear,stripe,raid0,0,raid1,multipath,mp,faulty。--grow
不支持改变RAID级别。--layout=(--parity=)
:设置RAID5、RAID10数据布局类型,控制faulty级别的failure的模式。--bitmap=
:这个选项对性能可能有影响,具体查看《mdadm手册翻译》设置一个文件用于保存write-intent位图。当文件名是”internal”时,位图复制保存在RAID组件设备(一个RAID的所有组件设备)的超级块中。当--grow
,文件名是”none”时,位图会被移除。--bitmap-chunk=
:这个选项对性能可能有影响,具体查看《mdadm手册翻译》设置位图中每位所映射块的大小。当使用internal
位图时,映射块的大小是自动设置的(根据超级块中可用空间)。--write-mostly
:--build
、--create
、--add
后的设备都被标记上wirte-mostly
。这个选项只对RAID1有效,即md driver
会避免从RAID1的所有设备读取数据。假如镜像的速度很慢,这是非常有用的。--write-behind=
:该选项只对RAID1有效。这个选项会设置最大的写队列深度,默认值是256。使用write-behind的前提是先设置write-intent bitmap,先设置设备为write-mostly。--assume-clean
:告诉mdadm这个array已经clean。当array从一个严重的故障中恢复时,这个选项会保证没有数据会被覆盖。当创建RAID1和RAID10时,这个选项也能避免初始化同步。但是使用该选项必须要很谨慎。--backup-file=
:当使–grow
为RAID5增加组件设备数时,该文件保存关键数据。(该文件不能在该RAID5上,以免发生死锁。)--name
:给一个RAID设置名字,只在1.X超级块中有用,它是简单的字符串,用于assembling时识别RAID组件设备。--run
:强制激活RAID。(当一个RAID中的某些组件设备被其他RAID或者文件系统占用时)。使用这个选项,设备上有旧的元数据信息的提示会被忽略。--force
:mdadm无条件接受指定的参数。使用该选项可以只使用一个设备创建RAID;
创建RAID5时使用该选项,使得RAID5初始化不使用recovery模式,而是校验同步所有组件设备上的数据(比recovery模式要慢)。详情请见命令举例中的创建RAID--auto=
:创建md设备文件。选项是{no,yes,md,mdp,part,p}{NN}。默认是yes。yes
要求RAID设备名是标准格式的,然后设备文件类型和minor号会自动确定。比如RAID设备名是/dev/mdx
查看/proc/partitions可以看到mdx的major号是9,minor号是x。当使用md
时,RAID设备名可以是非标准格式,比如/dev/md/zhu
,然后创建两个设备文件/dev/md/zhu
还有/dev/mdx
,并给这两个设备文件分配相同的major号和minor号(也就是这两个设备文件指向同一个设备)。分配minor号的方法是:分配一 个没有使用过的minor号,这个minor号就是/dev/mdx
中的数字x。查看/proc/partitions
和/proc/mdstat
,RAID设备名还是/dev/mdx
。当使用mdp,p,part
时,RAID设备名可以是非标准格式,比如/dev/md/zhu
,除了创建设备文件/dev/md/zhu
还有/dev/mdx
外,还会创建/dev/md/zhup1
,/dev/md/zhup2
,/dev/md/zhup3
,/dev/md/zhup4
,这些是分区设备文件。--symlink=no
:默认下--auto
会创建/dev/md/zhu
的软连接/dev/md_zhu
。假如使用该选项,则不会创建软连接。
--assemble
模式:
--uuid=
:重组RAID,要求组件设备的uuid相同--super-minor=
:minor号会保存在每个组件设备中的超级块中,可以根据这个重组RAID。--name=
:根据RAID名重组RAID。--force
:即使一些超级块上的信息过时了,也可以强制重组。--run
:即使RAID中的组件设备不完整(例如原来创建的4盘RAID5,现在只发现3块成员盘),RAID也被重组,并启动。(假如不用–run
,RAID只被重组,但是不启动)--no-degraded
:和–scan选项一起使用。禁止RAID中的组件设备不完整时启动RAID,知道RAID中的组件完整。--auto
:如--create
中的--auto
--bitmap
:指定bitmap文件(当RAID创建时所指定的bitmap文件),假如RAID使用internal类型的bitmap,则不需指定。--update
:更新RAID中每个组件设备的超级块信息。选项有sparc2.2、summaries、uuid、name、homehost、resync、byteorder、super-minor--auto-update-homehost
:只对auto assembly情况下有用。
Manage
模式:
--add
:给RAID在线添加设备(可用于添加热备盘)--re-add
:给RAID重新添加一个以前被移除的设备。假如一个RAID使用write-intent bitmap时,它的一个设备被移除后又被重新添加,bitmap可以避免完全重建,而是只更新那些设备被移除后已经被更新过的块数据。--remove
:移除设备,只能移除failed(失效)和spare(热备)设备。(因此假如要移除RAID5中的一个活动设备,需要先使用--fail
选项使该设备的状态变成failed,然后才能移除。)该选项后面跟的是设备名(比如是/dev/sdc
),也可以是failed和detached关键字。Failed使得所以失效的部件被移除,detached使得所以被拔出的硬盘被移除。--fail
:使RAID中某个设备变成failed状态。该选项后面跟的是设备名(比如是 /dev/sdc),也可以是detached关键字。
Misc
模式:
--query
:查询一个RAID或者一个RAID组件设备的信息--detail
:查询一个RAID的详细信息--examine
:查询组件设备上的超级快信息--sparc2.2
:用于修正超级块信息,详情请见用户手册。--examnie-bitmap
:查看bitmap文件中的信息--run
:启动不完整的RAID(比如本来是有4块盘的RAID5,现在3块盘也可以启动)。--stop
:禁止RAID活动,释放所有资源。但是RAID中组件设备上的超级块信息还在。还可以重新组建和激活RAID。--readonly
:使RAID只读--readwrite
:使RAID可读写--zero-superblock
:假如一个组件设备包含有效的超级块信息,那么这个超级块会被写0覆盖。假如使–force选项,则不管超级块中是否有信息,都会被写0覆盖。--test
:
假如–detail一起使用,则mdadm的返回值是RAID的状态值。- 0 代表正常
- 1 代表降级,即至少有一块成员盘失效
- 2 代表有多快成员盘失效,整个RAID也失效了(对于RAID1/5/6/10都适用)。
- 4 读取raid信息失败
--monitor(--follow)
模式:
--mail
:设置警报邮件--program
:当监测到一个事件发生时,关于该事件的信息会作为参数被发给该程序--syslog
:所有事件都会通过syslog报告--delay
:Mdadm会隔多少秒轮询各个RAID,默认是60秒--daemonise
:Mdadm会创建一个子进行作为后台监控程序。该子进程的PID号会输入到stdout上。--pid-file
:当–daemonise一起使用时,子进程的PID号会写入该文件中--oneshot
:只会检测RAID一次。它会检测NewArray、DegradedArray、SparesMissing事件。在cron脚本中运行”mdadm –monitor –scan –oneshot”会定期报告。--test
:对每个RAID产生TestMessage,用于测试mail、program是否正确。
各种模式的使用
Assemble
模式
mdadm –assemble /dev/md0 /dev/sda1 /dev/sdb1
## 把sda1和sdb1重组成/dev/md0。
mdadm –assemble –scan /dev/md0
## 从配置文件读出设备列表,根据超级块中的信息,重组/dev/md0。
mdadm –assemble –scan –uuid=xxxxxxx
## 从配置文件读出设备列表,根据超级块中的uuid信息,重组uuid是xxxxxxx的RAID。
假如mdadm –assemble –scan
命令后面没有设备列表,mdadm会读取配置文件中所列的RAID信息,并尝试重组。假如系统中没有/etc/mdadm/mdadm.conf
配置文件, 则会从/proc/partitions
中读取设备列表。因此使用mdadm时,必须保证mdadm中的状态信息/proc/mdstat
和/etc/mdadm/mdadm.conf
配置文件一致,否则重启操作系统后,会出现问题。
Create
模式
mdadm –create /dev/md0 –chunk=64 –level=0 –raid-devices=2 /dev/sda1 /dev/sdb1
## 使用sda1和sdb1创建RAID0,条带大小是64KB。
mdadm –create /dev/md1 –chunk=64 –level=1 –raid-devices=1 /dev/sdc1 missing
## 创建一个降级的RAID1,同样可以使用missing创建降级的RAID4/5/6。
Misc
模式
mdadm –detail –test /dev/md0
## 这条命令的返回值:0代表md0正常;1代表md0至少有一个failed的组件设备;2代表md0有多个failed组件设备,这个md0已经不能使用,即失效(md0是raid1、raid5、raid6、raid10时);4代表获取md0设备信息错误。
Monitor
模式
只监控raid1/5/6/10,不监控raid0
mdadm –monitor options… devices..
## mdadm除了报告事件以外,mdadm还可以把一个RAID中的热备盘移动到另一个没有热备盘的RAID中,前提条件是这些RAID都属于同一个spare-group(RAID的spare-group可以在配置文件里设置)。当命令中有设备列表时,mdadm只会监控这些设备。当没有设备列表时,配置文件中的所有RAID都会被监控。当使用–scan选项时,/proc/mdstat中的设备也会被监控。传给program的三个参数是事件名、涉及到的md device名、涉及到的其他设备(比如组件设备失效)。
##- 监控的事件有
## DeviceDisappeared 当RAID0和linear中某个设备失效时,就会出现RAID消失。
## RebuildStarted 重建RAID
## RebuildNN 重建百分比,NN代表20,40,60,80
## RebuildFinished 重建结束
## Fail RAID中某个活动组件设备失效
## FailSpare RAID中某个热备盘失效
## SpareActive RAID中热备盘启用,用于重建RAID
## NewArray 在/proc/mdstat中监控到有新的RAID被创建
## DegradedArray RAID降级
## MoveSpare 热备盘从一个RAID中移动到另外一个RAID中,前提是这两个RAID属于同个spare-group
## SparesMissing 发现RAID中的热备盘数比配置文件中的少
## TestMessage 测试
## 只有Fail、FailSpare、DegradedArray、SparesMissing、TestMessage事件才会触发发送Email。
Grow
模式
能改变RAID1、5、6中的size属性。能改变RAID1、5中的”raid-disks”属性。增加移除RAID中的write-intent bitmap。
命令举例
创建配置文件
#echo ‘DEVICE /dev/hd*[0-9] /dev/sd*[0-9]‘ > mdadm.conf #mdadm –detail –scan >> mdadm.conf
创建配置文件的原型。
创建RAID
#mdadm –create /dev/md0 –chunk=64 –level=1 –raid-devices=2 /dev/sda1 /dev/sb1
创建md0,RAID级别是RAID1,条带大小事64KB,成员盘是sda1、sdb1
给RAID增加热备盘
#mdadm /dev/md0 -add /dev/sdc1
给md0增加热备盘sdc1。
查看RAID信息和组件设备信息
#cat /proc/mdstat
查看当前所有RAID的状态
#mdadm –detail /dev/md0
查看md0的详细信息
#mdadm –examine /dev/sda1
查看组件设备sda1中超级块的信息和状态
删除RAID
#mdadm –stop /dev/md0 停止md0的运行 #mdadm — zero-superblock /dev/sda1 清除组件设备sda1中超级块的信息
配置文件详解
格式简要说明
格式说明:SYNTAX xxx xxx xxx xxx xxx
注释说明:#This is a comment.
多行说明:假如任意一行中开头是以空白开头的(space/tab),这行被看做是上一行的延续。
空行说明:空行被忽略。
关键字说明
DEVICE
该关键字后面跟的是设备列表(设备和分区),这些设备可能是某个md设备的组件。当要查找某个RAID的组件设备时,mdadm会扫描这些设备。
DEVICE /dev/hda* /dev/hdc*
DEVICE /dev/hd*[0-9] /dev/sd*[0-9]
DEV /dev/sd*
DEVICE /dev/discs/disc*/disc
DEVICE partitions
mdadm会读取/proc/partitions中的设备。假如在配置文件中没有DEVICE关键字,则假定”DEVICE partitions”,也就是默认会读取/proc/partitions中的设备。
ARRAY
关键字ARRAY标识一个活动的RAID,ARRAY后面跟着的是RAID的名字。 RAID名字后面跟着的是RAID的属性值,这些属性值标识一个RAID,或者标识一个组的成员RAID(spare-group)。假如给出了多个属性 值,则每个组件设备中的超级块信息必须匹配属性值。
属性值如下:
uuid= | 128bit的值,用16进制表示。 |
name= | 当创建RAID时使用–name指定的名字(跟RAID设备名概念不一样)。不是所有的超级块版本都支持--name 。 |
super-minor= | 当一个RAID,该RAID的设备名是/dev/mdX,minor号码就是X。 |
devices= | 该属性值后面跟着设备名或者设备名模式(它们用逗号隔开)。注意:这些设备名必须包含在DEVICE中。 |
level= | RAID的级别 |
num-devices= | 一个完整的RAID中活动设备数。 |
spares= | RAID中所设定的热备盘数目。 |
spare-group= | RAID组名,所有具有相同spare-group名的RAID会共享热备盘(前提是使用 mdadm –monitor监控RAID)。mdadm会自动把一个RAID中的热备盘移动到另一个RAID(这个RAID有faild盘或者missing盘,而 且没有热备盘)中。 |
auto= | -- |
bitmap= | 指定write-intent bitmap文件。功能跟”–assemble –bitmap-file”一样。 |
metadata= | 指定超级块版本。 |
MAILADDR
使用monitor模式(同时也使–scan选项)时,警报事件发送到的Email地址。
MAILFROM
邮件地址。
PROGRAM
“mdadm –monitor”监测到的事件都会发送给这个程序。只能有一个程序。
CREATE
该行中是创建RAID时使用的默认值。
owner= | 代替系统默认的USER ID(root) |
group= | 代替系统默认的GROUP ID(disk) |
mode= | 权限 |
auto= | -- |
metadata= | 超级块的版本 |
symlinks=no | 不用软连接 |
配置文件例子
DEVICE /dev/sd[bcdjkl]1
DEVICE /dev/hda1 /dev/hdb1
# /dev/md0 is known by it’s UID.
ARRAY /dev/md0 UUID=3aaa0122:29827cfa:5331ad66:ca767371
# /dev/md1 contains all devices with a minor number of
# 1 in the superblock.
ARRAY /dev/md1 superminor=1
# /dev/md2 is made from precisey these two devices
ARRAY /dev/md2 devices=/dev/hda1,/dev/hdb1
# /dev/md4 and /dev/md5 are a spare-group and spares
# can be moved between them
ARRAY /dev/md4 uuid=b23f3c6d:aec43a9f:fd65db85:369432df
spare-group=group1
ARRAY /dev/md5 uuid=19464854:03f71b1b:e0df2edd:246cc977
spare-group=group1
# /dev/md/home is created if need to be a partitionable md array
# any spare device number is allocated.
ARRAY /dev/md/home UUID=9187a482:5dde19d9:eea3cc4a:d646ab8b
auto=part
MAILADDR root@mydomain.tld
PROGRAM /usr/sbin/handle-mdadm-events
CREATE group=system mode=0640 auto=part-8
HOMEHOST <system>
注意事项
当系统中不存在配置文件/etc/mdadm.conf、/etc/mdadm /mdadm.conf时,系统启动时,md驱动会自动查找分区为FD格式的磁盘。所以一般会使用fdisk工具将hd磁盘和sd磁盘分区,再设置为FD 的磁盘分区。因此假如直接使用/dev/sda、/dev/sdb创建RAID,系统重启后,不会重组该RAID。