linux配置raid
1. linux软raid 只能针对分区进行配置吗
body{ line-height:200%; } RAID,独立磁盘冗余阵列,用于将多个廉价的小型磁盘驱动器合并成一个磁盘阵列,以提高存储性能和容错功能。RAID可分为软RAID和硬RAID,软RAID是通过软件实现多块硬盘冗余的。而硬 RAID一般是通过RAID卡来实现RAID的。前者配置简单,管理也比较灵活,对于中小企业来说不失为一种最佳选择。硬RAID在性能方面具有一定优势,但往往花费比较贵。 Red Hat Enterprise Linux 4.0 提供了对软RAID技术的支持。在Linux系统中建立软RAID可以使用mdadm工具建立和管理RAID设备。今天小编为大家分享软Raid的配置方法,当然如果您对硬raid比较感兴趣,点击右侧QQ,将会有专业的技术人员为您服务。免费的噢! 1.RAID设备的创建与挂载 下面以四块硬盘/dev/sdb、 /dev/sdc、 /dev/sdd、 /dev/sde 为例来讲解 RAID5 的创建方法。 (1)使用fdisk命令创建四个磁盘分区/dev/sdb1、/dev/sdc1、/dev/sdd1、/dev/sde1。并设置分区类型 id 为 fd(Linux raid autodetect) 。分区结果如下所示: [root@RHEL4 ~]# fdisk -l Disk /dev/sdb: 536 MB, 536870912 bytes 64 heads, 32 sectors/track, 512 cylinders Units = cylinders of 2048 * 512 = 1048576 bytes Device Boot Start End Blocks Id System /dev/sdb1 1 512 524272 fd Linux raid autodetect Disk /dev/sdc: 536 MB, 536870912 bytes 64 heads, 32 sectors/track, 512 cylinders Units = cylinders of 2048 * 512 = 1048576 bytes Device Boot Start End Blocks Id System /dev/sdc1 1 512 524272 fd Linux raid autodetect Disk /dev/sdd: 536 MB, 536870912 bytes 64 heads, 32 sectors/track, 512 cylinders Units = cylinders of 2048 * 512 = 1048576 bytes Device Boot Start End Blocks Id System /dev/sdd1 1 512 524272 fd Linux raid autodetect Disk /dev/sde: 536 MB, 536870912 bytes 64 heads, 32 sectors/track, 512 cylinders Units = cylinders of 2048 * 512 = 1048576 bytes Device Boot Start End Blocks Id System /dev/sde1 1 512 524272 fd Linux raid autodetect (2)使用mdadm命令创建 RAID5。RAID设备名称为/dev/mdX。其中X为设备编号,该编号从0开始。 [root@RHEL4 ~]# mdadm --create /dev/md0 --level=5 --raid-devices=3 --spare-devices=1 /dev/sd[b-e]1 mdadm: array /dev/md0 started. 上述命令中指定RAID设备名为/dev/md0,级别为5,使用3个设备建立RAID,空余一个留做备用。 (3)为新建立的/dev/md0 建立类型为 ext3 的文件系统。 [root@RHEL4 ~]mkfs –t ext3 -c /dev/md0 (4)查看建立的 RAID5 的具体情况。 [root@RHEL4 ~]mdadm –detail /dev/md0 /dev/md0: Version : 00.90.01 Creation Time : Mon Oct 1 16:23:43 2007 Raid Level : raid5 Array Size : 1048320 (1023.75 MiB 1073.48 MB) Device Size : 524160 (511.88 MiB 536.74 MB) Raid Devices : 3 Total Devices : 4 Preferred Minor : 0 Persistence : Superblock is persistent Update Time : Mon Oct 1 16:25:26 2007 State : clean Active Devices : 3 Working Devices : 4 Failed Devices : 0 Spare Devices : 1 Layout : left-symmetric Chunk Size : 64K Number Major Minor RaidDevice State 0 8 17 0 active sync /dev/sdb1 1 8 33 1 active sync /dev/sdc1 2 8 49 2 active sync /dev/sdd1 3 8 65 -1 spare /dev/sde1 UUID : 89b765ed:48c01ab9:e4cffb5b:ce142051 Events : 0.10 (5)将RAID设备/dev/md0 挂载到指定的目录/media/md0 中,并显示该设备中的内容。 [root@RHEL4 ~]# mount /dev/md0 /media/md0 ; ls /media/md0 lost+found 2.RAID设备的数据恢复 如果RAID设备中的某个硬盘损坏,系统会自动停止这块硬盘的工作,让后备的那块硬盘代替损坏的硬盘继续工作。例如,假设/dev/sdc1 损坏。更换损坏的RAID设备中成员的方法如下: (1)将损坏的RAID成员标记为失效。 [root@RHEL4 ~]#mdadm /dev/md0 --fail /dev/sdc1 (2)移除失效的RAID成员。 [root@RHEL4 ~]#mdadm /dev/md0 --remove /dev/sdc1 (3)更换硬盘设备,添加一个新的RAID成员。 [root@RHEL4 ~]#mdadm /dev/md0 --add /dev/sde1 说明:mdadm 命令参数中凡是以“--”引出的参数选项,与“-”加单词首字母的方式等价。例如“--remove”等价于“-r” , “--add”等价于“-a” 。 当不再使用 RAID 设备时,可以使用命令“mdadm –S /dev/mdX”的方式停止 RAID 设备。
2. linux下如何做硬件RAID
一般LENOVO服务器是CTRL+M进RAID控制器里做RAID
之后就可以安装系统redhat 4 update 4以后的raid 驱动都很全,按正常安装就可以,不用自己再加载
下面来讲讲如何用优盘来挂载驱动的方法,此方法要在Linux下执行操作:
1.下载官网上的最新驱动。
2.例如解压压缩驱动包cpq_cciss-2.6.10-13.rhel4.i686.dd.gzgzip –d cpq_cciss-2.6.10-13.rhel4.i686.dd.gz
3.这个方法优盘驱动必须在Linux下制作,注意设备名/dev/sdx中的x是变量,具体就是优盘的设备名,千万别搞错了,这个操作会清空整个设备的数据的。#Cat xxxxxxxxxxxxxxxxxx.img /dev/sdx
或者
#dd if= xxxxxxxxxxxxxxxxxxx.i686.dd of=/dev/sdx
4.下面的方法就和软盘版一样了,在光盘启动到boot的时候,输入下面的命令来加载驱动。linux dd
5.提示是否提供驱动磁盘
6.选择驱动磁盘的来源:如果为软驱则为 fd0, 如果usb 软驱或者 U 盘则为 sd 开头的,反正看具体的情况。提示插入驱动磁盘,此时按OK。
7.正在加载驱动,如果为 U 盘,则可能看不到此页面,因为速度很快就跳过了。
8.如果驱动不正确则提示如下:引用Failure to mount drive disk
如果驱动正确则提示加载 usb-storage ,此时驱动已经完全加载。完成一次加载后提示是否再加载其他存储驱动,如果已经加载完则选择NO。
3. Linux可以做raid吗
可以。
步骤:
1,在虚拟机系统中添加一块10g的硬盘为sdb,将硬盘分5个逻辑盘分别是sdb{5,6,7,8,9},每个盘的大小是1G。
2,首先利用其中三块硬盘sdb{5,6,7}建立raid5,sdb8为热备盘。
3,然后将sdb6作为故障盘下线,之后拔出sdb6,插入新的盘sdb9。
4,命令如下:mdadm -C /dev/md0 -l5 -n3 -x1 /dev/sdb{5,6,7,8},通过上面命令建立了使用空间为2G的raid5。盘符为/dev/md0
4. 如何在Linux系统下配置RAID1
raid 分为硬raid 和软raid 。raid1 是一个镜像卷,提供数据冗余的一个作用。
硬raid需要硬件磁盘阵列卡来进行设置,这个主要是硬件的支持,设置是在bios里面进行的。
软raid是在linux系统上面做的raid。可以在虚拟环境上演示下,添加2块硬盘,重启让系统识别到新的硬盘,然后执行命令“[root@linuxprobe ~]#mdadm -Cv /dev/md0 -a yes -n 4 -l 1 /dev/sdb /dev/sdc ”进行创建。然后格式化,---挂载软raid的更多设置建议参考www.linuxprobe.com/chapter-07.html
查看/dev/md0设备信息,参数-D查看RAID阵列的详细信息:mdadm -D /dev/md0
对于raid而言,他是在linux系统之上的raid,不能进行系统的引导。
5. 什么是raid,如何在linux系统中实现
应用场景
Raid大家都知道是冗余磁盘的意思(Rendant Arrays of Independent Disks,RAID),可以按业务系统的需要提供高可用性和冗余性,目前市面上比较常见的是通过服务器的raid阵列卡来实现此功能。
通过硬件阵列卡实现raid具有可靠性高,性能好等特点,但是对于一般的企业而言硬件阵列卡固然好,如果大规模应用的话动辄几千上万的费用也不是他们所能承受的,难道就没有既能保证数据安全,又能减少费用支持的IT方案吗?当然有,软raid就可以实现这一需求。
实现步骤
软raid比较依赖操作系统,所以他的劣势也显而易见,需要占用系统资源(主要是CPU资源)。目前在Linux和windows下软raid都比较常见了,Linux是通过mdadm实现的,windows下则在win2003之后通过磁盘管理来实现。
实验环境
一台centos 7.2 VM,主机名分别为host1,host1上挂载两块50G的数据盘,我们的实验就在这两块数据盘上完成。
P.S:需要强调的是生产环境下两块组raid的硬盘必须是同品牌同型号同容量的,否则极容易出现软raid失效的情况。
1.确认操作系统是否安装了mdadm软件
[root@host1 ~]# rpm -qa |grep mdadm
mdadm-3.3.2-7.el7.x86_64
2.对两块数据盘进行分区,并设置分区类型为raid
4.创建md0的配置文件
echoDEVICE/dev/sd{a,b}1>>/etc/mdadm.conf
mdadm-Evs>>/etc/mdadm.conf
mdadm运行时会自动检查/etc/mdadm.conf 文件并尝试自动装配,因此第一次配置raid后可以将信息导入到/etc/mdadm.conf 中。
5.使用/dev/md0
在/dev/md0上创建文件,然后挂载进行使用。
mkfs.ext4/dev/md0
6. 如何在linux下做软raid
在虚拟机系统中添加一块10g的硬盘为sdb,将硬盘分5个逻辑盘分别是sdb{5,6,7,8,9},每个盘的大小是1G。
首先利用其中三块硬盘sdb{5,6,7}建立raid5,sdb8为热备盘。
然后将sdb6作为故障盘下线,之后拔出sdb6,插入新的盘sdb9。
命令如下:mdadm
-C
/dev/md0
-l5
-n3
-x1
/dev/sdb{5,6,7,8}
通过上面命令建立了使用空间为2G的raid5。盘符为/dev/md0
查看建立结果的方法有两种:
1.
mdadm
--detail
/dev/md0
2.
cat
/proc/mdstart
常用的raid的等级有0,1,5,6,10定义等级只需修改-l()的值即可
做故障测试的命令:mdadm
--manage
/dev/md0
-f
/dev/sdb6
-r
/dev/sdb6
-a
/dev/sdb9
其中-f==--fail
-r==--remove
-a=--add。
通过挂载和编辑开机启动fstab文件即可实现长挂载,但是如果删除建立的raid则需要卸载后用到
命令:mdadm
-S
/dev/md0
将raid停掉之后,再删除各个磁盘。其中-S=--stop
7. 如何在Linux上设置RAID 10
硬件RAID分板载的和独立RAID卡的,如果是板载集成的,需要在BIOS里设置开启RAID选项,默认设置应该就是开启的。
2.如果是独立的RAID卡,需要在BIOS里设置关闭板载RAID选项。然后开机的时候有提示进入RAID卡,进入里面设置,一般都是RAID 1,做好RAID以后,就可以安装系统了。
3.安装linux的时候,需要加载RAID驱动,一般是把RAID驱动放在软驱里,在安装linux,加载第三方驱动时进行选择,如果linux安装程序发现了硬盘,那说明RAID没有问题,然后就是和正常安装一样了。
8. 如何在linux下做软raid实现方法
磁盘阵列软RAID实例.
前言:raid0, 容量倍增,加速。 raid1, 安全镜像备份。 raid5, 奇偶数据校验保证安全,磁盘利用率(n-1)。
****************************************
1. 准备硬盘分区。
****************************************
raid5 至少需要3快硬盘,我手上只有一块闲置硬盘,就拿它练手。
在一块硬盘上实现raid 是没有意义的,这里仅是为了实验,知道其过程。
分区如下:
主分区 /sdb1, 扩展分区/sdb10 随便干别的事情。
扩展分区/sdb{5..9} 做raid5
----------------------------------------
[root@hjj ~]# fdisk -l /dev/sdb
----------------------------------------
Disk /dev/sdb: 160.0 GB, 160041885696 bytes
255 heads, 63 sectors/track, 19457 cylinders
Units = cylinders of 16065 * 512 = 8225280 bytes
Sector size (logical/physical): 512 bytes / 512 bytes
I/O size (minimum/optimal): 512 bytes / 512 bytes
Disk identifier: 0x86ea33f5
Device Boot Start End Blocks Id System
/dev/sdb1 1 3241 26033301 83 Linux
/dev/sdb2 3242 19457 130255020 5 Extended
/dev/sdb5 3242 6482 26033301 fd Linux raid autodetect
/dev/sdb6 6483 9723 26033301 fd Linux raid autodetect
/dev/sdb7 9724 12964 26033301 fd Linux raid autodetect
/dev/sdb8 12965 16205 26033301 fd Linux raid autodetect
/dev/sdb9 16206 19446 26033301 fd Linux raid autodetect
/dev/sdb10 19447 19457 88326 83 Linux
----------------------------------------
[root@hjj ~]# partprobe /dev/sdb
----------------------------------------
重新检测分区要通过, 可能需要重启系统。
****************************************
2. 创建raid5 设备/dev/md0
****************************************
raid 设备文件名,习惯上用md0, md1....等命名
注意: 创建需要内核支持, 选中相应的raid 选项,重编译内核,否则该命令不能通过,错误为invalid parameter
2.1 创建
--------------------------------------------------------------------------------
[root@hjj ~]# mdadm -C /dev/md0 -a yes -l 5 -n 4 -x 1 /dev/sdb{5..9}
--------------------------------------------------------------------------------
mdadm: Defaulting to version 1.2 metadata
解释一下:
-C ---> create
-a ---> autodetected
-l ---> level raid5
-n ---> raid devices 4 (使用)
-x ---> spare devices 1(备用)
给一个参考多硬盘命令
[root@hjj ~]# mdadm -C /dev/md0 -a yes -l 5 -n 3 /dev/sd[bcd]1
2.2: 设备名称查询
[root@hjj ~]# ll /dev/md* -d
drwxr-xr-x 2 root root 60 Nov 7 01:51 /dev/md
brw-rw---- 1 root disk 9, 0 Nov 7 01:52 /dev/md0
2.3: 设备信息查询
----------------------------------------
[root@hjj ~]# mdadm --detail /dev/md0
----------------------------------------
/dev/md0:
Version : 1.2
Creation Time : Thu Nov 7 01:14:01 2013
Raid Level : raid5
Array Size : 78096384 (74.48 GiB 79.97 GB)
Used Dev Size : 26032128 (24.83 GiB 26.66 GB)
Raid Devices : 4
Total Devices : 5
Persistence : Superblock is persistent
Update Time : Thu Nov 7 01:43:21 2013
State : clean, degraded, recovering
Active Devices : 3
Working Devices : 5
Failed Devices : 0
Spare Devices : 2
Layout : left-symmetric
Chunk Size : 512K
Rebuild Status : 63% complete
Name : hjj.localdomain:0 (local to host hjj.localdomain)
UUID : 9dee9c47:58dfe491:5c8db1c6:9686eba5
Events : 25
Number Major Minor RaidDevice State
0 8 21 0 active sync /dev/sdb5
1 8 22 1 active sync /dev/sdb6
2 8 23 2 active sync /dev/sdb7
5 8 24 3 spare rebuilding /dev/sdb8
4 8 25 - spare /dev/sdb9
****************************************
3: 格式化raid 设备(磁盘)
[root@hjj ~]# mkfs -t ext4 /dev/md0
****************************************
mke2fs 1.41.12 (17-May-2010)
Filesystem label=
OS type: Linux
Block size=4096 (log=2)
Fragment size=4096 (log=2)
Stride=128 blocks, Stripe width=384 blocks
4882432 inodes, 19524096 blocks
976204 blocks (5.00%) reserved for the super user
First data block=0
Maximum filesystem blocks=4294967296
596 block groups
32768 blocks per group, 32768 fragments per group
8192 inodes per group
Superblock backups stored on blocks:
32768, 98304, 163840, 229376, 294912, 819200, 884736, 1605632, 2654208,
4096000, 7962624, 11239424
Writing inode tables: done
Creating journal (32768 blocks):
done
Writing superblocks and filesystem accounting information:
done
This filesystem will be automatically checked every 34 mounts or
180 days, whichever comes first. Use tune2fs -c or -i to override.
****************************************
4. 挂载及使用raid 磁盘
****************************************
[root@hjj ~]# mount /dev/md0 /mnt
[root@hjj ~]# cd /mnt
[root@hjj /mnt]# ls
lost+found
使用raid 设备(虚拟盘)
[root@hjj /mnt]# echo "haha" > abc.txt
[root@hjj /mnt]# cat abc.txt
haha
[root@hjj ~]# df
Filesystem 1K-blocks Used Available Use% Mounted on
/dev/mapper/VolGroup-lv_root
51475068 40659416 8177828 84% /
tmpfs 1015868 224 1015644 1% /dev/shm
/dev/sda1 487652 67236 390720 15% /boot
/dev/mapper/VolGroup-lv_home
97521332 10652080 81892408 12% /home
/dev/md0 76739624 53016 72765408 1% /mnt
****************************************
5. 设置开机启动RAID
****************************************
[root@hjj ~]# mdadm --detail --scan
ARRAY /dev/md0 metadata=1.2 spares=2 name=hjj.localdomain:0 UUID=9dee9c47:58dfe491:5c8db1c6:9686eba5
[root@hjj ~]# mdadm --detail --scan >/etc/mdadm.conf
经以上操作,系统重启时自动命名为md0, 否则会是md127 等等值, 不固定。
[root@hjj ~]# vim /etc/fstab
添加:
/dev/md0 /mnt ext4 defaults 0 0
****************************************
6. 其它:停用设备,插拔磁盘
更详细文档: man mdadm
****************************************
停用raid 盘:
[root@hjj ~]# mdadm --stop /dev/md0
查询
[root@hjj ~]# ll /dev/md* , 无设备
mdadm 还可模拟拔出硬盘,修复硬盘,插入硬盘
[root@hjj ~]# mdadm /dev/md0 --remove /dev/sdb5
验证:
[root@hjj ~]# mdadm --zero-superblock --force /dev/md0
[root@hjj ~]# mdadm /dev/md0 --add /dev/sdb5
验证:
验证方法:
[root@hjj ~]# mdadm --detail /dev/md0
删除该raid 设备, 完整的操作过程如下示例。 比较规范,系统无错误。
当然,不按规范删除也可以。反正你也不要设备上的所有数据了。
mdadm /dev/md0 --fail /dev/sdb5 --remove /dev/sdb5
mdadm /dev/md0 --fail /dev/sdb6 --remove /dev/sdb6
mdadm /dev/md0 --fail /dev/sdb7 --remove /dev/sdb7
mdadm /dev/md0 --fail /dev/sdb8 --remove /dev/sdb8
mdadm /dev/md0 --fail /dev/sdb9 --remove /dev/sdb9
mdadm --remove /dev/md0
mdadm --stop /dev/md0
mdadm --misc --zero-superblock /dev/sdb5
mdadm --misc --zero-superblock /dev/sdb6
mdadm --misc --zero-superblock /dev/sdb7
mdadm --misc --zero-superblock /dev/sdb8
mdadm --misc --zero-superblock /dev/sdb9
即: 先删除RAID中的所有设备,然后停止,删除该RAID即可
为了防止系统启动时候启动raid, 应检查,修改相应的配置。
例如mdadm.conf, fstab 等
9. linux 如何挂载raid分区
1、创建所需的分区。
10. 如何利用Linux创建磁盘阵列
raid-level linear //指定采用的是Linear模式 nr-raid-disks 2 //此阵列由2个硬盘组成 chunk-size 32 //数据写入时,每个写入区块的大小 persistent-superblock 1 //设置是否写入磁盘的superblock device /dev/hdb1 //按实际情况,指定第1个硬盘分区名称 raid-disk 0 //设置上述分区是此阵列所使用的第1 //个硬盘(编号由"0"开始) device /dev/hdc1 //按实际情况,指定第2个硬盘分区名称 raid-disk 1 //设置上述分区是此阵列所使用的第1 //个硬盘(编号由"0"开始) 创建好配置文件后,执行以下命令 #mkraid /dev/md0 执行完以个步骤,已经创建好磁盘阵列,然后启动,系统会自动启动此阵列.接下来,就可以如同一般硬盘分区一样,格式化并挂载此阵列。 #mke2fs -j /dev/md0 //格式化此硬盘分区 #mount -t ext3 /dev/md0 /mnt/raid强行初始化磁盘阵列