linux軟raid
① linux系統怎麼查看raid信息
有些情況下Linux伺服器系統不是自己裝好的,raid也不是自己配置的,遠程登錄系統後可能就不知道系統是否有做raid,raid級別多少?因此在這里稍微總結一下Linux下查看軟、硬raid信息的方法。
軟體raid:只能通過Linux系統本身來查看
cat /proc/mdstat
可以看到raid級別,狀態等信息。
硬體raid:最佳的辦法是通過已安裝的raid廠商的管理工具來查看,有cmdline,也有圖形界面。如Adaptec公司的硬體卡就可以通過下面的命令進行查看:
# /usr/dpt/raitil -L all
可以看到非常詳細的信息。
當然更多情況是沒有安裝相應的管理工具,只能依靠Linux本身的話一般我知道的是兩種方式:
# dmesg |grep -i raid
# cat /proc/scsi/scsi
顯示的信息差不多,raid的廠商,型號,級別,但無法查看各塊硬碟的信息。
另外Dell的伺服器可以通過命令來顯示,而HP、IBM等的伺服器通過上面的命令是顯示不出的。只能夠通過裝硬體廠商的管理工具來查看。
② Linux可以做raid嗎
可以。
步驟:
1,在虛擬機系統中添加一塊10g的硬碟為sdb,將硬碟分5個邏輯盤分別是sdb{5,6,7,8,9},每個盤的大小是1G。
2,首先利用其中三塊硬碟sdb{5,6,7}建立raid5,sdb8為熱備盤。
3,然後將sdb6作為故障盤下線,之後拔出sdb6,插入新的盤sdb9。
4,命令如下:mdadm -C /dev/md0 -l5 -n3 -x1 /dev/sdb{5,6,7,8},通過上面命令建立了使用空間為2G的raid5。盤符為/dev/md0
③ 如何使用linux程序mdadm創建軟體RAID1軟陣列
、RAID0: 一個軟RAID區在硬碟0上,另一個軟RAID區在硬碟1上。系統裝在硬碟0上。 裝好系統做好RAID後,去掉硬碟1。RAID正常。 在硬碟0上重裝系統,認出硬碟0上的RAID。讀寫正常,添加一個軟RAID區後,重建正常。 在硬碟2上重裝系統,掛硬碟0或者
④ linux怎麼檢查有無raid
1、軟體raid:只能通過Linux系統本身來查看
cat /proc/mdstat
可以看到raid級別,狀態等信息。
2、硬體raid: 最佳的辦法是通過已安裝的raid廠商的管理工具來查看,有cmdline,也有圖形界面。如Adaptec公司的硬體卡就可以通過下面的命令進行查看:
# /usr/dpt/raitil -L all
可以看到非常詳細的信息。
⑤ 如何使用linux程序mdadm創建軟體RAID1軟陣列
安裝mdadm
我們將使用mdadm(簡稱多盤管理)工具創建、組裝、管理和監控軟體RAID-1。在諸如Fedora、CentOS、RHEL或者Arch Linux 的發行版中,mdadm是默認安裝的。在基於Debian的發行版中,可以使用aptitude 或者 apt-get 安裝mdadm。
Fedora, CentOS 或 RHEL
由於adadm是預裝的,所以我們只需要開啟RAID守護服務,並將其配置成開機啟動即可:
Shell
1
2
# systemctl start mdmonitor
# systemctl enable mdmonitor
對於CentOS/RHEL 6系統,使用以下命令:
Shell
1
2
# service mdmonitor start
# chkconfig mdmonitor on
Debian, Ubuntu 或 Linux Mint
在Debian或類Debian系統中,mdadm可以使用 aptitude 或者 apt-get 安裝:
Shell
1
# aptitude install mdadm
Ubuntu系統中,會要求配置Postfix MTA 以發送電子郵件通知。你可以跳過去。
Debian系統中,安裝程序會顯示以下解釋信息,用來幫助我們去判斷是否將根目錄安裝到RAID陣列中。下面的所有操作都有賴於這一步,所以應該仔細閱讀他。
⑥ 如何在linux下做軟raid實現方法
磁碟陣列軟RAID實例.
前言:raid0, 容量倍增,加速。 raid1, 安全鏡像備份。 raid5, 奇偶數據校驗保證安全,磁碟利用率(n-1)。
****************************************
1. 准備硬碟分區。
****************************************
raid5 至少需要3快硬碟,我手上只有一塊閑置硬碟,就拿它練手。
在一塊硬碟上實現raid 是沒有意義的,這里僅是為了實驗,知道其過程。
分區如下:
主分區 /sdb1, 擴展分區/sdb10 隨便干別的事情。
擴展分區/sdb{5..9} 做raid5
----------------------------------------
[root@hjj ~]# fdisk -l /dev/sdb
----------------------------------------
Disk /dev/sdb: 160.0 GB, 160041885696 bytes
255 heads, 63 sectors/track, 19457 cylinders
Units = cylinders of 16065 * 512 = 8225280 bytes
Sector size (logical/physical): 512 bytes / 512 bytes
I/O size (minimum/optimal): 512 bytes / 512 bytes
Disk identifier: 0x86ea33f5
Device Boot Start End Blocks Id System
/dev/sdb1 1 3241 26033301 83 Linux
/dev/sdb2 3242 19457 130255020 5 Extended
/dev/sdb5 3242 6482 26033301 fd Linux raid autodetect
/dev/sdb6 6483 9723 26033301 fd Linux raid autodetect
/dev/sdb7 9724 12964 26033301 fd Linux raid autodetect
/dev/sdb8 12965 16205 26033301 fd Linux raid autodetect
/dev/sdb9 16206 19446 26033301 fd Linux raid autodetect
/dev/sdb10 19447 19457 88326 83 Linux
----------------------------------------
[root@hjj ~]# partprobe /dev/sdb
----------------------------------------
重新檢測分區要通過, 可能需要重啟系統。
****************************************
2. 創建raid5 設備/dev/md0
****************************************
raid 設備文件名,習慣上用md0, md1....等命名
注意: 創建需要內核支持, 選中相應的raid 選項,重編譯內核,否則該命令不能通過,錯誤為invalid parameter
2.1 創建
--------------------------------------------------------------------------------
[root@hjj ~]# mdadm -C /dev/md0 -a yes -l 5 -n 4 -x 1 /dev/sdb{5..9}
--------------------------------------------------------------------------------
mdadm: Defaulting to version 1.2 metadata
解釋一下:
-C ---> create
-a ---> autodetected
-l ---> level raid5
-n ---> raid devices 4 (使用)
-x ---> spare devices 1(備用)
給一個參考多硬碟命令
[root@hjj ~]# mdadm -C /dev/md0 -a yes -l 5 -n 3 /dev/sd[bcd]1
2.2: 設備名稱查詢
[root@hjj ~]# ll /dev/md* -d
drwxr-xr-x 2 root root 60 Nov 7 01:51 /dev/md
brw-rw---- 1 root disk 9, 0 Nov 7 01:52 /dev/md0
2.3: 設備信息查詢
----------------------------------------
[root@hjj ~]# mdadm --detail /dev/md0
----------------------------------------
/dev/md0:
Version : 1.2
Creation Time : Thu Nov 7 01:14:01 2013
Raid Level : raid5
Array Size : 78096384 (74.48 GiB 79.97 GB)
Used Dev Size : 26032128 (24.83 GiB 26.66 GB)
Raid Devices : 4
Total Devices : 5
Persistence : Superblock is persistent
Update Time : Thu Nov 7 01:43:21 2013
State : clean, degraded, recovering
Active Devices : 3
Working Devices : 5
Failed Devices : 0
Spare Devices : 2
Layout : left-symmetric
Chunk Size : 512K
Rebuild Status : 63% complete
Name : hjj.localdomain:0 (local to host hjj.localdomain)
UUID : 9dee9c47:58dfe491:5c8db1c6:9686eba5
Events : 25
Number Major Minor RaidDevice State
0 8 21 0 active sync /dev/sdb5
1 8 22 1 active sync /dev/sdb6
2 8 23 2 active sync /dev/sdb7
5 8 24 3 spare rebuilding /dev/sdb8
4 8 25 - spare /dev/sdb9
****************************************
3: 格式化raid 設備(磁碟)
[root@hjj ~]# mkfs -t ext4 /dev/md0
****************************************
mke2fs 1.41.12 (17-May-2010)
Filesystem label=
OS type: Linux
Block size=4096 (log=2)
Fragment size=4096 (log=2)
Stride=128 blocks, Stripe width=384 blocks
4882432 inodes, 19524096 blocks
976204 blocks (5.00%) reserved for the super user
First data block=0
Maximum filesystem blocks=4294967296
596 block groups
32768 blocks per group, 32768 fragments per group
8192 inodes per group
Superblock backups stored on blocks:
32768, 98304, 163840, 229376, 294912, 819200, 884736, 1605632, 2654208,
4096000, 7962624, 11239424
Writing inode tables: done
Creating journal (32768 blocks):
done
Writing superblocks and filesystem accounting information:
done
This filesystem will be automatically checked every 34 mounts or
180 days, whichever comes first. Use tune2fs -c or -i to override.
****************************************
4. 掛載及使用raid 磁碟
****************************************
[root@hjj ~]# mount /dev/md0 /mnt
[root@hjj ~]# cd /mnt
[root@hjj /mnt]# ls
lost+found
使用raid 設備(虛擬盤)
[root@hjj /mnt]# echo "haha" > abc.txt
[root@hjj /mnt]# cat abc.txt
haha
[root@hjj ~]# df
Filesystem 1K-blocks Used Available Use% Mounted on
/dev/mapper/VolGroup-lv_root
51475068 40659416 8177828 84% /
tmpfs 1015868 224 1015644 1% /dev/shm
/dev/sda1 487652 67236 390720 15% /boot
/dev/mapper/VolGroup-lv_home
97521332 10652080 81892408 12% /home
/dev/md0 76739624 53016 72765408 1% /mnt
****************************************
5. 設置開機啟動RAID
****************************************
[root@hjj ~]# mdadm --detail --scan
ARRAY /dev/md0 metadata=1.2 spares=2 name=hjj.localdomain:0 UUID=9dee9c47:58dfe491:5c8db1c6:9686eba5
[root@hjj ~]# mdadm --detail --scan >/etc/mdadm.conf
經以上操作,系統重啟時自動命名為md0, 否則會是md127 等等值, 不固定。
[root@hjj ~]# vim /etc/fstab
添加:
/dev/md0 /mnt ext4 defaults 0 0
****************************************
6. 其它:停用設備,插拔磁碟
更詳細文檔: man mdadm
****************************************
停用raid 盤:
[root@hjj ~]# mdadm --stop /dev/md0
查詢
[root@hjj ~]# ll /dev/md* , 無設備
mdadm 還可模擬拔出硬碟,修復硬碟,插入硬碟
[root@hjj ~]# mdadm /dev/md0 --remove /dev/sdb5
驗證:
[root@hjj ~]# mdadm --zero-superblock --force /dev/md0
[root@hjj ~]# mdadm /dev/md0 --add /dev/sdb5
驗證:
驗證方法:
[root@hjj ~]# mdadm --detail /dev/md0
刪除該raid 設備, 完整的操作過程如下示例。 比較規范,系統無錯誤。
當然,不按規范刪除也可以。反正你也不要設備上的所有數據了。
mdadm /dev/md0 --fail /dev/sdb5 --remove /dev/sdb5
mdadm /dev/md0 --fail /dev/sdb6 --remove /dev/sdb6
mdadm /dev/md0 --fail /dev/sdb7 --remove /dev/sdb7
mdadm /dev/md0 --fail /dev/sdb8 --remove /dev/sdb8
mdadm /dev/md0 --fail /dev/sdb9 --remove /dev/sdb9
mdadm --remove /dev/md0
mdadm --stop /dev/md0
mdadm --misc --zero-superblock /dev/sdb5
mdadm --misc --zero-superblock /dev/sdb6
mdadm --misc --zero-superblock /dev/sdb7
mdadm --misc --zero-superblock /dev/sdb8
mdadm --misc --zero-superblock /dev/sdb9
即: 先刪除RAID中的所有設備,然後停止,刪除該RAID即可
為了防止系統啟動時候啟動raid, 應檢查,修改相應的配置。
例如mdadm.conf, fstab 等
⑦ 如何在Linux系統下配置RAID1
raid 分為硬raid 和軟raid 。raid1 是一個鏡像卷,提供數據冗餘的一個作用。
硬raid需要硬體磁碟陣列卡來進行設置,這個主要是硬體的支持,設置是在bios裡面進行的。
軟raid是在linux系統上面做的raid。可以在虛擬環境上演示下,添加2塊硬碟,重啟讓系統識別到新的硬碟,然後執行命令「[root@linuxprobe ~]#mdadm -Cv /dev/md0 -a yes -n 4 -l 1 /dev/sdb /dev/sdc 」進行創建。然後格式化,---掛載軟raid的更多設置建議參考www.linuxprobe.com/chapter-07.html
查看/dev/md0設備信息,參數-D查看RAID陣列的詳細信息:mdadm -D /dev/md0
對於raid而言,他是在linux系統之上的raid,不能進行系統的引導。
⑧ linux環境下執行RAID5和BIOS下執行RAID5有什麼區別
優先重啟在bios里開raid0,1,2,5,linux執行並聯命令只能模擬硬體十分消耗cpu算力,可理解為利用cpu的vt-x或者amd-v虛擬了一種情況類似virtualbox。
⑨ linux軟raid 只能針對分區進行配置嗎
body{ line-height:200%; } RAID,獨立磁碟冗餘陣列,用於將多個廉價的小型磁碟驅動器合並成一個磁碟陣列,以提高存儲性能和容錯功能。RAID可分為軟RAID和硬RAID,軟RAID是通過軟體實現多塊硬碟冗餘的。而硬 RAID一般是通過RAID卡來實現RAID的。前者配置簡單,管理也比較靈活,對於中小企業來說不失為一種最佳選擇。硬RAID在性能方面具有一定優勢,但往往花費比較貴。 Red Hat Enterprise Linux 4.0 提供了對軟RAID技術的支持。在Linux系統中建立軟RAID可以使用mdadm工具建立和管理RAID設備。今天小編為大家分享軟Raid的配置方法,當然如果您對硬raid比較感興趣,點擊右側QQ,將會有專業的技術人員為您服務。免費的噢! 1.RAID設備的創建與掛載 下面以四塊硬碟/dev/sdb、 /dev/sdc、 /dev/sdd、 /dev/sde 為例來講解 RAID5 的創建方法。 (1)使用fdisk命令創建四個磁碟分區/dev/sdb1、/dev/sdc1、/dev/sdd1、/dev/sde1。並設置分區類型 id 為 fd(Linux raid autodetect) 。分區結果如下所示: [root@RHEL4 ~]# fdisk -l Disk /dev/sdb: 536 MB, 536870912 bytes 64 heads, 32 sectors/track, 512 cylinders Units = cylinders of 2048 * 512 = 1048576 bytes Device Boot Start End Blocks Id System /dev/sdb1 1 512 524272 fd Linux raid autodetect Disk /dev/sdc: 536 MB, 536870912 bytes 64 heads, 32 sectors/track, 512 cylinders Units = cylinders of 2048 * 512 = 1048576 bytes Device Boot Start End Blocks Id System /dev/sdc1 1 512 524272 fd Linux raid autodetect Disk /dev/sdd: 536 MB, 536870912 bytes 64 heads, 32 sectors/track, 512 cylinders Units = cylinders of 2048 * 512 = 1048576 bytes Device Boot Start End Blocks Id System /dev/sdd1 1 512 524272 fd Linux raid autodetect Disk /dev/sde: 536 MB, 536870912 bytes 64 heads, 32 sectors/track, 512 cylinders Units = cylinders of 2048 * 512 = 1048576 bytes Device Boot Start End Blocks Id System /dev/sde1 1 512 524272 fd Linux raid autodetect (2)使用mdadm命令創建 RAID5。RAID設備名稱為/dev/mdX。其中X為設備編號,該編號從0開始。 [root@RHEL4 ~]# mdadm --create /dev/md0 --level=5 --raid-devices=3 --spare-devices=1 /dev/sd[b-e]1 mdadm: array /dev/md0 started. 上述命令中指定RAID設備名為/dev/md0,級別為5,使用3個設備建立RAID,空餘一個留做備用。 (3)為新建立的/dev/md0 建立類型為 ext3 的文件系統。 [root@RHEL4 ~]mkfs –t ext3 -c /dev/md0 (4)查看建立的 RAID5 的具體情況。 [root@RHEL4 ~]mdadm –detail /dev/md0 /dev/md0: Version : 00.90.01 Creation Time : Mon Oct 1 16:23:43 2007 Raid Level : raid5 Array Size : 1048320 (1023.75 MiB 1073.48 MB) Device Size : 524160 (511.88 MiB 536.74 MB) Raid Devices : 3 Total Devices : 4 Preferred Minor : 0 Persistence : Superblock is persistent Update Time : Mon Oct 1 16:25:26 2007 State : clean Active Devices : 3 Working Devices : 4 Failed Devices : 0 Spare Devices : 1 Layout : left-symmetric Chunk Size : 64K Number Major Minor RaidDevice State 0 8 17 0 active sync /dev/sdb1 1 8 33 1 active sync /dev/sdc1 2 8 49 2 active sync /dev/sdd1 3 8 65 -1 spare /dev/sde1 UUID : 89b765ed:48c01ab9:e4cffb5b:ce142051 Events : 0.10 (5)將RAID設備/dev/md0 掛載到指定的目錄/media/md0 中,並顯示該設備中的內容。 [root@RHEL4 ~]# mount /dev/md0 /media/md0 ; ls /media/md0 lost+found 2.RAID設備的數據恢復 如果RAID設備中的某個硬碟損壞,系統會自動停止這塊硬碟的工作,讓後備的那塊硬碟代替損壞的硬碟繼續工作。例如,假設/dev/sdc1 損壞。更換損壞的RAID設備中成員的方法如下: (1)將損壞的RAID成員標記為失效。 [root@RHEL4 ~]#mdadm /dev/md0 --fail /dev/sdc1 (2)移除失效的RAID成員。 [root@RHEL4 ~]#mdadm /dev/md0 --remove /dev/sdc1 (3)更換硬碟設備,添加一個新的RAID成員。 [root@RHEL4 ~]#mdadm /dev/md0 --add /dev/sde1 說明:mdadm 命令參數中凡是以“--”引出的參數選項,與“-”加單詞首字母的方式等價。例如“--remove”等價於“-r” , “--add”等價於“-a” 。 當不再使用 RAID 設備時,可以使用命令“mdadm –S /dev/mdX”的方式停止 RAID 設備。
⑩ Linux軟RAID系統崩潰的修復
你可以檢查下硬碟,沒有問題的話,應該是/分區的Label沒了,或者查看你grub的設定,
kernel
這部份
label
的指向那個分區,
或者直接指向分區,
如
kernel
/boot/vmlinux-xxxxx
root=/dev/sda1
等等.分區的時候沒指定分區的type.默認就是
id:83
也就是linux類型。
Disk
/dev/sdb:
8589
MB,
8589934592
bytes
255
heads,
63
sectors/track,
1044
cylinders
Units
=
cylinders
of
16065
*
512
=
8225280
bytes
Device
Boot
Start
End
Blocks
Id
System
/dev/sdb1
1
123
987966
83
Linux
/dev/sdb2
124
246
987997+
83
Linux
其實我們只要在分區的時候手動指定分區的類型為soft
raid格式即可解決問題。
/dev/sdb2
124
246
987997+
fd
Linux
raid
autodetect
這樣我們重啟機器後所作的raid設備依然可以用fdisk
-l來查看到。
如果你當初的raid,沒指定分區的type,其實你也可以重新制定分區的type後,也是可以的。。
指定type的方式為
fdisk
---
t----fd----w