redhat分布式存儲
㈠ 伺服器redhat4.5接FC存儲,想把存儲掛載給redhat6.5的伺服器,要求保留數據
存儲連接好,多路徑配置好,重啟就能識別LUN,然後
掛載
之類的就行了
㈡ Redhat操作系統都有哪些優點呢
其實,這也是人之常情,因為大家都喜歡體驗新的東西,享受那種刺激和未知路上的摸索的感覺。這對於那些不知道Redhat操作系統的朋友來說就是最好的印證。他們平時自己電腦上裝的系統都是微軟的windows,但是如今一聽說Redhat操作系統非常優秀的時候,就希望自己也能夠體驗一把這個系統所帶來的樂趣。那麼,我們都相信,現在很多人對Redhat操作系統都不怎麼了解,因為大家平時接觸它的機會本來就不多。當然這裡面還是要除去那些計算機專業人士。因為對於專業的IT人士來說他們還是比較知道Redhat系統的。其實,Redhat操作系統已經經過了一段比較漫長的發展時期,現在於2011年發布的6.0操作系統是目前比較新的,也是比較流行的一個系統。其中,最明顯的優點就是這個系統能夠免費為消費者使用,不像微軟的系統需要花幾千塊的人民幣才能夠買到正版的系統回來體驗。作為一種開源系統,Redhat系統還是在這個方面做得非常不錯的。當然,它還具有非常不錯的穩定性,這是很多用戶最想要用到的系統。因為只有系統足夠穩定,大家在實際使用過程中才會享受到新的技術帶來的快感!當然Redhat系統的存儲性能和虛擬化的功能也是它的這個系統的一大技術亮點。通過這種優秀的技術支持,使得使用這個系統的用戶朋友能夠體驗到最先進的計算機應用軟體,那種大型的高技術軟體所能夠給大家帶來的刺激感將在Redhat操作系統裡面得到最好的演示!如果你也是電腦技術迷,那麼就從了解和認識Redhat開始吧,知道的越多,我們的技術也會不斷質變的!
㈢ linux redhat6.3兩台機器共用一塊存儲盤
可以使用NFS(網路文件系統)來實現。
一、NFS服務簡介
NFS 是Network File System的縮寫,即網路文件系統。一種使用於分散式文件系統的協定,由Sun公司開發,於1984年向外公布。功能是通過網路讓不同的機器、不同的操作系統能夠彼此分享個別的數據,讓應用程序在客戶端通過網路訪問位於伺服器磁碟中的數據,是在類Unix系統間實現磁碟文件共享的一種方法。
NFS 的基本原則是「容許不同的客戶端及服務端通過一組RPC分享相同的文件系統」,它是獨立於操作系統,容許不同硬體及操作系統的系統共同進行文件的分享。
NFS在文件傳送或信息傳送過程中依賴於RPC協議。RPC,遠程過程調用 (Remote Procere Call) 是能使客戶端執行其他系統中程序的一種機制。NFS本身是沒有提供信息傳輸的協議和功能的,但NFS卻能讓我們通過網路進行資料的分享,這是因為NFS使用了一些其它的傳輸協議。而這些傳輸協議用到這個RPC功能的。可以說NFS本身就是使用RPC的一個程序。或者說NFS也是一個RPC SERVER。所以只要用到NFS的地方都要啟動RPC服務,不論是NFS SERVER或者NFS CLIENT。這樣SERVER和CLIENT才能通過RPC來實現PROGRAM PORT的對應。可以這么理解RPC和NFS的關系:NFS是一個文件系統,而RPC是負責負責信息的傳輸。
下面是5.6的步驟,6.3和這步驟差不多了。
二、系統環境
系統平台:CentOS release 5.6 (Final)
NFS Server IP:192.168.1.108
防火牆已關閉/iptables: Firewall is not running.
SELINUX=disabled
三、安裝NFS服務
NFS的安裝是非常簡單的,只需要兩個軟體包即可,而且在通常情況下,是作為系統的默認包安裝的。
nfs-utils-* :包括基本的NFS命令與監控程序
portmap-* :支持安全NFS RPC服務的連接
1、查看系統是否已安裝NFS
系統默認已安裝了nfs-utils portmap 兩個軟體包。
2、如果當前系統中沒有安裝NFS所需的軟體包,需要手工進行安裝。nfs-utils 和portmap 兩個包的安裝文件在系統光碟中都會有。
# mount /dev/cdrom /mnt/cdrom/
# cd /mnt/cdrom/CentOS/
# rpm -ivh portmap-4.0-65.2.2.1.i386.rpm
# rpm -ivh nfs-utils-1.0.9-50.el5.i386.rpm
# rpm -q nfs-utils portmap
四、NFS系統守護進程
nfsd:它是基本的NFS守護進程,主要功能是管理客戶端是否能夠登錄伺服器;
mountd:它是RPC安裝守護進程,主要功能是管理NFS的文件系統。當客戶端順利通過nfsd登錄NFS伺服器後,在使用NFS服務所提供的文件前,還必須通過文件使用許可權的驗證。它會讀取NFS的配置文件/etc/exports來對比客戶端許可權。
portmap:主要功能是進行埠映射工作。當客戶端嘗試連接並使用RPC伺服器提供的服務(如NFS服務)時,portmap會將所管理的與服務對應的埠提供給客戶端,從而使客戶可以通過該埠向伺服器請求服務。
五、NFS伺服器的配置
NFS伺服器的配置相對比較簡單,只需要在相應的配置文件中進行設置,然後啟動NFS伺服器即可。
NFS的常用目錄
/etc/exports NFS服務的主要配置文件
/usr/sbin/exportfs NFS服務的管理命令
/usr/sbin/showmount 客戶端的查看命令
/var/lib/nfs/etab 記錄NFS分享出來的目錄的完整許可權設定值
/var/lib/nfs/xtab 記錄曾經登錄過的客戶端信息
NFS服務的配置文件為 /etc/exports,這個文件是NFS的主要配置文件,不過系統並沒有默認值,所以這個文件不一定會存在,可能要使用vim手動建立,然後在文件裡面寫入配置內容。
/etc/exports文件內容格式:
<輸出目錄> [客戶端1 選項(訪問許可權,用戶映射,其他)] [客戶端2 選項(訪問許可權,用戶映射,其他)]
a. 輸出目錄:
輸出目錄是指NFS系統中需要共享給客戶機使用的目錄;
b. 客戶端:
客戶端是指網路中可以訪問這個NFS輸出目錄的計算機
客戶端常用的指定方式
指定ip地址的主機:192.168.0.200
指定子網中的所有主機:192.168.0.0/24 192.168.0.0/255.255.255.0
指定域名的主機:david.bsmart.cn
指定域中的所有主機:*.bsmart.cn
所有主機:*
c. 選項:
選項用來設置輸出目錄的訪問許可權、用戶映射等。
NFS主要有3類選項:
訪問許可權選項
設置輸出目錄只讀:ro
設置輸出目錄讀寫:rw
用戶映射選項
all_squash:將遠程訪問的所有普通用戶及所屬組都映射為匿名用戶或用戶組(nfsnobody);
no_all_squash:與all_squash取反(默認設置);
root_squash:將root用戶及所屬組都映射為匿名用戶或用戶組(默認設置);
no_root_squash:與rootsquash取反;
anonuid=xxx:將遠程訪問的所有用戶都映射為匿名用戶,並指定該用戶為本地用戶(UID=xxx);
anongid=xxx:將遠程訪問的所有用戶組都映射為匿名用戶組賬戶,並指定該匿名用戶組賬戶為本地用戶組賬戶(GID=xxx);
其它選項
secure:限制客戶端只能從小於1024的tcp/ip埠連接nfs伺服器(默認設置);
insecure:允許客戶端從大於1024的tcp/ip埠連接伺服器;
sync:將數據同步寫入內存緩沖區與磁碟中,效率低,但可以保證數據的一致性;
async:將數據先保存在內存緩沖區中,必要時才寫入磁碟;
wdelay:檢查是否有相關的寫操作,如果有則將這些寫操作一起執行,這樣可以提高效率(默認設置);
no_wdelay:若有寫操作則立即執行,應與sync配合使用;
subtree:若輸出目錄是一個子目錄,則nfs伺服器將檢查其父目錄的許可權(默認設置);
no_subtree:即使輸出目錄是一個子目錄,nfs伺服器也不檢查其父目錄的許可權,這樣可以提高效率;
六、NFS伺服器的啟動與停止
在對exports文件進行了正確的配置後,就可以啟動NFS伺服器了。
1、啟動NFS伺服器
為了使NFS伺服器能正常工作,需要啟動portmap和nfs兩個服務,並且portmap一定要先於nfs啟動。
# service portmap start
# service nfs start
2、查詢NFS伺服器狀態
# service portmap status
# service nfs status
3、停止NFS伺服器
要停止NFS運行時,需要先停止nfs服務再停止portmap服務,對於系統中有其他服務(如NIS)需要使用時,不需要停止portmap服務
# service nfs stop
# service portmap stop
4、設置NFS伺服器的自動啟動狀態
對於實際的應用系統,每次啟動LINUX系統後都手工啟動nfs伺服器是不現實的,需要設置系統在指定的運行級別自動啟動portmap和nfs服務。
# chkconfig --list portmap
# chkconfig --list nfs
設置portmap和nfs服務在系統運行級別3和5自動啟動。
# chkconfig --level 35 portmap on
# chkconfig --level 35 nfs on
七、實例
1、將NFS Server 的/home/david/ 共享給192.168.1.0/24網段,許可權讀寫。
伺服器端文件詳細如下:
# vi /etc/exports
/home/david 192.168.1.0/24(rw)
2、重啟portmap 和nfs 服務
# service portmap restart
# service nfs restart
# exportfs
3、伺服器端使用showmount命令查詢NFS的共享狀態
# showmount -e//默認查看自己共享的服務,前提是要DNS能解析自己,不然容易報錯
# showmount -a//顯示已經與客戶端連接上的目錄信息
4、客戶端使用showmount命令查詢NFS的共享狀態
# showmount -e NFS伺服器IP
5、客戶端掛載NFS伺服器中的共享目錄
命令格式
# mount NFS伺服器IP:共享目錄 本地掛載點目錄
# mount 192.168.1.108:/home/david/ /tmp/david/
# mount |grep nfs
掛載成功。
查看文件是否和伺服器端一致。
6、NFS的共享許可權和訪問控制
現在我們在/tmp/david/ 裡面建立一個文件,看看許可權是什麼
# touch 20130103
這里出現Permission denied,是因為NFS 伺服器端共享的目錄本身的寫許可權沒有開放給其他用戶,在伺服器端打開該許可權。
# chmod 777 -R /home/david/
再次在客戶端/tmp/david/ 裡面建立一個文件
我用root 用戶建立的文件,變成了nfsnobody 用戶。
NFS有很多默認的參數,打開/var/lib/nfs/etab 查看分享出來的/home/david/ 完整許可權設定值。
# cat /var/lib/nfs/etab
默認就有sync,wdelay,hide 等等,no_root_squash 是讓root保持許可權,root_squash 是把root映射成nobody,no_all_squash 不讓所有用戶保持在掛載目錄中的許可權。所以,root建立的文件所有者是nfsnobody。
下面我們使用普通用戶掛載、寫入文件測試。
# su - david
$ cd /tmp/david/
$ touch 2013david
普通用戶寫入文件時就是自己的名字,這也就保證了伺服器的安全性。
關於許可權的分析
1. 客戶端連接時候,對普通用戶的檢查
a. 如果明確設定了普通用戶被壓縮的身份,那麼此時客戶端用戶的身份轉換為指定用戶;
b. 如果NFS server上面有同名用戶,那麼此時客戶端登錄賬戶的身份轉換為NFS server上面的同名用戶;
c. 如果沒有明確指定,也沒有同名用戶,那麼此時 用戶身份被壓縮成nfsnobody;
2. 客戶端連接的時候,對root的檢查
a. 如果設置no_root_squash,那麼此時root用戶的身份被壓縮為NFS server上面的root;
b. 如果設置了all_squash、anonuid、anongid,此時root 身份被壓縮為指定用戶;
c. 如果沒有明確指定,此時root用戶被壓縮為nfsnobody;
d. 如果同時指定no_root_squash與all_squash 用戶將被壓縮為 nfsnobody,如果設置了anonuid、anongid將被壓縮到所指定的用戶與組;
7、卸載已掛載的NFS共享目錄
# umount /tmp/david/
八、啟動自動掛載nfs文件系統
格式:
<server>:</remote/export> </local/directory> nfs < options> 0 0
# vi /etc/fstab
保存退出,重啟系統。
查看/home/david 有沒有自動掛載。
自動掛載成功。
九、相關命令
1、exportfs
如果我們在啟動了NFS之後又修改了/etc/exports,是不是還要重新啟動nfs呢?這個時候我們就可以用exportfs 命令來使改動立刻生效,該命令格式如下:
# exportfs [-aruv]
-a 全部掛載或卸載 /etc/exports中的內容
-r 重新讀取/etc/exports 中的信息 ,並同步更新/etc/exports、/var/lib/nfs/xtab
-u 卸載單一目錄(和-a一起使用為卸載所有/etc/exports文件中的目錄)
-v 在export的時候,將詳細的信息輸出到屏幕上。
具體例子:
# exportfs -au 卸載所有共享目錄
# exportfs -rv 重新共享所有目錄並輸出詳細信息
2、nfsstat
查看NFS的運行狀態,對於調整NFS的運行有很大幫助。
3、rpcinfo
查看rpc執行信息,可以用於檢測rpc運行情況的工具,利用rpcinfo -p 可以查看出RPC開啟的埠所提供的程序有哪些。
4、showmount
-a 顯示已經於客戶端連接上的目錄信息
-e IP或者hostname 顯示此IP地址分享出來的目錄
5、netstat
可以查看出nfs服務開啟的埠,其中nfs 開啟的是2049,portmap 開啟的是111,其餘則是rpc開啟的。
最後注意兩點,雖然通過許可權設置可以讓普通用戶訪問,但是掛載的時候默認情況下只有root可以去掛載,普通用戶可以執行sudo。
NFS server 關機的時候一點要確保NFS服務關閉,沒有客戶端處於連接狀態!通過showmount -a 可以查看,如果有的話用kill killall pkill 來結束,(-9 強制結束)
㈣ RedHat Linux磁碟分區有哪些
磁碟分區:磁碟有兩種存儲方式:基本磁碟存儲和動態磁碟存儲。基本磁碟存儲在磁碟上創建主分區,擴展分區和邏輯分區。對分區進行管理。 動態磁碟存儲創建動態卷。對卷進行管理。Redhat Linux 磁碟分區為主,擴展,邏輯分區。
㈤ Redhat XFS文件系統
XFS是一種高度可擴展和高性能文件系統,它支持創建16 exabytes超大文件系統,8 exabytes的文件和10億個目錄結構。
1) 主要功能:XFS支持 元數據日誌功能(metadata journaling) ,有助於更快地崩潰恢復。XFS文件系統在掛載並處於活動狀態時也可以進行 碎片整理和擴展 。 另外,紅帽企業版Linux 6支持 XFS的備份和恢復 功能。
2) xfs具有以下功能:基於范圍的分配(Extent-based allocation)、條帶感知分配策略(Stripe-aware allocation policies)、延遲分配(Delayed allocation)和空間預分配(Space pre-allocation)。延遲分配和其他性能優化對XFS的影響與對ext4的影響相同。 除非隨後調用fsync(),否則不能保證程序對XFS文件系統的寫入。
使用mkfs.xfs /dev/device命令來創建XFS文件系統。在一個包含已有文件系統的塊設備上,執行mkfs.xfs -f會強制重寫文件系統。
一旦xfs文件系統被創建,文件的大小不會減小。還可以用xfs_growfs命令來增大空間。
對於條帶塊設備(例如RAID5陣列),在創建文件系統時可以指定條帶幾何形狀。 使用適當的條帶幾何形狀可以大大提高XFS文件系統的性能。
在LVM或MD卷上創建文件系統時,mkfs.xfs選擇最佳geometry幾何形狀。 在某些geometry信息導出到操作系統的硬體RAID上,也可能是這樣。
指定條紋geometry幾何體,子參數如下:
su =值:指定條帶單位或RAID塊大小。 該值必須以位元組為單位指定,後綴為k,m或g。
sw =值:指定RAID設備中的數據磁碟數或條帶中的條帶單元數。
以下示例在包含4個條帶單元的RAID設備上指定64k的塊大小:
#mkfs.xfs -d su=64k,sw=4 /dev/device
有關創建XFS文件系統的更多信息,請參考man mkfs.xfs。
一個XFS系統可以不帶額外的參數進行掛載:# mount /dev/device /mount/point
XFS默認分配inode以反映其在磁碟上的位置。 但是,由於某些32位用戶空間應用程序與大於65536*65536(2的32次方)的inode號不兼容,因此XFS會將所有inode分配到磁碟位置中,從而導致32位inode號。 這會導致大於2TB的文件系統性能下降,因為inode偏向塊設備的開頭,而數據偏向末尾。
為了解決此問題,可以帶上inode64掛載參數。這個參數表示XFS在整個文件系統中分配inodes和數據,這將改善性能 # mount -o inode64 /dev/device /mount/point
默認情況下,即使啟用了寫緩存的設備斷電,XFS也會使用寫屏障來確保文件系統的完整性(By default, XFS uses write barriers to ensure file system integrity even when power is lost to a device with write caches enabled)。 對於沒有寫緩存或具有電池供電的寫緩存的設備,請使用nobarrier選項禁用屏障:# mount -o nobarrier /dev/device /mount/point。 掉電丟失文件的解決方案又多一個:寫保障。
寫保障write barrier是一種內核機制,用於保證持久化卷上文件系統的metadata是正確的和有序的,即使易失性的存儲設備斷電。 文件系統開啟寫保障fsync(),保證數據通過。
啟用寫屏障write barriers會導致某些應用程序的性能大幅下降。 具體來說,大量使用fsync()或創建和刪除許多小文件的應用程序運行速度可能會慢得多。
XFS配額子系統管理著磁碟空間(塊)和文件(inode)使用的限制。 XFS配額從用戶,組,目錄或項目級別上進行控制或報告其使用情況。請注意,雖然啟用了用戶,組和目錄或項目級別的配額,但組配額和項目配額是互斥的。
在按目錄或按項目進行管理時,XFS管理著與某個項目關聯的目錄層次結構的磁碟使用情況。這樣,XFS可以識別項目之間的跨組織「組」邊界。這提供了比管理用戶或組配額時更有效的控制級別。
XFS配額在掛載mount時啟用,並帶有的掛載參數。掛載參數可以指定為noenforce,xfs使用情況將不受任何限制。掛載時有效的配額:uquota/uqnoenforce-用戶配額、gquota/gqnoenforce-組配額、pquota/pqnoenforce-項目配額
啟用配額後,xfs_quota工具可以設置配額大小並報告磁碟使用情況。默認情況下,xfs_quota在基本模式下互動式運行的。基本模式子命令僅報告使用情況,並且對所有用戶可用。基本模式的xfs_quota子命令包括:quota username/userID:顯示給定用戶名或數字用戶標識的用法和限制。df:顯示塊和索引節點的可用和已用計數。
相反,xfs_quota也具有專家模式。此模式的子命令允許配置限制,並且僅對具有較高特權的用戶可用。要交互使用專家模式子命令,請運行xfs_quota -x。專家模式子命令包括:report /path:報告特定文件系統的配額信息。limit:修改配額限制。
掛載的XFS文件系統使用xfs_growfs命令進行擴大# xfs_growfs /mount/point -D size
D size 選項將文件系統增加帶指定大小,不帶-D size選項則xfs_growfs將文件系統擴大到設備支持的最大值。
在使用-D參數擴大文件系統前要保證底層塊設備後期有一個合理的大小。
注意:掛載點一旦擴大空間後無法縮回。
使用xfs_repair修復XFS文件系統,命令格式為# xfs_repair /dev/device
xfs_repair具有高度可伸縮性,旨在有效地修復擁有大量inode節點的大型文件系統。 與其他Linux文件系統不同,即使當XFS文件系統未完全卸載umount時,xfs_repair也不在引導時運行(does not run at boot time)。 即使卸載不幹凈,則xfs_repair只是在掛載時replays log來進行修復,以確保文件系統一致。
xfs_repair不能修復帶有臟日誌(dirty log)的xfs文件系統。掛載mount和卸載unmount xfs文件系統會清理日誌。如果日誌已損壞並且無法重播,請使用-L選項強制清除日誌,即xfs_repair -L /dev/device。請注意這可能影響到進一步的損壞或數據丟失。
xfs_freeze對文件系統的寫入活動進行暫停或恢復。暫停寫入活動允許基於硬體設備快照用於捕獲文件系統一致性狀態。
xfs_freeze由只運行在x86_64的xfsprogs包提供。
暫停suspend (凍結freeze) xfs文件系統使用命令# xfs_freeze -f /mount/point
解凍xfs文件系統使用命令# xfs_freeze -u /mount/point
當做一個LVM快照時,沒有必要先使用xfs_freeze來暫停文件系統。LVM管理工具會在取快照前自動暫停XFS文件系統。
xfs_freeze可以用於凍結或解凍一個ext3、ext4、GFS2、XFS和BTRFS文件系統,它們的語法都是一樣的。
xfsmp和xfsrestore分別支持XFS文件系統備份和恢復。
為了支持增量備份(incremental backups ),xfsmp使用轉儲級別來確定特定轉儲相對的基本轉儲(xfsmp uses mp levels to determine a base mp to which a specific mp is relative)。
-l參數指定轉儲級別0-9。在文件系統上執行0級轉儲進行完整備份,命令為 # xfsmp -l 0 -f /dev/device /path/filesystem
-f參數指定備份的目標。
相反,一個增量備份僅將上次0級轉儲後更改的文件進行備份。 1級轉儲是完整轉儲後的第一個增量轉儲;下一個增量轉儲將是2級,依此類推,直到9級的最大值。執行1級轉儲到/dev/st0:# xfsmp -l 1 -f /dev/st0 /path/filesystem
xfsrestore從xfsmp產生的轉儲中還原文件系統。 xfsrestore具有兩種模式:默認簡單模式和累積模式。特定的轉儲由會話ID或會話標簽標識,因此還原轉儲需要其相應的會話ID或標簽。要顯示所有轉儲(完整和增量)的會話ID和標簽:#xfsrestore -I
xfsrestore簡單模式(Simple Mode)
簡單模式允許用戶從0級轉儲還原整個文件系統。確定了0級轉儲的會話ID後執行恢復:# xfsrestore -f /dev/st0 -S session-ID /path/to/destination
-f參數指定轉儲的位置,而-S或-L參數指定待還原的特定轉儲,-S參數用於指定會話ID,而-L參數用於指定會話標簽。-I選項顯示每次轉儲的會話標簽和ID。
xfsrestore累積模式(Cumulative Mode)
xfsrestore累積模式允許從特定的增量備份(從1級到9級)還原文件系統,添加-r參數# xfsrestore -f /dev/st0 -S session-ID -r /path/to/destination
互動操作Interactive
xfsrestore允許從轉儲中提取,添加或刪除特定文件。使用-i參數,xfsrestore -f /dev/st0 -i
互動式對話將在xfsrestore完成讀取指定設備之後開始。在對話框中的可用命令包括cd, ls, add, delete, and extract;使用help查看有關命令的完整列表。
RedHat Enterprise Linux6提供其他xfs功能
xfs_fsr :對已安裝的XFS文件系統進行碎片整理。不帶參數調用時,xfs_fsr對所有掛載的XFS文件系統的所有常規文件進行碎片整理。該程序允許用戶掛起suspend指定時間的碎片整理,並從以後停止的地方resume恢復操作。此外,xfs_fsr僅允許對一個文件進行碎片整理,命令是xfs_fsr /path/to/file。紅帽建議定期對整個文件系統進行碎片整理(Red Hat advises against periodically defragmenting an entire file system, as this is normally not warranted)。
xfs_bmap :列印XFS文件系統中文件使用的磁碟塊映射。該地圖列出了指定文件使用的每個范圍以及文件中沒有相應塊的區域。
xfs_info :列印XFS文件系統信息。
xfs_admin :修改xfs文件系統中未掛載設備的參數。
xfs_ :將整個XFS文件系統的內容並行復制到一個或多個設備中。
下面程序是調試和分析XFS文件系統:
xfs_metamp :只能拷貝未掛載,只讀和凍結或掛起的(unmounted, read-only, frozen/suspended)XFS文件系統的metadata到1個文件。否則掛載狀態下拷貝會造成生成的轉儲可能已損壞或不一致。
xfs_mdrestore :將xfs_metamp生成的映像還原到文件系統映像。
Restores an XFS metamp image ( generated using xfs_metamp) to a file system image.
xfs_db :Debugs an XFS file system。
㈥ redhat的RHCS必須配置Fence設備嗎
fence是RHCS的HA集群中預防集群出現腦裂之後節點爭搶文件系統的一種手段。
紅帽的HA集群中沒有可用的fence設備(例如hp ilo,ibm ipmi,rsa以及dell drac5/6),那麼當集群心跳線斷開或者物理機宕機,則服務無法自動切換。使用手動fence的,當節點關機的時候服務是可切換的,但是當節點宕機或者斷網,切換就不行了。必須要用fence_ack_manual去人工干預,而且這相當於用欺騙另外一個節點已經被fence掉,而不管對方是否真正被fence。所以從這個角度講,沒有fence,無法構建一個完整的RHCS HA集群。
而且如果使用沒有fence設備的伺服器或者環境去搭建RHCS HA集群的時候,紅帽官方也不會對這種架構提供支持。
因此從上述角度說,fence設備是必須的。
現在常用的fence設備,除了上述提到的不同品牌伺服器自帶的之外,還有一些電源管理交換機,如WTI或者APC什麼的。針對虛擬化場景,如果你的host使用的是RHEL,那麼可以使用fence_xen或者fence_virsh(分別針對xen和kvm/xen架構),針對HOST是vmware esx的,可以使用fence_vmware_soap,不過操作系統必須是RHEL 5.8以及RHEL 6.1以上,另外某些環境新安可以使用存儲fence,即通過阻塞光纖交換機的介面來起到禁止被fence的機器訪問存儲的效果,不過不能夠做到自動化,阻塞的埠必須得手動打開。
㈦ redhat 怎麼掛載20tb以上存儲
升級e2fsprogs包到1.42.8以上,就能格式化16T以上的文件系統,掛載沒什麼特殊的
㈧ 的雲存儲系統,問下現在有什麼比較常用的開源分布式
書生雲於宣布將基於SAS架構的新一代開源分布式存儲技術——SurFS開源。SurFS是書生雲公司自主研發的分布式存儲系統,是雲平台的核心部件,在性能和成本兩方面具有一定實力。書生雲將具有自身知識產權的商業軟體開源,對軟體行業將帶來哪些影響? 書生雲董事長王東臨 眾所周知,開源軟體技術領域較為知名的除了Android(安卓)、Linux、MySQL、OpenOffice、OpenStack等開源社區外,企業級領域軟體開源的並不算多,但也能看到其中一些卓越領導者,比如知名開源軟體企業 RedHat, RedHat的年收入甚至超過了20億美元。 因此,書生雲董事長王東臨認為:「雖然在視核心技術商業機密的傳統思維里,軟體企業將自身擁有知識產權的軟體的開源顯得另類,但隨著開源系統在全球的廣泛普及,未來開源與商業也會得到完美結合,形成了「先奉獻後收益」、「貢獻越大收益越大」的格局。」 存儲系統是雲平台的核心部件,對雲平台的整體性能和成本都有極大的影響。SurFS通過對存儲網路的顛覆式創新,第一個採用SAS做存儲網路構建分布式存儲系統,將帶寬提升了幾十倍延時降低了幾十倍,而且從架構體繫上完全打破了傳統存儲體系的桎梏,將存儲控制節點與存儲介質分離,存儲控制節點與計算節點聚合,從而將數據I/O路徑壓縮到了極致,將擴容成本也壓縮到了極致,大幅提升了整個雲平台的性能,同時還顯著降低了成本,同時實現高性能、低成本、高可靠、高可用和可擴展性。對於正在向私有雲遷移的廣大企業級用戶來說,SurFS的確有著很大的優越性。 筆者小結 書生雲基於SAS存儲網路構建的新一代開源分布式存儲SurFS 開源後將成為OpenStack等主流雲平台的存儲後端之一,對於廣大IT工程師和終端用戶來說,更無異是一針強心劑,開源社區在得到完善管理的前提下,對於未來的存儲技術及應用會有更加加速的發展。SurFS 開源將為全球企業級用戶搭建高性價比的雲平台,並為廣大IT企業提供一個切磋、改善行業價值鏈的機遇的開源,基於SurFS技術的雲平台有望成為全球雲產業的主流部署模式之一。 當然,書生雲的SurFS 開源仍然只是國內軟體業的起步!無論是業務模式的探索還是開源後社區的維護,還需要時間及智慧來推進。
㈨ redhat6.0的比較
目前最新的版本是RedHat6.1.和以前的那些版本相比,RedHat6.0增加了很多功能。
高效率、可擴展性和可靠性
紅帽企業版Linux 6支持更多的插座、內核、線程和內存空間。文件系統任務安排時間表的編排上更注重任務的運行時間、任務的輕重緩急等因素的綜合考慮,利用硬體響應和多核拓撲結構優化系統任務的執行和資源分配。
紅帽企業版Linux 6的文件系統默認是ext4(第四擴展文件系統),該版本更加健壯、規模可以拓展到16TB,還包含了可升級到100TB的XFS文件系統。其NFSv4 顯著改進了NFSv3的不足,並且是向後兼容的。新的文件系統允許運行在用戶空間中,並且用戶還可以在基於FUSE 的新文件系統(例如雲文件系統)上進行測試和開發。
在高可用性上,重新設計了基於Conga的Web介面,增加了額外的功能,使用起來更加容易。集群溝通管理系統Corosync技術也更加成熟、穩定和輕量級。改進後使用的KVM伺服器虛擬機可以在物理和出現故障或者關機狀態下管理服務。一個簡單的集群指令就可以用來管理不同伺服器的日誌,並通過一致的格式來記錄事件,具有更高的可讀性。
在電源管理上,紅帽企業版Linux 6的內核時鍾新的設計技術,可以讓系統處於最小系統消耗狀態。盡可能的減少了I/O子系統的電源消耗。系統管理員還可以通過控制電流閥值來減少電源的消耗。此外,優化了實時設備的訪問也幫助減少文件系統寫元數據的能耗開銷。
前所未有的資源管理
在系統資源的分配上,紅帽企業版Linux 6的Cgroups 可以組織系統任務以便進行跟蹤,並讓其他系統服務可以控制 cgroup 任務可能消耗的資源(分區)。 兩個用戶空間工具 cgexec 和 cgclassify 提供 cgroup 的簡單配置和管理功能。同時在cgroup上應用了內存資源控制器和網路資源控制器,以達到對內存資源和網路流量的**應用。
在存儲上,紅帽企業版Linux 6支持基於SAN的大型存儲、自動I/O 校準和自我調整以及擴展了 SCSI 和 ATA 標准和 I/O 提示,允許自動調整和 I/O 校準。
紅帽企業版Linux 6在聯網功能上支持IPv6.多隊列聯網功能改進了處理並行性,讓用戶可以從多個處理器和 CPU 內核獲得更好的性能。 對數據中心橋接的支持包括數據流量優先順序和流量控制,以提高服務質量。此外針對數據流量優先順序和流量控制,以提高服務質量。
穩定的應用程序開發與生產平台
在Web基礎架構上主要改進了Apache、Squid和Memcached三個方面的改進,紅帽企業版Linux 6支持Apache2.2版本,而Squid的主要是在可管理性和IPv6上性能支持。新版紅帽支持Memcached 1.4.4,該版是一個高性能、高度可擴展、分布式、基於內存的對象緩存系統,大大提高了動態Web應用程序的速度。
在Java性能的支持上,紅帽企業 Linux和OpenJDK的緊密集成包括在SystemTap 中支持Java 探測器,從而可支持更好的Java調試。我們都知道Tomcat6是運行在Java平台的開源和同類最佳應用伺服器。通過支持Java Servlets和Java伺服器頁面 (JSP),Tomcat為開發和部署動態Web應用程序提供穩定可靠的環境。所以在紅帽企業Linux也完善了Tomcat 6的支持。
此外,紅帽企業Linux還在應用程序、資料庫PostgreSQL 8.4.4、MySQL 5.1.47和MySQL 5.1.47上也做了多項的調整,在性能上有了大大的還進。
集成虛擬化
紅帽企業 Linux主要是基於內核的虛擬化,將KVM 管理程序完全集成到內核中,因此所有 RHEL 系統的改善均有利於虛擬化環境。而且該應用程序環境對物理系統和虛擬系統都是一致的。這樣用戶就可以在主機之間輕松移動虛擬機由此帶來的部署靈活性使管理 員可以在非高峰階段將資源整合到更少的機器,或在維護停機時間釋放硬體。
利用內核的硬體抽象使應用程序能夠獨立於底層硬體從物理環境轉移到虛擬化環境。提高了CPU 和內存可擴展性使每個伺服器可容納更多虛擬機。虛擬技術採用了先進的辦虛擬化介面,包括時鍾(由空循環內核支持)、中斷控制器、自旋鎖子系統和 vmchannel 等非傳統設備。
企業可管理性
紅帽企業Linux 6的安裝選項已重新整理為「工作負載配置文件」,使每個系統安裝都能向特定任務提供合適的軟體。基於標準的 Linux可管理性規范(SBLIM)使用基於Web的企業管理(WBEM)來管理系統。用Dracut取代了mkinitrd,最大限度地減少底層硬體改變的影響,更易於維護,並使支持第三方驅動程序更容易。
改進了列印技術的支持,使得列印機能及時發現來CUPS和system-config-printer的列印機配置服務。增加基於SNMP 的墨水和碳粉供應水平監控和列印機狀態監控簡化了監控功能,讓用戶可以有效地管理墨水和硒鼓庫存。
此外,紅帽企業Linux的Samba改進了包括支持 Windows 2008 R2信任關系:Windows cross-forest、傳遞信任和單向域信任。允許應用程序使用OpenChange來訪問使用本地協議的Microsoft Exchange Server,允許Evolution等郵件客戶端與 Exchange Server更緊密地集成。
㈩ 誰能簡單講講redhat的發展史
1993年,Bob Young 成立了ACC公司,這是一家郵購公司,主要業務是出售Linux和Unix的軟體附件。1994年,Marc Ewing 創建了自己的Linux發行版;
並將其命名為紅帽Linux(Ewing在就讀卡內基·梅隆大學期間曾經戴著一頂紅色的康奈爾大學長曲棍球帽子,這是他的祖父贈送給他的)。Ewing於十月份發布了該軟體,其被稱為萬聖節版本。
Young在1995年收購了Ewing的企業,兩者合並成為紅帽軟體公司,由Young擔任首席執行官 (CEO)。1999年8月11日,紅帽公司上市,實現了華爾街歷史上的第八大首日漲幅。Matthew Szulik 在當年12月接替Bob Young出任CEO。
1999年11月15日,紅帽公司收購了CygnusSolutions公司。Cygnus公司的創始人之一MichaelTiemann成為紅帽公司的首席技術官,並於2008年出任開源事務副總裁。
後來,紅帽公司又收購了WireSpeed公司、C2Net公司以及Hell'sKitchen Systems公司。
2000年2月,InfoWorld 連續第四年將其年度操作系統產品獎」授予紅帽Linux 6.1。2001年,紅帽公司收購了PlanningTechnologies公司,並於2004年收購了AOL的 iPlanet目錄和證書伺服器軟體。
2002年2月,紅帽公司將其總部從Durham遷移至北卡羅來納州羅利市北卡羅萊納州立大學的Centennial校區。次月,紅帽公司推出了紅帽 Linux高級伺服器,後來改名為紅帽企業版Linux (RHEL)。Dell、IBM、HP以及 Oracle 公司均宣布支持該平台。
2005年12月,《CIO Insight》(CIO洞察)雜志舉辦了其年度「廠商價值調查。」在該調查中,紅帽公司連續第二年位居第一。2005年12月19日,紅帽公司的股票進入NASDAQ-100成分股。
2006年6月5日,紅帽公司收購了開源中間件供應商JBoss公司,後者成為紅帽公司的一個部門。2006年9月18日,紅帽公司發布了紅帽應用棧(Red Hat Application Stack),其集成了JBoss技術,並通過了其他知名軟體廠商的認證 。
2006年12月12日,紅帽公司的股票交易從NASDAQ (RHAT) 轉移至紐約證券交易所(RHT)。2007年,紅帽公司收購了MetaMatrix,並與Exadel達成協議分發其軟體。
2007年3月15日,紅帽公司發布了紅帽企業Linux5,並在六月份收購了Mobicents。2008年3月13日,紅帽公司收購了Amentra,這是一家系統集成服務供應商,提供服務導向型架構、業務流程管理、系統開發以及企業數據服務。Amentra作為一家獨立公司開展運作。
2009年7月27日,紅帽公司取代CIT集團成為標准普爾500指數成分股,該指數是反映美國經濟狀況的500家領先企業的多元化指數。
2009年12月15日,有報道稱紅帽公司將支付880萬美元和解與其2004年7月以來財務業績重述相關的一樁集體訴訟案。該訴訟已經在等候美國北卡羅萊納州地方法院的判決。紅帽公司達成了建議的和解協議,並在11月30日結束的季度中入賬一次性費用880萬美元。
2011年1月10日,紅帽公司宣布將分兩個階段擴大其總部,為羅利市的運營部門增加540名員工,並投資超過1.09億美元。北卡羅萊納州將提供高達1500萬美元的激勵。第二個階段涉及到「進軍新的技術領域,例如軟體可視化以及技術雲計算產品。」
2011年8月25日,紅帽公司宣布將其約600名員工從北卡羅來納州立大學Centennial校區遷移至市中心的Two Progress Plaza(兩個進度廣場)。2013年6月24日,在重新掛牌的紅帽公司總部舉行了隆重的剪綵儀式。
在2012年,紅帽成為首家收入達到十億美元的開源公司,該年的年收入達到11.3億美元。2012年6月27日,紅帽公司宣布從應用軟體廠商Progress Software那裡收購FuseSource。紅帽公司此次收購FuseSource是為了「加快向企業用戶提供應用集成產品服務的步伐」。
2014年1月7日,紅帽公司收購CentOSProject。
2014年4月30日,紅帽公司以1.75億美元的價格將Ceph的企業級產品提供商Inktank收入囊中,已將Inktank的存儲產品整合在其基於GlusterFS(紅帽在2011年10月份斥資1.36億美元收購Gluster)的存儲產品中。
此次收購後,紅帽或將成為最大的開源存儲產品提供商,包括對象存儲、塊存儲和文件存儲。
2014年6月18日,紅帽公司收購開源雲計算服務提供商eNovance。eNovance的優勢在於系統集成能力和工程人才,加上紅帽在OpenStack領域的投入,兩者的聯合將滿足企業對OpenStack咨詢、設計及部署的更多需求。
2014年9月18日,紅帽公司收購領先的企業移動應用平台提供商FeedHenry。FeedHenry將進一步擴展紅帽的應用開發與集成、以及PaaS解決方案產品系列,幫助紅帽推進公有和私有環境中的移動應用開發。2018年10月29日早晨,IBM宣布以340億美元的價格收購Red Hat。
(10)redhat分布式存儲擴展閱讀:
紅帽JBoss中間件通過提供快速構建將人員、流程和信息連接在一起的系統所需的工具,來幫助組織發展其中間件基礎架構。紅帽JBoss中間件主要產品有紅帽JBoss企業應用平台、JBoss Web伺服器、JBoss 數據網格、JBoss 開發人員工作室、
JBoss門戶、JBoss運營網路,JBoss Fuse (企業服務匯流排-ESB),JBoss A-MQ(消息中間件)、JBoss數據虛擬化、JBoss Fuse Service Works、JBoss BRMS,JBoss BPM套件等。