當前位置:首頁 » 存儲配置 » 存儲集群系統

存儲集群系統

發布時間: 2022-10-15 06:53:16

存儲虛擬化是什麼集群存儲又是什麼

存儲虛擬化廣義上來說,就是通過映射或抽象的方式屏蔽物理設備復雜性,增加一個管理層面,激活一種資源並使之更易於透明控制。
存儲虛擬化(Storage Virtualization)最通俗的理解就是對存儲硬體資源進行抽象化表現。通過將一個(或多個)目標(Target)服務或功能與其它附加的功能集成,統一提供有用的全面功能服務。

集群存儲是指:由若干個「通用存儲設備」組成的用於存儲的集群,組成集群存儲的每個存儲系統的性能和容量均可通過「集群」的方式得以疊加和擴展。

❷ 分布式文件存儲系統通過什麼方式提高可用性和安全性

分布式存儲的六大優點


1. 高性能

一個具有高性能的分布式存戶通常能夠高效地管理讀緩存和寫緩存,並且支持自動的分級存儲。分布式存儲通過將熱點區域內數據映射到高速存儲中,來提高系統響應速度;一旦這些區域不再是熱點,那麼存儲系統會將它們移出高速存儲。而寫緩存技術則可使配合高速存儲來明顯改變整體存儲的性能,按照一定的策略,先將數據寫入高速存儲,再在適當的時間進行同步落盤。

2. 支持分級存儲

由於通過網路進行松耦合鏈接,分布式存儲允許高速存儲和低速存儲分開部署,或者任意比例混布。在不可預測的業務環境或者敏捷應用情況下,分層存儲的優勢可以發揮到最佳。解決了目前緩存分層存儲最大的問題是當性能池讀不命中後,從冷池提取數據的粒度太大,導致延遲高,從而給造成整體的性能的抖動的問題。

3. 多副本的一致性

與傳統的存儲架構使用RAID模式來保證數據的可靠性不同,分布式存儲採用了多副本備份機制。在存儲數據之前,分布式存儲對數據進行了分片,分片後的數據按照一定的規則保存在集群節點上。為了保證多個數據副本之間的一致性,分布式存儲通常採用的是一個副本寫入,多個副本讀取的強一致性技術,使用鏡像、條帶、分布式校驗等方式滿足租戶對於可靠性不同的需求。在讀取數據失敗的時候,系統可以通過從其他副本讀取數據,重新寫入該副本進行恢復,從而保證副本的總數固定;當數據長時間處於不一致狀態時,系統會自動數據重建恢復,同時租戶可設定數據恢復的帶寬規則,最小化對業務的影響。

4. 容災與備份

在分布式存儲的容災中,一個重要的手段就是多時間點快照技術,使得用戶生產系統能夠實現一定時間間隔下的各版本數據的保存。特別值得一提的是,多時間點快照技術支持同時提取多個時間點樣本同時恢復,這對於很多邏輯錯誤的災難定位十分有用,如果用戶有多台伺服器或虛擬機可以用作系統恢復,通過比照和分析,可以快速找到哪個時間點才是需要回復的時間點,降低了故障定位的難度,縮短了定位時間。這個功能還非常有利於進行故障重現,從而進行分析和研究,避免災難在未來再次發生。多副本技術,數據條帶化放置,多時間點快照和周期增量復制等技術為分布式存儲的高可靠性提供了保障。

5. 彈性擴展

得益於合理的分布式架構,分布式存儲可預估並且彈性擴展計算、存儲容量和性能。分布式存儲的水平擴展有以下幾個特性:

1) 節點擴展後,舊數據會自動遷移到新節點,實現負載均衡,避免單點過熱的情況出現;

2) 水平擴展只需要將新節點和原有集群連接到同一網路,整個過程不會對業務造成影響;

3) 當節點被添加到集群,集群系統的整體容量和性能也隨之線性擴展,此後新節點的資源就會被管理平台接管,被用於分配或者回收。

6. 存儲系統標准化

隨著分布式存儲的發展,存儲行業的標准化進程也不斷推進,分布式存儲優先採用行業標准介面(SMI-S或OpenStack Cinder)進行存儲接入。在平台層面,通過將異構存儲資源進行抽象化,將傳統的存儲設備級的操作封裝成面向存儲資源的操作,從而簡化異構存儲基礎架構的操作,以實現存儲資源的集中管理,並能夠自動執行創建、變更、回收等整個存儲生命周期流程。基於異構存儲整合的功能,用戶可以實現跨不同品牌、介質地實現容災,如用中低端陣列為高端陣列容災,用不同磁碟陣列為快閃記憶體陣列容災等等,從側面降低了存儲采購和管理成本。

❸ 當前主流分布式文件系統有哪些各有什麼優缺點

目前幾個主流的分布式文件系統除GPFS外,還有PVFS、Lustre、PanFS、GoogleFS等。
1.PVFS(Parallel
Virtual
File
System)項目是Clemson大學為了運行Linux集群而創建的一個開源項目,目前PVFS還存在以下不足:
1)單一管理節點:只有一個管理節點來管理元數據,當集群系統達到一定的規模之後,管理節點將可能出現過度繁忙的情況,這時管理節點將成為系統瓶頸;
2)對數據的存儲缺乏容錯機制:當某一I/O節點無法工作時,數據將出現不可用的情況;
3)靜態配置:對PVFS的配置只能在啟動前進行,一旦系統運行則不可再更改原先的配置。
2.Lustre文件系統是一個基於對象存儲的分布式文件系統,此項目於1999年在Carnegie
Mellon
University啟動,Lustre也是一個開源項目。它只有兩個元數據管理節點,同PVFS類似,當系統達到一定的規模之後,管理節點會成為Lustre系統中的瓶頸。
3.PanFS(Panasas
File
System)是Panasas公司用於管理自己的集群存儲系統的分布式文件系統。
4.GoogleFS(Google
File
System)是Google公司為了滿足公司內部的數據處理需要而設計的一套分布式文件系統。

❹ 分布式存儲和傳統存儲比較在哪些應用場景比較有優勢

1、分布式存儲優勢

分布式存儲可以使生產系統在線運行的情況下進行縱向擴展(Scale-Up)或橫向擴展(Scale-Out),且存儲系統在擴展後可以達到容量與性能均線性擴展的效果。其具有以下特性:

高性能

分布式存儲系統能夠將所有存儲節點的處理器資源、硬碟資源、網路資源進行整合,將任務切分給多台存儲節點,進行並發數據處理,避免了單個硬碟或設備造成的瓶頸,提升整個集群的處理能力。分布式存儲系統具有良好的性能擴展能力,可以滿足應用程序對存儲性能不斷增長的要求。

高擴展性

分布式存儲系統通過擴展集群存儲節點規模從而提高系統存儲容量、計算和性能的能力,通過增加和升級伺服器硬體,或者指通過增加存儲節點數量來提升服務能力。分布式存儲系統支持在線增加存儲節點,對前端業務透明,系統整體性能與存儲節點數量呈線性關系。

高可用性

分布式存儲系統同時基於硬體及軟體設計了高可用機制,在面對多種異常時(如存儲節點宕機、網路中斷、硬碟故障、數據損壞等)仍可提供正常服務,提高分布式存儲系統硬體的可用性可以通過增加存儲節點數量或者採用多種硬體冗餘機制保證。分布式存儲系統多採用副本機制或糾刪碼機制保證數據的高可用性,副本機制可以提供較高的數據冗餘度,但會降低存儲系統有效空間的利用率,糾刪碼機制可以在保證一定數據冗餘度的情況下,大幅提高存儲系統的有效空間利用率。

高安全性

分布式存儲系統支持可靠的許可權控制及互信確認機制,同時採用私有的數據切片及數據編碼機制,可以從多重角度保證集群系統不受惡意訪問和攻擊,保護存儲數據不被竊取。

2、分布式存儲應用場景

分布式的「四高」特性,使得其在高性能計算、大數據視頻雲及大數據分析等應用場景中有著廣泛的應用。

高性能計算場景

在如氣象氣候、地質勘探、航空航天、工程計算、材料工程等領域,基於集群的高性能計算,已成為必需的輔助工具。集群系統有極強的伸縮性,可通過在集群中增加或刪減節點的方式,在不影響原有應用與計算任務的情況下,隨時增加和降低系統的處理能力。根據不同的計算模式與規模,構成集群系統的節點數可以從幾個到成千上萬個。這些業務對後端的存儲系統提出了新的需求,包括統一的存儲空間、高效率的文件檢索、高帶寬的吞吐性能,高可靠的數據安全保障等。

大數據視頻雲應用場景

隨著視頻高清技術及超高清技術的普及,視頻大數據應用場景,如雪亮工程、平安城市、廣電媒資、影視製作、視頻網站等領域,對存儲設備提出了大容量、高讀寫性能、高可靠性、低延時及可擴展性等需求。針對這樣大規模視頻數據應用場景,就需要一個技術先進、性能優越的存儲系統作為後端數據存儲的支撐者。

大數據分析應用場景

伴隨著互聯網技術及人工智慧的發展,各種基於海量用戶/數據/終端的大數據分析及人工智慧業務模式不斷涌現,同樣需要充分考慮存儲功能集成度、數據安全性、數據穩定性,系統可擴展性、性能及成本各方面因素。

在數據爆發增長的「數字時代」,軟體定義的分布式存儲是存儲技術高速發展的結晶,並具有著很大的成長空間,必將應用於更廣泛的大數據業務場景。

❺ OpenStack選用哪種後端存儲系統比較好

和openstack融合度較好的就是ceph,國內大多數雲環境都使用ceph作為openstack的唯一後端存儲。國內使用ceph開發出分布式存儲系統的廠商有深圳元核雲、北京xsky等,性能都還不錯的。

❻ 集群系統與團隊協作

你有沒有遇到過這些場景。

場景一

領導:小明,上周組會跟你說的那個A項目進展如何?

小明:啊?還沒弄啊,我最近忙瘋了正在忙著B呀。這周我抽時間看一下。

一周以後,沒人還想得起A是什麼東西。

場景二

同事:小明我上周跟你說的A項目做的怎麼樣了。

小明:我搞定了,發你郵箱了。

同事:我們不是說好了做成那樣嗎,你怎麼這么做啊。

小明:我們之前說的就是這個呀,我還連續加了兩天班呢。

同事:......

小明:......

這樣的場景是否很熟悉。為什麼會這樣呢?是小明不靠譜?同事不靠譜?還是領導不靠譜?都不是,而是團隊之間的協同出了問題。

最近公司的計算機群需要擴展計算資源。長話短說,我們有兩類方案,一類是加機器,不改變構架價格相對便宜。第二類是改變構架,需要添加管理節點,計算節點,存儲節點,再加一套全新的管理軟體,讓它們協同起來,為以後擴展做一些基礎和准備。價格比較貴,但是構架有一定優勢,對於後續新節點的擴充有更好的拓展性。對於第一類方案,雖然便宜,但是節點越來越多,節點之間通信開銷會提高,集中和存儲的IO壓力也會增大,在某一個上限性能將不再提升,甚至下降。第二種方案優化了管理架構,加機器所帶來的性能提升可能會持續的時間長一點,瓶頸來的晚一點。業內專家也認為,有些時候不是堆機器就可以解決問題的。

通常來說,一個分布式計算集群系統會存在幾個重要角色角色,管理節點,計算節點,存儲節點,網路通信。計算節點增多,管理節點會繁忙成為瓶頸。存儲節點加多,網路通信IO有可能成為瓶頸。而集群內部的內部開銷會逐漸消耗掉越來越多的資源。而增大一個角色的權重,就會使得另一個角色成為瓶頸。

不同事物背後的本質也許是完全統一的,團隊不也是這樣嗎。自上而下的組織結構,領導說什麼下面聽話照做不思考,結果就是領導忙的像瘋子,員工忙的像傻子。那放任不管呢,員工自由發展。結果就像集群的機器之間網路全部癱瘓,無法形成像樣的戰鬥力,相互協同混亂不堪。然後管理者基本不知道下面員工在干什麼,而員工也不知道大方向在哪裡。另一個問題, 當事多人少的時候, 似乎想到的第一件事是招人。 招人很重要,也許是最重要的事, 但招人就像加計算節點會有一個副作用,增大了管理節點的壓力。 管理5個人一下的團隊, 管理者可以「兄弟們,跟我一起上, 炸掉前面那座碉堡」,人員少,人員間溝通高度統一,內部溝通產生的開銷相對小。 而管理50人的團隊, 也許就完全兩回事。 內部開銷會呈指數增長,最終多加了幾個人,最終生產力卻降低了。 如果加的人不靠譜,還可能造成所謂「污水效應」 劣幣驅逐良幣。 

回到最開始的小故事。 這個故事我覺得任何在職場待過幾年的人可能都有體會。 基本上每天茶餘飯後的吐槽估計也充斥這不少類似的內容, 估計結論都是小明不靠譜, 領導不靠譜, 同事不靠譜, 就是自己最靠譜。 就好比對於網路癱瘓的計算節點來說, 這個世界只有它自己一樣。 但本質上不是誰更不靠譜,而是之間的通信協議出了問題。 最近筆者也一直在頭疼類似的事情,怎麼能讓團隊知行合一,充滿戰鬥力,並且快速個人提高和成長。 不斷摸索中,找到了一套內功心法, 一套刀法外加一把屠龍寶刀。 

PDCA循環也叫做戴明循環, 戴明是一位美國質量管理大師,後來幫助豐田獲得了巨大成功。 核心理念如下:

P lan: 決定3W( W ho do W hat by W hen)

會議的本質是用時間來換取共識和結論。 開會之前充分准備,並且確定會議的目的和需要確定哪些議題。最終會議結束後,確定 3W 。 確定下一步任務是什麼。 誰來負責, 預計什麼時候能完成。 對於項目級別的大目標進行SMART原則的任務拆分。 只有成為具體任務, 才能有可執行性。 這一步可以說是最重要的一步,開會沒有結論,要麼開到有結論為止,要麼就不要開,否則就是浪費大家和公司的時間。 

D o: 執行

這必然是費時最多的一步。 目的在第一步確定的When之前把計劃執行完畢。 

C heck:檢查點,反饋。 

在截止時間前反饋進展, 是否成功。 如果失敗為什麼失敗。 最差的反饋就是沒有反饋。 無論換誰做老闆, 面對這樣的下屬都會極度沒有安全感。 「簡單的來說就是,交代的事情就不能回個話嗎?」

A ct: 總結,討論,處理。 

根據Check的結果進行總結,討論,解決,或者無法解決進入下一個PDCA循環。  

SMART原則, 我覺得是如何把一個抽象的項目變成一個個可執行的任務的基本功。 不知道你有沒有遇到這種情況, 一個看似高大上的項目布置下來, 做著做著越來越迷茫,似乎千頭萬緒永遠沒有頭緒,最終不了了之了。 團隊成員沒有明確的目標, 盲目嘗試了很多東西,激情消耗完了, 雜事插進來,高大上的項目被擱置在一邊,然後,就沒有然後了。 

S.M.A.R.T (Specific Measurable Attainable Relevant Time-Based)是一套把項目拆分成具體任務的衡量方法,具體如下。 

S pecific: 具體的, 一刀砍掉模稜兩可。  

M easurable: 可衡量的, 一刀砍掉標准不一。 

R elevant: 相關的, 一刀砍掉無關目標。 

A ttainable: 可實現的, 一刀砍掉不切實際。 避免,折騰半天發現理論上就是扯淡的情況。 曾經有人跟我說,用10多個樣本分成四五組還要做機器學習,訓練各種高大上的模型就是這種情況。 

T ime-Based:有時間期限, 一刀砍掉沒完沒了的拖延。 

在項目管理工具出現之前, 有一種基於白板的團隊工作方法叫做scrum, 類似下面這個樣子。 

在scrum項目站會的時候大家制定計劃,明確分工,每人一種顏色。 把需要做的事情貼在TODO 泳道, 正在做的從TODO遷移到Doing, 結束的進一步遷移到Done。 這樣整個團隊都可以明確看到每個人的工作進度和整個項目進度。scrum方法其實還有更多的內涵,這里我理解的還比較膚淺,我就不再多說了。 

在當今互聯網時代, 涉及到更多的人,在不同時間,地點進行協作。 使用一些工具更加簡單有效。 teambition, trello, tower都是很好的工具可以嘗試。 目前我們團隊剛剛引進了trello, 打開團隊看板, 有一種忽然第一次知道大家都在干什麼的感覺。 trello的看板大體如下。 

通過這樣的看板, 團隊負責人可以明確知道每一個下屬都在干什麼,有哪些問題,有哪些成果。 項目需要的文件共享和溝通記錄可以放在每一個卡片下面便於歸檔查詢。 

1. 團隊提高產出不只是招人那麼簡單, 就像擴充集群不能只是加節點。 

2. PDCA循環和SMART原則, 高效開會,把項目變成任務, 把任務分配給個人。 

3. 項目協同軟體和scrum方法, 讓團隊的管理節點實現高可用。 

❼ 如何區分分布式/集群/並行文件系統

分布式文件系統、集群文件系統、並行文件系統,這三種概念很容易混淆,實際中大家也經常不加區分地使用。總是有人問起這三者的區別和聯系,其實它們之間在概念上的確有交叉重疊的地方,但是也存在顯著不同之處。 分布式文件系統 自然地,分布式是重點,它是相對與本地文件系統而言的。分布式文件系統通常指C/S架構或網路文件系統,用戶數據沒有直接連接到本地主機,而是存儲在遠程存儲伺服器上。NFS/CIFS是最為常見的分布式文件系統,這就是我們說的NAS系統。分布式文件系統中,存儲伺服器的節點數可能是1個(如傳統NAS),也可以有多個(如集群NAS)。對於單個節點的分布式文件系統來說,存在單點故障和性能瓶頸問題。除了NAS以外,典型的分布式文件系統還有AFS,以及下面將要介紹的集群文件系統(如Lustre, GlusterFS, PVFS2等)。 集群文件系統 集群主要分為高性能集群HPC(High Performance Cluster)、高可用集群HAC(High Availablity Cluster)和負載均衡集群LBC(Load Balancing Cluster)。集群文件系統是指協同多個節點提供高性能、高可用或負載均衡的文件系統,它是分布式文件系統的一個子集,消除了單點故障和性能瓶問題。對於客戶端來說集群是透明的,它看到是一個單一的全局命名空間,用戶文件訪問請求被分散到所有集群上進行處理。此外,可擴展性(包括Scale-Up和Scale-Out)、可靠性、易管理等也是集群文件系統追求的目標。在元數據管理方面,可以採用專用的伺服器,也可以採用伺服器集群,或者採用完全對等分布的無專用元數據伺服器架構。目前典型的集群文件系統有SONAS, ISILON, IBRIX, NetAPP-GX, Lustre, PVFS2, GlusterFS, Google File System, LoongStore, CZSS等。 並行文件系統 這種文件系統能夠支持並行應用,比如MPI。在並行文件系統環境下,所有客戶端可以在同一時間並發讀寫同一個文件。並發讀,大部分文件系統都能夠實現。並發寫實現起來要復雜許多,既要保證數據一致性,又要最大限度提高並行性,因此在鎖機制方面需要特別設計,如細粒度的位元組鎖。通常SAN共享文件系統都是並行文件系統,如GPFS、StorNext、GFS、BWFS,集群文件系統大多也是並行文件系統,如Lustre, Panasas等。如何區分?區分這三者的重點是分布式、集群、並行三個前綴關鍵字。簡單來說,非本地直連的、通過網路連接的,這種為分布式文件系統;分布式文件系統中,伺服器節點由多個組成的,這種為集群文件系統;支持並行應用(如MPI)的,這種為並行文件系統。在上面所舉的例子中也可以看出,這三個概念之間具有重疊之處,比如Lustre,它既是分布式文件系統,也是集群和並行文件系統。但是,它們也有不同之處。集群文件系統是分布式文件系統,但反之則不成立,比如NAS、AFS。SAN文件系統是並行文件系統,但可能不是集群文件系統,如StorNext。GFS、HDFS之類,它們是集群文件系統,但可能不是並行文件系統。實際中,三者概念搞理清後,分析清楚文件系統的特徵,應該還是容易正確地為其劃分類別的。

❽ 什麼是集群存儲

雲存儲是在雲計算(cloud computing)概念上延伸和發展出來的一個新的概念,是指通過集
群應用、網格技術或分布式文機房集中監控系統件系統等功能,將網路中大量各種不同類
型的存儲設備通過應用軟體集合起來協同工作,共同對外提供數據存儲和業務訪問功能的
一個系統。當雲計算系統運算和處理的核心是大量數據的存儲和管理時,雲計算系統中就
需要配置大量的存儲設備,那麼雲計算系統就轉變成為一個雲存儲系統,所以雲存儲是一
個以數據存儲和管理為核心的雲計算系統。他們基於虛擬化技術和集群架構,具有強大的
橫向擴展能力。雲存儲設備橫向擴展的方式讓存儲系統具有了無限擴展的能力,它能夠實
現控制器與硬碟的同時擴展,也就是性能與容量可以同時實現線性擴展。

集群存儲是通過將數據分布到集群中各節點的存儲方式,提供單一的使用介面與界面,使
用戶可以方便地對所有數據進行統一使用與管理。集群中所有磁碟設備整合到單一的共享
存儲池中提供給前端的應用伺服器,極大提高了磁碟利用率,可以為非結構化數據提供具
備極高IO帶寬和靈活可擴展性的存儲解決方案。

❾ 集群NAS與集群文件系統的區別

Veritas的CFS,IBM的GPFS,這些屬於集群文件系統,就類似於windows下面常用的FAT或者NTFS一樣,是一種文件系統格式,只不過,集群文件系統可以讓多個計算節點同時讀寫同一個文件系統的分區

集群NAS,是採用了集群文件系統,多個NAS頭可以做性能和埠橫向擴展,共同對網路上的主機提供網路文件存儲服務的設備

❿ isilon 集群存儲採用什麼文件系統

集群文件系統的選擇有很多種,但是要想把每種系統的優劣性能都弄清楚,是需要花費不少時間和精力的。我們在此為大家介紹一些常用的集群文件系統,讓讀者朋友對此有一個了解,在選擇上有一個參考。 集群文件系統基礎架構有些讀者也許希望裝配一組可以並行訪問同一個文件系統的伺服器,而另一些讀者可能想復制存儲器並提供並行訪問和冗餘。有兩種方法可以實現多伺服器訪問同一個磁碟,一種方法是讓那些伺服器都可以看到那個磁碟,另一種方法則是通過復制。 共享磁碟結構在光纖通道SAN和iSCSI領域是最常見的結構。配置存儲系統相當簡單,這樣多個伺服器就可以看到同一個邏輯塊設備或LUN,但是如果沒有群集文件系統,那麼當多個伺服器同時想使用那個邏輯塊設備時就會出現混亂。 這個問題與使用群集文件系統有關,我們將在下文中詳細介紹。 一般而言,共享磁碟系統有個弱點,那就是存儲系統。但是情況也並非總是如此,因為利用現在的技術是很難理解共享盤的概念的。 SAN、NAS設備和基於Linux系統的商品硬體可以將所有的基礎磁碟實時復制到另一個存儲節點,從而提供一個模擬共享盤環境。基礎模塊設備被復制之後,那些節點就可以訪問相同的數據,也可以運行同一個群集文件系統了,但是這種復制超出了傳統共享盤的定義。 相反,不共享才是共享盤的問題所在。連接著不同存儲設備的節點會在每個模塊被寫入數據時將變化通知給主伺服器。 現在,不共享架構仍存在於Hadoop那樣的文件系統之中,那些文件系統可以在許多節點故意建立多個數據副本,從而提高性能和冗餘。而且,在不同存儲設備或節點之間利用自己的存儲設備進行復制的群集也可以做到不共享。 集群文件系統設計選擇正如我們所說的,你不能通過多個伺服器訪問同一個模塊設備。你聽說過文件系統鎖定,因此普通的文件系統並不能實現這一點就有些奇怪了。 在文件系統級別上,文件系統本身會將文件鎖定以保證數據不會出錯。但是在操作系統級別上,文件系統啟動程序完全可以訪問基礎模塊設備,它們可以在基層模塊設備之間自由的漫遊。大部分文件系統都會認為它們被分配了一個模塊設備,而且那個模塊設備也只是它們自己所有。 為了解決這個問題,集群文件系統採用了一種並行控制機制。有些集群文件系統將把元數據保存在共享設備的一個分區里,另一些集群文件系統則會使用集中式元數據伺服器來保存元數據。 不管採用哪種方案,集群中的所有節點都可以看到文件系統的狀態,從而保證安全的並行訪問。然而,如果你想保證系統的高利用率和消除單點故障問題,那麼採用集中式元數據伺服器的解決方案就要略遜一籌了。 另一個注意事項:集群文件系統要求在節點發生故障時迅速做出反應。如果某個節點寫入錯誤數據或由於某種原因停止關於元數據變化的通信,其他節點必須能夠將它隔離出去。隔離可以通過多種方式來實現,最常用的方法是利用斷電管理來實現。健康的節點可以在發現問題時第一時間關閉另一個節點電源(STONITH)以保全數據。集群文件系統詞典GFS:全局文件系統 GFS是應用最廣泛的集群文件系統。它是由紅帽公司開發出來的,允許所有集群節點並行訪問。元數據通常會保存在共享存儲設備或復制存儲設備的一個分區里。 OCFS:甲骨文集群文件系統 從概念上來說,OCFS與GFS非常相似,現在OCFS 2已經被應用於Linux系統之中。 VMFS:VMware的虛擬計算機文件系統 VMFS是ESX伺服器用來允許多個伺服器訪問同一個共享存儲設備的集群文件系統。這樣就可以實現虛擬機在不同伺服器之間的無縫遷移,因為源伺服器和目標伺服器都可以訪問同一個存儲設備。日誌是分布式的,ESX伺服器之間也不會出現單節點故障。 Lustre:Sun的集群分布式文件系統。 Lustre是專門用於包含數千個節點的大型集群的分布式文件系統。Lustre已經支持Linux系統,但是高速計算環境之外的應用程序是有限的。 Hadoop:一個象谷歌那樣使用的分布式文件系統。 這不是一個集群文件系統,但是卻是一個分布式文件系統。我們將Hadoop收錄進來是因為它的應用越來越廣泛,而且利用Hadoop的存儲架構設計決策的組合很多。但是默認配置下,你會在3個不同的節點上擁有3個數據副本。一旦數據發生變化,每個數據副本都會更新,因此,從某種意義上來說,它也可以被看做是集群文件系統。然而,Hadoop存在一個故障點隱患,即跟蹤記錄所有文件系統級數據的命名節點。 做出最好選擇有太多選擇並不是壞事。你可以根據執行目標選擇使用合適的集群文件系統以及存儲架構。 只要有計劃地使用,所有這些文件系統都可以發揮出應有的作用。
,

熱點內容
影豹選哪個配置最好 發布:2025-05-14 14:28:50 瀏覽:255
定期預演算法的 發布:2025-05-14 14:24:08 瀏覽:894
interbase資料庫 發布:2025-05-14 13:49:50 瀏覽:691
微商海報源碼 發布:2025-05-14 13:49:42 瀏覽:347
分布式緩存部署步驟 發布:2025-05-14 13:24:51 瀏覽:611
php獲取上一月 發布:2025-05-14 13:22:52 瀏覽:90
購買雲伺服器並搭建自己網站 發布:2025-05-14 13:20:31 瀏覽:689
sqlserver建立視圖 發布:2025-05-14 13:11:56 瀏覽:486
搭建httpsgit伺服器搭建 發布:2025-05-14 13:09:47 瀏覽:256
新電腦拿回來我該怎麼配置 發布:2025-05-14 13:09:45 瀏覽:241