創建vmfs數據存儲
⑴ lun格式化成VMFS,怎樣轉為裸lun
愛特數據恢復為你解答:當LUN包含VMFS數據存儲副本時,您可以使用現有簽名或通過分配新簽名來掛載該數據存儲。在LUN中創建的每個VMFS數據存儲都有一個唯一的UUID,該UUID存儲在文件系統超級塊中。對LUN進行復制或生成快照後,生成的LUN副本的每個位元組都與原始LUN完全相同。因此,如果原始LUN包含具有UUIDX的VMFS數據存儲,則LUN副本會顯示包含具有完全相同UUIDX的相同的VMFS數據存儲或VMFS數據存儲副本。ESX可以確定LUN是否包含VMFS數據存儲副本,並使用其原始UUID掛載數據存儲副本,或更改UUID從而對該數據存儲進行再簽名。以上說的比較專業,為了保險安全期間,先到愛特數據中心看看,然後再進一步做打算。希望對你有幫助!
⑵ 如何確定VMware VMFS數據存儲的大小
為VMware虛擬機檔系統(VMFS:Virtual Machine File System)選擇合適的資料存儲大小非常重要,因為合適的資料存儲大小一旦定下來,後期就很難修改。如何正確地計算資料存儲空間大小取決於某些特定因素,這些因素用戶可能以前沒有考慮到。這不僅僅是虛擬磁片檔(用戶希望把這些虛擬磁片檔放置在一個單獨的邏輯單元號上)數量所映射的全部大小,用戶也需要考慮組成一台虛擬機的其他相關檔。
對虛擬機進行的一些特定操作,如掛起、加電和創建快照,同時也創建其他相關檔。所以不要在同一個卷上過多部署虛擬機,由於輸入和輸出(I/O)競爭和LUN的鎖定技術,如果在同一個卷上部署太多虛擬機會就會影響到虛擬機性能。在本文中,TechTarget中國的虛擬化專家Eric
Siebert將羅列出在計算VMFS資料存儲大小時需要考慮到的多方面因素,然後給出一個計算虛擬基礎架構資料存儲大小的公式。
計算每一個LUN上的虛擬機
我並不推薦使用多個LUN來擴展VMFS資料存儲,相反我更傾向於為VMFS卷創建一個單獨的LUN,這就是需要先計算合適大小的原因。因此,一個單獨LUN上究竟有多少個虛擬機呢?答案當然不是只有一個,通常情況下每一個LUN上會部署14到16個虛擬機,具體數目與VM產生的磁片輸入輸出和使用快照的頻率有關。如果平台上所有虛擬機輸入輸出都比較少,如網站和應用程式伺服器,就可以在一個LUN上部署多個虛擬機。
同理,如果平台上虛擬機輸入輸出操作非常頻繁,如郵件和資料庫伺服器,就需要在一個LUN上部署較少量的虛擬機。如果使用快照的頻度比較高,並且每台虛擬機運行時間變化也比較大的話,也不要在一個LUN上部署太多虛擬機。如果VMkernel對VMFS元資料有所改動,也就是所謂的SCSI預留,不斷增長的快照就會引起宿主虛擬機短期內需要對LUN頻繁訪問。一旦這種情況發生,多個主機就不能同時對元資料進行寫操作,那麼VMFS就崩潰了。更新完成之後,鎖定就解除了。快照將會有16MB的增量,每一次快照增長都會帶來SCSI預留。下面列舉的是其他一些不太經常使用的操作(這些操作也能引起SCSI預留):
使用VMotion遷移虛擬機
使用範本創建一台新虛擬機或者部署一台虛擬機
給虛擬機加電或關閉電源
創建一個範本
新建或者刪除一個檔(包含快照)
計算LUN大小
在決定資料存儲區域上要部署的虛擬機數量之後,就要計算需要的LUN大小。然而因為有很多其他相關檔都在資料存儲區域,所以增加虛擬磁片規模並不是一個好方法。在下面可以看到一個關於這些檔的列表以及其映射大小,我們首先流覽一下存在於每台虛擬機的這些檔及其映射大小:
.vswp檔是一個虛擬交換檔,大小就是指定給虛擬機的記憶體減去指定給虛擬機的任何記憶體預留大小,所以默認狀態其大小為0。例如,如果給虛擬機分配4GB的記憶體,.vswp檔在虛擬機加電時創建、關掉電源時刪除。同樣,如果創建一個4GB記憶體預留(通常情況下是建議不要這樣做),創建的.vswp檔大小就是0位元組。
.vmss檔只有在虛擬機被掛起時創建,大小和分配給虛擬機的記憶體相同。
.vmsn檔用來存儲快照創建時的快照狀態(如果選擇的話,也可以包括記憶體),大小和指定給虛擬機記憶體的大小一樣。如果不存儲快照記憶體狀態,這個檔就會非常小(通常不超過1MB)。
delta.vmdk檔是快照資料檔案,檔大小以16MB開始,並且在虛擬機磁片發生變化的時候,以16MB的增量增長。這些檔的大小不能超過原始的磁片檔大小,增長的速度取決於對原始磁片操作的次數,這在很大程度上又取決於虛擬機上面運行的應用程式。相對比較靜態的應用程式,如網站和應用程式伺服器,通常情況下沒有太多的資料變化,因此就應該使用相對較小、增長比較緩慢的快照。然而,郵件和資料庫伺服器可能有很多對磁片的寫操作,快照增長比較快。
其他各種各樣的文件通常比較小,在VMFS卷上不會佔用太大空間。這些檔包括.nvram文件 (BIOS),
.vmx檔(配置),
.vmsd檔(快照元資料)和.log文件。每台虛擬機為這些檔分配50MB空間就足夠了,用戶也可以使用高級虛擬機參數控制日誌檔的數量和規模。
進一步完善上述說明,下面是計算VMFS磁片大小的基本步驟:
對所有計劃部署在資料存儲區域的虛擬機虛擬磁片大小求和。
第二步可以分為幾個相互獨立的步驟:對所有分配給虛擬機的記憶體大小求和(步驟A);對所有指定給記憶體預留的大小求和(步驟B)(需要注意的是記憶體預留值為0);從分配給記憶體大小的總和中減去指定給記憶體預留大小的總和,得到的就是需要給.vswp檔分配的空間(步驟A的結果減去步驟B的結果)。同樣,也可以在本地資料存儲區域配置主機來存儲.vswp文件。如果這樣做的話,就不需要把計算的總和包括進來。
為每台虛擬機添加50MB用於各種各樣的文件。
如果計畫暫停虛擬機,就需要計算大概所需的磁碟空間大小,這可以通過將你所期望暫停的虛擬機的最大數量同時乘以分配給每個虛擬機的最大記憶體數量獲得。
這一步也包括幾個小步驟:計算快照所需要的空間大小,這是基於對多個因素的粗略估計,我建議盡量過高估計。首先近似估計同時運行的最大快照數量(步驟A);再計算每個虛擬磁碟空間平均需要多少GB(步驟B);確定一個百分比乘數,這個百分比乘數的確定基於保持快照的時間和對快照的期望增長速度(20%為底限、40%為中等、60%為最高限)(步驟C);計算A*B*C,得到需要為快照所預留磁碟空間大小(單位:GB)。如果希望同時包括快照的記憶體狀態,就需要乘以(步驟A)次指定給單個虛擬機最大記憶體大小,來計算所需要的額外磁碟空間。
最後,我建議為不可預知事件和操作分配額外空間,確保不會出現在資料存儲區域上空間不夠的情況。在同一台虛擬機運行多個快照,一次又同時刪除這些快照的時候,這些額外的空間遲早就會用上。因為需要額外的空間提交(或者刪除)快照給原始磁片,所以需要為此再增加25GB空間。
總而言之,這些資料都是大概估算。快照是增加或者減少工作平台所需要磁碟空間數量的主要因素,並且很難對快照增長到什麼程度做出預測。這些准則可以幫助用戶規劃合理的資料存儲大小。但是要記住,最好是慎之又慎,這樣的話就需要更多磁碟空間。在創建了VMFS之後,如果不使用特定的方法(這些方法在此沒有提及),就不能增加VMFS的大小。
⑶ vSphere 5.0 +Win2008 雙機,共享存儲怎麼實現
本文摘要
以vSphere為代表的虛擬化架構中要求有FC/iSCSI SAN或NAS等外部共享存儲設備,它們與伺服器本地存儲(如硬碟)最大的不同是需要先在存儲設備端為需要存取數據的主機賦予訪問許可權。相比於使用存儲設備的管理軟體創建卷和分配主機,在vSphere Client中添加Datastore和選擇VMFS實在是小菜一碟。
返回分頁閱讀
摘要:以vSphere為代表的虛擬化架構中要求有FC/iSCSI SAN或NAS等外部共享存儲設備,它們與伺服器本地存儲(如硬碟)最大的不同是需要先在存儲設備端為需要存取數據的主機賦予訪問許可權。相比於使用存儲設備的管理軟體創建卷和分配主機,在vSphere Client中添加Datastore和選擇VMFS實在是小菜一碟。
內容:
共享存儲的價值與必要性;
將卷分配給ESXi主機;
創建Datastore(數據存儲);
vSphere 5引入VMFS-5的價值。
注意:留意存儲設備的管理軟體,易用性實有天壤之別……稍後的存儲配置進階篇會為您展現。
共享存儲的空間與許可權分配
從物理環境到虛擬環境,存儲的重要性有了很大的提升。道理很簡單:物理機多少還有硬體實體,虛擬機則完全以數據的形態存在。考慮到數據的安全性和虛擬機遷移(vMotion、Storage vMotion)的便利性,vSphere的架構中要求有FC/iSCSI SAN或NAS等外部共享存儲設備(vSphere 5.0中新增的vSphere Storage Appliance還不成熟,不在本文的討論范圍之內),劃分出相應的空間來,作為保存虛擬機的Datastore(數據存儲)。
⑷ vmware中瀏覽數據儲存
為VMware虛擬機檔系統(VMFS:Virtual Machine File System)選擇合適的資料存儲大小非常重要,因為合適的資料存儲大小一旦定下來,後期就很難修改。如何正確地計算資料存儲空間大小取決於某些特定因素,這些因素用戶可能以前沒有考慮到。這不僅僅是虛擬磁片檔(用戶希望把這些虛擬磁片檔放置在一個單獨的邏輯單元號上)數量所映射的全部大小,用戶也需要考慮組成一台虛擬機的其他相關檔。
⑸ VMware vSphere 5有什麼用
什麼是VMware vSphereVMware vSphere 是業界領先且最可靠的虛擬化平台。vSphere將應用程序和操作系統從底層硬體分離出來,從而簡化了 IT操作。您現有的應用程序可以看到專有資源,而您的伺服器則可以作為資源池進行管理。因此,您的業務將在簡化但恢復能力極強的 IT 環境中運行。編輯本段vSphere Essentials和Essentials PluvSphere Essentials 和 Essentials Plus 專門為剛開始體驗虛擬化的小型組織而設計。兩個版本都提供最多三台伺服器主機的虛擬化和集中化管理。vSphere Essentials 可以整合伺服器以幫助您充分利用硬體。 Essentials Plus 添加了 vSphere Data Recovery 等功能,可以實現數據和虛擬機的無代理備份。它還包括業務連續性功能,如 vSphere High Availability(用於在檢測到伺服器故障時自動重啟應用程序)和 vSphere vMotion(可完全消除用於伺服器維護的計劃內停機)。由此可以建立一個始終可用的IT 環境,此環境更經濟高效、恢復能力更強,並且能更好地響應業務需求。要獲得具有更高級功能的可擴展解決方案,請升級到vSphere Acceleration Kit。編輯本段無需共享存儲硬體推出 vSphere Storage Appliance :vSphere Essentials Plus 中的高級特性需要共享存儲功能。過去,這意味著您的環境中需要有共享存儲硬體,但是現在不必了。現在您可以將伺服器變為共享存儲。vSphere Storage Appliance 這款革命性軟體讓您免去了共享存儲硬體的成本和復雜性,卻能擁有共享存儲的功能。只需點擊幾下滑鼠即可完成安裝,而使用 vCenter Server 即可對其進行管理 – 非常適合所有中小型企業。保持 IT 操作的簡單性,同時使用 vSphere 的高可用性和自動化功能。編輯本段vSphere Essentials Essentials Plus 用途· 消除停機並保護數據 — 利用虛擬機實時遷移和虛擬機集群中的應用程序高可用性實現始終可用的 IT。 · 整合並優化 IT 投資 — 實現 10:1 或更高的整合率,將硬體利用率從 5% - 15% 提高到 80% 甚至更高,而無需犧牲應用程序性能。 · 最大程度提高應用程序可用性並保護信息資產 — 通過 vSphere堅實的可靠性以及集成的備份、恢復和故障切換功能,確保始終可用的 IT 運營連續性。 · 簡化管理和提高工作效率 — 在數分鍾(而不是數日或數周)內部署新的應用程序,監控虛擬機性能,並實現修補程序和更新管理的自動化。 · 優化軟體開發過程 — 允許測試和開發團隊在共享伺服器、網路和存儲基礎架構的同時,在安全、隔離的沙箱環境中安全地測試復雜的多層配置。編輯本段主要功能和組件VMware vSphere Essentials 和 Essentials Plus 包括以下主要功能和組件 : · VMware ESXi 虛擬化管理程序體系結構提供強健的、經過生產驗證的高性能虛擬化層,允許多個虛擬機共享硬體資源,性能可以達到甚至在某些情況下超過本機吞吐量。 · VMware vCenter Server for Essentials 通過內置的物理機到虛擬機 (P2V) 轉換和使用虛擬機模板進行快速部署,可為所有虛擬機和 vSphere 主機提供集中化管理和性能監控。 · vSphere 虛擬對稱多處理 (SMP) 使您能使用擁有多達 4 個虛擬 CPU 的超強虛擬機。 · vSphere vStorage Virtual Machine File System (VMFS) 允許虛擬機訪問共享存儲設備(光纖通道、iSCSI 等),而且是其他 vSphere 組件(如 Storage vMotion)的關鍵促成技術。 · vSphere vStorage Thin Provisioning 提供共享存儲容量的動態分配,允許 IT 部門實施分層存儲戰略,同時將存儲開支削減多達 50%。 · vSphere vStorage API 可提供與受支持的第三方數據保護的集成。 · vCenter Update Manager 可自動跟蹤、修補和更新 vSphere主機以及 VMware 虛擬機中運行的應用程序和操作系統。 · vCenter Converter 允許 IT 管理員將物理伺服器和第三方虛擬機快速轉換為 VMware 虛擬機。 · vSphere VMsafe API 支持使用與虛擬化層協同工作的安全產品,從而為虛擬機提供甚至比物理伺服器級別更高的安全性。 · 硬體兼容性可兼容最廣泛的 32 位和 64 位伺服器和操作系統、存儲和網路設備以及企業管理工具。 此外,VMware vSphere Essentials Plus 還包括為實現始終可用的 IT 而提供的以下業務連續性功能和組件 : · vSphere vMotion 支持在不中斷用戶使用和不丟失服務的情況下在伺服器間實時遷移虛擬機,從而無需為伺服器維護安排應用程序停機。 · vSphere High Availability 可在硬體或操作系統發生故障的情況下在幾分鍾內自動重新啟動所有應用程序,實現經濟高效的高可用性。 · vSphere Data Recovery 可為小型環境中的虛擬機提供簡單、經濟高效、無代理的備份和恢復。編輯本段vSphere 5新功能加速實現100%虛擬化 在vSphere 5中,由於引入了存儲分布式資源調度(Storage DRS)和配置文件驅動存儲(Profile-Driven Storage),大大改善了存儲資源管理。 在新的VMware HA架構,每台主機運行一個特別的、獨立於vpxd代理(用於和vCenter Server進行通信)的故障域管理器。發生故障時,新的HA架構能夠比vSPhere 5之前版本的HA更快啟動虛擬機。 此外,VMware vShield 5提供專為虛擬化和雲環境設計的基於軟體的自適應型安全模式;VMware vCenter Site Recovery Manager 5在原始站點和備份站點支持異構存儲。 簡化vSphere5許可操作 vSphere 5實行新的許可策略。VMware繼續採用每處理器(CPU)許可模式,將取消當前的CPU內核物理限制和每伺服器物理RAM限制,代之以基於虛擬化內存池(或稱為vRAM)的軟體授權模式 。。 對於遷移到vSphere 5的用戶來說,這些改變將影響主機的架構及管理。 通過增加大量內存升級物理主機將變得非常昂貴。相反擴展具有更少內存的更多主機將更加劃算。同時,既然內存方面的許可成本過高,防止虛擬機蔓延,給虛擬機配置合理的資源參數也將更加重要。 VMFS 5 使用VMFS 5能夠創建2TB的虛擬磁碟,但是創建新的VMFS卷只能使用1MB的塊大小。VMware管理員必須處理各種各樣的塊大小並限制虛擬磁碟大小;而VMFS 5解決了大量相關的問題。 從VMFS 3升級至VMFS 5很簡單,而且不會對數據造成破壞(在以前,如果從之前版本的VMFS升級,將破壞數據卷上的所有數據包括虛擬機),而且升級至VMFS 5同樣可以保留之前配置的塊大小。 雖然VMFS 5支持更大的塊大小,但是特定的vStorage API特性要求數據存儲具有相同的塊大小。其中一個特性就是復制-卸載(-offload),該特性在hypervisor和陣列上卸載與存儲相關的特定功能。因此如果你的VMFS 3沒有使用1MB的塊大小,那麼最好創建新的VMFS 5數據卷。 VMFS 5同樣與通過多個LUN組合而成的容量高達64TB的LUN兼容。 SplitRx模式 vSphere 5很有趣的網路特性之一就是SplitRx,該特性是接收、處理從其他網路設備發送到網卡的數據包的新方法。 以前,虛擬機在單個共享的環境中處理網路數據包,這個過程可能會受到抑制。現在能夠將接收到的數據包拆分到多個獨立的環境中進行處理(想像一下,以前數據包必須在一個通道上等待,但是現在有了一條專用的VIP通道直接訪問虛擬機)。 使用SplitRx模式,可以指定哪塊虛擬網卡在單獨的環境中處理網路數據包。但是只能在使用VMXNET3適配器的虛擬網卡上啟用SplitRx模式。 但是vSphere 5的這一特性同樣增加了主機的CPU開銷,因此在部署時需要引起注意。VMware建議在多播工作負載下也就是同時具有多個網路連接時使用SplitRx模式。 網路I/O控制 在vSphere 5中VMware同樣增強了網路I/O控制,這樣你可以劃分虛擬機流量的優先順序。VMware在vSphere 4中引入了網路I/O控制,允許創建資源池並為主機特定的網路流量,比如NFS、iSCSI、管理控制台以及vMotion設置優先順序。但是虛擬機的所有流量都是在一個資源池中,因此你不能為單個虛擬機的網路流量設置優先順序,確保關鍵的工作負載能夠使用足夠的網路帶寬。 然而,在vSphere 5中這個問題得到了解決。新的資源池基於802.1p網路標記。現在你可以創建多個資源池,為運行在一台主機上多個虛擬機分配不同的網路帶寬。這一特性對於多租戶環境或者在主機上混合了關鍵應用及非關鍵應用的情況下非常有意義,能夠確保重要的虛擬機獲得足夠的網路資源。 Storage vMotion功能增強 vSphere 5重新設計了Storage vMotion,使其更有效率。在Storage vMotion過程中,vSphere 5不再使用變化塊追蹤(Change Block Tracking)記錄磁碟的變化。相反,Storage vMotion執行鏡像寫操作,這意味著在遷移過程中所有寫入操作都同時寫入到源磁碟和目標磁碟。為確保兩端的磁碟保持同步,源和目標磁碟同時對每次寫入操作進行確認。 VMware同時對Storage vMotion進行了另一個巨大的改進:現在你可以在線遷移具有活動快照的虛擬機,這在vSphere 4中是不允許的。這是個很大的改進,因為Storage vMotion操作將在vSphere 5更加變得通用。而且新的存儲分布式資源調度特性將定期在數據存儲之間遷移虛擬機,重新分布存儲I/O負載。 vMotion功能增強 vSphere 5的很多特性都依賴vMotion這一核心技術,VMware在vSphere5中增強了vMotion的性能以及可用性。 也許最大改進就是執行vMotion操作時能夠使用多塊物理網卡。現在VMkernel將使用分配給VMkernel埠組的所有物理網卡自動對vMotion流量進行負載均衡。現在vMotion能夠使用多達16塊的1GB物理網卡或者多達4塊的10GB物理網卡,這將大大加快遷移速度。 由於引入了城域vMotion(Metro vMotion),vMotion將能夠更好地進行擴展。Metro vMotion將VMkernel介面與主機之間可接受的往返延遲增加到了10毫秒,而在調整之前,所支持的最大延遲僅為5毫秒,這在快速區域網中限制了vMotion的可用性。 Metro vMotion在主機之間仍然需要快速,低延遲的網路連接,但是它允許在更遠的距離之間比如城域網中使用vMotion。在城域網中,主機通常位於不同的物理區域。 由於在城域網中不同站點之間的距離通常少於100英里,所以網路延遲足以支持vMotion。但是跨越更遠距離的網路通常會產生更多的網路延遲,所以仍不能使用vMotion進行遷移。
⑹ 文件系統的VMFS
VMware Virtual Machine File System (VMFS )是一種高性能的群集文件系統,它使虛擬化技術的應用超出了單個系統的限制。VMFS的設計、構建和優化針對虛擬伺服器環境,可讓多個虛擬機共同訪問一個整合的群集式存儲池,從而顯著提高了資源利用率。VMFS 是跨越多個伺服器實現虛擬化的基礎,它可啟用VMware VmotionTM 、Distributed Resource Scheler 和 VMware High Availability 等各種服務。VMFS 還能顯著減少管理開銷,它提供了一種高效的虛擬化管理層,特別適合大型企業數據中心。採用 VMFS 可實現資源共享,使管理員輕松地從更高效率和存儲利用率中直接獲益。
⑺ OpenShift+VMware:新的容器架構
這是一個由VMware的Robbie Jerrom撰寫的訪客帖子。Robbie與VMware在歐洲的一些最大客戶一起工作,因為他們專注於將現代和雲本機應用程序和平台帶到他們的VMware軟體定義的數據中心。在加入VMware之前,Robbie花了十年時間作為軟體工程師構建企業軟體,如Java虛擬機、CICS和WebSphere。Robbie也是VMware首席技術官大使社區的成員,確保了VMware的工程組織和現實世界客戶之間的緊密協作。
在這篇博客中,我們更深入地探討了根據最近的發布,VMware和Red Hat是如何協作以更好地集成OpenShift容器平台和VMware的軟體定義數據中心(SDDC)基礎架構堆棧的。我們有許多共同客戶希望充分利用他們的技術投資組合。而且,由於VMware和Red Hat都將Kubernetes作為支持其現代應用程序的核心平台,因此,我們共同致力於為在VMware SDDC上部署OpenShift的客戶實現成功,這是合乎邏輯的。
下面,第一步是溝通和分享我們已經擁有的共同點。
VMware vSphere和Red HatEnterprise Linux已經可以很好地協同工作;但是IT團隊和OpenShift管理員往往忽略了為交付更好的存儲和SDN而進行的體系結構調整。為了解決這一問題,本文概述了Red Hat OpenShift Container Platform 3.11核心文檔的最新更新,其中包括了SDN和存儲集成的最新指導文檔以及支持SDN(NSX-T/NCP)和Kubernetes存儲的專用VMware文檔。
讓我們一起深入研究這兩個領域。
一、存儲
為了支持容器的持久存儲需求,VMware開發了vSphere雲服務程序及其相應的卷管理插件。這些可以提供給Red Hat OpenShift,用以支撐VMWare的vSAN或者支持vSphere的任意資料庫。雖然每個存儲後端的各不相同,但這種集成方案依舊可以滿足。
這些公布的存儲產品為VMFS、NFS或vSAN數據存儲。企業級功能(如基於存儲策略的管理(SPBM))提供了自動化的資源調配和管理,使客戶能夠確保其業務關鍵應用程序請求的QoS,並在SDDC平台上確保SLA達成。
SPBM在廣泛的數據服務和存儲解決方案中提供單一的統一控制平面。SPBM還使vSphere管理員能夠克服預先的存儲資源調配挑戰,例如:容量規劃、差異化的服務級別和管理容量凈空。
Kubernets StorageClass允許按需創建持久卷,而不需要創建存儲並將其掛載在OpenShift的節點之上。StorageClass指定一個提供者和相關參數,用於定義持久卷預期策略,該策略將動態地提供。
組合使用SPBM和vSphere數據存儲的組合作為抽象,我們隱藏了復雜的存儲細節,並為從OpenShift存儲持久數據(PV)環境提供了統一的介面。
根據使用的後端存儲,數據存儲可以是vSAN、VMFS或NFS:
●VSAN支持可提供強大性能和可靠性的超聚合基礎架構解決方案。VSAN的優點是簡化了存儲管理功能特性,具有諸如在vSphere IaaS層上驅動的存儲策略等功能。
●VMFS(虛擬機文件系統)是一個群集文件系統,允許虛擬化擴展到多個VMware vSphere伺服器的單個節點之外。VMFS通過提供對存儲池的共享訪問來提高資源利用率。
●NFS(網路文件系統)是一種分布式文件協議,可以像本地存儲一樣通過網路訪問存儲。
1)靜態和動態資源調撥
vSphere Cloud Provider提供兩種向Red Hat OpenShift容器平台提供存儲的方法:靜態資源調配和動態資源調配。首選的方法是使用動態資源調配——讓IaaS平台處理復雜性。與靜態資源調配不同,動態資源調配會自動觸發創建PV及其後端VMDK文件。這是一種更安全的方式,對於在vSphere上提供可靠的Red Hat OpenShift容器平台至關重要。
2)動態調撥
●為OpenShift集群定義默認的StorageClass
●在Kubernetes中創建Persistent Volume Claim
3)靜態調撥
●在vSphere存儲上創建虛擬磁碟並掛載到Red Hat OpenShift容器平台節點
●在OpenShift中為該磁碟創建持久卷(PV)
●創建一個持久卷,申請一個PVC
●允許POD認領PVC
與SPBM一起使用vSphere Cloud Provider,可以讓vSphere和OpenShift管理員了解存儲,並讓他們能夠在不增加OpenShift層復雜性的情況下利用後端存儲功能。
二、網路(SDN)
NSX-T數據中心通過NSX容器插件(NCP)幫助OpenShift客戶簡化了網路和基於網路的安全性。NCP在IaaS級別提供OpenShift和VMware NSX Manager之間的介面。
NCP在每個OpenShift節點上運行,並將容器的網路介面連接到NSX覆蓋網路。它監視容器生命周期事件,並通過調用NSX API管理容器的網路資源,如負載平衡器、邏輯埠、交換機、路由器和安全組。這包括客戶vSwitch的編程,以便在容器介面和虛擬網路介面卡(VNIC)之間標記和轉發容器流量。
NCP提供如下功能:
●自動為OpenShift集群創建NSX-T邏輯拓撲,並為每個OpenShift命名空間創建單獨的邏輯網路
●將OpenShift pods連接到邏輯網路,並分配IP和MAC地址
●支持網路地址轉換(NAT),並為每個OpenShift命名空間分配一個單獨的SNAT IP
●使用NSX-T分布式防火牆實施OpenShift網路策略
●支持進出網路策略
●在網路策略中支持IPBlock選擇器
●當為網路策略指定標簽選擇器時,支持matchLabels和MatchExpression
●使用NSX-T的7層負載均衡器實現OpenShift路由器
●通過TLS edge termination支持HTTP路由和HTTPS路由
●支持具有備用後端和通配符子域的路由
●為NSX-T邏輯交換機埠命名空間、pod名稱創建標簽,標記pod,並允許管理員基於標記定義NSX-T安全組和策略。
1)微分段
NSX-T(通過NCP)可以使用預定義的基於標簽的規則和每個命名空間的Kubernetes網路策略,將微分段應用到OpenShift pod。預定義的標記規則使您能夠在部署之前根據業務邏輯定義防火牆策略,而不是使用諸如靜態IP地址等效率較低的方法來制定安全策略。使用此方法,NSX-T中定義的安全組具有入口和出口策略,並進行了微分段,以保護敏感應用程序和數據,可以達到POD和容器底層級別。
最後,NSX-T為OpenShift集群提供了完整的網路可跟蹤性和可視性。NSX-T為Kubernetes提供了內置的操作工具,包括:
●埠連接
●流量追蹤
●埠鏡像
●IpFIX
以上方法為DevOps和專用網路團隊提供對OpenShift容器網路的更好可見性,使網路管理員和OpenShift管理員在診斷和排除問題時能夠有共同語言。
三、總結
VMware SDDC提供了彈性、可擴展的基礎架構,與VMware的Kubernetes解決方案以及Red Hat等關鍵合作夥伴的解決方案緊密集成。
展望未來,VMware和Red Hat都致力於支持我們的共同客戶和Kubernetes社區,共同目標是通過可參考體系結構提供更好的產品集成,該體系結構使改進的工具能夠在VMware的SDDC和Red Hat OpenShift容器平台上交付和管理雲本機應用程序。
原文鏈接:
ArthurGuo 職場老司機。21世紀初開始擁抱開源,後轉型項目管理。現在某雲計算公司擔任技術總監。掌握多門計算機語言,但更擅長人類語言。愛玩文字,不喜毒舌。
⑻ 如何正確運用vSphere中DRS存儲資源調度
以下是五個重要的Storage DRS設置要點,還有需要注意的一些誤區:
Storage DRS設置第一要點:首先考慮完全升級到vSphere。如果你決定同時啟用vSphere HA和Storage DRS的話,這一點很重要。在混合版本集群中,不應該同時啟用HA和Storage DRS,這樣做可能會導致主機故障,造成虛擬機虛擬磁碟的中斷。請注意:在啟用任何新功能之前,要確保升級了每一台集群主機。
Storage DRS設置第二要點:確定Storage DRS是否會對I/O負載能力進行負載均衡。Storage DRS可以根據存儲消耗量和/或存儲利用率來負載均衡虛擬機磁碟文件。在消耗量的情況下,Storage DRS能夠確保數據存儲之間的有效空間是均衡的。這與利用率情況有所不同,在利用率情況下,虛擬機磁碟文件是基於其活動水平來進行負載平衡的。差異在於存儲I/O延遲。在默認情況下,當存儲I/O延遲超過15毫秒時,Storage DRS會考慮對負載進行均衡。你可以通過在SDRS運行規則屬性(SDRS Runtime Rules)屏幕取消選中復選框「Enable I/O metric for SDRS recommendations」,來決定是否啟用第二種情況。
Storage DRS設置第三要點: 根據磁碟類型調節I/O延遲閥值。在啟用基於磁碟利用率的Storage DRS負載均衡功能後,還有第二個你需要注意的設置。這個設置同樣位於SDRS運行規則頁面中,在Storage DRS閥值框,你會看到為I/O延遲調節延遲閥值(從5毫秒到100毫秒之間)的滑塊。你應該根據你將要創建的集群中使用的磁碟類型來調整這個設置,你可以採用以下建議:
SSD磁碟: 10-15毫秒
光纖通道和SAS磁碟: 20-40毫秒
SATA磁碟: 30-50毫秒
這些只是提供了一個范圍,你需要在創建一個集群後監測Storage DRS的活動來決定什麼設置最適合你的需要。
Storage DRS設置第四要點:使用新創建的數據存儲而不是升級具有不同塊尺寸的VMFS卷。vSphere 4.x 使用的VMFS-3文件系統可以配置成四種不同塊大小中的一種,范圍從1MB到8MB。vSphere 5的VMFS-5文件系統只使用單個1MB塊大小。雖然能夠直接將VMFS-3升級到VMFS-5,但這樣做並不會將塊大小重新配置到vSphere 5的新標准。這可能創建具有不同塊大小的不同卷,而這些卷隨後可能出現在同一個集群中。
Vmware建議出於性能考慮,不要運行具有不同塊大小的Storage DRS環境。如果你打算在你升級的環境中使用Storage DRS,考慮使用新創建的數據存儲而不是升級已有的存儲。
Storage DRS設置第五要點: 配置關聯規則。關聯規則對於經驗豐富的DRS管理員而言並不是新概念。關聯規則在Storage DRS的作用仍然是相同的,雖然它們應用的地方略有不同。Storage DRS的關聯規則提供了一種方法來確定哪個虛擬機磁碟文件因為負載均衡不應該結束於相同的數據存儲。此外,還應該考慮虛擬機間和虛擬機內規則,前者涉及虛擬機間的磁碟文件,而後者涉及虛擬機內的磁碟文件。
在設置關聯規則時必須謹慎小心。保持磁碟分開可以確保數據存儲的丟失不會造成關鍵伺服器的丟失。你可能還想保持相同虛擬機的磁碟文件在一起。請注意,關聯規則應該遵循商業驅動因素,每個額外的關聯規則還會影響Storage DRS的潛在計算以及它在優化你的存儲消耗和使用方面的有效性。
與之前的DRS相比,Storage DRS是另一個看似簡單的vSphere功能,如果沒有正確部署的話,Storage可能更多地帶來損害而不是幫助。認真配置,並密切注意任何變化對下游的影響。
作者簡介:
Greg Shields
⑼ 如何解決vSphere存儲訪問故障
為了滿足虛擬機訪問共享存儲時對性能的需求,企業環境中大多採用FC SAN存儲。本文結合在生產環境中虛擬機訪問共享存儲發生故障的案例,簡要介紹一下如何快速定位並消除故障。vSphere問題初現
接到用戶反應眾多虛擬機無法使用的故障報告後,使用vSphere Client登錄到vCenter Server中,在ESXi主機配置選項卡下的存儲適配器選項,發現有一個數據存儲處於「非活動」狀態,嘗試執行「全部重新掃描」鏈接,在彈出的重新掃描窗口,勾選默認的「掃描新的存儲設備」以及「掃描新的VMFS卷」,然後點擊確認。掃描完成後,發現原來狀態為「非活動」的數據存儲仍舊不可訪問。
依次點擊「主頁」—>「清單」—>「數據存儲和數據存儲集群」選項,進入到數據存儲列表,選中狀態為「非活動」的數據存儲。如下圖所示,選中「任務與事件」選項卡,查看與該數據存儲相關的事件。發現大量的錯誤信息:「與存儲設備...連接丟失,路徑...已斷開」。
⑽ b120i怎麼直通
1. 添加250GB SSD 為ESXi Server 的存儲設備
登錄Web Client,選擇左側導航欄「存儲」,接下來右側界面標簽欄「數據存儲」—「新建數據存儲」,彈出的新建數據存儲對話框中,選擇創建類型「創建新的VMFS 數據存儲」,下一步,選擇將要用於部署虛擬機的那塊250GB SSD,並對新建的存儲池明明,我這里是local-storage,下一步「分區選項」直接分為一個完整的數據分區即可。
2. 創建數據盤的RDM 直通
根據此前的規劃,我需要將四塊硬碟組成的三個陣列(一個RAID1 和兩個RAID 0)首先做RDM 直通,以便後期分配給對應做Home Server 的虛擬機。