當前位置:首頁 » 存儲配置 » 存儲池損壞

存儲池損壞

發布時間: 2023-05-30 06:54:06

1. windows server 2012存儲池裡的一塊鏡像硬碟掛了怎麼恢復數據

可以把一個硬碟的鏡像包還原到另外一個硬碟上後再恢復數據。

1、下載安裝一鍵備份。
2、安裝完畢後運行一鍵備份系統。
3、備份的系統為隱藏,打開文件夾選項,勾選顯示隱藏文件後確定。
4、系統的備份一般在磁碟最後一個盤符,以1開頭。

5、右擊備份系統屬性,去掉隱藏後確定,再把文件復制到U盤。
6、打開另外的電腦,把文件復制到譬如:F盤,通過一件系統恢復即可檔散純實現安裝。行咐
7、也可以使掘姿用U盤系統盤安裝。

2. 在應用raid10和raid50時,當1個存儲池分別有一個物理磁碟損壞時,是否會影響數據

raid10的兩個raid1中分別損壞一個不影響數據悔耐孫完整性,raid50的兩畝納個raid5各損壞一個也不影響。碧鏈

3. 雲存儲到底有什麼好處

雲儲存的好處:

1、硬體冗餘
2、自動的故障切換
3、存儲設備升級不會導致服務中斷
4、容量分配不受物理硬碟限制
5、節省電力
6、及時提供容量的擴展
7、海量並行擴容
8、統一的對外名稱
9、負載均衡
10、容易管理

4. 伺服器操作系統每次安裝都要做RAID嗎

是的,要做RAID,具體方法如下:

1、第一步,啟動後,MNAS將報警並登錄到後台管理系統,見下圖,轉到下面的步驟。

5. 儲存池是什麼Win8系統存儲池使用技巧

當我們的電腦有多個磁碟驅動器時,可能會同時創建出多個磁碟分區,管理起來非常繁雜。而在Win8系統中解決了這個問題,我們可以通過創建存儲池,將多餘的空間整合在一起並自定義設置。下面系統之家小編為大家介紹一下Win8系統存儲池使用技巧。
1.要想在Win8系統中創建存儲池,我們首先要打開控制面板—所有控制面板項—存儲空間;接著點擊"創建新的池和存儲空間"
2.在新的窗口中,我們可以勾選多個驅動器,將其添加進存儲池中,就可以實現統一、靈活管理磁碟分區的目的;
3.此外,我們還可以創建一個存儲空間,設置"名稱、驅動器號、系統文件類型"等,如果我們同時添加了多個驅動器可以選擇雙向、三向鏡像,這樣在使用時會自動生成文件備份,以防止某個驅動器損壞爾導致文件丟人哦~
4.關於Win8存儲池的創建以及使用設置就介紹到這里了,大家試試吧!
本文來自於【系統之家】
www.xp85.com

6. 雲存儲的隱患

從功能實現上來講,異地文件存取與文件分享共步技術早在互聯網形成之初就已經得到應用,上個世紀互聯網剛剛進入國內時就有廠商提供過網盤服務,當時所謂的網盤並不是大家所熟知的網路虛擬磁碟,當時的網盤更像是一個SVN 或FTP 的客戶端,而今十多年的發展以後,融入了移動互聯網營銷理念與新技術的「網盤」被包裝成了「雲存儲」高調的出現在大眾面前,據相關統計數據顯示國內一線的雲存儲服務商每天的用戶數據新增量已經達PB為單位,可見每天都有數以億計的用戶正在向自己雲存儲空間中上傳下載著各種文件,在這種環境下排除網路帶寬消耗之外,我們是否應該反思一下雲存儲下的未來隱患。 從數據安全上分兩個方面分析,
1.用戶的操作安全:大多數的雲存儲都設計了多客戶端數據同步機制,一般以最後一次更新為標准,其他客戶端開啟時自動同步,這點與SVN的設計有很大的差別,當一個用戶在公司編輯某個文件後,回到家中再次編輯,那麼當他再次回到公司時文件已是昨晚在家更新過的,這是理想狀態下的,在很多時候用戶編輯一個文件後,會發現編輯有誤,想取回存在公司的文件版本時,可能在沒有支持版本管理雲存儲中你的附本也已經被錯誤的更新了,同樣的道理你刪除一個文件時候,如果沒有額外的備份,也許你到網盤回收站中再找了,版本管理技術上並不存在問題,但是會加大用戶的操作難度,雲存儲服務商只有少數的私有雲提供商有限的支持,多數情況下這種覆蓋是時常發生的。
2.服務端的安全操作:雲存儲伺服器早已經成為了黑客入侵的目標,因為伺服器上不僅有無窮用戶數據,對此類大用戶群服務的劫持更加是黑色收入的重要來源,也就是說伺服器的安全性直接影響著用戶上傳數據的安全,在伺服器虛擬化技術的支撐下V2V遷移的可靠性相當高,多數的雲存儲廠商都預備安全防護方案,但是不能忽視的永遠人的操作。 自動同步
Windows客戶端在指定目錄下添加、修改、刪除文件或目錄,這種狀態將會自動同步到雲端。如果雲端任意一個文件被添加、修改、刪除,也會自動同步到當前Windows電腦。
選擇性同步
用戶不需要把雲端所有的文件都同步到Windows電腦中,可根據需要,在Windows客戶端進行選擇性同步。選擇一個或多個子目錄進行同步。
文件共享
提供目錄共享,企業成員可在共享目錄編輯文件後,可自動同步到對方目錄中。提供文件外鏈與文件分享,成員可將文件進行外部分享。
快速部署
通過單一安裝文件完成,自動獲取安裝所需信息,無需用戶干預。
歷史版本恢復.
用戶多次編輯文件後,可根據時間找到以前的版本,並可恢復。 軟體架構
採用元/流分開技術模型,原數據存儲在資料庫中、流數據加密並混淆存在的硬碟介質上和信雲盤採用Nginx伺服器負載均衡方案以及Mysql冗餘備份方案,確保系統高可靠性與資料庫的高可用性。
多終端支持
提供多終端支持,包括:Windows PC客戶端、Android手機客戶端、iPhone手機客戶端、適配多款瀏覽器等。
完善後台管理
提供完善的管理後台。包括系統是否開放注冊、Logo修改、用戶管理、文件管理、用戶統計、文件統計等操作。
運行環境
具有很好的兼容性和信雲存儲支持主流機型。包括:Windows XP、Windows 7、Android手機、iPhone手機、IE8瀏覽器、Chrome瀏覽器、Firefox瀏覽器等。
節點配置
CPU 支持ACPI規范中P-State,內存1G以上,硬碟空餘空間1G以上,百兆及以上乙太網,顯示器屏幕分辯率1024×768及以上,使用IE 8和Firefox 4.0及更高版本的瀏覽器。
性能
千兆網路情況下,每秒可達50M傳輸速度。單節點數據規模達到1千萬,系統可正常運轉。
結合等保管理的需求,在私有雲存儲的設計,還應該考慮到員工個人私鑰加解密的功能,即員工根據工作許可權分級的不同存放在企業私雲上的文件應該是加密保存的,信息管理人員無法直接從服務端資料庫中獲取到明文的文件,只有分發了特定密鑰的客戶端下載文件後,才能在系統後台完成透明還原。 1、節約成本
雲存儲從短期和長期來看,最大的特點就是可以為小企業減少成本。因為如果小企業想要放在他們自己的伺服器上存儲,那就必須購買硬體和軟體,要知道它是多麼昂貴的。接著,企業還要聘請專業的IT人士,管理這些硬體和軟體的維護工作,並且還要更新這些設備和軟體。
通過雲存儲,伺服器商可以服務成千上萬的中小企業,並可以劃分不同消費群體服務。它可以擔負起一個初創公司擁有最新、最好的存儲成一部分成本,來幫助初創公司減少不必要的成本預算。相比傳統的存儲擴容,雲存儲架構採用的是並行擴容方式,當客戶需要增加容量時,可按照需求采購伺服器,簡單增加即可實現容量的擴展:新設備僅需安裝操作系統及雲存儲軟體後,打開電源接上網路,雲存儲系統便能自動識別,自動把容量加入存儲池中完成擴展。擴容環節無任何限制。
2、更好的備份本地數據並可以異地處理日常數據
如果你的所在辦公場所發生自然災害,由於你的數據是異地存儲,因此是它非常安全的。即使自然災害讓你不能通過網路訪問到數據,但是數據依然存在。如果問題只出現在你的辦公室或者你所在的公司,那麼可以你可以隨便去一個地方用你的筆記本來訪問重要數據和更新數據。它可以讓你保持在惡劣條件下依然讓你保持工作。
在以往的存儲系統管理中,管理人員需要面對不同的存儲設備,不同廠商的設備均有不同的管理界面,使得管理人員要了解每個存儲的使用狀況(容量、負載等)的工作復雜而繁重。而且,傳統的存儲在硬碟或是存儲伺服器損壞時,可能會造成數據丟失,而雲存儲則不會,如果硬碟壞掉,數據會自動遷移到別的硬碟,大大減輕了管理人員的工作負擔。對雲存儲來說,再多的存儲伺服器,在管理人員眼中也只是一台存儲器,每台存儲伺服器的使用狀況,通過一個統一管理界面監控,使得維護變得簡單和易操作。
當然,這不是意味你應該忘記備份數據。雲存儲提供給大多數的公司備份自己重要數據和保護個人數據。
3、更多的訪問和更好的競爭
公司員工不在需要通過本地網路來訪問公司信息。這就可以讓公司員工甚至是合作商在任何地方訪問他們需要的數據。
因為中小企業不需要花費上千萬美元來打造最新技術和最新應用來創造最好的系統,所以雲存儲為中小企業和大公司競爭鋪平道路。事實上,對於很多企業來說,雲存儲利於小企業比大企業更多,原因就是大企業已經花重金打造自己的數據存儲中心。

7. Windows server 存儲池數據分層功能影響性能怎麼辦

之前嘗試過在centos下build了一個zfs,windows
自帶的nfs
client
mount
zfs
nfs,速度只有15m/s,
可能是windows
的mount命令不支持某些特性,比如說非同步,也不支持utf8字元集,放棄,沒有深入研究iscsi/smb是不是有性能提升,感覺zfs不夠靈活,加一個硬碟什麼的還要佔位,硬碟還要規格一樣。。。
看到微軟把windows
server
2012
r2的存儲池吹的神一樣,所以就利用一些時間用虛擬機搭建下環境測試了

8. 當創建RAID5邏輯硬碟時,如果存儲池中有7塊物理硬碟時可以允許幾塊硬碟損壞

可以最多可以同時壞2塊硬碟
還能保證你數據有效,利用率50%。

9. ceph分布式存儲-常見 PG 故障處理

創建一個新集群後,PG 的狀態一直處於 active , active + remapped 或 active + degraded 狀態, 而無法達到 active + clean 狀態 ,那很可能是你的配置有問題。

你可穗亮能需要檢查下集群中有關 Pool 、 PG 和 CRUSH 的配置項,做以適當的調整。

一般來說,你的集群中需要多於 1 個 OSD,並且存儲池的 size 要大於 1 副本。

有時候,我們需要搭建一個單節點的 Ceph 實驗環境。此時,在開始創建 monitor 和 OSD 之前,你需要把 Ceph 配置文件中的 osd crush chooseleaf type 選項從默認值 1 (表示 host 或 node )修改為 0 (表示 osd )。這樣做是告訴 Ceph 允許把數據的不同副老族漏本分布到同一 host 的 OSDs 上。

如果你已經啟動了 2 個 OSD,它們都處於 up 和 in 的狀態,但 PG 仍未達到 active + clean 狀態,那可能是給 osd pool default size 設置了一個大於 2 的值。

如果你想要在 active + degraded 狀態( 2 副本)操作你的集群,可以設置 osd pool default min size 為 2 ,這樣你就可以對處於 active + degraded 的對象寫入數據。然後你還可以把 osd pool default size 的值改為 2 ,這樣集群就可以達到 active + clean 狀態了。

另外,修改參數 osd pool default size/min_size 後,只會對後面新建的 pool 起作用。如果想修改已存在的 pool 的 size/min_size ,可用下面的命令:

注意: 你可以在運行時修改參數值。如果是在 Ceph 配置文件中進行的修改,你可能需要重啟集群。

如果你設置了 osd pool default size 的值為 1 ,那你就僅有對象的單份拷貝。OSD 依賴於其他 OSD 告訴自己應該保存哪些對象。如果第一個 OSD 持有對象的拷貝,並且沒有第二份拷貝,那麼也就沒有第二個 OSD 去告訴第一個 OSD 它應該保管那份拷貝。對於每一個映射到第一個 OSD 上的 PG (參考 ceph pg mp 的輸出),你可以強制第一個 OSD 關注它應該保存的 PGs :

PG 達不到 clean 狀態的另一個可能的原因就是集群的 CRUSH Map 有錯誤,導致 PG 不能映射到正確的地方。

有失敗發生後,PG 會進入「degraded」(降級)或「peering」(連接建立中)狀態,這種情況時有發生。通常這些狀態意味著正常的失敗恢復正在進行。然而,如果一個 PG 長時間處於這些狀態中的某個,就意味著有更大的問題。因此 monitor 在 PG 卡 ( stuck ) 在非最優狀態時會告警。我們具體檢查:

你可以用下列命令顯式地列出卡住的 PGs:

卡在 stale 狀態的 PG 通過重啟 ceph-osd 進程通常可以修復;卡在 inactive 狀態的 PG 通常是互聯問題(參見 PG 掛了 —— 互聯失敗 );卡在 unclean 狀態的 PG 通常是由於某些原因阻止了恢復的完成,像未找到的對象(參見 未找到的對象 )。

在某些情況下, ceph-osd 互聯 進程會遇到問題,阻值 PG 達到活躍、可用的狀態。例如, ceph health 也許顯示:

可以查詢到 PG 為何被標記為 down :

recovery_state 段告訴我們互聯過程因 ceph-osd 進程掛了而被阻塞,本例是 osd.1 掛了,啟動這個進程應該就可以恢復。

或者,如果 osd.1 發生了災難性的失敗(如硬碟損壞),我們可侍爛以告訴集群它丟失( lost )了,讓集群盡力完成副本拷貝。

重要: 集群不能保證其它數據副本是一致且最新的,就會很危險!

讓 Ceph 無論如何都繼續:

恢復將繼續進行。

某幾種失敗相組合,可能導致 Ceph 抱怨有找不到( unfound )的對象:

這意味著存儲集群知道一些對象(或者存在對象的較新副本)存在,卻沒有找到它們的副本。下例展示了這種情況是如何發生的,一個 PG 的數據存儲在 ceph-osd 1 和 2 上:

這時, 1 知道這些對象存在,但是活著的 ceph-osd 都沒有這些副本。這種情況下,讀寫這些對象的 IO 就會被阻塞,集群只能指望 down 掉的節點盡早恢復。這樣處理是假設比直接給用戶返回一個 IO 錯誤要好一些。

首先,你應該確認哪些對象找不到了:

如果在一次查詢里列出的對象太多, more 這個欄位將為 true ,你就可以查詢更多。

其次,你可以找出哪些 OSD 上探測到、或可能包含數據:

本例中,集群知道 osd.1 可能有數據,但它掛了( down )。所有可能的狀態有:

有時候集群要花一些時間來查詢可能的位置。

還有一種可能性,對象存在於其它位置卻未被列出。例如,集群里的一個 ceph-osd 停止且被剔出集群,然後集群完全恢復了;後來一系列的失敗導致了未找到的對象,它也不會覺得早已死亡的 ceph-osd 上仍可能包含這些對象。(這種情況幾乎不太可能發生)。

如果所有可能的位置都查詢過了但仍有對象丟失,那就得放棄丟失的對象了。這仍可能是罕見的失敗組合導致的,集群在寫操作恢復後,未能得知寫入是否已執行。以下命令把未找到的( unfound )對象標記為丟失( lost )。

上述最後一個參數告訴集群應如何處理丟失的對象。

擁有 PG 拷貝的 OSD 可能會全部失敗,這種情況下,那一部分的對象存儲不可用, monitor 也就不會收到那些 PG 的狀態更新了。為檢測這種情況,monitor 會把任何主 OSD 失敗的 PG 標記為 stale (不新鮮),例如:

可以找出哪些 PG 是 stale 狀態,和存儲這些歸置組的最新 OSD ,命令如下:

如果想使 PG 2.5 重新上線,例如,上面的輸出告訴我們它最後由 osd.0 和 osd.2 管理,重啟這些 ceph-osd 將恢復之(可以假定還有其它的很多 PG 也會進行恢復 )。

如果你的集群有很多節點,但只有其中幾個接收數據, 檢查 下存儲池裡的 PG 數量。因為 PG 是映射到多個 OSD 的,較少的 PG 將不能均衡地分布於整個集群。試著創建個新存儲池,設置 PG 數量是 OSD 數量的若干倍。更詳細的信息可以參考 Ceph 官方文檔 —— Placement Groups 。

如果你的集群已啟動,但一些 OSD 沒起來,導致不能寫入數據,確認下運行的 OSD 數量滿足 PG 要求的最低 OSD 數。如果不能滿足, Ceph 就不會允許你寫入數據,因為 Ceph 不能保證復制能如願進行。這個最低 OSD 個數是由參數 osd pool default min size 限定的。

如果收到 active + clean + inconsistent 這樣的狀態,很可能是由於在對 PG 做擦洗( scrubbing )時發生了錯誤。如果是由於磁碟錯誤導致的不一致,請檢查磁碟,如果磁碟有損壞,可能需要將這個磁碟對應的 OSD 踢出集群,然後進行更換。生產環境中遇到過不一致的問題,就是由於磁碟壞道導致的。

當集群中出現 PG 不一致的問題時,執行 ceph -s 命令會出現下面的信息:

1、查找處於 inconsistent 狀態的問題 PG :

這個有問題的 PG 分布在 osd.1 、 osd.2 和 osd.0 上,其中 osd.1 是主 OSD。

2、去主 OSD( osd.1 )的日誌中查找不一致的具體對象 。

從日誌中可以知道,是 rbd_data.1349f035c101d9.0000000000000001 這個對象的屬性 _ 丟失了,所以在 scrub 的過程中產生了 error 。

3、執行 ceph pg repair 命令修復問題 PG 。

4、檢查 Ceph 集群是否恢復到 HEALTH_OK 狀態。

osd.1 的日誌里也提示修復成功:

如果經過前面的步驟,Ceph 仍沒有達到 HEALTH_OK 狀態,可以嘗試用下面這種方式進行修復。

1、停掉不一致的 object 所屬的 osd 。

2、刷新該 osd 的日誌。

3、將不一致的 object 移除。

4、重新啟動該 osd 。

5、重新執行修復命令。

6、檢查 Ceph 集群是否恢復到 HEALTH_OK 狀態。

有時候,我們在 ceph -s 的輸出中可以看到如下的告警信息:

這是因為集群 OSD 數量較少,測試過程中建立了多個存儲池,每個存儲池都要建立一些 PGs 。而目前 Ceph 配置的默認值是每 OSD 上最多有 300 個 PGs 。在測試環境中,為了快速解決這個問題,可以調大集群的關於此選項的告警閥值。方法如下:

在 monitor 節點的 ceph.conf 配置文件中添加:

然後重啟 monitor 進程。

或者直接用 tell 命令在運行時更改參數的值而不用重啟服務:

而另一種情況, too few PGs per OSD (16 < min 20) 這樣的告警信息則往往出現在集群剛剛建立起來,除了默認的 rbd 存儲池,還沒建立自己的存儲池,再加上 OSD 個數較多,就會出現這個提示信息。這通常不是什麼問題,也無需修改配置項,在建立了自己的存儲池後,這個告警信息就會消失。

10. io平衡失敗

io平衡失敗通常是指在分布式系統中,由於某種原因導致數據在不同節點之間的負載不均衡,從虛迅而影響系統的性能和可用性。其主要原因可能包括以下幾點:

1. 節點故障:當一個或多個節點發生故障時,無法處理請求,差迅此導致負載不均衡。

2. 數據傾斜:某個鍵或某昌彎個分區的數據量過大,導致個別節點的負載過重。

3. 網路故障:當網路出現問題時,節點之間的數據傳輸可能會受到影響,導致負載不均衡。

為了解決io平衡失敗的問題,可以採取以下措施:

1. 自動化管理:使用自動化工具進行監控和管理,可以更快速地檢測和解決負載不均衡的問題。

2. 數據分片:將數據分成多個分片,讓不同節點處理不同的數據,從而減輕負載。

3. 負載均衡器:使用負載均衡器可以將請求均勻地分配給不同的節點,從而實現負載均衡。

4. 擴容:當負載過重時,可以通過擴容的方式增加節點數量,從而分擔負載。

io平衡失敗是分布式系統中常見的問題之一,需要採取相應的措施來避免和解決。同時,隨著數據量的增加,io平衡失敗的問題也變得越來越常見,因此需要不斷優化和調整系統性能,以保證系統的穩定性和可用性。

熱點內容
編譯成debug版本 發布:2024-03-29 09:06:55 瀏覽:884
wms伺服器地址 發布:2024-03-29 09:05:55 瀏覽:415
mep編程器 發布:2024-03-29 09:05:13 瀏覽:139
大小s我們一家訪問人 發布:2024-03-29 09:03:16 瀏覽:532
造物者編程 發布:2024-03-29 08:50:27 瀏覽:534
sql技能 發布:2024-03-29 08:50:23 瀏覽:56
希沃安卓下載安裝應用在哪裡 發布:2024-03-29 08:22:51 瀏覽:631
python和excel 發布:2024-03-29 07:47:03 瀏覽:861
postfix源碼下載 發布:2024-03-29 07:42:03 瀏覽:143
怎麼在電腦上玩手機伺服器 發布:2024-03-29 07:30:13 瀏覽:141