当前位置:首页 » 存储配置 » 存储池损坏

存储池损坏

发布时间: 2023-05-30 06:54:06

1. windows server 2012存储池里的一块镜像硬盘挂了怎么恢复数据

可以把一个硬盘的镜像包还原到另外一个硬盘上后再恢复数据。

1、下载安装一键备份。
2、安装完毕后运行一键备份系统。
3、备份的系统为隐藏,打开文件夹选项,勾选显示隐藏文件后确定。
4、系统的备份一般在磁盘最后一个盘符,以1开头。

5、右击备份系统属性,去掉隐藏后确定,再把文件复制到U盘。
6、打开另外的电脑,把文件复制到譬如:F盘,通过一件系统恢复即可档散纯实现安装。行咐
7、也可以使掘姿用U盘系统盘安装。

2. 在应用raid10和raid50时,当1个存储池分别有一个物理磁盘损坏时,是否会影响数据

raid10的两个raid1中分别损坏一个不影响数据悔耐孙完整性,raid50的两亩纳个raid5各损坏一个也不影响。碧链

3. 云存储到底有什么好处

云储存的好处:

1、硬件冗余
2、自动的故障切换
3、存储设备升级不会导致服务中断
4、容量分配不受物理硬盘限制
5、节省电力
6、及时提供容量的扩展
7、海量并行扩容
8、统一的对外名称
9、负载均衡
10、容易管理

4. 服务器操作系统每次安装都要做RAID吗

是的,要做RAID,具体方法如下:

1、第一步,启动后,MNAS将报警并登录到后台管理系统,见下图,转到下面的步骤。

5. 储存池是什么Win8系统存储池使用技巧

当我们的电脑有多个磁盘驱动器时,可能会同时创建出多个磁盘分区,管理起来非常繁杂。而在Win8系统中解决了这个问题,我们可以通过创建存储池,将多余的空间整合在一起并自定义设置。下面系统之家小编为大家介绍一下Win8系统存储池使用技巧。
1.要想在Win8系统中创建存储池,我们首先要打开控制面板—所有控制面板项—存储空间;接着点击"创建新的池和存储空间"
2.在新的窗口中,我们可以勾选多个驱动器,将其添加进存储池中,就可以实现统一、灵活管理磁盘分区的目的;
3.此外,我们还可以创建一个存储空间,设置"名称、驱动器号、系统文件类型"等,如果我们同时添加了多个驱动器可以选择双向、三向镜像,这样在使用时会自动生成文件备份,以防止某个驱动器损坏尔导致文件丢人哦~
4.关于Win8存储池的创建以及使用设置就介绍到这里了,大家试试吧!
本文来自于【系统之家】
www.xp85.com

6. 云存储的隐患

从功能实现上来讲,异地文件存取与文件分享共步技术早在互联网形成之初就已经得到应用,上个世纪互联网刚刚进入国内时就有厂商提供过网盘服务,当时所谓的网盘并不是大家所熟知的网络虚拟磁盘,当时的网盘更像是一个SVN 或FTP 的客户端,而今十多年的发展以后,融入了移动互联网营销理念与新技术的“网盘”被包装成了“云存储”高调的出现在大众面前,据相关统计数据显示国内一线的云存储服务商每天的用户数据新增量已经达PB为单位,可见每天都有数以亿计的用户正在向自己云存储空间中上传下载着各种文件,在这种环境下排除网络带宽消耗之外,我们是否应该反思一下云存储下的未来隐患。 从数据安全上分两个方面分析,
1.用户的操作安全:大多数的云存储都设计了多客户端数据同步机制,一般以最后一次更新为标准,其他客户端开启时自动同步,这点与SVN的设计有很大的差别,当一个用户在公司编辑某个文件后,回到家中再次编辑,那么当他再次回到公司时文件已是昨晚在家更新过的,这是理想状态下的,在很多时候用户编辑一个文件后,会发现编辑有误,想取回存在公司的文件版本时,可能在没有支持版本管理云存储中你的附本也已经被错误的更新了,同样的道理你删除一个文件时候,如果没有额外的备份,也许你到网盘回收站中再找了,版本管理技术上并不存在问题,但是会加大用户的操作难度,云存储服务商只有少数的私有云提供商有限的支持,多数情况下这种覆盖是时常发生的。
2.服务端的安全操作:云存储服务器早已经成为了黑客入侵的目标,因为服务器上不仅有无穷用户数据,对此类大用户群服务的劫持更加是黑色收入的重要来源,也就是说服务器的安全性直接影响着用户上传数据的安全,在服务器虚拟化技术的支撑下V2V迁移的可靠性相当高,多数的云存储厂商都预备安全防护方案,但是不能忽视的永远人的操作。 自动同步
Windows客户端在指定目录下添加、修改、删除文件或目录,这种状态将会自动同步到云端。如果云端任意一个文件被添加、修改、删除,也会自动同步到当前Windows电脑。
选择性同步
用户不需要把云端所有的文件都同步到Windows电脑中,可根据需要,在Windows客户端进行选择性同步。选择一个或多个子目录进行同步。
文件共享
提供目录共享,企业成员可在共享目录编辑文件后,可自动同步到对方目录中。提供文件外链与文件分享,成员可将文件进行外部分享。
快速部署
通过单一安装文件完成,自动获取安装所需信息,无需用户干预。
历史版本恢复.
用户多次编辑文件后,可根据时间找到以前的版本,并可恢复。 软件架构
采用元/流分开技术模型,原数据存储在数据库中、流数据加密并混淆存在的硬盘介质上和信云盘采用Nginx服务器负载均衡方案以及Mysql冗余备份方案,确保系统高可靠性与数据库的高可用性。
多终端支持
提供多终端支持,包括:Windows PC客户端、Android手机客户端、iPhone手机客户端、适配多款浏览器等。
完善后台管理
提供完善的管理后台。包括系统是否开放注册、Logo修改、用户管理、文件管理、用户统计、文件统计等操作。
运行环境
具有很好的兼容性和信云存储支持主流机型。包括:Windows XP、Windows 7、Android手机、iPhone手机、IE8浏览器、Chrome浏览器、Firefox浏览器等。
节点配置
CPU 支持ACPI规范中P-State,内存1G以上,硬盘空余空间1G以上,百兆及以上以太网,显示器屏幕分辩率1024×768及以上,使用IE 8和Firefox 4.0及更高版本的浏览器。
性能
千兆网络情况下,每秒可达50M传输速度。单节点数据规模达到1千万,系统可正常运转。
结合等保管理的需求,在私有云存储的设计,还应该考虑到员工个人私钥加解密的功能,即员工根据工作权限分级的不同存放在企业私云上的文件应该是加密保存的,信息管理人员无法直接从服务端数据库中获取到明文的文件,只有分发了特定密钥的客户端下载文件后,才能在系统后台完成透明还原。 1、节约成本
云存储从短期和长期来看,最大的特点就是可以为小企业减少成本。因为如果小企业想要放在他们自己的服务器上存储,那就必须购买硬件和软件,要知道它是多么昂贵的。接着,企业还要聘请专业的IT人士,管理这些硬件和软件的维护工作,并且还要更新这些设备和软件。
通过云存储,服务器商可以服务成千上万的中小企业,并可以划分不同消费群体服务。它可以担负起一个初创公司拥有最新、最好的存储成一部分成本,来帮助初创公司减少不必要的成本预算。相比传统的存储扩容,云存储架构采用的是并行扩容方式,当客户需要增加容量时,可按照需求采购服务器,简单增加即可实现容量的扩展:新设备仅需安装操作系统及云存储软件后,打开电源接上网络,云存储系统便能自动识别,自动把容量加入存储池中完成扩展。扩容环节无任何限制。
2、更好的备份本地数据并可以异地处理日常数据
如果你的所在办公场所发生自然灾害,由于你的数据是异地存储,因此是它非常安全的。即使自然灾害让你不能通过网络访问到数据,但是数据依然存在。如果问题只出现在你的办公室或者你所在的公司,那么可以你可以随便去一个地方用你的笔记本来访问重要数据和更新数据。它可以让你保持在恶劣条件下依然让你保持工作。
在以往的存储系统管理中,管理人员需要面对不同的存储设备,不同厂商的设备均有不同的管理界面,使得管理人员要了解每个存储的使用状况(容量、负载等)的工作复杂而繁重。而且,传统的存储在硬盘或是存储服务器损坏时,可能会造成数据丢失,而云存储则不会,如果硬盘坏掉,数据会自动迁移到别的硬盘,大大减轻了管理人员的工作负担。对云存储来说,再多的存储服务器,在管理人员眼中也只是一台存储器,每台存储服务器的使用状况,通过一个统一管理界面监控,使得维护变得简单和易操作。
当然,这不是意味你应该忘记备份数据。云存储提供给大多数的公司备份自己重要数据和保护个人数据。
3、更多的访问和更好的竞争
公司员工不在需要通过本地网络来访问公司信息。这就可以让公司员工甚至是合作商在任何地方访问他们需要的数据。
因为中小企业不需要花费上千万美元来打造最新技术和最新应用来创造最好的系统,所以云存储为中小企业和大公司竞争铺平道路。事实上,对于很多企业来说,云存储利于小企业比大企业更多,原因就是大企业已经花重金打造自己的数据存储中心。

7. Windows server 存储池数据分层功能影响性能怎么办

之前尝试过在centos下build了一个zfs,windows
自带的nfs
client
mount
zfs
nfs,速度只有15m/s,
可能是windows
的mount命令不支持某些特性,比如说异步,也不支持utf8字符集,放弃,没有深入研究iscsi/smb是不是有性能提升,感觉zfs不够灵活,加一个硬盘什么的还要占位,硬盘还要规格一样。。。
看到微软把windows
server
2012
r2的存储池吹的神一样,所以就利用一些时间用虚拟机搭建下环境测试了

8. 当创建RAID5逻辑硬盘时,如果存储池中有7块物理硬盘时可以允许几块硬盘损坏

可以最多可以同时坏2块硬盘
还能保证你数据有效,利用率50%。

9. ceph分布式存储-常见 PG 故障处理

创建一个新集群后,PG 的状态一直处于 active , active + remapped 或 active + degraded 状态, 而无法达到 active + clean 状态 ,那很可能是你的配置有问题。

你可穗亮能需要检查下集群中有关 Pool 、 PG 和 CRUSH 的配置项,做以适当的调整。

一般来说,你的集群中需要多于 1 个 OSD,并且存储池的 size 要大于 1 副本。

有时候,我们需要搭建一个单节点的 Ceph 实验环境。此时,在开始创建 monitor 和 OSD 之前,你需要把 Ceph 配置文件中的 osd crush chooseleaf type 选项从默认值 1 (表示 host 或 node )修改为 0 (表示 osd )。这样做是告诉 Ceph 允许把数据的不同副老族漏本分布到同一 host 的 OSDs 上。

如果你已经启动了 2 个 OSD,它们都处于 up 和 in 的状态,但 PG 仍未达到 active + clean 状态,那可能是给 osd pool default size 设置了一个大于 2 的值。

如果你想要在 active + degraded 状态( 2 副本)操作你的集群,可以设置 osd pool default min size 为 2 ,这样你就可以对处于 active + degraded 的对象写入数据。然后你还可以把 osd pool default size 的值改为 2 ,这样集群就可以达到 active + clean 状态了。

另外,修改参数 osd pool default size/min_size 后,只会对后面新建的 pool 起作用。如果想修改已存在的 pool 的 size/min_size ,可用下面的命令:

注意: 你可以在运行时修改参数值。如果是在 Ceph 配置文件中进行的修改,你可能需要重启集群。

如果你设置了 osd pool default size 的值为 1 ,那你就仅有对象的单份拷贝。OSD 依赖于其他 OSD 告诉自己应该保存哪些对象。如果第一个 OSD 持有对象的拷贝,并且没有第二份拷贝,那么也就没有第二个 OSD 去告诉第一个 OSD 它应该保管那份拷贝。对于每一个映射到第一个 OSD 上的 PG (参考 ceph pg mp 的输出),你可以强制第一个 OSD 关注它应该保存的 PGs :

PG 达不到 clean 状态的另一个可能的原因就是集群的 CRUSH Map 有错误,导致 PG 不能映射到正确的地方。

有失败发生后,PG 会进入“degraded”(降级)或“peering”(连接建立中)状态,这种情况时有发生。通常这些状态意味着正常的失败恢复正在进行。然而,如果一个 PG 长时间处于这些状态中的某个,就意味着有更大的问题。因此 monitor 在 PG 卡 ( stuck ) 在非最优状态时会告警。我们具体检查:

你可以用下列命令显式地列出卡住的 PGs:

卡在 stale 状态的 PG 通过重启 ceph-osd 进程通常可以修复;卡在 inactive 状态的 PG 通常是互联问题(参见 PG 挂了 —— 互联失败 );卡在 unclean 状态的 PG 通常是由于某些原因阻止了恢复的完成,像未找到的对象(参见 未找到的对象 )。

在某些情况下, ceph-osd 互联 进程会遇到问题,阻值 PG 达到活跃、可用的状态。例如, ceph health 也许显示:

可以查询到 PG 为何被标记为 down :

recovery_state 段告诉我们互联过程因 ceph-osd 进程挂了而被阻塞,本例是 osd.1 挂了,启动这个进程应该就可以恢复。

或者,如果 osd.1 发生了灾难性的失败(如硬盘损坏),我们可侍烂以告诉集群它丢失( lost )了,让集群尽力完成副本拷贝。

重要: 集群不能保证其它数据副本是一致且最新的,就会很危险!

让 Ceph 无论如何都继续:

恢复将继续进行。

某几种失败相组合,可能导致 Ceph 抱怨有找不到( unfound )的对象:

这意味着存储集群知道一些对象(或者存在对象的较新副本)存在,却没有找到它们的副本。下例展示了这种情况是如何发生的,一个 PG 的数据存储在 ceph-osd 1 和 2 上:

这时, 1 知道这些对象存在,但是活着的 ceph-osd 都没有这些副本。这种情况下,读写这些对象的 IO 就会被阻塞,集群只能指望 down 掉的节点尽早恢复。这样处理是假设比直接给用户返回一个 IO 错误要好一些。

首先,你应该确认哪些对象找不到了:

如果在一次查询里列出的对象太多, more 这个字段将为 true ,你就可以查询更多。

其次,你可以找出哪些 OSD 上探测到、或可能包含数据:

本例中,集群知道 osd.1 可能有数据,但它挂了( down )。所有可能的状态有:

有时候集群要花一些时间来查询可能的位置。

还有一种可能性,对象存在于其它位置却未被列出。例如,集群里的一个 ceph-osd 停止且被剔出集群,然后集群完全恢复了;后来一系列的失败导致了未找到的对象,它也不会觉得早已死亡的 ceph-osd 上仍可能包含这些对象。(这种情况几乎不太可能发生)。

如果所有可能的位置都查询过了但仍有对象丢失,那就得放弃丢失的对象了。这仍可能是罕见的失败组合导致的,集群在写操作恢复后,未能得知写入是否已执行。以下命令把未找到的( unfound )对象标记为丢失( lost )。

上述最后一个参数告诉集群应如何处理丢失的对象。

拥有 PG 拷贝的 OSD 可能会全部失败,这种情况下,那一部分的对象存储不可用, monitor 也就不会收到那些 PG 的状态更新了。为检测这种情况,monitor 会把任何主 OSD 失败的 PG 标记为 stale (不新鲜),例如:

可以找出哪些 PG 是 stale 状态,和存储这些归置组的最新 OSD ,命令如下:

如果想使 PG 2.5 重新上线,例如,上面的输出告诉我们它最后由 osd.0 和 osd.2 管理,重启这些 ceph-osd 将恢复之(可以假定还有其它的很多 PG 也会进行恢复 )。

如果你的集群有很多节点,但只有其中几个接收数据, 检查 下存储池里的 PG 数量。因为 PG 是映射到多个 OSD 的,较少的 PG 将不能均衡地分布于整个集群。试着创建个新存储池,设置 PG 数量是 OSD 数量的若干倍。更详细的信息可以参考 Ceph 官方文档 —— Placement Groups 。

如果你的集群已启动,但一些 OSD 没起来,导致不能写入数据,确认下运行的 OSD 数量满足 PG 要求的最低 OSD 数。如果不能满足, Ceph 就不会允许你写入数据,因为 Ceph 不能保证复制能如愿进行。这个最低 OSD 个数是由参数 osd pool default min size 限定的。

如果收到 active + clean + inconsistent 这样的状态,很可能是由于在对 PG 做擦洗( scrubbing )时发生了错误。如果是由于磁盘错误导致的不一致,请检查磁盘,如果磁盘有损坏,可能需要将这个磁盘对应的 OSD 踢出集群,然后进行更换。生产环境中遇到过不一致的问题,就是由于磁盘坏道导致的。

当集群中出现 PG 不一致的问题时,执行 ceph -s 命令会出现下面的信息:

1、查找处于 inconsistent 状态的问题 PG :

这个有问题的 PG 分布在 osd.1 、 osd.2 和 osd.0 上,其中 osd.1 是主 OSD。

2、去主 OSD( osd.1 )的日志中查找不一致的具体对象 。

从日志中可以知道,是 rbd_data.1349f035c101d9.0000000000000001 这个对象的属性 _ 丢失了,所以在 scrub 的过程中产生了 error 。

3、执行 ceph pg repair 命令修复问题 PG 。

4、检查 Ceph 集群是否恢复到 HEALTH_OK 状态。

osd.1 的日志里也提示修复成功:

如果经过前面的步骤,Ceph 仍没有达到 HEALTH_OK 状态,可以尝试用下面这种方式进行修复。

1、停掉不一致的 object 所属的 osd 。

2、刷新该 osd 的日志。

3、将不一致的 object 移除。

4、重新启动该 osd 。

5、重新执行修复命令。

6、检查 Ceph 集群是否恢复到 HEALTH_OK 状态。

有时候,我们在 ceph -s 的输出中可以看到如下的告警信息:

这是因为集群 OSD 数量较少,测试过程中建立了多个存储池,每个存储池都要建立一些 PGs 。而目前 Ceph 配置的默认值是每 OSD 上最多有 300 个 PGs 。在测试环境中,为了快速解决这个问题,可以调大集群的关于此选项的告警阀值。方法如下:

在 monitor 节点的 ceph.conf 配置文件中添加:

然后重启 monitor 进程。

或者直接用 tell 命令在运行时更改参数的值而不用重启服务:

而另一种情况, too few PGs per OSD (16 < min 20) 这样的告警信息则往往出现在集群刚刚建立起来,除了默认的 rbd 存储池,还没建立自己的存储池,再加上 OSD 个数较多,就会出现这个提示信息。这通常不是什么问题,也无需修改配置项,在建立了自己的存储池后,这个告警信息就会消失。

10. io平衡失败

io平衡失败通常是指在分布式系统中,由于某种原因导致数据在不同节点之间的负载不均衡,从虚迅而影响系统的性能和可用性。其主要原因可能包括以下几点:

1. 节点故障:当一个或多个节点发生故障时,无法处理请求,差迅此导致负载不均衡。

2. 数据倾斜:某个键或某昌弯个分区的数据量过大,导致个别节点的负载过重。

3. 网络故障:当网络出现问题时,节点之间的数据传输可能会受到影响,导致负载不均衡。

为了解决io平衡失败的问题,可以采取以下措施:

1. 自动化管理:使用自动化工具进行监控和管理,可以更快速地检测和解决负载不均衡的问题。

2. 数据分片:将数据分成多个分片,让不同节点处理不同的数据,从而减轻负载。

3. 负载均衡器:使用负载均衡器可以将请求均匀地分配给不同的节点,从而实现负载均衡。

4. 扩容:当负载过重时,可以通过扩容的方式增加节点数量,从而分担负载。

io平衡失败是分布式系统中常见的问题之一,需要采取相应的措施来避免和解决。同时,随着数据量的增加,io平衡失败的问题也变得越来越常见,因此需要不断优化和调整系统性能,以保证系统的稳定性和可用性。

热点内容
logn算法 发布:2024-04-27 21:58:36 浏览:596
11选五的简单算法 发布:2024-04-27 21:46:14 浏览:71
ebay图片上传 发布:2024-04-27 21:31:50 浏览:587
微信电脑登录显示服务器错误 发布:2024-04-27 20:58:08 浏览:135
压缩弹簧安装 发布:2024-04-27 20:35:43 浏览:371
淘宝视频无法上传视频 发布:2024-04-27 20:31:27 浏览:643
安卓软件怎么分享 发布:2024-04-27 20:28:26 浏览:669
宽带测速上传 发布:2024-04-27 20:23:22 浏览:174
mysql存储过程ifand 发布:2024-04-27 20:17:12 浏览:252
4位数密码锁怎么开 发布:2024-04-27 20:10:31 浏览:853