当前位置:首页 » 存储配置 » 存储架构infiniband

存储架构infiniband

发布时间: 2022-08-07 00:19:02

① 请教一下fc和sas存储的区别

  1. 主机接口区别,就是存储跟服务器之间的连接方式:FC ,SAS,ISCIS,Infiniband,他们之间的速率有区别FC: 8G 4G 2G向下兼容,主流都是8G (一般san模式部署)SAS:12G 6G 3G 主流6G (一般不适合做san,目前看的不多,一般多作为存储柜的级联接口)ISCSI:基于TCP/IP网络的,10G,1Ginfiniband:40G,一般做高性能运算环境使用。

  2. 主机磁盘接口,就是存储里面接硬盘的接口,一般有 FC SAS SATA SCSI(已out)FC 磁盘接口速率是4G ,转速一般在10K 15K 2种,容量有600G, 450G,300GSAS 目前主流都是6G,转速一般在10K 15K 2种,容量上同,如果你看到1T的SAS盘,转速都是7K2,都是SATA加卡转过来的,性能机会没啥提升SATA 这个你们都知道的,速率7200,就是容量高。

  3. 存储性能这个可以简单的理解成2块,1块是存储控制器的cache,架构决定,这个跟存储价格成正比。还有就是硬盘的数量、转速,raid方式决定。10块 600G sas raid5的性能肯定要好于 10块 SATA radi5的性能。但是会低于20块600G sas raid5的性能。

② 云存储的架构

架构方法分为两类:一种是通过服务来架构;另一种是通过软件或硬件设备来架构。
传统的系统利用紧耦合对称架构,这种架构的设计旨在解决HPC(高性能计算、超级运算)问题,正在向外扩展成为云存储从而满足快速呈现的市场需求。下一代架构已经采用了松弛耦合非对称架构,集中元数据和控制操作,这种架构并不非常适合高性能HPC,但是这种设计旨在解决云部署的大容量存储需求。各种架构的摘要信息如下:
紧耦合对称(TCS)架构
构建TCS系统是为了解决单一文件性能所面临的挑战,这种挑战限制了传统NAS系统的发展。HPC系统所具有的优势迅速压倒了存储,因为它们需要的单一文件I/O操作要比单一设备的I/O操作多得多。业内对此的回应是创建利用TCS架构的产品,很多节点同时伴随着分布式锁管理(锁定文件不同部分的写操作)和缓存一致性功能。这种解决方案对于单文件吞吐量问题很有效,几个不同行业的很多HPC客户已经采用了这种解决方案。这种解决方案很先进,需要一定程度的技术经验才能安装和使用。
松弛耦合非对称(LCA)架构
LCA系统采用不同的方法来向外扩展。它不是通过执行某个策略来使每个节点知道每个行动所执行的操作,而是利用一个数据路径之外的中央元数据控制服务器。集中控制提供了很多好处,允许进行新层次的扩展:
● 存储节点可以将重点放在提供读写服务的要求上,而不需要来自网络节点的确认信息。
●节点可以利用不同的商品硬件CPU和存储配置,而且仍然在云存储中发挥作用。
● 用户可以通过利用硬件性能或虚拟化实例来调整云存储。
● 消除节点之间共享的大量状态开销也可以消除用户计算机互联的需要,如光纤通道或infiniband,从而进一步降低成本。
● 异构硬件的混合和匹配使用户能够在需要的时候在当前经济规模的基础上扩大存储,同时还能提供永久的数据可用性。
● 拥有集中元数据意味着,存储节点可以旋转地进行深层次应用程序归档,而且在控制节点上,元数据经常都是可用的。

③ 磁盘的机头上对外端口类型有iSCSI端口和FC端口,请问有什么区别

iSCSI和FC都是磁盘机网络(SAN)连接主机的方式,两者的介质和机理完全不同,介质上iSCSI实用的是以太网,FC是光纤。

FC(光纤信道)技术近几年在存储市场大行其道,与此同时iSCSI方案也越来越引起人们的关注。FC及iSCSI厂商都声称它们的技术代表着将来存储市场的发展方向——前者的优势在于快速、高效,后者则廉价、易于实现。

二者都成立有相关产业组织,前者为光纤产业协会(FCIA),典型代表有McData和Qlogic。以EqualLogic、 Network Appliance为代表支持iSCSI方案的厂商则成立有存储网产业协会(SNIA)。业界一些知名厂商如Brocade、Cisco和IBM甚至同时加入两家组织,并提供两类存储方案。

近年来流行的iSCSI产品方案是iSCSI SAN,主要应用于中小企业,组建低成本和易于使用的IP存储网。与此同时,FC SAN以其性能优势逐步蚕食市场份额。于是整个存储业界发出疑问:FC与iSCSI谁主沉浮?

某iSCSI SAN大型控制器看起来身型也不算太大,因此很受中小企业的欢迎

iSCSI会否取代FC

一种观点认为,FC将逐渐为iSCSI所取代。支持者认为,虽然目前市场对4Gbps FC需求仍然强劲,但随着10G以太网技术进入存储网,这种状况持续不会超过两年时间。IDC认为,相形而言FC主要优势在性能方面,但若是规模配置,以太网技术的优势就显露出来了。

通常,iSCSI易于使用,实现架构依托以太网和IP技术,而且成本低廉。现行使用的大多数iSCSI存储网采用1Gbps以太连接(FC采用1、2、4Gbps模式),通过采用多路控制技术(如微软的Multipath I/O)可实现聚合带宽处理,支持多路以太线路连接和负载均衡功能。

与FC技术相比,iSCSI的最大优势在成本。一个简单例子,一块新型FC主机总线适配器(用于处理T级数据)的价格超过了用于普通以太连接的Exchange服务器。FC在安全和容错方面比iSCSI技术要强;后者则继承了IP技术的互操作特性,不同厂商的FC适配器、交换机及存储设备之间存在不同程度的互操作问题。

iSCSI主要应用于中小企业SAN,尤其是采用Windows系统的刀片式服务器环境,因为对性能要求不是很严,对成本控制要求高。但随着技术的不断发展,iSCSI逐步在向“高端”发展。例如,IBM目前在提供两类存储方案,该公司认为,低端技术一般会朝高端方案发展,而高端技术则不会针对低端应用。iSCSI朝大容量、高性能商业计算方向发展是完全可能的。

FC能否维系统治地位

支持者认为,未来十年,FC技术将继续在高性能网络领域居于支配地位,主要是中等规模企业市场,大型企业网架构更是离不开FC支撑。据IDC 的报告,目前有将近40%的存储服务器采用FC方案,到2007年将有超过70%的服务器使用FC技术。期间,iSCSI服务器应用增长在3%到12%之间,到2008年有可能达到28%左右,但必须是出现成熟的太级(T)数据传输技术后。

FC技术的强项在性能、速率和效能方面。在高速和大容量应用方面,目前还没有与之匹敌的技术。FC采用相对轻量技术协议,服务器中使用命令少;而iSCSI相对要复杂得多(构建于TCP/IP之上,在不同堆栈中处理求和校验)。要满足企业网高速度、大容量存储需求并保证安全,以及因应大型数据库和音、视频流计算处理,FC技术是首选。

对大多数用户来说,衡量系统性能的最重要指标是I/O吞吐率,也就是说,系统能以多快速度从存储系统中读/写数据。目前一个情况是,厂商提供的方案不一定就能真正满足客户需求,尤其是数据中心应用。

去年4月,存储技术开发商Engenio宣布推出4Gbps的FC存储系统。该厂商称系统与缓冲区间的I/O巅峰数据率达到了550000路每秒,与FC媒介间的I/O数据率则可持续达到790000路(目前最快速的iSCSI产品方案是EqualLogic推出的PS系列。据说达到了 360000路I/O每秒)。今年6月,IBM宣布在其TotalStorage DS4800磁盘系统中采用该项技术。之后不久Qlogic与Brocade也宣布推出兼容交换机和主机总线适配器产品,使端到端4Gbps解决方案成为可能。Cisco、McData、StorageTek、NCR及其它一些存储厂商估计也会步其后尘。支持者认为,未来两年将出现8Gbps FC技术,这类高性能FC产品方案将与现行1G或2G FC基础架构保持后向兼容性。

可选宽带技术InfiniBand

另一项可选宽带连接技术是InfiniBand,在一些高性能计算领域有应用,主要是采用InfiniBand交换机进行服务器聚合处理的环境,典型地采用Linux操作系统。InfiniBand应用构不成对FC的冲击,但还是有市场空间,一些公司同时在开发InfiniBand和FC产品方案。

两大技术将并存发展

照目前发展态势看,FC与iSCSI相互取代的可能性不大,更多的是走向融合。iSCSI、FC及InfiniBand可满足不同存储需求,而且现在用户在采用某类存储方案时,不一定会马上舍弃以前的系统。目前FC方案应用仍遥遥领先,估计五年内iSCSI不会超越。期间,iSCSI和 InfiniBand方案将逐步进入数据中心;而且将出现FC与iSCSI互联的网关技术,将来的系统平台可能是两类技术的组合。

④ 有没有大神知道啥是IB交换机还有IB交换机主要的工作环境和特点

IB交换机是一种用于电(光)信号转发的网络设备。

IB交换机的工作环境:它可以为接入交换机的任意两个网络节点提供独享的电信号通路。最常见的交换机是以太网交换机。

IB交换机的特点:技术不是用于一般网络连接的,它的主要设计目的是针对服务器端的连接问题的。因此,InfiniBand技术将会被应用于服务器与服务器(比如复制,分布式工作等);

服务器和存储设备(比如SAN和直接存储附件)以及服务器和网络之间(比如LAN, WANs和the Internet)的通信。

(4)存储架构infiniband扩展阅读:

IB交换机的工作原理:

交换机工作于OSI参考模型的第二层,即数据链路层。交换机内部的CPU会在每个端口成功连接时,通过将MAC地址和端口对应,形成一张MAC表。发往该MAC地址的数据包将仅送往其对应的端口,而不是所有的端口。因此,交换机可用于划分数据链路层广播,即冲突域;但它不能划分网络层广播,即广播域。

交换机拥有一条很高带宽的背部总线和内部交换矩阵。交换机的所有的端口都挂接在这条背部总线上,控制电路收到数据包以后,处理端口会查找内存中的地址对照表以确定目的MAC(网卡的硬件地址)的NIC(网卡)挂接在哪个端口上;

通过内部交换矩阵迅速将数据包传送到目的端口,目的MAC若不存在,广播到所有的端口,接收端口回应后交换机会“学习”新的MAC地址,并把它添加入内部MAC地址表中。

使用交换机也可以把网络“分段”,通过对照IP地址表,交换机只允许必要的网络流量通过交换机。通过交换机的过滤和转发,可以有效地减少冲突域,但它不能划分网络层广播,即广播域。

⑤ InifiBand是什么

InfiniBand架构是一种支持多并发链接的“转换线缆”技术,在这种技术中,每种链接都可以达到2.5
Gbps的运行速度。这种架构在一个链接的时候速度是500 MB/秒,四个链接的时候速度是2 GB/秒,12个链接的时候速度可以达到6 GB /秒。
与其他网络协议(如TCP/IP)相比,InfiniBand具有更高的传输效率。原因在于许多网络协议具有转发损失的数据包的能力,但是由于要不断地确认与重发,基于这些协议的通信也会因此变慢,极大地影响了性能。

需要说明的是,TCP协议是一种被大量使用的传输协议,从冰箱到超级计算机等各种设备上都可以看到它的身影,但是使用它必须付出高昂的代价:TCP协议极其复杂、代码量巨大并且充满了各种特例,而且它很难卸载(所谓卸载就是不占用CPU的运行时间)。

与之相比,InfiniBand使用基于信任的、流控制的机制来确保连接的完整性,数据包极少丢失。使用InfiniBand,除非确认接收缓存具备足够的空间,否则不会传送数据。接受方在数据传输完毕之后, 返回信用来标示缓存空间的可用性。通过这种办法,InfiniBand消除了由于原数据包丢失而带来的重发延迟,从而提升了效率和整体性能。

目前,基于InfiniBand技术的网卡的单端口带宽最大可达到20Gbps,基于InfiniBand的交换机的单端口带宽最大可达60Gbps,单交换机芯片可以支持达480Gbps的带宽。在2005年的4月份,Cisco公司收购了InfiniBand方案提供商Topspin; 而专业存储厂商Qlogic公司也陆续收购了InfiniBand技术厂商SilverStorm公司和PathScale公司,开始进军InfiniBand领域。
采用Intel架构的处理器的输入/输出性能会受到PCI或者PCI-X总线的限制。总线的吞吐能力是由总线时钟决定的(比如33.3MHz,66.6MHz 以及133.3MHz)和总线的宽度(比如32位或者64位)。在最通常的配置中,PCI总线速度被限制在500 MB /秒,而PCI-X总线速度被限制在1 GB/秒。这种速度上的限制制约了服务器和存储设备、网络节点以及其他服务器通讯的能力。在InfiniBand的技术构想中,InfiniBand直接集成到系统板内,并且直接和CPU以及内存子系统互动。但是,在短期内,InfiniBand支持将由PCI和PCI-X适配器完成;这样,InfiniBand在最初将会受到总线的制约。在2002年年底,InfiniBand技术将会完全被整合在Intel服务器供应商以及Sun生产的服务器中(80%的可能性)

⑥ IB的实现InfiniBand

InfiniBand不是必须要取代现存的I/O技术。但会造成相关的争论,因为其它的I/O标准也有很多的支持者,而且许多公司已经对这种传统的技术进行大量的投资。在计算机业界,每一种新技术的出现都倾向于将其它的技术规类于传统的范畴。至少在理论上,InfiniBand能与PCI、PCI-X、 SCSI、 光纤通道、IDE/ATA、串行 ATA、 IEEE-1394以及其它在数据中心存在I/O标准共存。相反,3GIO和HyperTransport是板级的互联,而快速I/O和致密PCI主要用于内嵌式系统。
为了与其它的I/O技术协同工作,InfiniBand需要能匹配物理接口和转换通信协议的桥接适配器。举例来说,Adaptec正在测试能将InfiniBand连接到串行ATA和串行SCSI的磁盘接口。然而,不要假定你需要的桥接设备已经存在,并且经过实际工作的验证、价格可行。
另一个要考虑的是性能问题。连接两种不同的I/O标准通常要增加数据通道的延迟。在最坏的情况下,将InfiniBand网络引入到一个已经安装多个不同技术组成的网络中,如果组织管理差,会降低其整体性能。InfiniBand的支持者声称理想的解决方案是完整的InfiniBand体系结构。任何部件都可以直接连接到InfiniBand网络,可以使用优化的文件协议,最好是使用直接访问文件系统(DAFS)。
DAFS独立于传输,是基于NFS的共享式文件访问协议。它是优化过的,用于1到100台机器的集群服务器环境中的I/O密集、CPU受限、面向文件的任务。典型的应用包括数据库、web服务、e-mail和地理信息系统(GIS),当然也包括存储应用。
IT管理员感兴趣的其它的与InfiniBand相关协议是:SCSI远程直接内存访问(RDMA)协议、共享资源协议(SRP)、IP over InfiniBand (IPoIB)、直接套节字协议(SDP)、远程网络驱动接口规范(RNDIS)。
SRP的开发在一些公司进展顺利,比如,已经开发出早期版本并运行在Windows 2000上协议的Adaptec。OEM的厂商和合作伙伴正在测试beta系统。Adaptec认为SRP对于高性能的SANs会相当出众,但必须解决多厂商产品间的兼容。最终版本的SRP可能取决于操作系统的驱动程序和服务器的支持,预计在本年下半年或2003年上半年完成。
IpoIB,将IP协议映射到InfiniBand,正在被IETF的一个工作组定义。IpoIB包括IPv4/IPv6的地址解析、IPv4/IPv6的数据报的封装、网络初始化、组播、广播和管理信息库。预计在本年下半年或2003年上半年完成。
SDP试图解决其它协议的几个缺陷,特别是相对高的CPU和内存带宽的利用率。SDP基于微软的Winsock Direct协议,类似于TCP/IP,但优化后用于InfiniBand,以降低负荷。一个工作组在2000年下半年开始定义SDP,今年2月完成了1.0规范。
RNDIS是微软开发的协议,用于基于通道的即插即用总线的网络I/O,比如USB和IEEE-1394。InfiniBand RNDIS 1.0规范即将完成。

⑦ 谁能帮忙说一下超融合架构的技术逻辑

一种新架构的出现,肯定是为了解决现有架构出现的问题,所以,想了解超融合架构的技术逻辑,首先必须要知道下面几个问题:

  • 超融合替代的是什么:传统架构;

  • 传统架构出现了什么问题;

  • 超融合架构的来源,以及是怎么决绝这些问题的;

一、传统架构是什么,出了什么问题;

据麦肯锡研究显示,全球的 IT 数据每年在以 40% 的速度增加中。数据正在逐步影响商业,企业通过数据的分析来做决策与管理。完成快速的分析决策和管理,就需要借助强大的数据中心。下图为传统 SAN 存储:


正因为这种扩展性很好的共享存储,使得整个 Google 的业务得以顺畅地运转。

三、硬件的快速发展,使得超融合成为可能

另外,超融合近几年得以快速发展的原因,这要归功于硬件设备。CPU 核数越来越多,服务器的内存容量越来越大,SSD 设备和网络互联网设备越来越快,这意味着:

  • 服务器的资源除了运行业务以外,仍然可以预留出来足够的CPU,内存资源来运行存储软件。将存储软件和业务运行到一块,既减少了设备量,减少了电力使用,本地读取也提高了 I/O 的存取效率。这在几年前是做不到的,因为 CPU 和内存太有限了。

  • 网络互联越来越快,无论是万兆,40Gb 以太网,还是 Infiniband(无限宽带技术),使得我们的软件能够将独立的存储设备进行互连,通过分布式文件系统形成共享的存储池,供上层应用使用。

  • 如果说 SSD 等硬件厂商让单个存储设备跑的更快,我们的软件的意义在于,让超大量的这些存储设备,一起工作,提供无止境的整体性能和容量。

⑧ 什么是云存储技术

云存储是在云计算(cloud computing)概念上延伸和发展出来的一个新的概念,是指通过集群应用、网格技术或分布式文件系统等功能,将网络中大量各种不同类型的存储设备通过应用软件集合起来协同工作,共同对外提供数据存储和业务访问功能的一个系统。 当云计算系统运算和处理的核心是大量数据的存储和管理时,云计算系统中就需要配置大量的存储设备,那么云计算系统就转变成为一个云存储系统,所以云存储是一个以数据存储和管理为核心的云计算系统。

云存储的两个层面

云存储的两个层面是作为云计算支撑的存储计算,主要涉及分布式存储(如分布式文件系统、IPSAN、数据同步、复制)、数据存储(如重复数据删除、数据压缩、数据编码)和数据保护(如RAID、CDP、快照、备份与容灾)等技术领域,如图8-30所示,这在第6章中已有所介绍。和云安全技术一样,云存储技术也需要利用现有的所有存储技术针对云计算三层架构的各个环节采用适当的存储技术,才能取得最佳效果,例如,对应不同需求,有时应该使用数据库技术但有时却应该使用LDAP技术,有些性能要求高的系统不能使用SAN或NAS,需直接使用基于RPC或Socket技术的并发文件系统,有些应用使用SAN成本太高等,这里不再做深入介绍。如图8-31所示是一个采用NetApp FAS、思科 UCS和 VMWare vShpere 4技术打造的存储系统,对上述两种云存储技术和应用都有促进作用。云存储架构

分为两类:一种是通过服务来架构;另一种是通过软件或硬件设备来架构。

传统的系统利用紧耦合对称架构,这种架构的设计旨在解决HPC(高性能计算、超级运算)问题,现在其正在向外扩展成为云存储从而满足快速呈现的市场需求。下一代架构已经采用了松弛耦合非对称架构,集中元数据和控制操作,这种架构并不非常适合高性能HPC,但是这种设计旨在解决云部署的大容量存储需求。各种架构的摘要信息如下:

紧耦合对称(TCS)架构

构建TCS系统是为了解决单一文件性能所面临的挑战,这种挑战限制了传统NAS系统的发展。HPC系统所具有的优势迅速压倒了存储,因为它们需要的单一文件I/O操作要比单一设备的I/O操作多得多。业内对此的回应是创建利用TCS架构的产品,很多节点同时伴随着分布式锁管理(锁定文件不同部分的写操作)和缓存一致性功能。这种解决方案对于单文件吞吐量问题很有效,几个不同行业的很多HPC客户已经采用了这种解决方案。这种解决方案很先进,需要一定程度的技术经验才能安装和使用。

松弛耦合非对称(LCA)架构

LCA系统采用不同的方法来向外扩展。它不是通过执行某个策略来使每个节点知道每个行动所执行的操作,而是利用一个数据路径之外的中央元数据控制服务器。集中控制提供了很多好处,允许进行新层次的扩展:

● 存储节点可以将重点放在提供读写服务的要求上,而不需要来自网络节点的确认信息。

● 节点可以利用不同的商品硬件CPU和存储配置,而且仍然在云存储中发挥作用。

● 用户可以通过利用硬件性能或虚拟化实例来调整云存储。

● 消除节点之间共享的大量状态开销也可以消除用户计算机互联的需要,如光纤通道或infiniband,从而进一步降低成本。

● 异构硬件的混合和匹配使用户能够在需要的时候在当前经济规模的基础上扩大存储,同时还能提供永久的数据可用性。

● 拥有集中元数据意味着,存储节点可以旋转地进行深层次应用程序归档,而且在控制节点上,元数据经常都是可用的。

⑨ infiniband是什么意思和以太网有什么区别

InfiniBand架构是一种支持多并发链接的“转换线缆”技术,在这种技术中,每种链接都可以达到2.5 Gbps的运行速度。这种架构在一个链接的时候速度是500 MB/秒,四个链接的时候速度是2 GB/秒,12个链接的时候速度可以达到6 GB /秒。

以太网(Ethernet)指的是由Xerox公司创建并由Xerox、Intel和DEC公司联合开发的基带局域网规范,是当今现有局域网采用的最通用的通信协议标准。以太网络使用CSMA/CD(载波监听多路访问及冲突检测)技术,并以10M/S的速率运行在多种类型的电缆上。以太网与IEEE802.3系列标准相类似。包括标准的以太网(10Mbit/s)、快速以太网(100Mbit/s)和10G(10Gbit/s)以太网。它们都符合IEEE802.3。

⑩ 如何查看自己的电脑设备是不是支持RDMA

RDMA实际上是一种智能网卡与软件架构充分优化的远端内存直接高速访问技术,通过将RDMA协议固化于硬件(即网卡)上,以及支持Zero-和Kernel bypass这两种途径来达到其高性能的远程直接数据存取的目标。

目前支持RDMA的网卡并不普及,购买网卡时需要跟供应商咨询清楚是否支持此项功能

另外,目前RDMA的硬件实现有3种(如下),也要跟供应商咨询清楚

目前支持RDMA的网络协议有:

  • InfiniBand(IB): 从一开始就支持RDMA的新一代网络协议。由于这是一种新的网络技术,因此需要支持该技术的网卡和交换机。

  • RDMA过融合以太网(RoCE): 即RDMA over Ethernet, 允许通过以太网执行RDMA的网络协议。这允许在标准以太网基础架构(交换机)上使用RDMA,只不过网卡必须是支持RoCE的特殊的NIC。

  • 互联网广域RDMA协议(iWARP): 即RDMA over TCP, 允许通过TCP执行RDMA的网络协议。这允许在标准以太网基础架构(交换机)上使用RDMA,只不过网卡要求是支持iWARP(如果使用CPU offload的话)的NIC。否则,所有iWARP栈都可以在软件中实现,但是失去了大部分的RDMA性能优势。

这个功能比较新,我也只是了解了个大概,具体的还是要实践,只能帮你到这里了。

热点内容
pythonor的语法 发布:2024-04-29 21:07:48 浏览:703
方易通安卓机怎么样 发布:2024-04-29 21:06:30 浏览:765
广饶编程 发布:2024-04-29 20:39:07 浏览:120
长城服务器管理口ip 发布:2024-04-29 20:15:24 浏览:375
java静态成员变量 发布:2024-04-29 20:04:52 浏览:874
现代伊兰特女生选哪个配置 发布:2024-04-29 19:59:44 浏览:508
d盘不能访问权限 发布:2024-04-29 19:41:56 浏览:415
考试版脚本 发布:2024-04-29 19:33:43 浏览:64
html编译成JavaScript 发布:2024-04-29 00:00:15 浏览:367
html编译器手机 发布:2024-04-28 23:59:22 浏览:518