當前位置:首頁 » 存儲配置 » 存儲架構infiniband

存儲架構infiniband

發布時間: 2022-08-07 00:19:02

① 請教一下fc和sas存儲的區別

  1. 主機介面區別,就是存儲跟伺服器之間的連接方式:FC ,SAS,ISCIS,Infiniband,他們之間的速率有區別FC: 8G 4G 2G向下兼容,主流都是8G (一般san模式部署)SAS:12G 6G 3G 主流6G (一般不適合做san,目前看的不多,一般多作為存儲櫃的級聯介面)ISCSI:基於TCP/IP網路的,10G,1Ginfiniband:40G,一般做高性能運算環境使用。

  2. 主機磁碟介面,就是存儲裡面接硬碟的介面,一般有 FC SAS SATA SCSI(已out)FC 磁碟介面速率是4G ,轉速一般在10K 15K 2種,容量有600G, 450G,300GSAS 目前主流都是6G,轉速一般在10K 15K 2種,容量上同,如果你看到1T的SAS盤,轉速都是7K2,都是SATA加卡轉過來的,性能機會沒啥提升SATA 這個你們都知道的,速率7200,就是容量高。

  3. 存儲性能這個可以簡單的理解成2塊,1塊是存儲控制器的cache,架構決定,這個跟存儲價格成正比。還有就是硬碟的數量、轉速,raid方式決定。10塊 600G sas raid5的性能肯定要好於 10塊 SATA radi5的性能。但是會低於20塊600G sas raid5的性能。

② 雲存儲的架構

架構方法分為兩類:一種是通過服務來架構;另一種是通過軟體或硬體設備來架構。
傳統的系統利用緊耦合對稱架構,這種架構的設計旨在解決HPC(高性能計算、超級運算)問題,正在向外擴展成為雲存儲從而滿足快速呈現的市場需求。下一代架構已經採用了鬆弛耦合非對稱架構,集中元數據和控制操作,這種架構並不非常適合高性能HPC,但是這種設計旨在解決雲部署的大容量存儲需求。各種架構的摘要信息如下:
緊耦合對稱(TCS)架構
構建TCS系統是為了解決單一文件性能所面臨的挑戰,這種挑戰限制了傳統NAS系統的發展。HPC系統所具有的優勢迅速壓倒了存儲,因為它們需要的單一文件I/O操作要比單一設備的I/O操作多得多。業內對此的回應是創建利用TCS架構的產品,很多節點同時伴隨著分布式鎖管理(鎖定文件不同部分的寫操作)和緩存一致性功能。這種解決方案對於單文件吞吐量問題很有效,幾個不同行業的很多HPC客戶已經採用了這種解決方案。這種解決方案很先進,需要一定程度的技術經驗才能安裝和使用。
鬆弛耦合非對稱(LCA)架構
LCA系統採用不同的方法來向外擴展。它不是通過執行某個策略來使每個節點知道每個行動所執行的操作,而是利用一個數據路徑之外的中央元數據控制伺服器。集中控制提供了很多好處,允許進行新層次的擴展:
● 存儲節點可以將重點放在提供讀寫服務的要求上,而不需要來自網路節點的確認信息。
●節點可以利用不同的商品硬體CPU和存儲配置,而且仍然在雲存儲中發揮作用。
● 用戶可以通過利用硬體性能或虛擬化實例來調整雲存儲。
● 消除節點之間共享的大量狀態開銷也可以消除用戶計算機互聯的需要,如光纖通道或infiniband,從而進一步降低成本。
● 異構硬體的混合和匹配使用戶能夠在需要的時候在當前經濟規模的基礎上擴大存儲,同時還能提供永久的數據可用性。
● 擁有集中元數據意味著,存儲節點可以旋轉地進行深層次應用程序歸檔,而且在控制節點上,元數據經常都是可用的。

③ 磁碟的機頭上對外埠類型有iSCSI埠和FC埠,請問有什麼區別

iSCSI和FC都是磁碟機網路(SAN)連接主機的方式,兩者的介質和機理完全不同,介質上iSCSI實用的是乙太網,FC是光纖。

FC(光纖信道)技術近幾年在存儲市場大行其道,與此同時iSCSI方案也越來越引起人們的關注。FC及iSCSI廠商都聲稱它們的技術代表著將來存儲市場的發展方向——前者的優勢在於快速、高效,後者則廉價、易於實現。

二者都成立有相關產業組織,前者為光纖產業協會(FCIA),典型代表有McData和Qlogic。以EqualLogic、 Network Appliance為代表支持iSCSI方案的廠商則成立有存儲網產業協會(SNIA)。業界一些知名廠商如Brocade、Cisco和IBM甚至同時加入兩家組織,並提供兩類存儲方案。

近年來流行的iSCSI產品方案是iSCSI SAN,主要應用於中小企業,組建低成本和易於使用的IP存儲網。與此同時,FC SAN以其性能優勢逐步蠶食市場份額。於是整個存儲業界發出疑問:FC與iSCSI誰主沉浮?

某iSCSI SAN大型控制器看起來身型也不算太大,因此很受中小企業的歡迎

iSCSI會否取代FC

一種觀點認為,FC將逐漸為iSCSI所取代。支持者認為,雖然目前市場對4Gbps FC需求仍然強勁,但隨著10G乙太網技術進入存儲網,這種狀況持續不會超過兩年時間。IDC認為,相形而言FC主要優勢在性能方面,但若是規模配置,乙太網技術的優勢就顯露出來了。

通常,iSCSI易於使用,實現架構依託乙太網和IP技術,而且成本低廉。現行使用的大多數iSCSI存儲網採用1Gbps以太連接(FC採用1、2、4Gbps模式),通過採用多路控制技術(如微軟的Multipath I/O)可實現聚合帶寬處理,支持多路以太線路連接和負載均衡功能。

與FC技術相比,iSCSI的最大優勢在成本。一個簡單例子,一塊新型FC主機匯流排適配器(用於處理T級數據)的價格超過了用於普通以太連接的Exchange伺服器。FC在安全和容錯方面比iSCSI技術要強;後者則繼承了IP技術的互操作特性,不同廠商的FC適配器、交換機及存儲設備之間存在不同程度的互操作問題。

iSCSI主要應用於中小企業SAN,尤其是採用Windows系統的刀片式伺服器環境,因為對性能要求不是很嚴,對成本控制要求高。但隨著技術的不斷發展,iSCSI逐步在向「高端」發展。例如,IBM目前在提供兩類存儲方案,該公司認為,低端技術一般會朝高端方案發展,而高端技術則不會針對低端應用。iSCSI朝大容量、高性能商業計算方向發展是完全可能的。

FC能否維系統治地位

支持者認為,未來十年,FC技術將繼續在高性能網路領域居於支配地位,主要是中等規模企業市場,大型企業網架構更是離不開FC支撐。據IDC 的報告,目前有將近40%的存儲伺服器採用FC方案,到2007年將有超過70%的伺服器使用FC技術。期間,iSCSI伺服器應用增長在3%到12%之間,到2008年有可能達到28%左右,但必須是出現成熟的太級(T)數據傳輸技術後。

FC技術的強項在性能、速率和效能方面。在高速和大容量應用方面,目前還沒有與之匹敵的技術。FC採用相對輕量技術協議,伺服器中使用命令少;而iSCSI相對要復雜得多(構建於TCP/IP之上,在不同堆棧中處理求和校驗)。要滿足企業網高速度、大容量存儲需求並保證安全,以及因應大型資料庫和音、視頻流計算處理,FC技術是首選。

對大多數用戶來說,衡量系統性能的最重要指標是I/O吞吐率,也就是說,系統能以多快速度從存儲系統中讀/寫數據。目前一個情況是,廠商提供的方案不一定就能真正滿足客戶需求,尤其是數據中心應用。

去年4月,存儲技術開發商Engenio宣布推出4Gbps的FC存儲系統。該廠商稱系統與緩沖區間的I/O巔峰數據率達到了550000路每秒,與FC媒介間的I/O數據率則可持續達到790000路(目前最快速的iSCSI產品方案是EqualLogic推出的PS系列。據說達到了 360000路I/O每秒)。今年6月,IBM宣布在其TotalStorage DS4800磁碟系統中採用該項技術。之後不久Qlogic與Brocade也宣布推出兼容交換機和主機匯流排適配器產品,使端到端4Gbps解決方案成為可能。Cisco、McData、StorageTek、NCR及其它一些存儲廠商估計也會步其後塵。支持者認為,未來兩年將出現8Gbps FC技術,這類高性能FC產品方案將與現行1G或2G FC基礎架構保持後向兼容性。

可選寬頻技術InfiniBand

另一項可選寬頻連接技術是InfiniBand,在一些高性能計算領域有應用,主要是採用InfiniBand交換機進行伺服器聚合處理的環境,典型地採用Linux操作系統。InfiniBand應用構不成對FC的沖擊,但還是有市場空間,一些公司同時在開發InfiniBand和FC產品方案。

兩大技術將並存發展

照目前發展態勢看,FC與iSCSI相互取代的可能性不大,更多的是走向融合。iSCSI、FC及InfiniBand可滿足不同存儲需求,而且現在用戶在採用某類存儲方案時,不一定會馬上舍棄以前的系統。目前FC方案應用仍遙遙領先,估計五年內iSCSI不會超越。期間,iSCSI和 InfiniBand方案將逐步進入數據中心;而且將出現FC與iSCSI互聯的網關技術,將來的系統平台可能是兩類技術的組合。

④ 有沒有大神知道啥是IB交換機還有IB交換機主要的工作環境和特點

IB交換機是一種用於電(光)信號轉發的網路設備。

IB交換機的工作環境:它可以為接入交換機的任意兩個網路節點提供獨享的電信號通路。最常見的交換機是乙太網交換機。

IB交換機的特點:技術不是用於一般網路連接的,它的主要設計目的是針對伺服器端的連接問題的。因此,InfiniBand技術將會被應用於伺服器與伺服器(比如復制,分布式工作等);

伺服器和存儲設備(比如SAN和直接存儲附件)以及伺服器和網路之間(比如LAN, WANs和the Internet)的通信。

(4)存儲架構infiniband擴展閱讀:

IB交換機的工作原理:

交換機工作於OSI參考模型的第二層,即數據鏈路層。交換機內部的CPU會在每個埠成功連接時,通過將MAC地址和埠對應,形成一張MAC表。發往該MAC地址的數據包將僅送往其對應的埠,而不是所有的埠。因此,交換機可用於劃分數據鏈路層廣播,即沖突域;但它不能劃分網路層廣播,即廣播域。

交換機擁有一條很高帶寬的背部匯流排和內部交換矩陣。交換機的所有的埠都掛接在這條背部匯流排上,控制電路收到數據包以後,處理埠會查找內存中的地址對照表以確定目的MAC(網卡的硬體地址)的NIC(網卡)掛接在哪個埠上;

通過內部交換矩陣迅速將數據包傳送到目的埠,目的MAC若不存在,廣播到所有的埠,接收埠回應後交換機會「學習」新的MAC地址,並把它添加入內部MAC地址表中。

使用交換機也可以把網路「分段」,通過對照IP地址表,交換機只允許必要的網路流量通過交換機。通過交換機的過濾和轉發,可以有效地減少沖突域,但它不能劃分網路層廣播,即廣播域。

⑤ InifiBand是什麼

InfiniBand架構是一種支持多並發鏈接的「轉換線纜」技術,在這種技術中,每種鏈接都可以達到2.5
Gbps的運行速度。這種架構在一個鏈接的時候速度是500 MB/秒,四個鏈接的時候速度是2 GB/秒,12個鏈接的時候速度可以達到6 GB /秒。
與其他網路協議(如TCP/IP)相比,InfiniBand具有更高的傳輸效率。原因在於許多網路協議具有轉發損失的數據包的能力,但是由於要不斷地確認與重發,基於這些協議的通信也會因此變慢,極大地影響了性能。

需要說明的是,TCP協議是一種被大量使用的傳輸協議,從冰箱到超級計算機等各種設備上都可以看到它的身影,但是使用它必須付出高昂的代價:TCP協議極其復雜、代碼量巨大並且充滿了各種特例,而且它很難卸載(所謂卸載就是不佔用CPU的運行時間)。

與之相比,InfiniBand使用基於信任的、流控制的機制來確保連接的完整性,數據包極少丟失。使用InfiniBand,除非確認接收緩存具備足夠的空間,否則不會傳送數據。接受方在數據傳輸完畢之後, 返回信用來標示緩存空間的可用性。通過這種辦法,InfiniBand消除了由於原數據包丟失而帶來的重發延遲,從而提升了效率和整體性能。

目前,基於InfiniBand技術的網卡的單埠帶寬最大可達到20Gbps,基於InfiniBand的交換機的單埠帶寬最大可達60Gbps,單交換機晶元可以支持達480Gbps的帶寬。在2005年的4月份,Cisco公司收購了InfiniBand方案提供商Topspin; 而專業存儲廠商Qlogic公司也陸續收購了InfiniBand技術廠商SilverStorm公司和PathScale公司,開始進軍InfiniBand領域。
採用Intel架構的處理器的輸入/輸出性能會受到PCI或者PCI-X匯流排的限制。匯流排的吞吐能力是由匯流排時鍾決定的(比如33.3MHz,66.6MHz 以及133.3MHz)和匯流排的寬度(比如32位或者64位)。在最通常的配置中,PCI匯流排速度被限制在500 MB /秒,而PCI-X匯流排速度被限制在1 GB/秒。這種速度上的限制制約了伺服器和存儲設備、網路節點以及其他伺服器通訊的能力。在InfiniBand的技術構想中,InfiniBand直接集成到系統板內,並且直接和CPU以及內存子系統互動。但是,在短期內,InfiniBand支持將由PCI和PCI-X適配器完成;這樣,InfiniBand在最初將會受到匯流排的制約。在2002年年底,InfiniBand技術將會完全被整合在Intel伺服器供應商以及Sun生產的伺服器中(80%的可能性)

⑥ IB的實現InfiniBand

InfiniBand不是必須要取代現存的I/O技術。但會造成相關的爭論,因為其它的I/O標准也有很多的支持者,而且許多公司已經對這種傳統的技術進行大量的投資。在計算機業界,每一種新技術的出現都傾向於將其它的技術規類於傳統的范疇。至少在理論上,InfiniBand能與PCI、PCI-X、 SCSI、 光纖通道、IDE/ATA、串列 ATA、 IEEE-1394以及其它在數據中心存在I/O標准共存。相反,3GIO和HyperTransport是板級的互聯,而快速I/O和緻密PCI主要用於內嵌式系統。
為了與其它的I/O技術協同工作,InfiniBand需要能匹配物理介面和轉換通信協議的橋接適配器。舉例來說,Adaptec正在測試能將InfiniBand連接到串列ATA和串列SCSI的磁碟介面。然而,不要假定你需要的橋接設備已經存在,並且經過實際工作的驗證、價格可行。
另一個要考慮的是性能問題。連接兩種不同的I/O標准通常要增加數據通道的延遲。在最壞的情況下,將InfiniBand網路引入到一個已經安裝多個不同技術組成的網路中,如果組織管理差,會降低其整體性能。InfiniBand的支持者聲稱理想的解決方案是完整的InfiniBand體系結構。任何部件都可以直接連接到InfiniBand網路,可以使用優化的文件協議,最好是使用直接訪問文件系統(DAFS)。
DAFS獨立於傳輸,是基於NFS的共享式文件訪問協議。它是優化過的,用於1到100台機器的集群伺服器環境中的I/O密集、CPU受限、面向文件的任務。典型的應用包括資料庫、web服務、e-mail和地理信息系統(GIS),當然也包括存儲應用。
IT管理員感興趣的其它的與InfiniBand相關協議是:SCSI遠程直接內存訪問(RDMA)協議、共享資源協議(SRP)、IP over InfiniBand (IPoIB)、直接套節字協議(SDP)、遠程網路驅動介面規范(RNDIS)。
SRP的開發在一些公司進展順利,比如,已經開發出早期版本並運行在Windows 2000上協議的Adaptec。OEM的廠商和合作夥伴正在測試beta系統。Adaptec認為SRP對於高性能的SANs會相當出眾,但必須解決多廠商產品間的兼容。最終版本的SRP可能取決於操作系統的驅動程序和伺服器的支持,預計在本年下半年或2003年上半年完成。
IpoIB,將IP協議映射到InfiniBand,正在被IETF的一個工作組定義。IpoIB包括IPv4/IPv6的地址解析、IPv4/IPv6的數據報的封裝、網路初始化、組播、廣播和管理信息庫。預計在本年下半年或2003年上半年完成。
SDP試圖解決其它協議的幾個缺陷,特別是相對高的CPU和內存帶寬的利用率。SDP基於微軟的Winsock Direct協議,類似於TCP/IP,但優化後用於InfiniBand,以降低負荷。一個工作組在2000年下半年開始定義SDP,今年2月完成了1.0規范。
RNDIS是微軟開發的協議,用於基於通道的即插即用匯流排的網路I/O,比如USB和IEEE-1394。InfiniBand RNDIS 1.0規范即將完成。

⑦ 誰能幫忙說一下超融合架構的技術邏輯

一種新架構的出現,肯定是為了解決現有架構出現的問題,所以,想了解超融合架構的技術邏輯,首先必須要知道下面幾個問題:

  • 超融合替代的是什麼:傳統架構;

  • 傳統架構出現了什麼問題;

  • 超融合架構的來源,以及是怎麼決絕這些問題的;

一、傳統架構是什麼,出了什麼問題;

據麥肯錫研究顯示,全球的 IT 數據每年在以 40% 的速度增加中。數據正在逐步影響商業,企業通過數據的分析來做決策與管理。完成快速的分析決策和管理,就需要藉助強大的數據中心。下圖為傳統 SAN 存儲:


正因為這種擴展性很好的共享存儲,使得整個 Google 的業務得以順暢地運轉。

三、硬體的快速發展,使得超融合成為可能

另外,超融合近幾年得以快速發展的原因,這要歸功於硬體設備。CPU 核數越來越多,伺服器的內存容量越來越大,SSD 設備和網路互聯網設備越來越快,這意味著:

  • 伺服器的資源除了運行業務以外,仍然可以預留出來足夠的CPU,內存資源來運行存儲軟體。將存儲軟體和業務運行到一塊,既減少了設備量,減少了電力使用,本地讀取也提高了 I/O 的存取效率。這在幾年前是做不到的,因為 CPU 和內存太有限了。

  • 網路互聯越來越快,無論是萬兆,40Gb 乙太網,還是 Infiniband(無限寬頻技術),使得我們的軟體能夠將獨立的存儲設備進行互連,通過分布式文件系統形成共享的存儲池,供上層應用使用。

  • 如果說 SSD 等硬體廠商讓單個存儲設備跑的更快,我們的軟體的意義在於,讓超大量的這些存儲設備,一起工作,提供無止境的整體性能和容量。

⑧ 什麼是雲存儲技術

雲存儲是在雲計算(cloud computing)概念上延伸和發展出來的一個新的概念,是指通過集群應用、網格技術或分布式文件系統等功能,將網路中大量各種不同類型的存儲設備通過應用軟體集合起來協同工作,共同對外提供數據存儲和業務訪問功能的一個系統。 當雲計算系統運算和處理的核心是大量數據的存儲和管理時,雲計算系統中就需要配置大量的存儲設備,那麼雲計算系統就轉變成為一個雲存儲系統,所以雲存儲是一個以數據存儲和管理為核心的雲計算系統。

雲存儲的兩個層面

雲存儲的兩個層面是作為雲計算支撐的存儲計算,主要涉及分布式存儲(如分布式文件系統、IPSAN、數據同步、復制)、數據存儲(如重復數據刪除、數據壓縮、數據編碼)和數據保護(如RAID、CDP、快照、備份與容災)等技術領域,如圖8-30所示,這在第6章中已有所介紹。和雲安全技術一樣,雲存儲技術也需要利用現有的所有存儲技術針對雲計算三層架構的各個環節採用適當的存儲技術,才能取得最佳效果,例如,對應不同需求,有時應該使用資料庫技術但有時卻應該使用LDAP技術,有些性能要求高的系統不能使用SAN或NAS,需直接使用基於RPC或Socket技術的並發文件系統,有些應用使用SAN成本太高等,這里不再做深入介紹。如圖8-31所示是一個採用NetApp FAS、思科 UCS和 VMWare vShpere 4技術打造的存儲系統,對上述兩種雲存儲技術和應用都有促進作用。雲存儲架構

分為兩類:一種是通過服務來架構;另一種是通過軟體或硬體設備來架構。

傳統的系統利用緊耦合對稱架構,這種架構的設計旨在解決HPC(高性能計算、超級運算)問題,現在其正在向外擴展成為雲存儲從而滿足快速呈現的市場需求。下一代架構已經採用了鬆弛耦合非對稱架構,集中元數據和控制操作,這種架構並不非常適合高性能HPC,但是這種設計旨在解決雲部署的大容量存儲需求。各種架構的摘要信息如下:

緊耦合對稱(TCS)架構

構建TCS系統是為了解決單一文件性能所面臨的挑戰,這種挑戰限制了傳統NAS系統的發展。HPC系統所具有的優勢迅速壓倒了存儲,因為它們需要的單一文件I/O操作要比單一設備的I/O操作多得多。業內對此的回應是創建利用TCS架構的產品,很多節點同時伴隨著分布式鎖管理(鎖定文件不同部分的寫操作)和緩存一致性功能。這種解決方案對於單文件吞吐量問題很有效,幾個不同行業的很多HPC客戶已經採用了這種解決方案。這種解決方案很先進,需要一定程度的技術經驗才能安裝和使用。

鬆弛耦合非對稱(LCA)架構

LCA系統採用不同的方法來向外擴展。它不是通過執行某個策略來使每個節點知道每個行動所執行的操作,而是利用一個數據路徑之外的中央元數據控制伺服器。集中控制提供了很多好處,允許進行新層次的擴展:

● 存儲節點可以將重點放在提供讀寫服務的要求上,而不需要來自網路節點的確認信息。

● 節點可以利用不同的商品硬體CPU和存儲配置,而且仍然在雲存儲中發揮作用。

● 用戶可以通過利用硬體性能或虛擬化實例來調整雲存儲。

● 消除節點之間共享的大量狀態開銷也可以消除用戶計算機互聯的需要,如光纖通道或infiniband,從而進一步降低成本。

● 異構硬體的混合和匹配使用戶能夠在需要的時候在當前經濟規模的基礎上擴大存儲,同時還能提供永久的數據可用性。

● 擁有集中元數據意味著,存儲節點可以旋轉地進行深層次應用程序歸檔,而且在控制節點上,元數據經常都是可用的。

⑨ infiniband是什麼意思和乙太網有什麼區別

InfiniBand架構是一種支持多並發鏈接的「轉換線纜」技術,在這種技術中,每種鏈接都可以達到2.5 Gbps的運行速度。這種架構在一個鏈接的時候速度是500 MB/秒,四個鏈接的時候速度是2 GB/秒,12個鏈接的時候速度可以達到6 GB /秒。

乙太網(Ethernet)指的是由Xerox公司創建並由Xerox、Intel和DEC公司聯合開發的基帶區域網規范,是當今現有區域網採用的最通用的通信協議標准。乙太網絡使用CSMA/CD(載波監聽多路訪問及沖突檢測)技術,並以10M/S的速率運行在多種類型的電纜上。乙太網與IEEE802.3系列標准相類似。包括標準的乙太網(10Mbit/s)、快速乙太網(100Mbit/s)和10G(10Gbit/s)乙太網。它們都符合IEEE802.3。

⑩ 如何查看自己的電腦設備是不是支持RDMA

RDMA實際上是一種智能網卡與軟體架構充分優化的遠端內存直接高速訪問技術,通過將RDMA協議固化於硬體(即網卡)上,以及支持Zero-和Kernel bypass這兩種途徑來達到其高性能的遠程直接數據存取的目標。

目前支持RDMA的網卡並不普及,購買網卡時需要跟供應商咨詢清楚是否支持此項功能

另外,目前RDMA的硬體實現有3種(如下),也要跟供應商咨詢清楚

目前支持RDMA的網路協議有:

  • InfiniBand(IB): 從一開始就支持RDMA的新一代網路協議。由於這是一種新的網路技術,因此需要支持該技術的網卡和交換機。

  • RDMA過融合乙太網(RoCE): 即RDMA over Ethernet, 允許通過乙太網執行RDMA的網路協議。這允許在標准乙太網基礎架構(交換機)上使用RDMA,只不過網卡必須是支持RoCE的特殊的NIC。

  • 互聯網廣域RDMA協議(iWARP): 即RDMA over TCP, 允許通過TCP執行RDMA的網路協議。這允許在標准乙太網基礎架構(交換機)上使用RDMA,只不過網卡要求是支持iWARP(如果使用CPU offload的話)的NIC。否則,所有iWARP棧都可以在軟體中實現,但是失去了大部分的RDMA性能優勢。

這個功能比較新,我也只是了解了個大概,具體的還是要實踐,只能幫你到這里了。

熱點內容
存儲指令集 發布:2024-03-29 14:39:27 瀏覽:649
資料庫表刪除數據 發布:2024-03-29 14:39:26 瀏覽:367
出c語言整除 發布:2024-03-29 14:28:22 瀏覽:572
芬尼壓縮機 發布:2024-03-29 14:24:11 瀏覽:464
電腦數據實時上傳本地伺服器軟體 發布:2024-03-29 14:07:57 瀏覽:920
尋秦記源碼 發布:2024-03-29 13:56:17 瀏覽:496
linux的備份命令 發布:2024-03-29 13:41:22 瀏覽:383
csgo建議什麼配置 發布:2024-03-29 13:31:44 瀏覽:980
電腦ftp服務如何禁用 發布:2024-03-29 13:24:48 瀏覽:332
驅動精靈驅動解壓 發布:2024-03-29 13:07:49 瀏覽:565