當前位置:首頁 » 存儲配置 » rps網卡負載均衡如何配置

rps網卡負載均衡如何配置

發布時間: 2023-03-04 20:41:16

⑴ 如何配置網卡

首先你的網卡型號要都一樣.

然後操作系統應該是2003.

然後下載軟體nicE.然後開啟LOAD Balancing功能.

在這里就是網路負載均衡。也就是當多塊網卡被綁定合一之後,當數據流量很大的時候,軟體會自動調整,將數據流量負載均衡地分配到各個網卡上,以減輕單塊網卡的壓力,達到暢快的訪問效果。我們綁定雙網卡,其中目的之一就是為了實現負載均衡,我們自然要開啟這個功能,所以,在這里一定要選擇「Enabled」。當然,如果你在這里選擇錯了也沒關系,今後也可以通過NIC Express軟體管理界面開啟。繼續一路NEXT,在Windows XP里安裝時如果遇到提示「NIC Express Virtual Miniport」沒有通過Windows測試,無法驗證它同Windows XP的相容性,不要理會,選擇「仍然繼續」就行了。到了下圖所示界面,就到了真正綁定網卡的時候了:大家看到這個界面一共分為上、中、下,三個窗口,上面的是空白,中間的寫著8139-2,這個8139-2是我自己起的綁定之後的網卡組的名稱,原來這里默認寫的是New array,也可以不修改,你也可以根據自己喜好,寫成別的名字。在最下面的窗口裡列出了目前伺服器上安裝的兩塊網卡的名字。我們下一步就是要用滑鼠選中下面的兩塊網卡名字,然後點擊界面中間的Add鍵,把兩塊網卡加入上面的窗口裡,這樣兩塊網卡就這樣被加入了網卡組里,初步綁定成一塊「網卡」了,今後可以使用同一個IP地址了。點擊OK繼續,NIC Express出現一個配置界面,選項很多,但是不必太操心,因為這些配置都不必修改,使用默認值就可以了,直接點擊OK、點擊Finish完成安裝進程。至此軟體安裝基本結束,剩下就需要對軟體和網卡進行一些必要的設置工作。點擊桌面「開始」菜單,選擇執行菜單里的「NIC Express Enterprise Edition」選項,這是NIC Express軟體自帶的一個監控程序,首先點擊「setting」選項,在這里可以設置網卡流量計量單位,可以按照Packets/Sec、Mbits/Sec、Kbits/Sec三種單位來計算,一般都是使用默認的Mbits/Sec來計算,也就是兆/每秒,其實在這里只需要修改一下「Graph Detail(圖形顯示)」即可,將默認的「By Protocol」改成「By Incoming/Outgoing」,別的不需要改。如果你想分別觀察綁定組中每塊網卡的流量或者整個組的流量,只需在「Select Device」選項中選擇一下設備即可。最後點擊「Advanced」選項,設定網卡綁定的工作模式,在這里也可以點擊「Load Balancing Disable」來關閉網卡負載均衡功能。使用NIC Express綁定的雙網卡組默認工作於「NIC Express ELB」模式下,這是NIC Express所特有的一種工作模式,實際效果很好。我們都知道利用昂貴的Intel PROSET綁定的Intel 8255x的組合是運行在「802.3ad」工作模式下的,這一模式在NIC Express中也可以選擇,但是多數使用者在實際使用後都認為「NIC Express ELB」模式的效果優於「802.3ad」模式,大家今後可以自己實踐測試比較一下。如果你也使用默認的「NIC Express ELB」模式,那麼「Advanced」選項里也就不用改什麼,一切默認即可。至此NIC Express的設置結束。第三部分:「虛擬網卡」設定最後還要看看網卡的設置,用滑鼠在桌面「網上鄰居」上點擊右鍵彈出「網路和撥號連接」窗口,可以看到原來的兩個網卡連接圖標已經變成了三個,多出來的一個圖標就是「NIC Express Virtual Adapter」,這個就是綁定後的網卡組,這個網卡組的使用和使用單一網卡完全一樣,相當於一個單一的「虛擬網卡」。用滑鼠在這個圖標上點擊右鍵選擇屬性,可以為這個「虛擬網卡」設定IP地址、子網掩碼、網關等等,其實在安裝「NIC Express」過程中,如果伺服器原來的單一網卡已經設置了這些,那麼「虛擬網卡」就會自動設定和原來的網卡一樣。在這里選擇「NIC Express Transport for Ethernet」還可以自由對網卡綁定組進行調整,例如,減少或者加入一塊網卡,這個較之Intel PROSET要方便許多,Intel PROSET在增加或者減少綁定組里的網卡之前必須刪除原來的綁定組然後重新創建。 好了,好了,至此一切都已經做好 最後說幾句,作為本文的總結和補充:1、經過實際使用,我發現使用NIC Express綁定的雙網卡組運行的穩定性很好,沒有出現過什麼軟體的沖突,我的一個朋友已經把它應用到自己的電信託管伺服器上,運行了半年多了,也很穩定

⑵ Linux系統如何配置鏈路聚合,實現流量負載均衡

本文主要解決3個問題:

第一、鏈路聚合的定義和作用是什麼?

第二、如何配置鏈路聚合?

第三、鏈路聚合的實際應用場景有那些?

第一、鏈路聚合的定義和作用是什麼?

答:鏈路聚合的定義:鏈路聚合,官方稱聚合鏈接,民間又稱網卡組隊,具體指的是將多個網卡綁定在一起組建一個虛擬網卡,外界與虛擬網卡進行通信,虛擬網卡再將信息進行分發;

鏈路聚合的作用:可以實現輪詢式的流量負載均衡和熱備份的作用;

舉個栗子:

鏈路聚合就好比是一個包工頭,這個包工頭為了多賺錢,多接訂單,肯定需要找多個小弟;

這樣就可以保障,萬一有一個小弟感冒了,不能上班,這時有其他小弟可以頂上;

當客戶需要蓋房子的時候,直接找包工頭就好了,不需要一個一個的去找建築工人;

第二、如何配置鏈路聚合?

答:

1、配置鏈路聚合的命令是:

nmcli connection add type team con-name team0 ifname team0 autoconnect  yes  config  '{"runner": {"name": "activebackup"}}'

譯為:nmcli connection 添加 類型 team(組隊)

    配置文件名  team0  網卡名  team0  每次開機自動啟用

    配置運行模式  熱備份模式

整體譯為:為系統網卡添加一個 team (團隊),團隊名稱叫 team0 ,配置文件也叫 team0 , 並且設置為開機自動啟動,配置運行模式為熱備份模式;

2、為鏈路聚合添加成員的命令是:

nmcli connection add type team-slave  con-name team0-1  ifname eth1 master team0 ;

nmcli connection add type team-slave con-name team0-2 ifname eth2 master team0;

注釋:nmcli connection 添加 類型為 team的成員

          配置文件名  team0-1  網卡為 eth1  主設備為  team0

整體譯為:為主設備team0添加兩張網卡,eth1和eth2;

3、為tem0配置ip地址的命令是:

nmcli connection modify team0 ipv4.method manual ipv4.addresses 

「IP 地址 / 子網掩碼」    connection.autoconnect yes

4、激活team0的命令是:      

nmcli connection up team0

第三、鏈路聚合的實際應用場景有那些?

答:當伺服器提供比較重要的服務時,只准備一張網卡是遠遠不夠的,因為一但網卡出現故障,客戶就無法訪問,這就會造成客戶流失,體驗感差;

這個時候就可以運用鏈路聚合的方法來解決,將多張網卡綁定在一起創建一張虛擬網卡,從而實現網卡熱備份,流量輪詢式負載均衡;

以此來保障伺服器能夠正常提供服務,給用戶以良好的體驗;

注意事項:

在創建虛擬網卡和添加成員時,如果命令敲錯了,一定要刪除錯誤的信息,以免造成通信混亂;

刪除的命令是:nmcli  connection delete team0  (team0或team x)

查看team0的信息命令是:     teamdctl   team0  state  

以上.......

(本篇完)

祝:開心!

羅貴

2019-03-24

⑶ 雙網卡伺服器的網路負載平衡如何設置

雙網卡負載均衡伺服器

前言:市面上現在天生支持綁定功能的網卡不多,而且多是出身名門的高檔伺服器網卡,身價不菲,設置過程也比較專業,使用和維護都不簡便。難道我等平頭百姓,攥著幾十元的廉價8139的兄弟們就無緣領略雙網卡綁定的快感了嗎?非也,今天我就教大家一招,只需一款小小的軟體,就可以用普通的8139之類的網卡體驗一把雙網卡綁定的愉悅,這個軟體就叫做「NICExpress」,可能行家們已經捂著嘴樂了,呵呵,筆者的出發點是給菜鳥兄弟們排難解惑,窮辦法自娛自樂,說得過火的地方,大家不要見笑,DIY的樂趣就在於此啊。

朋友或許會問了,為什麼要用雙網卡呢?用雙網卡有什麼好處?所謂雙網卡,就是通過軟體將雙網卡綁定為一個IP地址,這個技術對於許多朋友來說並不陌生,許多高檔伺服器網卡(例如intel8255x系列、3COM伺服器網卡等)都具有多網卡綁定功能,可以通過軟硬體設置將兩塊或者多塊網卡綁定在同一個IP地址上,使用起來就好象在使用一塊網卡。

多網卡綁定的優點不少,首先,可以增大帶寬,假如一個網卡的帶寬是100M,理論上兩塊網卡就是200M,三塊就是300M,當然實際上的效果是不會是這樣簡單的增加的,不過經實際測試使用多個網卡對於增加帶寬,保持帶寬的穩定性肯定是有裨益的,如果交換機等相關條件不錯的話,這個效果還是很能令人滿意;其次,可以形成網卡冗餘陣列、分擔負載,雙網卡被綁定成「一塊網卡」之後,同步一起工作,對伺服器的訪問流量被均衡分擔到兩塊網卡上,這樣每塊網卡的負載壓力就小多了,抗並發訪問的能力提高,保證了伺服器訪問的穩定和暢快,當其中一塊發生故障的時候,另一塊立刻接管全部負載,過程是無縫的,服務不會中斷,直到維修人員到來。

OK,現在就手把手的教大家如何用50元來打造出雙網卡的效果!

先下載軟體(點擊這里下載),這是最新版本4.0,只有2.15M,軟體的兼容性已經做得很好,支持win98/Me/2000/XP/2003。基本上支持目前市場上常見的各種網卡,百兆和千兆網卡都可以用來綁定,但是千萬注意,最好用於綁定的網卡是完全相同的,至少也是基於同一晶元的,這樣多塊網卡才能合作得比較好。切記不要把10M網卡和100M網卡綁定在一起,那樣根本起不到提升作用。

下載完軟體,先不忙安裝,咱們還是先准備好硬體。

第一部分:硬體安裝

雖然,理論上講綁定越多網卡在一起,最終效果提升就越明顯,但是考慮到復雜程度,這里就以綁定雙網卡為例進行說明,如果讀者覺得好玩,興致很高的話,按照下面方法願意綁定多少就綁定多少個網卡,其實一般同一台伺服器,綁定2-3塊網卡也就夠了,太多了,據說因為鏈路聚合的先天缺點,會過多佔用伺服器資源,反過來會影響伺服器速度(關於這個我沒實驗,不過我覺得凡事都離不開物極必反的道理,適度最好)。

然後,抱出筆者的一台私有伺服器,呵呵,雖然破舊一點,不過可是立功不小啊,上面現在運行著FTP、MAIL等服務,幾百個朋友的EMAIL都是通過它來傳遞的啊。配置情況為intel810主板(集成顯卡)+256MSD內存+10GIDE硬碟(系統盤)+120GIDE硬碟(存放互聯網垃圾)。系統軟體是windows2000高級伺服器版。

廢話少說,開干,打開伺服器機箱,把兩塊網卡擰在主板PCI插槽上,擰好了,看看還不錯

拿出珍藏的10M-8口集線器,哈哈,別笑話,我手頭只有這個,能說清楚方法就可以了,如果是讀者自己DIY,請務必選一台好的交換機,至少要10/100M自適應的,這是網路通暢的關鍵,別象我把100M網卡連在10M集線器上,那速度怎麼也好不了啊。做幾條網線,把集線器、網卡連接起來,集線器連入上級交換機,因為是在家裡實驗,所以,我就把集線器的Uplink口連入家用路由器的任意一個網口裡,路由器則連入我家ADSL「大貓」。

第二部分:設置調試

下面要進行設置及調試了,也就是要將這兩塊8139D廉價網卡,如同高檔伺服器網卡那樣綁定在一起,使用同一個IP地址,同時同步工作。其過程並不復雜,估計20分鍾足夠了。

將剛剛下載的NIC Express軟體的安裝包NIC4.rar解壓縮得到安裝文件「NICExpressW2KEE.exe」,雙擊它啟動安裝程序,一路NEXT,軟體提示輸入unlock key(注冊碼),如果沒有注冊碼,就只好點擊Demo,選擇試用,這樣可以獲得30天的免費試用期,在這30天里如果覺得不錯,你可以想辦法去弄一個注冊碼(怎麼弄?找小編問,他可能有,哈哈)。

到下圖所示界面,軟體提示選擇是否開啟LOAD Balancing 功能?什麼是LOAD Balancing 功能呢?LOAD Balancing的中文意思可以翻譯為負載均衡,在這里就是網路負載均衡。也就是當多塊網卡被綁定合一之後,當數據流量很大的時候,軟體會自動調整,將數據流量負載均衡地分配到各個網卡上,以減輕單塊網卡的壓力,達到暢快的訪問效果。我們綁定雙網卡,其中目的之一就是為了實現負載均衡,我們自然要開啟這個功能,所以,在這里一定要選擇「Enabled」。當然,如果你在這里選擇錯了也沒關系,今後也可以通過NIC Express軟體管理界面開啟。

繼續一路NEXT,在Windows XP里安裝時如果遇到提示「NIC Express Virtual Miniport」沒有通過Windows測試,無法驗證它同Windows XP的相容性,不要理會,選擇「仍然繼續」就行了。

到了下圖所示界面,就到了真正綁定網卡的時候了:

大家看到這個界面一共分為上、中、下,三個窗口,上面的是空白,中間的寫著8139-2,這個8139-2是我自己起的綁定之後的網卡組的名稱,原來這里默認寫的是New array,也可以不修改,你也可以根據自己喜好,寫成別的名字。在最下面的窗口裡列出了目前伺服器上安裝的兩塊網卡的名字。我們下一步就是要用滑鼠選中下面的兩塊網卡名字,然後點擊界面中間的Add鍵,把兩塊網卡加入上面的窗口裡,這樣兩塊網卡就這樣被加入了網卡組里,初步綁定成一塊「網卡」了,今後可以使用同一個IP地址了。

點擊OK繼續,NIC Express出現一個配置界面,選項很多,但是不必太操心,因為這些配置都不必修改,使用默認值就可以了,直接點擊OK、點擊Finish完成安裝進程。至此軟體安裝基本結束,剩下就需要對軟體和網卡進行一些必要的設置工作。

點擊桌面「開始」菜單,選擇執行菜單里的「NIC Express Enterprise Edition」選項,這是NIC Express軟體自帶的一個監控程序,首先點擊「setting」選項,在這里可以設置網卡流量計量單位,可以按照Packets/Sec、Mbits/Sec、Kbits/Sec三種單位來計算,一般都是使用默認的Mbits/Sec來計算,也就是兆/每秒,其實在這里只需要修改一下「Graph Detail(圖形顯示)」即可,將默認的「By Protocol」改成「By Incoming/Outgoing」,別的不需要改。

如果你想分別觀察綁定組中每塊網卡的流量或者整個組的流量,只需在「Select Device」選項中選擇一下設備即可。最後點擊「Advanced」選項,設定網卡綁定的工作模式,在這里也可以點擊「Load Balancing Disable」來關閉網卡負載均衡功能。使用NIC Express綁定的雙網卡組默認工作於「NIC Express ELB」模式下,這是NIC Express所特有的一種工作模式,實際效果很好。我們都知道利用昂貴的Intel PROSET綁定的Intel 8255x的組合是運行在「802.3ad」工作模式下的,這一模式在NIC Express中也可以選擇,但是多數使用者在實際使用後都認為「NIC Express ELB」模式的效果優於「802.3ad」模式,大家今後可以自己實踐測試比較一下。如果你也使用默認的「NIC Express ELB」模式,那麼「Advanced」選項里也就不用改什麼,一切默認即可。至此NIC Express的設置結束。

第三部分:「虛擬網卡」設定

最後還要看看網卡的設置,用滑鼠在桌面「網上鄰居」上點擊右鍵彈出「網路和撥號連接」窗口,可以看到原來的兩個網卡連接圖標已經變成了三個,多出來的一個圖標就是「NIC Express Virtual Adapter」,這個就是綁定後的網卡組,這個網卡組的使用和使用單一網卡完全一樣,相當於一個單一的「虛擬網卡」。

用滑鼠在這個圖標上點擊右鍵選擇屬性,可以為這個「虛擬網卡」設定IP地址、子網掩碼、網關等等,其實在安裝「NIC Express」過程中,如果伺服器原來的單一網卡已經設置了這些,那麼「虛擬網卡」就會自動設定和原來的網卡一樣。在這里選擇「NIC Express Transport for Ethernet」還可以自由對網卡綁定組進行調整,例如,減少或者加入一塊網卡,這個較之Intel PROSET要方便許多,Intel PROSET在增加或者減少綁定組里的網卡之前必須刪除原來的綁定組然後重新創建。

好了,好了,至此一切都已經做好,我們的伺服器已經成為一台地地道道的「雙網卡冗餘伺服器」了,我們來運行一下,看看錶現。

第四部分:測試雙網卡綁定後的效果

檢查一下線路,前面說過兩塊網卡已經用網線連入10M集線器(這就相當於機房機櫃里的百兆交換機),集線器的Uplink口連入了家用路由器的任意一個網口,路由器通過ADSL大貓接入互聯網(北京512K包月ADSL),這樣伺服器就已經和互聯網連通了,按下Power鍵啟動伺服器,由於伺服器裡面已經安裝了動態域名軟體,伺服器啟動之後,很快與國際域名www.usacase.com連接到一起(具體過程請看不久前發表在太平洋網站的《絕對瘋狂!1G容量的郵件伺服器自己打造》),這時只要訪問www.usacase.com域名,即可從世界各地訪問到我的伺服器了,我讓上海的一個朋友用FTP軟體登陸這台「雙網卡冗餘伺服器」,下載一個50M的壓縮文件包。嚯,只見伺服器上的兩塊8139D網卡的指示燈同時閃爍起來,閃爍的頻率完全同步,煞是好看!

再看那台古董級10M集線器,兩個接上網卡的介面指示燈也是飛快同步閃爍,說明兩塊網卡在同步工作,同時分擔訪問的流量。上海的朋友說感覺速度不錯,畢竟只是512K的ADSL,也僅能看看網卡同步閃爍的美麗效果了。

然後,我又在區域網里進行了傳輸實驗,因為有那個10M集線器的瓶頸,所以效果不是很好,但是也能看出一些明顯改善。從區域網另一台使用單個雜牌10M8029網卡的電腦上通過網上鄰居訪問已經用NIC Express綁定了雙8139D網卡的伺服器,傳輸200M文件,通過「NIC Express Enterprise Edition」中的曲線監控圖觀察到,雙網卡綁定組的傳輸速率從8M/s起步,最高達到8.2M/s,兩機之間平均傳輸速率比較穩定,偶爾有大幅度的波動,是軟體正在調整兩塊網卡的負載均衡,只有零點幾秒就恢復正常,基本穩定在7.5-8M/s左右,已經接近那個10M集線器的最大傳輸極限。之後,從伺服器上刪除一塊網卡,再進行兩機傳輸實驗,發現傳輸最高速率已經驟然減少到5M/s,而且傳輸過程中速率上下波動很大,平均傳輸速率也就3M/s左右,可見前後差異還是很明顯的。

⑷ 如何配置Web伺服器實現負載均衡

網路的負載均衡是一種動態均衡技術,通過一些工具實時地分析數據包,掌握網路中的數據流量狀況,把任務合理均衡地分配出去。這種技術基於現有網路結構,提供了一種擴展伺服器帶寬和增加伺服器吞吐量的廉價有效的方法,加強了網路數據處理能力,提高了網路的靈活性和可用性。

以四台伺服器為例實現負載均衡:

安裝配置LVS

1. 安裝前准備:

(1)首先說明,LVS並不要求集群中的伺服器規格劃一,相反,可以根據伺服器的不同配置和負載狀況,調整負載分配策略,充分利用集群環境中的每一台伺服器。如下表:

Srv Eth0 Eth0:0 Eth1 Eth1:0

vs1 10.0.0.1 10.0.0.2 192.168.10.1 192.168.10.254

vsbak 10.0.0.3 192.168.10.102

real1 192.168.10.100

real2 192.168.10.101

其中,10.0.0.2是允許用戶訪問的IP。

(2)這4台伺服器中,vs1作為虛擬伺服器(即負載平衡伺服器),負責將用戶的訪問請求轉發到集群內部的real1,real2,然後由real1,real2分別處理。
Client為客戶端測試機器,可以為任意操作系統。

(3)所有OS為redhat6.2,其中vs1 和vsbak 的核心是2.2.19, 而且patch過ipvs的包, 所有real
server的Subnet mask 都是24位, vs1和vsbak 的10.0.0. 網段是24 位。

2.理解LVS中的相關術語

(1) ipvsadm :ipvsadm是LVS的一個用戶界面。在負載均衡器上編譯、安裝ipvsadm。

(2) 調度演算法: LVS的負載均衡器有以下幾種調度規則:Round-robin,簡稱rr;weighted
Round-robin,簡稱wrr;每個新的連接被輪流指派到每個物理伺服器。Least-connected,簡稱lc;weighted
Least-connected,簡稱wlc,每個新的連接被分配到負擔最小的伺服器。

(3) Persistent client
connection,簡稱pcc,(持續的客戶端連接,內核2.2.10版以後才支持)。所有來自同一個IP的客戶端將一直連接到同一個物理伺服器。超時時間被設置為360秒。Pcc是為https和cookie服務設置的。在這處調度規則下,第一次連接後,所有以後來自相同客戶端的連接(包括來自其它埠)將會發送到相同的物理伺服器。但這也會帶來一個問題,因為大約有25%的Internet
可能具有相同的IP地址。

(4) Persistent port
connection調度演算法:在內核2.2.12版以後,pcc功能已從一個調度演算法(你可以選擇不同的調度演算法:rr、wrr、lc、wlc、pcc)演變成為了一個開關選項(你可以讓rr、
wrr、lc、wlc具備pcc的屬性)。在設置時,如果你沒有選擇調度演算法時,ipvsadm將默認為wlc演算法。 在Persistent port
connection(ppc)演算法下,連接的指派是基於埠的,例如,來自相同終端的80埠與443埠的請求,將被分配到不同的物理伺服器上。不幸的是,如果你需要在的網站上採用cookies時將出問題,因為http是使用80埠,然而cookies需要使用443埠,這種方法下,很可能會出現cookies不正常的情況。

(5)Load Node Feature of Linux Director:讓Load balancer 也可以處理users 請求。

(6)IPVS connection synchronization。

(7)ARP Problem of LVS/TUN and LVS/DR:這個問題只在LVS/DR,LVS/TUN 時存在。

3. 配置實例

(1) 需要的軟體包和包的安裝:

I. piranha-gui-0.4.12-2*.rpm (GUI介面cluster設定工具);

II. piranha-0.4.12-2*.rpm;

III. ipchains-1.3.9-6lp*.rpm (架設NAT)。

取得套件或mount到光碟,進入RPMS目錄進行安裝:

# rpm -Uvh piranha*

# rpm -Uvh ipchains*

(2) real server群:

真正提供服務的server(如web
server),在NAT形式下是以內部虛擬網域的形式,設定如同一般虛擬網域中Client端使用網域:192.168.10.0/24
架設方式同一般使用虛擬IP之區域網絡。

a. 設網卡IP

real1 :192.168.10.100/24

real2 :192.168.10.101/24

b.每台server均將default gateway指向192.168.10.254。
192.168.10.254為該網域唯一對外之信道,設定在virtual server上,使該網域進出均需通過virtual server 。

c.每台server均開啟httpd功能供web server服務,可以在各real server上放置不同內容之網頁,可由瀏覽器觀察其對各real
server讀取網頁的情形。

d.每台server都開啟rstatd、sshd、rwalld、ruser、rsh、rsync,並且從Vserver上面拿到相同的lvs.conf文件。

(3) virtual server:

作用在導引封包的對外主機,專職負責封包的轉送,不提供服務,但因為在NAT型式下必須對進出封包進行改寫,所以負擔亦重。

a.IP設置:

對外eth0:IP:10.0.0.1 eth0:0 :10.0.0.2

對內eth1:192.168.10.1 eth1:0 :192.168.10.254

NAT形式下僅virtual server有真實IP,real server群則為透過virtual server.

b.設定NAT功能

# echo 1 >; /proc/sys/net/ipv4/ip_forward

# echo 1 >; /proc/sys/net/ipv4/ip_always_defrag

# ipchains -P forward MASQ

c.設定piranha 進入X-window中 (也可以直接編輯/etc/lvs.cf )

a).執行面板系統piranha

b).設定「整體配置」(Global Settings) 主LVS伺服器主機IP:10.0.0.2, 選定網路地址翻譯(預設) NAT路徑名稱:
192.168.10.254, NAT 路徑裝置: eth1:0

c).設定虛擬伺服器(Virtual Servers) 添加編輯虛擬伺服器部分:(Virtual
Server)名稱:(任意取名);應用:http;協議: tcp;連接:80;地址:10.0..0.2;裝置:eth0:0; 重入時間:180
(預設);服務延時:10 (預設);載入監控工具:ruptime (預設);調度策略:Weighted least-connections; 持續性:0
(預設); 持續性屏蔽: 255.255.255.255 (預設); 按下激活:實時伺服器部分:(Real Servers); 添加編輯:名字:(任意取名);
地址: 192.168.10.100; 權重:1 (預設) 按下激活

另一架real server同上,地址:192.168.10.101。

d). 控制/監控(Controls/Monitoring)
控制:piranha功能的激活與停止,上述內容設定完成後即可按開始鍵激活piranha.監控器:顯示ipvsadm設定之routing table內容
可立即更新或定時更新。

(4)備援主機的設定(HA)

單一virtual server的cluster架構virtual server 負擔較大,提供另一主機擔任備援,可避免virtual
server的故障而使對外服務工作終止;備份主機隨時處於預備狀態與virtual server相互偵測

a.備份主機:

eth0: IP 10.0.0.3

eth1: IP 192.168.10.102 同樣需安裝piranha,ipvsadm,ipchains等套件

b.開啟NAT功能(同上面所述)。

c.在virtual server(10.0.0.2)主機上設定。

a).執行piranha冗餘度 ;

b).按下「激活冗餘度」;

冗餘LVS伺服器IP: 10.0.0.3;HEARTBEAT間隔(秒數): 2 (預設)

假定在…秒後進入DEAD狀態: 5 (預設);HEARTBEAT連接埠: 539 (預設)

c).按下「套用」;

d).至「控制/監控」頁,按下「在當前執行層添加PULSE DEAMON」 ,按下「開始」;

e).在監控器按下「自動更新」,這樣可由窗口中看到ipvsadm所設定的routing table,並且動態顯示real
server聯機情形,若real server故障,該主機亦會從監視窗口中消失。

d.激活備份主機之pulse daemon (執行# /etc/rc.d/init.d/pulse start)。

至此,HA功能已經激活,備份主機及virtual server由pulse daemon定時相互探詢,一但virtual
server故障,備份主機立刻激活代替;至virtual server 正常上線後隨即將工作交還virtual server。

LVS測試

經過了上面的配置步驟,現在可以測試LVS了,步驟如下:

1. 分別在vs1,real1,real2上運行/etc/lvs/rc.lvs_dr。注意,real1,real2上面的/etc/lvs
目錄是vs2輸出的。如果您的NFS配置沒有成功,也可以把vs1上/etc/lvs/rc.lvs_dr復制到real1,real2上,然後分別運行。確保real1,real2上面的apache已經啟動並且允許telnet。

2. 測試Telnet:從client運行telnet 10.0.0.2,
如果登錄後看到如下輸出就說明集群已經開始工作了:(假設以guest用戶身份登錄)

[guest@real1 guest]$——說明已經登錄到伺服器real1上。

再開啟一個telnet窗口,登錄後會發現系統提示變為:

[guest@real2 guest]$——說明已經登錄到伺服器real2上。

3. 測試http:從client運行iexplore http://10.0.0.2

因為在real1 和real2 上面的測試頁不同,所以登錄幾次之後,顯示出的頁面也會有所不同,這樣說明real server 已經在正常工作了。

熱點內容
隨機啟動腳本 發布:2025-07-05 16:10:30 瀏覽:533
微博資料庫設計 發布:2025-07-05 15:30:55 瀏覽:30
linux485 發布:2025-07-05 14:38:28 瀏覽:310
php用的軟體 發布:2025-07-05 14:06:22 瀏覽:760
沒有許可權訪問計算機 發布:2025-07-05 13:29:11 瀏覽:436
javaweb開發教程視頻教程 發布:2025-07-05 13:24:41 瀏覽:721
康師傅控流腳本破解 發布:2025-07-05 13:17:27 瀏覽:246
java的開發流程 發布:2025-07-05 12:45:11 瀏覽:695
怎麼看內存卡配置 發布:2025-07-05 12:29:19 瀏覽:288
訪問學者英文個人簡歷 發布:2025-07-05 12:29:17 瀏覽:837