當前位置:首頁 » 操作系統 » linux雙網卡網關

linux雙網卡網關

發布時間: 2023-05-10 13:09:52

A. linux雙網卡內網為啥不需要設網關

在linux上安裝系統並配置IP應該是系統管理員的一項基本工作,但你知道IP在不同的網路結構下的功夫會有所不同嗎?

1.NIC1張時

這沒什麼好說的。 我想地球人可能知道:地址、網路掩碼、網關以及網路重啟。

2 .網卡為2張時

1 ) .對於一個網關

這種情況也很簡單,只要在一個網卡上設置一個ip,其中一個ip上不設置網關就可以了.這樣連接網路時走在有網關的一側,這台機器也是沒有網關的網路

2 ) .兩個網關時

這比較復雜,復雜到兩張網卡上沒有安裝默認網關: (此linux連接的兩個網段都不是一個網段! 也可以通洞卜過連接的兩個網段訪問其他不同的網段。 在這種情況下,無論將網關設置為哪一個,都會影響連接了其他網段的網段無法正常使用。 這是今天我最想表達的問題。 在這種情況下,如果想連接多個網段,請先在正確的網卡上設置正確的ip。 剩下的工作交給route處理。 通過使用route命令,將可以連接到internet或在其中連接到internet的網關設置為默認網關,可以解決單個網段。 另一個段及其連接的所有握殲網段將逐一路由。 範例

默認網關:

routeadddefaultgw 224.224.224.224.224 eth 0

路由:

路由添加網192.168.115.0/24gw 192.168.1.254 et h1

沒有學習過路由知識的學生可能不理解添加路由為什麼要去115段連接,但是去1.254。 這是因為在添加路由時,指定下一跳,僅指定與本機連接的網關: )

3 ) .三張網卡時

和兩張卡相似。 如果你的需求是一個網段通過兩個不同的網路連接到互聯網,中間夾著這樣的linux。 我個人認為,除了在iptables中根據不同的ip地址劃分不同的互聯網網路之外,沒有其他解決方案。)

發散思維:知道它,也知道它。 為什麼當兩個網卡有一個網關時,只有一個網卡有網關呢? 因為linux會自動設定路由! 它會將你設置的網關設置為默認路由。 此時,如果你設置了兩個網關,linux為你隨機選擇的默認路由可能是上不了網,或者不是你想要的哦。 再展開一段顫沖下,其實linux是一個完整的路由器。 不過,它只是保留了默認情況下取消的路由功能。 如果你正在學習路由知識,而沒有那麼多路由器,那麼為了做ospf、pgp等高級實驗,安裝一些linux會有意想不到的驚喜。 寫到這里,一邊覺得linux黃而暴力,一邊突然想展示更多的內容。 但是我不想說話,留在下一篇報道里吧。實戰linux

B. linux 雙網卡兩個網卡均為內網,兩個網關分別不同網段可以訪問該如何設置

伺服器上有兩個面向賀段虛內網的網卡。這個有意思。你這是像做nis伺服器的樣子。如果你的防火牆已經開放了相關埠,並且selinux也關照過了,燃碼這個設定就ok啦。如果伺服器不能發揮作用,我想應該是兩台網關的主機沒設定好了(也許是路由器咯)。ip偽裝了沒;ip_forward有沒設定為1;防火牆你是用linux的默認值的嗎,默認值很嚴禪燃的。

C. 關於Linux系統下設置雙網卡雙IP的問題!

ubuntu雙網卡雙IP.不同網關.不同子網.如何同時ping通兩塊網卡的解決方法,
伺服器環境如下:、
系統:Ubuntu 9.04 X64 server
電信IP(TEL):114.80.0.4 netmask 255.255.255.128 gateway 114.80.0.3
聯通IP(CNC):112.65.0.2 netmask 255.255.255.0 gateway 112.65.0.1
1.配置網卡信息
# vi /etc/network/interfaces
auto lo
iface lo inet loopback
# The primary network interface
auto eth0
iface eth0 inet static
address 114.80.0.4
netmask 255.255.255.128
gateway 114.80.0.3
# dns-* options are implemented by the resolvconf package, if installed
dns-nameservers 202.96.209.133
auto eth1
iface eth1 inet static
address 112.65.0.2
netmask 255.255.255.0
保存配置信息並重新啟動網卡
# /etc/init.d/networking restart
2.增加2個路由表分別是電信:tel 聯通:cnc
# vi /etc/iproute2/rt_tables
252 tel
251 cnc
保存並推出
3.增加路由規則
# ip route flush table tel
# ip route add default via 114.80.0.3 dev eth0 src 114.80.0.4 table tel
# ip ruleadd from 114.80.0.4 table tel
此處是設置電信的網關,並可實現讓電信的資源訪問只從eth0網卡出去
# ip route flush table cnc
# ip route add default via 112.65.0.1 dev eth1 src 112.65.0.2 table cnc
# ip rule add from 112.65.0.2 table cnc
此處是設置聯通的網關,並可實現讓聯通的資源訪問只從eth1網卡出去
4.配置networking啟動腳本文件 在結尾exit 0之前增加如下內容
# vi /etc/init.d/networking
ip route flush table tel
ip route add default via 114.80.0.3 dev eth0 src 114.80.0.4 table tel
ip rule add from 114.80.0.4 table tel
ip route flush table cnc
ip route add default via 112.65.0.1 dev eth1 src 112.65.0.2 table cnc
ip rule add from 112.65.0.2 table cnc
exit 0
5,退出並重啟網路
# /etc/init.d/networking restart
此時再測試機器網路情況,就會發現電信和聯通的地址都可以正常訪問了。此方法還可以實現讓從電信IP過來的請求按照電信路由返回,從網通IP過來的請求從網通路由返回。
補充:網上有些大神說如果伺服器重啟,或者網路服務重啟,上述的路由規則就失效了,所以你需要把上面這段命令寫入系統啟動腳本和網路啟動腳本
如果是ubuntu/debian,系統啟動腳本是/etc/rc.local
如果是RedHat/CentOS,系統啟動腳本是/etc/rc.d/rc.local
如果是ubuntu/debian,網路啟動腳本是/etc/init.d/networking
如果是RedHat/centos,網路啟動腳本是/etc/rc.d/init.d/network

D. linux 雙網卡雙網關怎麼配置

雙網卡和雙網關的配置就需要路由的配合了。

網卡1:

IPADDR=IP1
NETMASK=255.255.255.0
GATEWAY=網關1

網卡2:

IPADDR=IP2
NETMASK=255.255.255.0

配置雙網卡並存路由:

routeadd-net網段2netmask255.255.255.0gw網關2

以上請使用網卡2訪問的網段進行配置網段2,並使用網卡2的網關IP替換網關2

E. linux雙網卡多網段配置靜態路由

雙網卡

eno0   IP :172.20.80.100   掩碼:255.255.255.0  網關:172.20.80.1

eno1    IP :70.5.0.66  掩碼:255.255.255.0  網關:70.5.0.1

第一個配置網關走總業務

第二個網卡不配置網關配置臨時或永久靜態路由

route  add  -net  70.0.0.0/8  gw  70.5.0.1

add 增加路由

del 刪除路由

-net 設置到某個網段的路由

-host 設置到某台主機的路由

gw 出口網關 IP地址

dev 出口網關 物理設備名

下面是配置永久靜態路由,創建一個文件

vim /etc/sysconfig/static-routes

ubuntu16.04 請在/etc/rc.local文件中添加靜態路由重啟

any net  70.0.0.0 netmask 255.0.0.0 gw 70.5.0.1

配置完成用route 查看一下路由表是否正確

route -e 

F. Linux下雙網卡綁定七種模式

現在一般的企業都會使用雙網卡接入,這樣既能添加網路帶寬,同時又能做相應的冗餘,可以說是好處多多。而一般企業都會使用linux操作系統下自帶的網卡綁定模式,當然現在網卡產商也會出一些針對windows操作系統網卡管理軟體來做網卡綁定(windows操作系統沒有網卡綁定功能 需要第三方支持)。進入正題,linux有七種網卡綁定模式:0. round robin,1.active-backup,2.load balancing (xor), 3.fault-tolerance (broadcast), 4.lacp, 5.transmit load balancing, 6.adaptive load balancing。 第一種:bond0:round robin標准:round-robin policy: Transmit packets in sequential order from the first available slave through the last. This mode provides load balancing and fault tolerance.

特點:(1)所有鏈路處於負載均衡狀態,輪詢方式往每條鏈路發送報文,基於per packet方式發送。服務上ping 一個相同地址:1.1.1.1 雙網卡的兩個網卡都有流量發出。負載到兩條鏈路上,說明是基於per packet方式 ,進行輪詢發送。(2)這模式的特點增加了帶寬,同時支持容錯能力,當有鏈路出問題,會把流量切換到正常的鏈路上。

實際綁定結果: cat /proc/net/bonding/bond0 Ethernet Channel Bonding Driver: v3.6.0 (September 26, 2009) Bonding Mode: load balancing (round-robin) -----RR的模式 MII Status: up MII Polling Interval (ms): 100 Up Delay (ms): 0 Down Delay (ms): 0 Slave Interface: eth0 MII Status: up Link Failure Count: 0 Permanent HW addr: 74:ea:3a:6a:54:e3 Slave Interface: eth1 MII Status: up Link Failure Count: 0

應用拓撲:交換機端需要配置聚合口,cisco叫port channel。拓撲圖如下:

第二種:bond1:active-backup標准文檔定義:Active-backup policy: Only one slave in the bond is active. A different slave becomes active if, and only if, the active slave fails. The bond's MAC address is externally visible on only one port (network adapter) to avoid confusing the switch. This mode provides fault tolerance. The primary option affects the behavior of this mode.

模式的特點:一個埠處於主狀態 ,一個處於從狀態,所有流量都在主鏈路上處理,從不會有任何流量。當主埠down掉時,從埠接手主狀態。

實際綁定結果: root@1:~# cat /proc/net/bonding/bond0 Ethernet Channel Bonding Driver: v3.6.0 (September 26, 2009) Bonding Mode: fault-tolerance (active-backup) —–backup模式 Primary Slave: None Currently Active Slave: eth0 MII Status: up MII Polling Interval (ms): 100 Up Delay (ms): 0 Down Delay (ms): 0 Slave Interface: eth0 MII Status: up Link Failure Count: 0 Permanent HW addr: 74:ea:3a:6a:54:e3 Slave Interface: eth1 MII Status: up Link Failure Count: 0 Permanent HW addr: d8:5d:4c:71:f9:94

應用拓撲:這種模式接入不需要交換機端支持,隨便怎麼接入都行。

第三種:bond2:load balancing (xor)標准文檔描述:XOR policy: Transmit based on [(source MAC address XOR'd with destination MAC address) molo slave count]. This selects the same slave for each destination MAC address. This mode provides load balancing and fault tolerance.

特點:該模式將限定流量,以保證到達特定對端的流量總是從同一個介面上發出。既然目的地是通過MAC地址來決定的,因此該模式在"本地"網路配置下可以工作得很好。如果所有流量是通過單個路由器(比如 "網關"型網路配置,只有一個網關時,源和目標mac都固定了,那麼這個演算法算出的線路就一直是同一條,那麼這種模式就沒有多少意義了。),那該模式就不是最好的選擇。和balance-rr一樣,交換機埠需要能配置為"port channel"。這模式是通過源和目標mac做hash因子來做xor演算法來選路的。

實際綁定結果: [root@localhost ~]# cat /proc/net/bonding/bond0 Ethernet Channel Bonding Driver: v3.0.3 (March 23, 2006) Bonding Mode: load balancing (xor) ——配置為xor模式 Transmit Hash Policy: layer2 (0) MII Status: up MII Polling Interval (ms): 100 Up Delay (ms): 0 Down Delay (ms): 0 Slave Interface: eth1 MII Status: up Link Failure Count: 0 Permanent HW addr: 00:d0:f8:40:f1:a0 Slave Interface: eth2 MII Status: up Link Failure Count: 0 Permanent HW addr: 00:d0:f8:00:0c:0c

應用拓撲:同bond0一樣的應用模型。這個模式也需要交換機配置聚合口。

第四種:bond3:fault-tolerance (broadcast)標准文檔定義:Broadcast policy: transmits everything on all slave interfaces. This mode provides fault tolerance.

特點:這種模式的特點是一個報文會復制兩份往bond下的兩個介面分別發送出去,當有對端交換機失效,我們感覺不到任何downtime,但此法過於浪費資源;不過這種模式有很好的容錯機制。此模式適用於金融行業,因為他們需要高可靠性的網路,不允許出現任何問題。

實際綁定結果: root@ubuntu12:~/ram# cat /proc/net/bonding/bond0 Ethernet Channel Bonding Driver: v3.6.0 (September 26, 2009) Bonding Mode: fault-tolerance (broadcast) ——- fault-tolerance 模式 MII Status: up MII Polling Interval (ms): 100 Up Delay (ms): 0 Down Delay (ms): 0 Slave Interface: eth0 MII Status: up Link Failure Count: 0 Permanent HW addr: 74:ea:3a:6a:54:e3 Slave Interface: eth1 MII Status: up Link Failure Count: 0 Permanent HW addr: d8:5d:4c:71:f9:94

應用拓撲:如下:

這種模式適用於如下拓撲,兩個介面分別接入兩台交換機,並且屬於不同的vlan,當一邊的網路出現故障不會影響伺服器另一邊接入的網路正常工作。而且故障過程是0丟包。下面展示了這種模式下ping信息: 64 bytes from 1.1.1.1: icmp_seq=901 ttl=64 time=0.205 ms 64 bytes from 1.1.1.1: icmp_seq=901 ttl=64 time=0.213 ms (DUP!) —p為重復報文 64 bytes from 1.1.1.1: icmp_seq=902 ttl=64 time=0.245 ms 64 bytes from 1.1.1.1: icmp_seq=902 ttl=64 time=0.254 ms (DUP!) 64 bytes from 1.1.1.1: icmp_seq=903 ttl=64 time=0.216 ms 64 bytes from 1.1.1.1: icmp_seq=903 ttl=64 time=0.226 ms (DUP!) 從這個ping信息可以看到,這種模式的特點是,同一個報文伺服器會復制兩份分別往兩條線路發送,導致回復兩份重復報文,這種模式有浪費資源的嫌疑。

第五種:bond4:lacp

標准文檔定義:IEEE 802.3ad Dynamic link aggregation. Creates aggregation groups that share the same speed and plex settings. Utilizes all slaves in the active aggregator according to the 802.3ad specification. Pre-requisites: 1. Ethtool support in the base drivers for retrieving.the speed and plex of each slave. 2. A switch that supports IEEE 802.3ad Dynamic link aggregation. Most switches will require some type of configuration to enable 802.3ad mode.

特點:802.3ad模式是IEEE標准,因此所有實現了802.3ad的對端都可以很好的互操作。802.3ad 協議包括聚合的自動配置,因此只需要很少的對交換機的手動配置(要指出的是,只有某些設備才能使用802.3ad)。802.3ad標准也要求幀按順序(一定程度上)傳遞,因此通常單個連接不會看到包的亂序。802.3ad也有些缺點:標准要求所有設備在聚合操作時,要在同樣的速率和雙工模式,而且,和除了balance-rr模式外的其它bonding負載均衡模式一樣,任何連接都不能使用多於一個介面的帶寬。 此外,linux bonding的802.3ad實現通過對端來分發流量(通過MAC地址的XOR值),因此在"網關"型配置下,所有外出(Outgoing)流量將使用同一個設備。進入(Incoming)的流量也可能在同一個設備上終止,這依賴於對端802.3ad實現里的均衡策略。在"本地"型配置下,路兩將通過 bond里的設備進行分發。

實際綁定結果: root@:~# cat /proc/net/bonding/bond0 Ethernet Channel Bonding Driver: v3.6.0 (September 26, 2009) Bonding Mode: IEEE 802.3ad Dynamic link aggregation Transmit Hash Policy: layer2 (0) MII Status: up MII Polling Interval (ms): 100 Up Delay (ms): 0 Down Delay (ms): 0 802.3ad info LACP rate: slow Aggregator selection policy (ad_select): stable Active Aggregator Info: Aggregator ID: 1 Number of ports: 1 Actor Key: 9 Partner Key: 1 Partner Mac Address: 00:00:00:00:00:00 Slave Interface: eth0 MII Status: up Link Failure Count: 0 Permanent HW addr: 74:ea:3a:6a:54:e3 Aggregator ID: 1 Slave Interface: eth1 MII Status: up Link Failure Count: 0 Permanent HW addr: d8:5d:4c:71:f9:94 Aggregator ID: 2

應用拓撲:應用拓撲同bond0,和bond2一樣,不過這種模式除了配置port channel之外還要在port channel聚合口下開啟LACP功能,成功協商後,兩端可以正常通信。否則不能使用。

交換機端配置: interface AggregatePort 1 配置聚合口 interface GigabitEthernet 0/23 port-group 1 mode active 介面下開啟lacp 主動模式 interface GigabitEthernet 0/24 port-group 1 mode active

第六種:bond5: transmit load balancing

標准文檔定義:Adaptive transmit load balancing: channel bonding that does not require any special switch support. The outgoing traffic is distributed according to the current load (computed relative to the speed) on each slave. Incoming traffic is received by the current slave. If the receiving slave fails, another slave takes over the MAC address of the failed receiving slave. Prerequisite: Ethtool support in the base drivers for retrieving the speed of each slave.

特點:balance-tlb模式通過對端均衡外出(outgoing)流量。既然它是根據MAC地址進行均衡,在"網關"型配置(如上文所述)下,該模式會通過單個設備來發送所有流量,然而,在"本地"型網路配置下,該模式以相對智能的方式(不是balance-xor或802.3ad模式里提及的XOR方式)來均衡多個本地網路對端,因此那些數字不幸的MAC地址(比如XOR得到同樣值)不會聚集到同一個介面上。 不像802.3ad,該模式的介面可以有不同的速率,而且不需要特別的交換機配置。不利的一面在於,該模式下所有進入的(incoming)流量會到達同一個介面;該模式要求slave介面的網路設備驅動有某種ethtool支持;而且ARP監控不可用。

實際配置結果: cat /proc/net/bonding/bond0 Ethernet Channel Bonding Driver: v3.0.3 (March 23, 2006) Bonding Mode: transmit load balancing —–TLB模式 Primary Slave: None Currently Active Slave: eth1 MII Status: up MII Polling Interval (ms): 100 Up Delay (ms): 0 Down Delay (ms): 0 Slave Interface: eth1 MII Status: up Link Failure Count: 0 Permanent HW addr: 00:d0:f8:40:f1:a0 Slave Interface: eth2 MII Status: up Link Failure Count: 0 Permanent HW addr: 00:d0:f8:00:0c:0c

應用拓撲:這個模式下bond成員使用各自的mac,而不是上面幾種模式是使用bond0介面的mac。

如上圖,設備開始時會發送免費arp,以主埠eth1的mac為源,當客戶端收到這個arp時就會在arp緩存中記錄下這個mac對的ip。而在這個模式下,伺服器每個埠在ping操作時,會根據演算法算出出口,地址不斷變化時他,這時會負載到不同埠。實驗中ping1.1.1.3時往eth2發送,源mac為00:D0:F8:00:0C:0C,ping1.1.1.4是往eth1發送,源mac為00:D0:F8:40:F1:A0,以此類推,所以從伺服器出去的流量負載到兩條線路,但是由於服務發arp時只用00:D0:F8:40:F1:A0,這樣客戶端緩沖記錄的是00:D0:F8:40:F1:A0對的ip,封裝時目標mac:00:D0:F8:40:F1:A0。這樣進入服務的流量都只往eth1(00:D0:F8:40:F1:A0)走。設備會一直發入snap報文,eth1發送源為00d0.f840.f1a0的snap報文,eth2發送源為00d0.f800.0c0c的snap報文。這個snap報文mac和目標mac一樣都是網卡本地mac,源ip和目標ip也一樣,這個報文的作用是檢測線路是否正常的回環報文。 註:可以通過修改bond0的mac地址來引導他發修改後的源mac的免費arp(MACADDR=00:D0:F8:00:0C:0C)

第七種:bond6:adaptive load balancing特點:該模式包含了balance-tlb模式,同時加上針對IPV4流量的接收負載均衡(receive load balance, rlb),而且不需要任何switch(交換機)的支持。接收負載均衡是通過ARP協商實現的。bonding驅動截獲本機發送的ARP應答,並把源硬體地址改寫為bond中某個slave的唯一硬體地址,從而使得不同的對端使用不同的硬體地址進行通信。所有埠都會收到對端的arp請求報文,回復arp回時,bond驅動模塊會截獲所發的arp回復報文,根據演算法算到相應埠,這時會把arp回復報文的源mac,send源mac都改成相應埠mac。從抓包情況分析回復報文是第一個從埠1發,第二個從埠2發。以此類推。 (還有一個點:每個埠除發送本埠回復的報文,也同樣會發送其他埠回復的報文,mac還是其他埠的mac)這樣來自伺服器端的接收流量也會被均衡。 當本機發送ARP請求時,bonding驅動把對端的IP信息從ARP包中復制並保存下來。當ARP應答從對端到達時,bonding驅動把它的硬體地址提取出來,並發起一個ARP應答給bond中的某個slave(這個演算法和上面一樣,比如算到1口,就給發送arp請求,1回復時mac用1的mac)。使用ARP協商進行負載均衡的一個問題是:每次廣播 ARP請求時都會使用bond的硬體地址,因此對端學習到這個硬體地址後,接收流量將會全部流向當前的slave。這個問題通過給所有的對端發送更新(ARP應答)來解決,往所有埠發送應答,應答中包含他們獨一無二的硬體地址,從而導致流量重新分布。當新的slave加入到bond中時,或者某個未激活的slave重新激活時,接收流量也要重新分布。接收的負載被順序地分布(round robin)在bond中最高速的slave上 當某個鏈路被重新接上,或者一個新的slave加入到bond中,接收流量在所有當前激活的slave中全部重新分配,通過使用指定的MAC地址給每個 client發起ARP應答。下面介紹的updelay參數必須被設置為某個大於等於switch(交換機)轉發延時的值,從而保證發往對端的ARP應答不會被switch(交換機)阻截。 必要條件: 條件1:ethtool支持獲取每個slave的速率; 條件2:底層驅動支持設置某個設備的硬體地址,從而使得總是有個slave(curr_active_slave)使用bond的硬體地址,同時保證每個bond 中的slave都有一個唯一的硬體地址。如果curr_active_slave出故障,它的硬體地址將會被新選出來的 curr_active_slave接管。

實際配置結果: root@:/tmp# cat /proc/net/bonding/bond0 Ethernet Channel Bonding Driver: v3.6.0 (September 26, 2009) Bonding Mode: adaptive load balancing Primary Slave: None Currently Active Slave: eth0 MII Status: up MII Polling Interval (ms): 100 Up Delay (ms): 0 Down Delay (ms): 0 Slave Interface: eth0 MII Status: up Link Failure Count: 0 Permanent HW addr: 74:ea:3a:6a:54:e3 Slave Interface: eth1 MII Status: up Link Failure Count: 0 Permanent HW addr: d8:5d:4c:71:f9:94

應用拓撲:

A是雙網卡綁定。 當B 發送一個arp請求到達A時,按正常情況A會回應一個arp回應報文,源mac為bond的mac,源就是bond的ip。但是這個模式下bonding驅動會截獲這個arp回應,把源mac改成bond狀態 下其中某一個網卡的mac:mac1,這樣B收到這個arp回應時就會在arp緩存中記錄下ip:1.1.1.1對應的mac為mac1。這樣B的過來的流量都走MAC1. 當C 發送一個arp請求到達A時,按正常情況A會回應一個arp回應報文,源mac為bond的mac,源就是bond的ip。但是這個模式下bonding驅動會截獲這個arp回應,把源mac改成bond狀態 下其中某一個網卡的mac:mac2,這樣C收到這個arp回應時就會在arp緩存中記錄下ip:1.1.1.1對應的mac為mac2。這樣C的過來的流量都走MAC2. 這樣就可以做到回來讓回來的流量也負載均衡。出方向均衡和MODE=5一致,不同地址會根據xor演算法算出不同出口,發不同出口發送相應的arp ,mac是對應網卡的mac。

===================================================

Linux (RedHat, Ubuntu, etc.) Bonding 共提供了六種模式:

名辭解釋: 在bonding的領域里, 英文slave interface表示某個實體連線的意思; 因此指令名稱為: ifenslave

mode=0 (balance-rr): 採取依序使用的連線的方式,提供了負載均衡及容錯的功能

mode=1 (active-backup): 眾多的連線中,只有一個是啟用的狀態,當啟用的連線失效(敗),則由備援的連線接手,提供容錯機制。

mode=2 (balance-xor): 採用xor的演演算法來選擇傳輸的連線,其結果是以目的地MAC為基準選擇哪一條連線;提供了負載均衡及容錯機制。

mode=3 ( broadcast): 把封包送到所有的連線,當有連線失效沒有任何downtime,但此法過於浪費連線資源;有容錯機制。

mode=4 (802.3ad, LACP): IEEE 802.3ad Dynamic Link Aggregation協定;提供較好的機制,並可搭配802.1Q trunking同時介接不同的VLAN;惟獨此法必須與支援802.3ad的交換機介接,並且每個slave的驅動程式都需支援ethtool擷取介面的訊息, 較為豪華,但是提供了相當優良的應用,負載均衡及容錯機制。

mode=5 (balance-tlb): Adaptive Transmit load balancing; 無須交換機支援但slave驅動程式需支援ethtool;根據連線介面卡的負載決定traffic如何送出,回覆的traffic則由送出的salve接收。

mode=6 (balance-alb): 包含了mode 5所有功能及需求,再加上接收traffic時的負載均衡.

G. 如何利用Linux雙網卡連接兩個網路

首先需要有兩鋒租塊網卡,分別接到兩個路由上。 外網 internet 地址:192.168.1.1 子網掩碼: 255.255.255.0, 網關: 192.168.1.1 內網地址: 192.168.42.129 子網掩碼:255.255.255.0 網關:192.168.42.132 按正常的設置每塊網卡的ip(或通過DHCP自動獲取),再cmd下使用route print查看時會看到 即指向0.0.0.0的有兩個網關,這樣就會出現路由沖突,兩個網路的訪問都會出現問題。我們需要手動配置路由,才能實現銀賣兆同時訪問兩個網路。運行cmd(win需要管理員許可權) 第一步: route delete 0.0.0.0 ::刪除所有的0.0.0.0的路由 第二步配彎:route -p add 0.0.0.0 mask 0.0.0.0 mask 192.168.1.1 ::添加0.0.0.0網路路由,這個是預設時路由用192.168.1.1,加上-p的目的是設為靜態(永久)路由,防止下次重起時配置消失。 第三步: route -p add 192.168.42.0 mask 255.255.255.0 192.168.42.132 ::添加192.168.42.0網段路由為192.168.42.132內網路由,可以根據需要調整ip段和子網掩碼太到多網段內網路由的效果。 執行後,永久路由就多了二項了 因為上面我們添加的是靜態路由

H. linux雙網卡雙IP雙網關如何配置

首先問一下您的機器是在一個路由器上上網嗎?如果您的機器有兩塊網卡。設置雙網關是不可能的。因為你只有一個路由器。在你上網的時候只有這一個設備對你的機器提供協議轉換、路由選擇、數據交換等網路兼容功能。設置雙IP是可以的,設置方法下面說。
如果要是有兩個路由器、或者是兩個代理伺服器(白話來說就是兩個不同的提供上網途徑的網路中間設施),這樣才可以設置雙網關。這時雙IP更可以了。
設置方法:
設置IP,如:sudo ifconfig eth0 192.168.2.1 netmask 255.255.255.0
設置GW,如:sudo route add default gw 192.168.2.254
設置DNS,修改/etc/resolv.conf,在其中加入nameserver DNS的地址1 和 nameserver DNS的地址2 完成
重啟網路服務:sudo /etc/init.d/networking restart 或者重啟linux

I. 兩個不同網段用一台雙網卡LINUX做網關怎麼實現兩個網段之間的聯通

打開Linux的路由轉發功能碧埋,內網用戶晌困以192.168.10.254為網關:
echo 1 > /proc/sys/net/ipv4/宴慧念ip_forward

J. linux設置雙網卡

注意: 2 張網卡,只能有1張網卡配置網關,另1張網卡不能配置網關,通過route add 添加路由功能來完成第2張網卡的網關配置。

如 : eth1 (192.168.2.2)不需要配置網關, 但到 192.168.3.0 的網段,需要從eth1 去實現通信,其餘的全部走eth0 網卡,eth0 配置 網關.
eth0 的配置如下,配置網關參數
[root@REDHAT network-scripts]# cat ifcfg-eth0
# Broadcom Corporation NetXtreme II BCM5709 Gigabit Ethernet
DEVICE=eth0
BOOTPROTO=none
ONBOOT=yes
HOTPLUG=no
TYPE=Ethernet
IPADDR=192.168.1.2
NETMASK=255.255.255.0
HWADDR=d8:d3:85:fb:d4:60
GATEWAY=192.168.1.1
USERCTL=no
IPV6INIT=no
PEERDNS=yes

eth1 的配置如下,不需要配置網關

[root@SERVER network-scripts]# cat ifcfg-eth1
# Broadcom Corporation NetXtreme II BCM5709 Gigabit Ethernet
DEVICE=eth1
BOOTPROTO=none
ONBOOT=yes
HOTPLUG=no
TYPE=Ethernet
IPADDR=192.168.2.2
NETMASK=255.255.255.0
USERCTL=no
IPV6INIT=no
PEERDNS=yes

Linux 命令行下添加路由,192.168.3.0 走 eth1 的網關 192.168.2.1
route add -net 192.168.3.0 netmask 255.255.255.0 dev eth1

熱點內容
sql刪除表的欄位 發布:2025-05-16 07:02:10 瀏覽:472
安卓手機相機出故障怎麼辦 發布:2025-05-16 06:47:11 瀏覽:456
華為如何給特定軟體設置密碼 發布:2025-05-16 06:44:09 瀏覽:468
內存和緩存的區別 發布:2025-05-16 06:42:42 瀏覽:188
配電車編程 發布:2025-05-16 06:41:22 瀏覽:370
安卓微信淺色模式怎麼恢復 發布:2025-05-16 06:27:53 瀏覽:240
美嘉演算法口訣 發布:2025-05-16 06:03:15 瀏覽:953
c程序編譯連接 發布:2025-05-16 06:02:36 瀏覽:965
腳本魔獸 發布:2025-05-16 06:01:52 瀏覽:331
文件夾python 發布:2025-05-16 06:01:43 瀏覽:628