如何配置负载均衡
1. 怎样配置负载均衡
可以用软件或加台磁盘阵列柜,主要还要看你跑的是什么任务,是WEB还是数据库
2. 双WAN口路由器如何设置负载均衡
以Tenda腾达 W20E路由器为例。
1、进入路由器WEB管理界面。在浏览器中输入192.168.0.1,进入管理界面后,先添加IP组。IP组代表需要智能流量负载均衡的IP地址段,具体添加方法:行为管理》组设置》IP组》添加IP组,如192.168.0.10-192.168.0.60,如下图所示:
3. F5负载均衡如何配置的
下个配置文档,根据用户需求配,很简单的
4. server2008负载均衡怎么配置
安装服务
分别在服务器(11.1.6.11, 11.1.6.12) 上安装此服务,以其中一台服务器为例在开始=>服务器管理器如下图
可以在两台分别服务部署测试网面分别在两台不同的电脑上打开就可以看到连接不同的服务器
5. 怎么样在路由器上设置负载均衡
按照说明书自己就可以配制IP配上数据它的负载就是均衡的
6. 怎么实现服务器的负载均衡
负载均衡有分硬件负载和软件。
1.
硬件方面,可以用F5做负载,内置几十种算法。
2.
软件方面,可以使用反向代理服务器,例如apache,Nginx等高可用反向代理服务器。
利用DNSPOD智能解析的功能,就可以实现多台机器负载均衡.
首先你用一台高配置的机器来当数据库服务器.然后把网站的前端页面复制成多份,分别放在其他的几台机器上面.再用DNSPOD做智能解析,把域名解析指向多个服务器的IP,DNSPOD默认就有智能分流的作用,也就是说当有一台机器的资源不够用时会自动引导用户访问其他机器上.这是相对来讲比较简单的实现负载均衡的方法.
7. windows server 2012怎么配置网络负载均衡
WindowsServer2012的推出被称为“云操作系统“,想必这个操作系统在虚拟化领域,在网络和存储层面,在接入和安全层面都会有很有实力的功能体现。今天给大家介绍的网卡聚合能力就是充分利用汇总方式提高服务器整体网络性能,进而实现在高密度业务负载环境,高可用网络环境下的需求,当然除了网卡聚合功能单方面提升消除CPU的瓶颈也是重点,例如Offload卡,SRIOV,RSS,VMQ队列等等技术在Server2012中你都能找到配套的核心技术支撑。今天这篇博客重点介绍一下WindowsServer2012中网卡聚合的功能。说到网卡聚合,可能大家并不陌生,而且这个在”虚拟化世界“里尤为重要的功能,原来WindowsServer2008R2中并不能提供支持,而是需要依靠HP,DELL,Intel,Broadcom等公司自己提供的软件进行设置和支持,但是这是不够的,要知道通过一个硬件厂商提供的聚合功能软件仅能对同种品牌的网卡进行统一的支持,这对于一个要求具有选择权和灵活性的数据中心而言是不够好的。当然你知道的,在WindowsServer2012中我们苦等的内置的,虚拟化环境所依赖的功能终于实现了在操作系统中的预置;因此充分了解合理利用这个功能是十分有益的。那么什么是网络聚合或者WindowsServer2012中定义的网络聚合?在Server2012中网络聚合有种称谓叫做LBOF(LoadBalanceandfailover)字面上也很好理解,就是负载均衡同时实现故障切换功能的网络通道,熟悉这个LBOF灰常有意义,因为实现和查看网卡聚合状态需要用到的PowershellCMDLET就涉及了这个词汇;有了这个操作系统层面的功能,就可以将不同品牌的同质的网卡进行组合实现:1.网络带宽捆绑2.当网络组件出现故障时可以被检测到并自动进行故障转移举例来说如果你不是配置成“主备”模式而是“双活”模式的网卡聚合,那么两个1GbE的千兆网卡可以实现2Gb的总吞吐,如果是两个万兆网卡就可以实现20Gb的总吞吐以此类推。WindowsServer2012支持多少个网卡进行捆绑呢?答案是32个!这是个绝对足够大的带宽:)Server2012支持两种网络聚合模式,在配置网络聚合的时候默认的是选择第一种模式:交换机独立模式这种模式最为通用,因为不要求交换机参与网络聚合,因此交换机并不知道在聚合网络中的网卡属于主机中一个网卡聚合组,所以网卡可以连接不同的交换机不过交换机独立模式并不要求聚合组中的网卡连接到不同的交换机。而且在连接不同交换机时采用的是主备模式,只有在连接在同一交换机时才可以实现负载均衡聚。交换机依赖模式这种模式需要交换机参与网络聚合,并且要求所有网络聚合组网卡连接到同一个物理交换机或者以级联多交换机方式实现的对外显示为单一物理交换机的方式;根据交换机支持的模式可以有两种模式选择:通用的静态聚合模式即IEEE802.3ad这种模式需要在交换机上静态设置指定汇聚组中的网卡连接。由于这种方式需要静态指定,因此没有动态协商协议机制帮助交换机判断线缆连接的正确与否或是否有其他错误导致聚合失败。动态聚合模式即IEEE802.1ax或LACP(链路汇聚控制协议)这种模式由于有了LACP协议的支持,可以动态的识别服务器和交换机的连接,进而实现动态地创建聚合组,添加和移除组成员等工作,现在多数交换机都支持LACP即802.1ax协议,不过也大多需要在服务器连接的交换机端口中手工启用此功能。通过图形方法配置,如果在Server2012中启用了图形界面管理功能,可以利用服务器管理器简单的创建网络聚合。当然,通过Powershell命令行是个很好的方式,先看看可以针对LBFO进行哪些操作:创建一个网卡聚合组“NICTeaming”,将所有本机物理网卡添加到这个组中,并且设置模式为交换机独立模式,负载均衡模式为默认哈希:看看创建之后的网络设备,是不是多了一个NICTeaming网卡?当然,你也可以通过Powershell看到这个网络聚合网卡的状态。
8. 如何配置Web服务器实现负载均衡
这篇实用文章介绍如何将pfSense 2.0配置成你那些Web服务器的负载均衡器。这篇实用文章假设你已经安装了一个pfSense设备和至少两台Apache服务器,并且运行在你的网络上;还假设你具备了pfSense方面的一些知识。
要求
一台设备用于安装pfSense 2.0(如果这是你的边缘防火墙,我会建议物理机器)。
至少两台Apache2服务器(这些可以是虚拟服务器)。
对Apache服务器进行了配置,以便以某种方式同步Web文件(rsync/corosync或通过Web服务器维持文件版本最新的另一个选项)。
配置pfSense
pfSense使用负载均衡器,将某些类型的流量带来的负载分摊到多台服务器上;如果你有多台服务器用于托管运行应用程序,这很好;你可以将负载分摊到所有服务器上,而不是把负载全扔给一台服务器、导致不堪重负。
可以入手了,先点击“Services”(服务),然后点击“Load Balancers”(负载均衡器),然后点击“Monitor”(监视器)选项卡。
要添加一个新条目,点击“Plus”(添加)按钮,指定“Name”(名称)和“Description”(描述,在这个示例中,我会使用ApacheClusterMon作为名称和描述),将类型设成“HTTP”,然后为“Host”(主机)设置一个未使用的IP地址(我们随后会创建虚拟服务器的IP,以便分配给故障切换服务器组),任由“HTTP Code”(HTTP代码)设成“200 OK”。需要的话,然后点击“Save”(保存),使更改生效。
现在我们要创建服务器池。点击“Pools”(服务器池)选项卡,点击“Plus”(添加)按钮,即可添加新的服务器池。
指定一个名称(ApacheSrvPool将用在我的示例中)。将“Mode”(模式)设成“Load Balance”(负载均衡),然后将“Port”(端口)设成“80”(你可以让pfSense对其他端口上的其他应用程序实现负载均衡),将“Monitor”(监视器)设成你之前创建的监视器配置,并且指定你希望在服务器池中的所有Web服务器的IP地址,需要的话,点击“Save”(保存),使更改生效。
接下来点击“Virtual Servers”(虚拟服务器)选项卡,点击“Plus”(添加)按钮,添加一个新条目。指定“Name”(名称)和“Description”(描述),然后用你之前选择的未使用IP地址来设置“IP Address”(IP地址),将“Port”(端口)设成“80”,然后将“Virtual Server Pool”(虚拟服务器池)设成你之前创建的服务器池,点击“Submit”(提交),使更改生效。
就这样,你刚配置好了pfSense,对你的Web服务器之间的网络流量实现负载均衡。
顺便提一下,如果任何一台服务器没有给出200 OK状态这样的回应(pfSense定期向你的Web服务器发送请求,以确定它们是否正常运行),服务器池就会处于离线停运状态。要避免出现停运,最好的办法就是配置故障切换系统(下一篇文章会有介绍)。
9. windows版nginx怎样配置负载均衡
一、 下载Nginx(nginx-1.5.8.zip)
解压到D:/serve目录下
双击运行nginx.exe,屏幕一闪而过或者在DOS里面敲打命令,如图所示:
可以看到屏幕一闪而过,接下来测试一下是否安装启动成功;
在任务管理器的进程中查看nginx.exe是否启动
若看到该映像名称,证明nginx程序已经启动成功!
这时我们就可以在浏览器中访问:http://localhost
这样我们就成功的搭建了一个nginx服务!!
Nginx+Tomcat负载均衡配置这里只需要修改Nginx的配置文件nginx.conf,让它通过tomcat来转发。
Nginx配置文件完成如下:
#使用的用户和组,window下不指定
#user nobody;
#指定工作衍生进程数(一般等于CPU总和数或总和数的两倍,例如两个四核CPU,则总和数为8)
worker_processes 1;
#指定错误日志文件存放路径,错误日志级别可选项为【debug|info|notice|warn|error|crit】
#error_log logs/error.log;
#error_log logs/error.log notice;
#error_log logs/error.log info;
#指定pid存放路径
#pid logs/nginx.pid;
#工作模式及连接数上限
events {
#使用网络I/O模型,Linux系统推荐使用epoll模型,FreeBSD系统推荐使用kqueue;window下不指定
#允许的连接数
#user epoll;
worker_connections 100;
}
#设定http服务器,利用他的反向代理功能提供负载均衡支持
http {
#设定mime类型
include mime.types;
default_type application/octet-stream;
#设定日志格式
log_format main '$remote_addr - $remote_user [$time_local] "$request" '
'$status $body_bytes_sent "$http_referer" '
'"$http_user_agent" "$http_x_forwarded_for"';
client_header_buffer_size 1k;
large_client_header_buffers 4 4k;
access_log logs/access.log main;
#设定access log
client_header_timeout 3m;
client_body_timeout 3m;
send_timeout 3m;
sendfile on;
tcp_nopush on;
tcp_nodelay on;
#keepalive_timeout 0;
keepalive_timeout 65;
#开启gzip模块
gzip on;
gzip_min_length 1100;
gzip_buffers 4 8k;
gzip_types text/plain application/x-javascript text/css application/xml;
output_buffers 1 32k;
postpone_output 1460;
server_names_hash_bucket_size 128;
client_max_body_size 8m;
fastcgi_connect_timeout 300;
fastcgi_send_timeout 300;
fastcgi_read_timeout 300;
fastcgi_buffer_size 64k;
fastcgi_buffers 4 64k;
fastcgi_busy_buffers_size 128k;
fastcgi_temp_file_write_size 128k;
gzip_http_version 1.1;
gzip_comp_level 2;
gzip_vary on;
#设定负载均衡的服务器列表
upstream localhost {
#设定负载均衡的服务器列表
#ip_hash;
#同一机器在多网情况下,路由切换,ip可能不同 #weigth参数表示权值,权值越高被分配到的几率越大
server 192.168.101.222:8088 max_fails=2 fail_timeout=600s;
server 192.168.101.5:8081 max_fails=2 fail_timeout=600s;
}
#设定虚拟主机
server {
listen 80;
server_name localhost;
charset UTF-8;
#设定本虚拟主机的访问日志
access_log logs/host.access.log main;
#对 "/" 启用负载均衡
location / {
root \\192.168.101.222\D:\web\apache-tomcat-6.0.37\webapps;
index index.html index.htm index.aspx;
proxy_redirect off;
#保留用户真实信息
proxy_set_header Host $host;
proxy_set_header X-Real-IP $remote_addr;
proxy_set_header X-Forwarded-For $proxy_add_x_forwarded_for;
#允许客户端请求的最大单个文件字节数
client_max_body_size 10m;
#缓冲区代理缓冲用户端请求的最大字节数,可以理解为先保存到本地再传给用户
client_body_buffer_size 128k;
#跟后端服务器连接超时时间 发起握手等候响应超时时间
proxy_connect_timeout 12;
#连接成功后 等待后端服务器响应时间 其实已进入后端的排队之中等候处理
proxy_read_timeout 90;
#代理请求缓存区 这个缓存区间会保存用户的头信息一共Nginx进行规则处理 一般只要能保存下头信息即可
proxy_send_timeout 90;
#同上 告诉Nginx保存单个用的几个Buffer最大用多大空间
proxy_buffer_size 4k;
proxy_buffers 4 32k;
#如果系统很忙的时候可以申请国内各大的proxy_buffers 官方推荐 *2
proxy_busy_buffers_size 64k;
#proxy 缓存临时文件的大小
proxy_temp_file_write_size 64k;
proxy_next_upstream error timeout invalid_header http_500 http_503 http_404;
proxy_max_temp_file_size 128m;
proxy_pass http://localhost;
}
error_page 500 502 503 504 /50x.html;
location = /50x.html {
root html;
}
}
}
四、测试
前提是分别启动两台机器的tomcat,其次启动nginx服务;
在192.168.101.23上访问nginx服务器(通过访问(项目路径)来实现对192.168.101.222和192.168.101.5这两个机器上应用程序的访问,最终实现tomcat的均衡负载)
[1]关闭192.168.101.222上的tomcat服务,访问192.168.101.23上的nginx服务,观察192.168.101.5上的tomcat是否运行;
[2]关闭192.168.101.5上的tomcat服务,访问192.168.101.23上的nginx服务,观察192.168.101.222上的tomcat是否运行;
[3]两个tomcat都启动,访问nginx服务,模拟并发用户n个,观察tomcat的运行情况;
如果[1]和[2]的tomcat都运行就说明搭建nginx代理服务成功,tomcat实现了均衡负载;
10. Java web项目,怎么做负载均衡啊
Java web项目负载均衡常用的是nginx。
在多个服务器上部署同一个web项目,nginx会将用户的请求随机(可自定义)分发到其中一个web服务器,当其中任意一个或多个web服务器宕机时,不影响用户的正常访问。
1、两个web服务器负载均衡:
upstream local_tomcat {
# 这里是本机的第一个web服务器
server localhost:8080;
# 这里是本机的第二个web服务器
server localhost:9090;
#还可添加很多
}
server{
location / {
proxy_pass http://local_tomcat;
}
#......其他省略
}
当访问http://localhost时,nginx会随机的跳转到8080与9090服务器。当8080服务器宕机时,9090会继续工作。如果想控制两个服务器的权重,比如 9090 服务器性能好,可以多处理一些请求,则可以如下配置权重
upstream local_tomcat {
server localhost:8080 weight=1;
server localhost:9999 weight=2;
}
这样在9090受访的机率会比8080多一倍。
2、静态文件,这个好像conf.xml有现成的配置,只要改一下就可以,如下对图片的配置
#location ~ \.(png|jpg|bmp)$ {
root image;
}
所有png 、 jpg 、 bmp 的请求都会直接去访客根目录下的image文件夹,当然也可以使用绝对路径。