服务器并行数和什么有关
A. 如何提高服务器并发数
消除瓶颈是提高服务器性能和并发能力的唯一途径。
如果你能够消除所有的瓶颈,你就能够最大的发挥硬件性能,让系统的性能和并发数到达最佳。
采用多线程多核编程,使用事件驱动或异步消息机制,尽量减少阻塞和等待操作(如I/O阻塞、同步等待或计时/超时等)。
原理:
1、多线程多核编程,消除cpu瓶颈。
2、采用IOCP或epoll,利用状态监测和通知方式,消除网络I/O阻塞瓶颈。
3、采用事件驱动或异步消息机制,可以消除不必要的等待操作。
4、如果是Linux,可以采用AIO来消除磁盘I/O阻塞瓶颈。
5、在事件驱动框架或异步消息中统一处理timer事件,变同步为异步,而且可以在一个线程处理无数timer事件。
6、深入分析外部的阻塞来源,消除它。
比如数据库查询较慢,导致服务器处理较慢,并发数上不去,这时就要优化数据库性能。
7、如果与某个其他server通信量很大,导致性能下降较多。
可以考虑把这两个server放在一个主机上,采用共享内存的方式来做IPC通信,可以大大提高性能。
B. 网站可以允许的最大同时访问数与什么有关!
与网速及内存有关, 你还是先考虑网速吧, 内存一般1个G就够了。 最重要是网速要达到。 一般家里用的2M或几M的都不行。 特别是网站里有下载什么的,那更不可能了。 1000人同时下载东西,每个人2M的速度,那么你的上传速度需要2000M ??? 光线??? 晕。 自己开服务器有点不现实。 2000M的光线一个月费用得多少万??
还不如去花几千块钱去租个服务器好用些。他们都帮你整。也不必复杂的设置。 租服务器每月几千, 或去买虚拟空间,也都很合适。 自己买电脑做服务器实在是不现实。
C. 并发连接数主要与什么有关(2个小时)
IIS连接数指并发连接数要分几种情况:
1.用户打开你的页面,就算停留在页面没有对服务器发出任何请求,那么在用户打开一面以后的20分钟内也都要算一个在线,就是说你50人的网站20分钟内可以接受不同用户打开50个页面。
2.上面B的情况用户继续打开同一个网站的其他页面,那么在线人数按照用户最后一次点击(发出请求)以后的20分钟计算,在这个20分钟内不管用户怎么点击(包括新窗口打开)都还是一人在线。
3.当你的页面内存在框架(IFrame),那么每多一个框架就要多一倍的在线!因为这相当于用户同一时间向服务器请求了多个页面。
4.当用户打开页面然后正常关闭浏览器,用户的在线人数也会马上清除。
防火墙并发连接数:
并发连接数是指防火墙或代理服务器对其业务信息流的处理能力,是防火墙能够同时处理的点对点连接的最大数目,它反映出防火墙设备对多个连接的访问控制能力和连接状态跟踪能力,这个参数的大小直接影响到防火墙所能支持的最大信息点数。
并发连接数是衡量防火墙性能的一个重要指标。在目前市面上常见防火墙设备的说明书中氏大大家可以看到,从低端设备的500、1000个并发连接,一直到高端设备的数万、数十万并发连接,存在着好几个数量级的差异。那么,并发连接数究竟是一个什么概念呢?它的大小会对用户的日常使用产生什么影响呢?要了解并发连接数,首先需要明白一个概念,那就是“会话”。这个“会话”可不是我们平时的谈话,但是可以用平时的谈话来理解,两个人在谈话时,你一句,我一句,一问一答,我们把它称为一次对话,或者叫会话。同样,在我们用电脑工作时,打开的一个窗口或一个Web页面,我们也可以把它叫做一个“会话”,扩展到一个局域网里面,所有用户要通过防火墙上网,要打开很多个窗口或Web页面发(即会话),那么,这个防火墙,所能处理的最大会话数量,就是“并发连接数”。
像路由器的路由表存放路由信息一样,防火墙里也有一个这样的表,我们把它叫做并发连接表,是防火墙用以存放并发连接信息的地方,它可在防火墙系统启动后动态分配进程的内存空间,其大小也就是防火墙所能支持的最大并发连接数。大的并发连接表可以增大防火墙最大并发连接数,允许防火墙支持更多的客户终端。尽管看上去,防火墙等类似产品的并发连接数似乎是越大越好。但是与此同时,过大的并发连接表也会带来一定的负面影响:
1.并发连接数的增大意味着对系统内存资源的消耗
以每个并发连接表项占用300B计算,1000个并发连接将占用300B×1000×8bit/B≈2.3Mb内存空间,10000个并发连接将占用23Mb内存空间,100000个并发连接将占用230Mb内存空间,而如果真的试图实现1000000个并发连接的话那么,这个产品就需要提供2.24Gb内存空间!
2.并发连接数的增大应当充分考虑CPU的处理能力
CPU的主要任务是把网络上的流量从一个网段尽可能快速地转发到另外一个网段上,并且在转发过程中对此流量按照一定的访问控制策略进行许可检查、流量统计和访问审计等操作,这都要求防火墙对并发连接表中的相应表项进行不断的更新读写操作。如果不顾CPU的实际处理能力而贸然增大系统的并发连接表,势必影响防火墙对连接请求的处理延迟,造成某些连接超时,让更多的连接报文被重发,进而导致更多的连接超时,最后形成雪崩效应,致使整个防火墙系统崩溃。
3.物理链路的实际承载能歼仔竖力将严重影响防火墙发挥出其对海量并发连接的处理能力
虽然目前很多防火墙都提供了10/100/1000Mbps的网络接口,但是,由于防火墙通常都部署在Internet出口处,在客户端PC与目的资源中间的路径上,总是存在着瓶颈链路——该瓶颈链路可能是2Mbps专线,也可能是512Kbps乃至64Kbps的低速链路。这些拥挤的低速链路根本无法承载太多的并发连接,所以即便是防火墙能够支持大规模的并发访问连接,也无法发挥出其原有的性能。
有鉴于此,我们应当根据网络环境的具体情况和个人不同的上网习惯来选择适当规模的并发连接表。因为不同规模的网络会产生大小不同的并发连接,而用户习惯于何种网络服务以及如何使用这些服务,同样也会产生不同的戚埋并发连接需求。高并发连接数的防火墙设备通常需要客户投资更多的设备,这是因为并发连接数的增大牵扯到数据结构、CPU、内存、系统总线和网络接口等多方面因素。如何在合理的设备投资和实际上所能提供的性能之间寻找一个黄金平衡点将是用户选择产品的一个重要任务。按照并发连接数来衡量方案的合理性是一个值得推荐的办法。
以每个用户需要10.5个并发连接来计算,一个中小型企业网络(1000个信息点以下,容纳4个C类地址空间)大概需要10.5×1000=10500个并发连接,因此支持20000~30000最大并发连接的防火墙设备便可以满足需求;大型的企事业单位网络(比如信息点数在1000~10000之间)大概会需要105000个并发连接,所以支持100000~120000最大并发连接的防火墙就可以满足企业的实际需要; 而对于大型电信运营商和ISP来说,电信级的千兆防火墙(支持120000~200000个并发连接)则是恰当的选择。为较低需求而采用高端的防火墙设备将造成用户投资的浪费,同样为较高的客户需求而采用低端设备将无法达到预计的性能指标。利用网络整体上的并发连接需求来选择适当的防火墙产品可以帮助用户快速、准确的定位所需要的产品,避免对单纯某一参数“愈大愈好”的盲目追求,缩短设计施工周期,节省企业的开支。从而为企业实施最合理的安全保护方案。
在利用并发连接数指标选择防火墙产品的同时,产品的综合性能、厂家的研发力量、资金实力、企业的商业信誉和经营风险以及产品线的技术支持和售后服务体系等都应当纳入采购者的视野,将多方面的因素结合起来进行综合考虑,切不可盲目的听信某些厂家广告宣传中的大并发连接的宣传,要根据自己业务系统、企业规模、发展空间和自身实力等因素多方面考虑。
D. 如何让2台服务器实现并行,应该怎么配置
并行?什么概念 莫非是 热备?冗余?
E. 服务器能接收多少连接与什么因素有关系。
这个首先需要看下硬件的一个使用情况,内存,硬盘,祥族让带宽网络的一个使用情况。最穗森好让idc运营商提供下流量图的具体使用情况。
如果这几个都是正常的话,可以检查下配置网站的工具谨局(例如iis phpstudy),这个需要看下你们当时配置的使用使用的具体工具的哟。只要是没限制的话 都是可以无限的连接的。
F. java jvm 并发和并行的区别
并发(concurrency)和并行(parallellism)是:
解释一:并行是指两个或者多个事件在同一时刻发生;而并发是指两个或多个事件在同一时间间隔发生。
解释二:并行是在不同实体上的多个事件,并发是在同一实体上的多个事件。
解释三:在一台处理器上“同时”处理多个任务,在多台处理器上同时处理多个任务。如hadoop分布式集群
所以并发编程的目标是充分的利用处理器的每一个核,以达到最高的处理性能。
G. 操作系统中的并行和并发到底有什么不同
区别:
1、并行就是两个任务同时运行,就是甲任务进行的同时,乙任务也在进行。
2、并发是指两空陆个任务都请求运行,而处理器只能按受一个任务,就把这两个任务安排轮流进行,由于时间间隔较短,使人感觉两个任务都在运行。
并发和并行的区别:
①程序与计算不再一一对应,一个程序副本可以有多个计算。
②并发程序之间有相互制约关系,直接制约体现为一个程序需要另一个程序的计算核罩结果,间接制约体现为多个程序竞争某一资源,如处理机、缓冲区等。
③并发程序在执行中是走走停停,断续推进的。
并发连接数网络:
网改亏闹站有时候报错:“HTTP Error 503. The service is unavailable”。但刷一两下又正常,估计很可能是超过网站的最大并发连接数了。并发连接指网络流量管理设备或代理服务器对其业务信息流的处理能力,是能够同时处理的点对点连接的最大数目,它反映出设备对多个连接的访问控制能力和连接状态跟踪能力,这个参数的大小直接影响到设备所能支持的最大信息点数。
H. 选购服务器时应考察的主要配置参数有哪些
1.CPU和内存:CPU的类型、主频和数量在相当程度上决定着服务器的性能;服务器应采用专用的ECC校验内存,并且应当与不同的CPU搭配使用。
2.芯片组与主板:即使采用相同的芯片组,不同的主板设计也会对服务器性能产生重要影响。
3.网卡:服务器应当连接在传输速率最快的端口上,并最少配置一块千兆网卡。对于某些有特殊应用的服务器(如ftp、文件服务器或视频点播服务器),还应当配置两块千兆网卡。
4.硬盘和RAID卡:硬盘的读取/写入速率决定着服务器的处理速度和响应速率。除了在入门级服务器上可采用IDE硬盘外,通常都应采用传输速率更高、扩展性更好的SCSI硬盘。对于一些不能轻易中止运行的服务器而言,还应当采用热插拔硬盘,以保证服务器的不停机维护和扩容。
5.冗余:磁盘冗余采用两块或多块硬盘来实现磁盘阵列;网卡、电源、风扇等部件冗余可以保证部分硬件损坏之后,服务器仍然能够正常运行。
【服务器采购五大问题需提前考虑】
服务器市场上产品种类繁多,各厂商开始花样翻新地打服务、打方案,使用户在选购服务器产品时迷惑也越来越多。下面几个问题的解答相信能在用户选购服务器时提供一些参考,因为,春之华造就秋之实,选到合适的服务器产品,是保证业务正常运营的一个必要因素。
【问题一:选购IA服务器时应考察的主要配置参数有哪些?】
CPU和内存CPU的类型、主频和数量在相当程度上决定着服务器的性能;服务器应采用专用的ECC校验内存,并且应当与不同的CPU搭配使用衫改。
芯片组与主板即使采用相同的芯片组,不同的主板设计也会对服务器性能产生重要影响。
网卡服务器应当连接在传输速率最快的端口上,并最少配置一块千兆网卡。对于某些有特殊应用的服务器(如FTP、文件服务器或视频点播服务器),还应当配置两块千兆网卡。
硬盘和RAID卡硬盘的读取/写入速率决定着服务器的处理速度和响应速率。除了在入门级服务器上可采用IDE硬盘外,通常都应采用传输速率更高、扩展性更好的SCSI硬盘。对于一些不能轻易中止运行的服务器而言,还应当采用热插拔硬盘,以保证服务器的不停机维护和扩容。
磁盘冗余采用两块或多块硬盘来实现磁盘阵列;网卡、电源、风扇等部件冗余可以保证部分硬件损坏之后,服务器仍然能够正常运行。
热插拔是指带电进行硬盘或板卡的插拔操作,实现故障恢复和系统扩容。
同时,在选择IA服务器时通常需要考虑可管理性、可用性、可扩展性、安全性以及可靠性等几方面的性能指标。
【问题二:64位服务器覆盖的应用范围?】
这里要说的,仍然是安腾、AMD64等一些新型64位服务器。从应用类型来看,大致可分为主域服务器、数据库服务器、Web服务器、FTP服务器和邮件服务器、高性能计算集群系统几类。
主域控制器:网络、用户、计算机的管理中心,提供安全的网络工作环境。主域控制器的系统瓶颈是内存、网络、CPU、内存配置。
文件服务器:文件服务器作为网络的数据存储仓库,其性能要求是在网络上的用户和服务器磁盘子系统之间快速传递数据。
数据库服务器:数据库引擎包括DB2、SQLServer、Oracle、Sybase等。数据库服务器一般需要使用多处理器的系统,以SQLServer为例,SQLServer能够充分利用SMP技术来执行多线程任务,通过使用多个CPU,对数据库进行并行操作来提高吞吐量。另外,SQLServer对L2缓存的点击率达到90%,所以L2缓存越大越好。内存和磁盘子系统对于数据库服务器来说也是至关重要的部分。
Web服务器:Web服务器用来响应Web请求,其性能是由网站内容来决定的。如果Web站点是静态的,系统瓶颈依次是:网络、内存、CPU;如果Web服务器主要进行密集计算(例如动态产生Web页),系统瓶颈依次是:内存、CPU、磁盘、网络,因为这些网站使用连接数据库的动态内容产生交易和查询,这都需要额外的CPU资源,更要有足够的内存来缓存和处理动态页面。
高性能计算用的集群系统:一般在4节点以上带李,节点机使用基于安腾、AMD64技蠢塌迟术的Opteron系统,这种集群系统的性能主要取决于厂商的技术实力、集群系统的设计、针对应用的调优等方面。
【问题三:多处理器服务器选购的策略如何?】
在购买多处理器系统之前,你必须了解工作负载有多大,还要选择合适的应用软件和操作系统,然后再确定使它们可以运行起来的服务器。值得注意的是,你最好购买比你目前所需的计算能力稍高一些的服务器,以便适应未来扩展的需要。
首先,处理器的选择与主要操作系统平台和软件的选择密切相关。你可以选择SPARC、PowerPC等处理器,它们分别应用于SunSolaris、IBMAIX或Linux等操作系统上。大多数用户出于价格和操作系统方面的考虑也采用Intel处理器。
其次,要选择合适的I/O架构。目前最常见的总线结构是PCI、PCI-X。PCI迅速发展为包括32位和64位数据通道,并对33MHz和66MHz时钟速度提供支持。PCIExpress是一种全新的串行技术,它彻底变革了原来的并行PCI技术,同时又能兼容PCI技术。PCIExpress总线采用点对点技术,能够为每一块设备分配独享通道带宽,不需要在设备之间共享资源。充分保障各设备的带宽资源。
然后,还要选择合适的内存。大多数多处理器系统目前都支持纠错SDRAM。
最后,是存储的问题。服务器所支持的驱动舱个数必然会影响到服务器的外形和高度。如果将服务器连接到SAN上,则对内部存储没有太多的要求。但是,如果设备安放在没有SAN的远程位置上,那么可以购买支持多达8个可外部访问的热插拔SCSI驱动器的系统。
【问题四:刀片服务器用武之地何在?】
刀片服务器最初定位于寻求将大量的计算能力压缩到狭小空间中的服务提供商和大型企业。现在,许多系统厂商把能够整合数据中心基础设施、去除杂七杂八的线缆和优化管理、高性价比等作为卖点来销售这些薄片状的服务器。刀片服务器大小仅为标准的1U服务器几分之一,并且需要电能更少,安装在使它们可以共享资源的专用机箱中。
【问题五:刀片服务器除了在计算密度上带来回报外,成本会节约吗?】
专家认为,部署刀片服务器将得到节省空间费用的回报。在使用刀片服务器时,能够在每机架单位上达到10GHz的计算能力,而在使用传统平台时,每机架单位实际为0.5GHz的计算能力,这是20倍的改进。现在数据中心空间费用非常昂贵,而这正是使用刀片服务器得到巨大回报的地方:计算密度。
然而,早期采用者也指出刀片服务器并不是对所有人都适用。有的厂商会说你必须拥有刀片服务器,他们将用刀片服务器代替所有的服务器。对于用户来说,应该在最合适的地方使用它,如果你试图更高效率地利用空间的话,就应当考虑选择刀片服务器。
【硬件】
CPU、内存、硬盘、网卡
域控对机器要求不高,网卡要好点、快点
MIS或ERP对内存、硬盘、网卡的要求较高
网站对内存、网卡的要求较高
数据库对CPU、内存、硬盘、网卡的要求较高
【其他】
CPU和内存:CPU的类型、主频和数量在相当程度上决定着服务器的性能;服务器应采用专用的ECC校验内存,并且应当与不同的CPU搭配使用。
芯片组与主板:即使采用相同的芯片组,不同的主板设计也会对服务器性能产生重要影响。
网卡:服务器应当连接在传输速率最快的端口上,并最少配置一块千兆网卡。对于某些有特殊应用的服务器(如FTP、文件服务器或视频点播服务器),还应当配置两块千兆网卡。
硬盘和RAID卡:硬盘的读取/写入速率决定着服务器的处理速度和响应速率。除了在入门级服务器上可采用IDE硬盘外,通常都应采用传输速率更高、扩展性更好的SCSI硬盘。对于一些不能轻易中止运行的服务器而言,还应当采用热插拔硬盘,以保证服务器的不停机维护和扩容。
冗余:磁盘冗余采用两块或多块硬盘来实现磁盘阵列;网卡、电源、风扇等部件冗余可以保证部分硬件损坏之后,服务器仍然能够正常运行。
热插拔:是指带电进行硬盘或板卡的插拔操作,实现故障恢复和系统扩容。同时,在选择IA服务器时通常需要考虑可管理性、可用性、可扩展性、安全性以及可靠性等几方面的性能指标。
I. 请教服务器并发数与cpu主频的关系
二者之间好像没什么关系。
要看你的每个连接平均需要多少资源。
比如ftp服务,并发数多了硬盘和网卡可能支撑不住;数据库服务如果每个查询都很复杂,消耗cpu就大;web页面如果服务器端脚本比较多,对资源消耗肯定比静态页面高。
具体问题具体分析,单纯比较并发数和cpu,意义不大。
J. 并发数与服务器配置的关系,能举个例子说明一下吗
做网站的话,服务器要分前端和后端的,还有cache、负载平衡、网络带宽和存储系统等问题要考虑,不是单讲一台服务器就能说清楚的。
只讨论一台服务器的话,3650双路加4G内存支持到5万并发是容易达到的,即使针对业务流比较复杂的情况,也能满足很大程度的需要。
但是考虑到存储子系统,比如4块sas硬盘raid0,可能只能达到5000数量级的并发请求。如果是以另外的光纤盘阵来支持存储则可以显着提高硬盘传输带宽的性能。
最后还要考虑到你的网络带宽,对大多数网站来说,通常这才是最大的瓶颈所在。也就是说即使你的cpu、内存、硬盘都没问题,也会因为租用的网络带宽限制而影响最大的并发数。
还有一点,经过优化的网站程序对结果也有很大影响。事实上很多网站的访问体验很糟糕,其实不是因为硬件的原因,而是程序写的太烂。
很抱歉我本想以单台服务器来讲,但是说着说着又变成讲网站架构了。不如举个例子吧,如果你在这台服务器上运行discuz或动网之类的服务,在没有特别高峰的情况下,5万并发是没有问题的。