技术改变世界 阅读塑造人生! - shaogx.com

This string was altered by TechBlog\Plugins\Example.; This is an example to show the potential of an offcanvas layout pattern in Bootstrap. Try some responsive-range viewport sizes to see it in action.

解析七层负载均衡关键技术

负载均衡,英文名称为LoadBalance,其意思就是将负载(工作任务)进行平衡,分摊到多个操作单元上进行执行(例如Web服务器、FTP服务器等),实现多个服务器共同完成工作任务的目标。负载均衡建立在现有网络结构之上,它提升了服务器的性能、提高了带宽利用率,增强了网络的灵活性和可靠性。经过十年的发展,负载均衡已经成为网络应用的重要设备,甚至成为大型网络应用的核心设备,与基础路由、交换设备市场并驾齐驱。... 全文

负载均衡 七层负载均衡 四层负载均衡

检查Lvs负载均衡故障,负载均衡器是重点

Lvs负载均衡故障多数是由于负载均衡器发生故障了。但是也不能一概而论,所我们在此为大家总结了一下Lvs负载均衡故障中的几种故障分类,并对其进行了详细的介绍。当然,负载均衡器的检查是一个重点。... 全文

Lvs负载均衡故障 负载均衡器

负载均衡故障排错指南(7)

 会话保持是负载均衡的一个基本功能,也是我们在很多负载均衡项目实施中经常遇到的一个功能。为了确保与某个客户相关的所有应用请求能够由同一台服务器进行处理,我们需要在负载均衡上启用会话保持(Session Persistence)功能,以确保负载均衡的部署不会影响到正常的业务处理。有关会话保持功能的细节,大家可以参考我以前的文章:AX负载均衡配置经验漫谈(2) - 会话保持  我们知道,常见的会话保持有两种:Cookie会话保持和源地址会话保持,对A10来说还可以用aFleX脚本来实现会话保持功能。但是,我在最近碰到的一个案例中却发现,这三种会话保持功能都失灵了。最终,我通过仔细的分析,发现了这几种会话保持功能失效的原因,并帮助用户实现了会话保持功能。让我们还是像侦探一样,看看到底发生了什么问题。 事情的由来... 全文

负载均衡故障 负载均衡故障排错 负载均衡

LVS实现负载均衡(Nat模式、DR模式)

LVS (linux virtual server)是实现集群服务器的一种开放源代码软件,LVS集群采用IP负载均衡技术和基于内容请求分发技术.负载均衡器(Load Ba-lancer,LB)具有很好的吞吐率,将请求均衡地转移到不同的服务器上执行,且负载均衡器能自动屏蔽服务器的故障,从而将一组服务器构建成为一个高性能的、高可用的虚拟服务器.整个服务器集群的结构对用户是透明的,而且无需修改客户端和服务器端的程序。具有透明性、可伸缩性、高可用性和易管理性等优点。LVS 集群中实现的三种IP 负载均衡技术,... 全文

lvs负载均衡 nat实现负载均衡 dr实现负载均衡

openvpn 的负载均衡方案 [vpn 负载均衡、分流]

openvpn 负载均衡根据老男孩的博客,写了自己能看的懂的文档。。。... 全文

openvpn负载均衡 openvpn 多线路 vpn负载均衡 openvpn ldap

nginx负载均衡和lvs负载均衡的比较分析

LVS和Nginx都可以用作多机负载的方案,它们各有优缺,在生产环境中需要好好分析实际情况并加以利用。 首先提醒,做技术切不可人云亦云,我云即你云;同时也不可太趋向保守,过于相信旧有方式而等别人来帮你做垫被测试。把所有即时听说到的好东西加以钻研,从而提高自己对技术的认知和水平,乃是一个好习惯。 下面来分析一下两者: 一、lvs的优势: 1、抗负载能力强,因为lvs工作方式的逻辑是非常之简单,而且工作在网络4层仅做请求分发之用,没有流量,所以在效率上基本不需要太过考虑。在我手里的 lvs,仅仅出过一次问题:在并发最高的一小段时间内均衡器出现丢包现象,据分析为网络问题,即网卡或linux2.4内核的承载能力已到上限,内存和 cpu方面基本无消耗。 2、配置性低,这通常是一大劣势,但同时也是一大优势,因为没有太多可配置的选项,所以除了增减服务器,并不需要经常去触碰它,大大减少了人为出错的几率。 3、工作稳定,因为其本身抗负载能力很强,所以稳定性高也是顺理成章,另外各种lvs都有完整的双机热备方案,所以一点不用担心均衡器本身会出什么问题,节点出现故障的话,lvs会自动判别,所以系统整体是非常稳定的。 4、无流量,上面已经有所提及了。lvs仅仅分发请求,而流量并不从它本身出去,所以可以利用它这点来做一些线路分流之用。没有流量同时也保住了均衡器的IO性能不会受到大流量的影响。 5、基本上能支持所有应用,因为lvs工作在4层,所以它可以对几乎所有应用做负载均衡,包括http、数据库、聊天室等等。 另:lvs也不是完全能判别节点故障的,譬如在wlc分配方式下,集群里有一个节点没有配置VIP,会使整个集群不能使用,这时使用wrr分配方式则会丢掉一台机。目前这个问题还在进一步测试中。所以,用lvs也得多多当心为妙。 二、nginx和lvs作对比的结果 1、nginx工作在网络的7层,所以它可以针对http应用本身来做分流策略,比如针对域名、目录结构等,相比之下lvs并不具备这样的功能,所以 nginx单凭这点可利用的场合就远多于lvs了;但nginx有用的这些功能使其可调整度要高于lvs,所以经常要去触碰触碰,由lvs的第2条优点 看,触碰多了,人为出问题的几率也就会大。 2、nginx对网络的依赖较小,理论上只要ping得通,网页访问正常,nginx就能连得通,nginx同时还能区分内外网,如果是同时拥有内外网的 节点,就相当于单机拥有了备份线路;lvs就比较依赖于网络环境,目前来看服务器在同一网段内并且lvs使用direct方式分流,效果较能得到保证。另 外注意,lvs需要向托管商至少申请多一个ip来做Visual IP,貌似是不能用本身的IP来做VIP的。要做好LVS管理员,确实得跟进学习很多有关网络通信方面的知识,就不再是一个HTTP那么简单了。 3、nginx安装和配置比较简单,测试起来也很方便,因为它基本能把错误用日志打印出来。lvs的安装和配置、测试就要花比较长的时间了,因为同上所述,lvs对网络依赖比较大,很多时候不能配置成功都是因为网络问题而不是配置问题,出了问题要解决也相应的会麻烦得多。 4、nginx也同样能承受很高负载且稳定,但负载度和稳定度差lvs还有几个等级:nginx处理所有流量所以受限于机器IO和配置;本身的bug也还是难以避免的;nginx没有现成的双机热备方案,所以跑在单机上还是风险较大,单机上的事情全都很难说。 5、nginx可以检测到服务器内部的故障,比如根据服务器处理网页返回的状态码、超时等等,并且会把返回错误的请求重新提交到另一个节点。目前lvs中 ldirectd也能支持针对服务器内部的情况来监控,但lvs的原理使其不能重发请求。重发请求这点,譬如用户正在上传一个文件,而处理该上传的节点刚 好在上传过程中出现故障,nginx会把上传切到另一台服务器重新处理,而lvs就直接断掉了,如果是上传一个很大的文件或者很重要的文件的话,用户可能 会因此而恼火。 6、nginx对请求的异步处理可以帮助节点服务器减轻负载,假如使用apache直接对外服务,那么出现很多的窄带链接时apache服务器将会占用大 量内存而不能释放,使用多一个nginx做apache代理的话,这些窄带链接会被nginx挡住,apache上就不会堆积过多的请求,这样就减少了相 当多的内存占用。这点使用squid也有相同的作用,即使squid本身配置为不缓存,对apache还是有很大帮助的。lvs没有这些功能,也就无法能 比较。 7、nginx能支持http和email(email的功能估计比较少人用),lvs所支持的应用在这点上会比nginx更多。 在使用上,一般最前端所采取的策略应是lvs,也就是DNS的指向应为lvs均衡器,lvs的优点令它非常适合做这个任务。 重要的ip地址,最好交由lvs托管,比如数据库的ip、webservice服务器的ip等等,这些ip地址随着时间推移,使用面会越来越大,如果更换ip则故障会接踵而至。所以将这些重要ip交给lvs托管是最为稳妥的,这样做的唯一缺点是需要的VIP数量会比较多。 nginx可作为lvs节点机器使用,一是可以利用nginx的功能,二是可以利用nginx的性能。当然这一层面也可以直接使用squid,squid的功能方面就比nginx弱不少了,性能上也有所逊色于nginx。 nginx也可作为中层代理使用,这一层面nginx基本上无对手,唯一可以撼动nginx的就只有lighttpd了,不过lighttpd目前还没有 能做到nginx完全的功能,配置也不那么清晰易读。另外,中层代理的IP也是重要的,所以中层代理也拥有一个VIP和lvs是最完美的方案了。 nginx也可作为网页静态服务器,不过超出了本文讨论的范畴,简单提一下。 具体的应用还得具体分析,如果是比较小的网站(日PV<1000万),用nginx就完全可以了,如果机器也不少,可以用DNS轮询,lvs所耗费的机器还是比较多的;大型网站或者重要的服务,机器不发愁的时候,要多多考虑利用lvs。... 全文

Nginx 负载均衡

apache做负载均衡器 配置

将Apache作为LoadBalance前置机分别有三种不同的部署方式,分别是:1 )轮询均衡策略的配置进入Apache的conf目录,打开httpd.conf文件,在文件的末尾加入:ProxyPass / balancer://proxy/         #注意这里以"/"结尾<Proxy balancer://proxy>       BalancerMember http://192.168.6.37:6888/... 全文

apache做负载均衡器 配置   Apache 负载均衡

haproxy实现负载均衡

haproxy实现负载均衡一、概述1.hparoxy介绍HAProxy是一个特别适用于高可用性环境的TCP/HTTP开源的反向代理和负载均衡软件。在7层负载均衡方面的功能很强大(支持cookie track, header rewrite等等),支持双机热备,支持虚拟主机,支持健康检查(通过patch可以支持ECV),同时还提供直观的监控页面,可以清晰实时的监控服务集群的运行状况。同时支持Linux 2.6内核中System Epoll,通过简化系统调用,大幅的提高了网络I/O性能。Haproxy包括以下一些特征:   根据静态分配的cookie 分配HTTP请求分配负载到各个服务器,同时保证服务器通过使用HTTP Cookie实现连接保持;   当主服务器宕机时切换到备份服务器;允许特殊端口的服务监控;   做维护时通过热配置可以保证业务的连续性,更加人性化;   添加/修改/删除HTTP Request和Response 头;   通过特定表达式Block HTTP请求;   根据应用的cookie做连接保持;   带有用户验证的详细的HTML监控报告;   新的1.3版本引入了frontend,backend配置段, frontend根据任意HTTP请求头内容做规则匹配,然后把请求定向到相关的backend,通过ACL可以实现类似与F5的irules的功能。功能非常强大2.Haproxy负载均衡的调度种方式2.1.简单的轮询,balance roundrobin;根据weights(权重)值来分配请求,weights默认为1。优点:实现简单,流量按权重分配。缺点:不够灵活。2.2.根据请求的源IP,balance source;这种均衡方式是对IP源进行hashed运算来匹配。优点:可以保持用户会话(同一IP用户会尽可能访问到同一台服务器)。缺点:有可能造成单点瓶颈(weights无效)。2.3.根据请求的uri,balance uri;根据客户端请求的URL进行hashed运算来匹配。优点:可以提高缓存的命中率(同一URL会尽可能分配到同一台服务器);缺点:有可能造成单点瓶颈(weights无效)。2.4.根据请求URL中的参数,balance url_param。根据指定URL参数进行hashed运算来匹配。优点:比较灵活,可以提高缓存的命中率(同一指定参数会尽可能分配到同一台服务器);缺点:有可能造成单点瓶颈(weights无效)。2.5.根据连接类型,balance leastconn;根据连接类型进行匹配。优点:比较适合长会话的连接,如LDAP, SQL, TSE, etc等;缺点:不适合短会话的连接,如http。3.实验环境服务角色   hostname   ip                webhaproxy     node0      192.168.32.30     phpserver1 node1      192.168.32.31     nginx  phpserver2 node2      192.168.32.32     nginxhtmlserver1 node2      192.168.32.32     nginxhtmlserver2 node3      192.168.32.33     nginx五、HAProxy支持虚拟主机。二、HAProxy的下载及安装过程:[root@node0 ~]# wget http://haproxy.1wt.eu/download/1.4/src/haproxy-1.4.19.tar.gz[root@node0 ~]# tar -zxf haproxy-1.4.19.tar.gz[root@node0 ~]# cd haproxy-1.4.19[root@node0 haproxy-1.4.19]# make TARGET=linux26 PREFIX=/usr/local/haproxy install   #PREFIX必须用大写,否则无法安装到指定目录/usr/local/haproxy中[root@node0 ~]# cd /usr/local/haproxy[root@node0 haproxy]#mkdir conf logs[root@node0 haproxy]#cd conf三、配置haproxy负载均衡1.配置文件HAProxy配置中分成五部分内容,当然这些组件不是必选的,可以根据需要选择部分作为配置。global    参数是进程级的,通常和操作系统(OS)相关.这些参数一般只设置一次,如果配置无误,就不需要再次配置进行修改defaults  配置默认参数的,这些参数可以被利用配置到frontend,backend,listen组件frontend  接收请求的前端虚拟节点,Frontend可以根据规则直接指定具体使用后端的 backend(可动态选择)。backend   后端服务集群的配置,是真实的服务器,一个Backend对应一个或者多个实体服务器。listen    Frontend和Backend的组合体。 2.配置haproxy[root@node0 conf]#vim /usr/local/haproxy/conf/haproxy.conf   #源目录haproxy-1.4.19的子目录examples下有各种配置实例,可参照实例配置.#参数、选项、架构等说明可参看/usr/local/haproxy/doc下各文件(configuration.txt、architecture.txt等)# this config needs haproxy-1.1.28 or haproxy-1.2.1global        log 127.0.0.1   local0 info        #全局的日志配置,使用本机的syslog来记录log,请使用/dev/log,其中日志级别是[err warning info debug].local0 是日志设备(/etc/syslog/conf中所定义),        #必须为如下24种标准syslog设备的一种:        #kern   user   mail   daemon auth   syslog lpr    news            #uucp   cron   auth2  ftp    ntp    audit  alert  cron2           #local0 local1 local2 local3 local4 local5 local6 local7           maxconn 65536    #最大连接数        ulimit-n 131087 #必须是maxconn的两倍以上             chroot /usr/local/haproxy  #适用于chroot环境,为了安全              uid 99              #haproxy运行的用户和组        gid 99        daemon              #后台运行              nbproc  4           #设置4个并发进程,在做debug时建议设置为1        pidfile /usr/local/haproxy/logs/haproxy.pid  #PID文件所在地        option nolinger     #在连接关闭时立即清理连接,减少处于FIN_WAIT1状态的连接        #debug        #quietdefaults        log     global        mode    http         #默认的模式mode { tcp|http|health },tcp是4层,http是7层,health只会返回OK        option  httplog      #启用http请求log        option  dontlognull         option  http-server-close        option  abortonclose     #当服务器负载很高的时候,自动结束掉当前队列处理比较久的链接        option  allbackups             #但设置了backup的时候,默认第一个backup会优先,设置option allbackups后所有备份服务器权重一样        option  forwardfor             #如果后端服务器需要获得客户端的真实IP需要配置次参数,将可以从Http Header中获得客户端IP        option  redispatch             #当serverId对应的服务器挂掉后,强制定向到其他健康的服务器        stats   uri /admin/status      #监控haproxy状态的页面,可以使用http://IP/admin/status查看         stats   auth admin:admin@123   #登录监控页面的用户名密码        stats   refresh 60s            #监控页面的刷新时间        retries 3                      #三次连接失败就认为是服务器不可用,也可以通过后面设置        maxconn 65536                  #默认的最大连接数        contimeout      5000           #连接超时        clitimeout      50000          #客户端超时        srvtimeout      50000          #服务器超时frontend web_nginx                     #定义前端服务器,相当于F5里的VIP的概念        mode http         maxconn 65536        bind 192.168.32.30:80         #设定vip的监听端口        bind-process 4                #针对多核处理,启用处理器数量        acl php_nginx path_end  .php      #判断文件后缀名是不是.php,如果是返回true        acl html_nginx path_end .html     #判断文件后缀名是不是.html,如果是返回true        use_backend php_backend if php_nginx   #当满足php_nginx策略时使用php_backend的backend        use_backend html_backend if html_nginx #当满足html_nginx策略时使用html_backend的backendbackend php_backend        mode http        fullconn  4096        #设置最大连接         balance roundrobin    #负载均衡的方式,roundrobin平均方式        option  httpchk HEAD /check.php HTTP/1.0           #心跳检查Haproxy会判断你的后端web的根上存在check.txt没有,以此作为haproxy-status的监控状态依据,将它#掉即可;        #如果是生产环境,你可将check.php改为index.jsp或index.php即可。        #一般的健康检查可以采用HEAD方法来做,而不是才采用GET方法,用于HEAD方法没有数据返回,仅检查Response的HEAD是不是200。相对来说,更快,而且更简单        server node1  192.168.32.31:80 check inter 2s minconn 64 maxconn 2048 slowstart 10s weight 100        server node2  192.168.32.32:80 check inter 2s minconn 64 maxconn 2048 slowstart 10s weight 100        #服务器定义/ip/check inter启用健康检查,检测心跳频率/minconn最小连接数/maxconn最大连接数/slowstart至全速缓冲时间/weight        backend html_backend        mode http        fullconn 4096        balance roundrobin        cookie SERVERID       #允许插入serverid到cookie中,serverid后面可以定义        option  httpchk HEAD /check.html HTTP/1.0        server node2  192.168.32.32:80 cookie 2 check inter 2s rise 3 fall 3 weight 100        server node3  192.168.32.33:80 cookie 3 check inter 2s rise 3 fall 3 weight 100        #服务器定义,cookie 1表示serverid为1,check inter 2s 是检测心跳频率        #rise 3是3次正确认为服务器可用,fall 3是3次失败认为服务器不可用,weight代表权重3.log配置[root@node0 ~]#vim /etc/syslog.conf#syslog.conf里加一行local0.*  /var/log/haproxy.log四、启动测试1.编辑启动脚本[root@node0 ~]# vim /usr/local/haproxy/sbin/harun.sh #!/bin/bashDIR=/usr/local/haproxyARG=$*start(){echo "START HAPROXY SERVERS"$DIR/sbin/haproxy -f $DIR/conf/haproxy.cfg}stop(){echo "STOP HAPROXY SERVERS"kill -9 $(cat $DIR/logs/haproxy.pid)}case $ARG instart)start;;stop)stop;;restart)stopstart;;*)echo "Usage: start|stop|restar";;esac2.启动/关闭[root@node0 ~]# /usr/local/haproxy/sbin/harun.sh startSTART HAPROXY SERVERS[root@node0 ~]# ps -ef | grep haproxynobody    9164     1  0 01:17 ?        00:00:00 /usr/local/haproxy/sbin/haproxy -f /usr/local/haproxy/conf/haproxy.cfgroot      9166  8695  0 01:18 pts/1    00:00:00 grep haproxy[root@node0 ~]# /usr/local/haproxy/sbin/harun.sh stopSTOP HAPROXY SERVERS/usr/local/haproxy/sbin/harun.sh: line 14: kill: (9103) - 没有那个进程/usr/local/haproxy/sbin/harun.sh: line 14: kill: (9104) - 没有那个进程/usr/local/haproxy/sbin/harun.sh: line 14: kill: (9105) - 没有那个进程3.测试访问http://192.168.32.30/index.php访问http://192.168.32.30/index.html访问http://192.168.32.30/admin/status本文出自 “netsword.blogchina.com” 博客,请务必保留此出处http://netsword.blog.51cto.com/13993/798820... 全文

负载均衡 haproxy 休闲 haproxy实现负载均衡 职场

思科终止ACE 但可能仍将继续负载均衡业务

思科本周证实将停止生产其应用控制引擎(ACE),但该公司称可能仍将继续其负载均衡业务。如果真的是这样的话,思科只有很少的时间来采取行动以改变局面,要不思科就要永久地失去在该市场不断萎缩的份额。更重要的是,在这涉及应用网络时,思科将会动摇其缓慢建立的声誉。该公司一直在缓慢地为融合虚拟数据中心环境添加负载均衡功能,有传言称,思科自己的销售人员和渠道合作伙伴都建议采用来自F5的负载均衡器,因为他们担心思科ACE将会毁了坚实的统一计算系统(UCS)安装。... 全文

负载均衡器 负载均衡 思科

负载均衡软件HAProxy案例二 带cookie前缀和高可用的HTTP负载均衡

案例二  带cookie前缀和高可用的HTTP负载均衡如果不想增加多余的cookie,而是用现成的cookie。后端应用已经生成了一个名为JSESSIONID的cookie,下面将在这个cookie前面加上服务器名称的前缀。由于负载均衡器是整个架构中最为重要的部件,所以这里通过使用Keepalived为LB1作备份。Keepalived 软件可以通过yum install keepalived 安装LB1和LB2共享一个VIP 192.168.1.1,它们通过Keepalived进行VIP的接管。在LB1和LB2配置HAProxy如下内容:... 全文

负载均衡 HAProxy

东华网智负载均衡助力高效稳定桌面云

一、 项目概述1.1 贵州凯阳航空发动机有限公司贵州凯阳航空发动机有限公司是由隶属中航工业的贵州黎阳航空发动机公司和中航技进出口有限责任公司合资成立的从事航空发动机修理的国有企业。主营范围是:航空发动机及其附件的修理。注册地为贵州省贵阳国家高新技术产业开发区。... 全文

东华负载均衡 负载均衡 东华网智

nginx负载均衡和lvs负载均衡的比较

lvs和nginx都可以用作多机负载的方案,它们各有优缺,在生产环境中需要好好分析实际情况并加以利用。首先提醒,做技术切不可人云亦云,我云即你云;同时也不可太趋向保守,过于相信旧有方式而等别人来帮你做垫被测试。把所有即时听说到的好东西加以钻研,从而提高自己对技术的认知和水平,乃是一个好习惯。下面来分析一下两者:一、lvs的优势:1、抗负载能力强,因为lvs工作方式的逻辑是非常之简单,而且工作在网络4层仅做请求分发之用,没有流量,所以在效率上基本不需要太过考虑。在我手里的lvs,仅仅出过一次问题:在并发最高的一小段时间内均衡器出现丢包现象,据分析为网络问题,即网卡或linux2.4内核的承载能力已到上限,内存和cpu方面基本无消耗。2、配置性低,这通常是一大劣势,但同时也是一大优势,因为没有太多可配置的选项,所以除了增减服务器,并不需要经常去触碰它,大大减少了人为出错的几率。3、工作稳定,因为其本身抗负载能力很强,所以稳定性高也是顺理成章,另外各种lvs都有完整的双机热备方案,所以一点不用担心均衡器本身会出什么问题,节点出现故障的话,lvs会自动判别,所以系统整体是非常稳定的。4、无流量,上面已经有所提及了。lvs仅仅分发请求,而流量并不从它本身出去,所以可以利用它这点来做一些线路分流之用。没有流量同时也保住了均衡器的IO性能不会受到大流量的影响。5、基本上能支持所有应用,因为lvs工作在4层,所以它可以对几乎所有应用做负载均衡,包括http、数据库、聊天室等等。另:lvs也不是完全能判别节点故障的,譬如在wlc分配方式下,集群里有一个节点没有配置VIP,会使整个集群不能使用,这时使用wrr分配方式则会丢掉一台机。目前这个问题还在进一步测试中。所以,用lvs也得多多当心为妙。二、nginx和lvs作对比的结果1、nginx工作在网络的7层,所以它可以针对http应用本身来做分流策略,比如针对域名、目录结构等,相比之下lvs并不具备这样的功能,所以nginx单凭这点可利用的场合就远多于lvs了;但nginx有用的这些功能使其可调整度要高于lvs,所以经常要去触碰触碰,由lvs的第2条优点看,触碰多了,人为出问题的几率也就会大。2、nginx对网络的依赖较小,理论上只要ping得通,网页访问正常,nginx就能连得通,nginx同时还能区分内外网,如果是同时拥有内外网的节点,就相当于单机拥有了备份线路;lvs就比较依赖于网络环境,目前来看服务器在同一网段内并且lvs使用direct方式分流,效果较能得到保证。另外注意,lvs需要向托管商至少申请多一个ip来做Visual IP,貌似是不能用本身的IP来做VIP的。要做好LVS管理员,确实得跟进学习很多有关网络通信方面的知识,就不再是一个HTTP那么简单了。3、nginx安装和配置比较简单,测试起来也很方便,因为它基本能把错误用日志打印出来。lvs的安装和配置、测试就要花比较长的时间了,因为同上所述,lvs对网络依赖比较大,很多时候不能配置成功都是因为网络问题而不是配置问题,出了问题要解决也相应的会麻烦得多。4、nginx也同样能承受很高负载且稳定,但负载度和稳定度差lvs还有几个等级:nginx处理所有流量所以受限于机器IO和配置;本身的bug也还是难以避免的;nginx没有现成的双机热备方案,所以跑在单机上还是风险较大,单机上的事情全都很难说。5、nginx可以检测到服务器内部的故障,比如根据服务器处理网页返回的状态码、超时等等,并且会把返回错误的请求重新提交到另一个节点。目前lvs中ldirectd也能支持针对服务器内部的情况来监控,但lvs的原理使其不能重发请求。重发请求这点,譬如用户正在上传一个文件,而处理该上传的节点刚好在上传过程中出现故障,nginx会把上传切到另一台服务器重新处理,而lvs就直接断掉了,如果是上传一个很大的文件或者很重要的文件的话,用户可能会因此而恼火。6、nginx对请求的异步处理可以帮助节点服务器减轻负载,假如使用apache直接对外服务,那么出现很多的窄带链接时apache服务器将会占用大量内存而不能释放,使用多一个nginx做apache代理的话,这些窄带链接会被nginx挡住,apache上就不会堆积过多的请求,这样就减少了相当多的内存占用。这点使用squid也有相同的作用,即使squid本身配置为不缓存,对apache还是有很大帮助的。lvs没有这些功能,也就无法能比较。7、nginx能支持http和email(email的功能估计比较少人用),lvs所支持的应用在这点上会比nginx更多。在使用上,一般最前端所采取的策略应是lvs,也就是DNS的指向应为lvs均衡器,lvs的优点令它非常适合做这个任务。重要的ip地址,最好交由lvs托管,比如数据库的ip、webservice服务器的ip等等,这些ip地址随着时间推移,使用面会越来越大,如果更换ip则故障会接踵而至。所以将这些重要ip交给lvs托管是最为稳妥的,这样做的唯一缺点是需要的VIP数量会比较多。nginx可作为lvs节点机器使用,一是可以利用nginx的功能,二是可以利用nginx的性能。当然这一层面也可以直接使用squid,squid的功能方面就比nginx弱不少了,性能上也有所逊色于nginx。nginx也可作为中层代理使用,这一层面nginx基本上无对手,唯一可以撼动nginx的就只有lighttpd了,不过lighttpd目前还没有能做到nginx完全的功能,配置也不那么清晰易读。另外,中层代理的IP也是重要的,所以中层代理也拥有一个VIP和lvs是最完美的方案了。nginx也可作为网页静态服务器,不过超出了本文讨论的范畴,简单提一下。具体的应用还得具体分析,如果是比较小的网站(日PV<1000万),用nginx就完全可以了,如果机器也不少,可以用DNS轮询,lvs所耗费的机器还是比较多的;大型网站或者重要的服务,机器不发愁的时候,要多多考虑利用lvs。... 全文

lvs nginx 负载均衡对比 休闲 职场

nginx负载均衡和lvs负载均衡的比较分析

lvs和nginx都可以用作多机负载的方案,它们各有优缺,在生产环境中需要好好分析实际情况并加以利用。首先提醒,做技术切不可人云亦云,我云即你云;同时也不可太趋向保守,过于相信旧有方式而等别人来帮你做垫被测试。把所有即时听说到的好东西加以钻研,从而提高自己对技术的认知和水平,乃是一个好习惯。下面来分析一下两者:一、lvs的优势:1、抗负载能力强,因为lvs工作方式的逻辑是非常之简单,而且工作在网络4层仅做请求分发之用,没有流量,所以在效率上基本不需要太过考虑。在我手里的 lvs,仅仅出过一次问题:在并发最高的一小段时间内均衡器出现丢包现象,据分析为网络问题,即网卡或linux2.4内核的承载能力已到上限,内存和 cpu方面基本无消耗。2、配置性低,这通常是一大劣势,但同时也是一大优势,因为没有太多可配置的选项,所以除了增减服务器,并不需要经常去触碰它,大大减少了人为出错的几率。3、工作稳定,因为其本身抗负载能力很强,所以稳定性高也是顺理成章,另外各种lvs都有完整的双机热备方案,所以一点不用担心均衡器本身会出什么问题,节点出现故障的话,lvs会自动判别,所以系统整体是非常稳定的。4、无流量,上面已经有所提及了。lvs仅仅分发请求,而流量并不从它本身出去,所以可以利用它这点来做一些线路分流之用。没有流量同时也保住了均衡器的IO性能不会受到大流量的影响。5、基本上能支持所有应用,因为lvs工作在4层,所以它可以对几乎所有应用做负载均衡,包括http、数据库、聊天室等等。另:lvs也不是完全能判别节点故障的,譬如在wlc分配方式下,集群里有一个节点没有配置VIP,会使整个集群不能使用,这时使用wrr分配方式则会丢掉一台机。目前这个问题还在进一步测试中。所以,用lvs也得多多当心为妙。二、nginx和lvs作对比的结果1、nginx工作在网络的7层,所以它可以针对http应用本身来做分流策略,比如针对域名、目录结构等,相比之下lvs并不具备这样的功能,所以 nginx单凭这点可利用的场合就远多于lvs了;但nginx有用的这些功能使其可调整度要高于lvs,所以经常要去触碰触碰,由lvs的第2条优点看,触碰多了,人为出问题的几率也就会大。2、nginx对网络的依赖较小,理论上只要ping得通,网页访问正常,nginx就能连得通,nginx同时还能区分内外网,如果是同时拥有内外网的节点,就相当于单机拥有了备份线路;lvs就比较依赖于网络环境,目前来看服务器在同一网段内并且lvs使用direct方式分流,效果较能得到保证。另外注意,lvs需要向托管商至少申请多一个ip来做Visual IP,貌似是不能用本身的IP来做VIP的。要做好LVS管理员,确实得跟进学习很多有关网络通信方面的知识,就不再是一个HTTP那么简单了。3、nginx安装和配置比较简单,测试起来也很方便,因为它基本能把错误用日志打印出来。lvs的安装和配置、测试就要花比较长的时间了,因为同上所述,lvs对网络依赖比较大,很多时候不能配置成功都是因为网络问题而不是配置问题,出了问题要解决也相应的会麻烦得多。4、nginx也同样能承受很高负载且稳定,但负载度和稳定度差lvs还有几个等级:nginx处理所有流量所以受限于机器IO和配置;本身的bug也还是难以避免的;nginx没有现成的双机热备方案,所以跑在单机上还是风险较大,单机上的事情全都很难说。5、nginx可以检测到服务器内部的故障,比如根据服务器处理网页返回的状态码、超时等等,并且会把返回错误的请求重新提交到另一个节点。目前lvs中 ldirectd也能支持针对服务器内部的情况来监控,但lvs的原理使其不能重发请求。重发请求这点,譬如用户正在上传一个文件,而处理该上传的节点刚好在上传过程中出现故障,nginx会把上传切到另一台服务器重新处理,而lvs就直接断掉了,如果是上传一个很大的文件或者很重要的文件的话,用户可能会因此而恼火。6、nginx对请求的异步处理可以帮助节点服务器减轻负载,假如使用apache直接对外服务,那么出现很多的窄带链接时apache服务器将会占用大量内存而不能释放,使用多一个nginx做apache代理的话,这些窄带链接会被nginx挡住,apache上就不会堆积过多的请求,这样就减少了相当多的内存占用。这点使用squid也有相同的作用,即使squid本身配置为不缓存,对apache还是有很大帮助的。lvs没有这些功能,也就无法能比较。7、nginx能支持http和email(email的功能估计比较少人用),lvs所支持的应用在这点上会比nginx更多。在使用上,一般最前端所采取的策略应是lvs,也就是DNS的指向应为lvs均衡器,lvs的优点令它非常适合做这个任务。重要的ip地址,最好交由lvs托管,比如数据库的ip、webservice服务器的ip等等,这些ip地址随着时间推移,使用面会越来越大,如果更换ip则故障会接踵而至。所以将这些重要ip交给lvs托管是最为稳妥的,这样做的唯一缺点是需要的VIP数量会比较多。nginx可作为lvs节点机器使用,一是可以利用nginx的功能,二是可以利用nginx的性能。当然这一层面也可以直接使用squid,squid的功能方面就比nginx弱不少了,性能上也有所逊色于nginx。nginx也可作为中层代理使用,这一层面nginx基本上无对手,唯一可以撼动nginx的就只有lighttpd了,不过lighttpd目前还没有能做到nginx完全的功能,配置也不那么清晰易读。另外,中层代理的IP也是重要的,所以中层代理也拥有一个VIP和lvs是最完美的方案了。nginx也可作为网页静态服务器,不过超出了本文讨论的范畴,简单提一下。具体的应用还得具体分析,如果是比较小的网站(日PV<1000万),用nginx就完全可以了,如果机器也不少,可以用DNS轮询,lvs所耗费的机器还是比较多的;大型网站或者重要的服务,机器不发愁的时候,要多多考虑利用lvs。--------------------------------------------------------------------------------... 全文

负载均衡 nginx 服务器 apache webservice 网络

谁动了我的网络系列 之eigrp 选路 等价 负载 均衡非等价负载均衡等 ..

如图    最终的结果贴出来了   中间的show  ip route  拓扑啥的没贴    R2 的s0/1、 s0/2、s0/3  和 R 3  的 s0/0、s0/2、s0/3 相连接    图上不是很清楚标注一下 有点疑问的是 当做完了 R1、R2 手工修改带宽影响选路后    再做 r1和r2的 非等价负载均衡没效果    把手工 修改的带宽     conft-if#no ban  512  之后 非等价负载均衡就起来了   不多说了  上show  run   r1#show runBuilding configuration...Current configuration : 1602 bytes!version 12.3service timestamps debug datetime msecservice timestamps log datetime msecno service password-encryption!hostname r1!boot-start-markerboot-end-marker!!no aaa new-modelip subnet-zero!!!ip cef!!!!         !!!!!!!!!!! !!!!interface Loopback0 ip address 1.1.1.1 255.255.255.0!interface Loopback10 ip address 172.16.1.1 255.255.255.0!interface Loopback20 ip address 172.16.2.1 255.255.255.0!interface Loopback30 ip address 172.16.3.1 255.255.255.0!interface Loopback40 ip address 172.16.4.1 255.255.255.0!interface Loopback50 ip address 172.16.5.1 255.255.255.0!interface Serial0/0 ip address 12.12.12.1 255.255.255.0 ip summary-address eigrp 100 172.16.0.0 255.255.248.0 5 serial restart-delay 0!interface Serial0/1 no ip address shutdown serial restart-delay 0!interface Serial0/2 no ip address shutdown  serial restart-delay 0!interface Serial0/3 no ip address shutdown serial restart-delay 0!interface Ethernet1/0 ip address 10.10.10.1 255.255.255.0 ip summary-address eigrp 100 172.16.0.0 255.255.248.0 5 half-duplex!interface Ethernet1/1 no ip address shutdown half-duplex!interface Ethernet1/2 no ip address shutdown half-duplex!interface Ethernet1/3 no ip address shutdown half-duplex!!router eigrp 100 variance 2 network 1.1.1.0 0.0.0.255 network 10.10.10.0 0.0.0.255 network 12.0.0.0 network 172.16.0.0 no auto-summary!router eigrp 1000 auto-summary!ip http serverno ip http secure-serverip classless!!!!         !!!!!!!line con 0 exec-timeout 0 0line aux 0line vty 0 4!!endr1# r2#show run Building configuration...Current configuration : 1247 bytes!version 12.3service timestamps debug datetime msecservice timestamps log datetime msecno service password-encryption!hostname r2!boot-start-markerboot-end-marker!!no aaa new-modelip subnet-zero!!no ip domain lookup!ip cef!!!         !!!!!!!!!!!! !!!!interface Loopback0 ip address 2.2.2.2 255.255.255.0!interface Serial0/0 ip address 12.12.12.2 255.255.255.0 serial restart-delay 0!         interface Serial0/1 ip address 23.23.23.2 255.255.255.0 serial restart-delay 0!interface Serial0/2 ip address 23.23.24.2 255.255.255.0 serial restart-delay 0!interface Serial0/3 ip address 23.23.25.2 255.255.255.0 serial restart-delay 0!interface Ethernet1/0 ip address 10.10.10.2 255.255.255.0 half-duplex!interface Ethernet1/1 no ip address shutdown half-duplex!interface Ethernet1/2 no ip address shutdown half-duplex!interface Ethernet1/3 no ip address shutdown half-duplex!!router eigrp 100 variance 2 network 2.2.2.0 0.0.0.255 network 10.10.10.0 0.0.0.255 network 10.0.0.0 network 12.0.0.0 network 23.0.0.0 no auto-summary!ip http serverno ip http secure-serverip classless!!         !!!!!!!!!line con 0 exec-timeout 0 0 logging synchronousline aux 0line vty 0 4!!endr2#  r3#show runBuilding configuration...Current configuration : 1162 bytes!version 12.3service timestamps debug datetime msecservice timestamps log datetime msecno service password-encryption!hostname r3!boot-start-markerboot-end-marker!!no aaa new-modelip subnet-zero!!no ip domain lookup!ip cef!!!         !!!!!!!!!!!! !!!!interface Loopback0 ip address 3.3.3.3 255.255.255.0!interface Serial0/0 ip address 23.23.23.3 255.255.255.0 serial restart-delay 0!         interface Serial0/1 no ip address shutdown serial restart-delay 0!interface Serial0/2 ip address 23.23.24.3 255.255.255.0 serial restart-delay 0!interface Serial0/3 ip address 23.23.25.3 255.255.255.0 serial restart-delay 0!interface Ethernet1/0 no ip address shutdown half-duplex!interface Ethernet1/1 no ip address shutdown half-duplex!         interface Ethernet1/2 no ip address shutdown half-duplex!interface Ethernet1/3 no ip address shutdown half-duplex!!router eigrp 100 network 3.3.3.0 0.0.0.255 network 3.0.0.0 network 23.0.0.0 no auto-summary!ip http serverno ip http secure-serverip classless!!!         !!!!!!!!line con 0 exec-timeout 0 0 logging synchronousline aux 0line vty 0 4!!endr3#  本文出自 “荒原” 博客,谢绝转载!... 全文

负载均衡 eigrp 职场 休闲

LVS集群的体系结构,构建强壮的体系结构里负载均衡层、真实服务器层、后端共享存储层都是相辅相成

LVS集群的体系结构  LVS集群的体系结构如图9 所示 ,这里将它划分成三层,一个完整的LVS负载均衡项目,构建强壮的体系结构里负载均衡层、真实服务器层、后端共享存储层都是相辅相成,必不可少的部分。   软件工具的选择与优点... 全文

负载均衡器 LVS 负载均衡层 休闲 真实服务器层

使用负载均衡技术建设高负载的网络站点

Internet的快速增长使多媒体网络服务器,特别是Web服务器,面对的访问者数量快速增加,网络服务器需要具备提供大量并发访问服务的能力。例如 Yahoo每天会收到数百万次的访问请求,因此对于提供大负载Web服务的服务器来讲,CPU、 I/O处理能力很快会成为瓶颈。... 全文

Linux 负载均衡 NAT

国税系统流量均衡 梭子鱼负载均衡机Hold住

【51CTO.com综合报道】客户背景随着网络应用的日新月异,税收管理在较短的时间里由手工操作时代跨入了信息化时代。其信息化建设经历了从无到有,从单一到复杂,从表层到深入,从运用到服务的发展过程,取得了突破性进展。税收信息化促使税收征管、行政管理、决策支持和纳税服务等各方面发生了根本变革。在享受信息化技术带来的便利的同时, 网络安全以及网络系统高可用性, 高可扩展性已经越来越被人们所注意.... 全文

梭子鱼 负载均衡

构建企业服务之windows 2008 负载均衡服务器部署

项目环境:两台Windows Server 2008 均为双网卡IP地址192.168.19.100(外网1) 99.99.99.99(内网1专用)192.168.19.101(外网2) 99.99.99.100(内网2专用)其中192.168.19.100是主DNS 101是备份DNS虚拟IP地址192.168.19.125思路:... 全文

负载均衡 DNS NLB IIS安装 2008负载

ZXTM专题一:介绍负载均衡器ZXTM LB

1 什么是ZXTM:总是在说ZXTM,什么是ZXTM呢?其实它是Zeus Technology(官网www.zeus.com)的产品Zeus Traffic Manager以前的称呼,是一个基于J2EE运行,为一些网络服务(比如web server,邮件服务器等)应用提供复杂的负载均衡商业软件。... 全文

负载均衡 blank 均衡器 休闲 ZXTM

2 3 4 5 6 7 8 9 10 11