技术改变世界 阅读塑造人生! - shaogx.com

This string was altered by TechBlog\Plugins\Example.; This is an example to show the potential of an offcanvas layout pattern in Bootstrap. Try some responsive-range viewport sizes to see it in action.

服务器集群之高可用集群—HA Cluster(High Available)

什么是高可用HA?    HA(High Available), 高可用性群集,是保证业务连续性的有效解决方案,避免了因为单点故障带来的风险,一般有两个或两个以上的节点,且分为活动节点及备用节点。通常把正在执行业务的称为活动节点,而作为活动节点的一个备份的则称为备用节点,各节点之间会传递心跳信息确认对方是否运行正常。当活动节点出现问题,导致正在运行的业务(任务)不能正常运行时,备用节点此时就会侦测到,并立即接续活动节点来执行业务。从而实现业务的不中断或短暂中断。... 全文

高可用集群 服务器集群 HA Cluster

Linux 集群的基本概念与LB(负载均衡)集群详解

大纲一、集群定义二、集群类型三、LB(负载均衡)集群四、LVS-NAT 模式演示五、LVS-DR 模式演示六、LVS 持久连接注:测试环境CentOS 6.4 X86_64... 全文

linux 集群 lvs 负载均衡集群

高可用结合gfs2,,实现集群文件系统以及集群逻辑卷。

    为什么要集群文件系统,在什么场景中适用我就用一句话来概括,当多个节点需要读写同一个文件系统时,需要使用集群文件系统,它可以将文件系统持有的锁信息传递到各个节点。实验一、将iSCSI共享出来的磁盘,做成gfs2文件系统,实现多个节点可挂载同一个文件系统,保证数据同步实验平台:RHEL6 环境拓扑:... 全文

gfs 共享存储 集群逻辑卷 集群文件系统

Linux下构建MySQL集群

构建MySQL集群 一、目标 1.安装MySQL-Cluster相关软件包。2.依次配置管理/数据/SQL节点。3.启动并测试MySQL-Cluster集群架构。 二、方案     使用6台RHEL 6.5虚拟机,如图所示。其中sql1和sql2作为SQL节点,ndb1和ndb2作为数据节点,mgmsvr作为管理节点,这5个节点构成MySQL Cluster体系;而另一台虚拟机192.168.4.1作为测试客户机。 ... 全文

集群 构建mysql集群 Linux

集群概念,帮你快速理解集群是什么

 一、Cluster常见集群类型在生成环境中使用最多的是LB和HA集群,而HPC也开始活跃起来,例如hadoop就是并行处理集群1、LB:Load Balancing,负载均衡(增加处理能力),有高可用能力,但不是高可用集群负载均衡集群是以提高服务的并发处理能力为根本着眼点2、HA:High Availability,高可用集群(增加服务可用性)高可用集群是以提升服务的始终在线能力为着眼点,不会因为当机而导致服务不能用衡量可用性:在线时间/(在线时间+故障处理时间)99%:一年有三天不在线 99.9%:一年有0.3天不在线 99.99%:一年有0.03天不在线 99.999%:一年有0.003天不在线 3、HPC:High performance,高性能计算集群,计算海量数据,解决复杂问题平时所说的超级计算机就是高性能计算集群,查看每秒钟浮点运算的能力运用到的名词:向量机:尽可能向上进行扩展,如果CPU过多,在架构上纵然会有问题的并行处理集群:包括两部分1、分布式文件系统;2、将大任务切割为小任务,分别进行处理的机制二、负载均衡设备分类1、Hardware:硬件负载均衡设备F5,BIG IP    Citrix,Netscaler    A10 2、Software:软件负载均衡设备,包括两部分四层实现的有:功能略优于七层设备   LVS(四层路由设备),是由中国人张国松研发的(阿里巴巴的副总裁)根据用户请求的IP与端口号,实现将用户的请求分发至一个客户端不同的主机   七层实现的有:(七层是反向代理)   nginx:是由俄罗斯人开发的,主要功能是针对http,smtp,pop3,imap等协议实现负载均衡,只负责解析有限的七层协议   haproxy:主要功能是针对http协议实现负载均衡,也可以实现tcp(mysql,smtp)等协议的负载均衡3、LVS是什么?      LVS是Linux Virtual Server的缩写,Linux虚拟服务器,本身是一个负载均衡设备(director server),自身不提供任何服务,如果有用户请求此处,它负责将用户请求转发至后端真正提供了此服务的服务器。因此后端服务器称为realserver--》真正意义上的服务器,能够解析三层四层请求,根据用户请求的IP对其进行响应,本身工作在内核的tcp/Ip协议栈上,工作在input链上注意:LVS和iptables不能同时使用LVS分为两段:   ipvsadm:管理集群服务的命令行工具(用户空间)   ipvs:内核模块,工作在INPUT链上VIP:virtual IP,向外提供服务的IP DIP:director IP RIP:realserver IP CIP:client IP 4、LVS有三种常见类型:NAT:地址转换,类似于DNATDR:直接路由,只处理请求报文,响应报文不经过DRTUN:隧道,多目标,前端至少有两个网络接口,一个面向互联网,让互联网的用户能够访问到;一个面向realserver,而用户请求到达时,它将用户请求转换为realserver中的某一个地址的方式来实现的(1)、NAT:地址转换遵循的法则        集群节点跟director必须在同一个IP网络中        RIP通常是私有地址,仅用于各集群节点间的通信director位于client和real server之间,并负责处理进出的所有通信 real server必须将网关指向DIP 支持端口映射 real server可以使用任意OS 较大规模应用场景中,Director易成为系统瓶颈(2)、DR:直接路由        集群节点跟director必须在同一个物理网络中 RIP可以使用公网地址,实现便捷的远程管理和监控 director仅负责处理入站请求,响应报文则由real server直接发往客户端 real server不能将网关指向DIP 不支持端口映射LVS-DR模型有三种,如下:1、VIP:MAC(DVIP) 2、arptables: 3、kernel parameter:内核参数,响应级别和通告级别      arp_ignore:定义接收到ARP请求时的响应级别,默认级别为0         0:只要本地配置的有相应地址,就给予响应         1:仅在请求的目标地址配置请求到达的接口上的时候,才给予响应      arp_announce:定义将自己的地址向外通告时的通告级别,默认级别为0         0:将本地任何接口上的任何地址向外通告(可能是交叉通告)         1:试图仅向目标网络通告与其网络匹配的地址         2:仅向与本地接口上地址匹配的网络进行通告 (3)、TUN:隧道        集群节点可以跨越互联网(Internet) RIP必须是公网地址 director仅处理入站请求,响应报文则由real server直接发往客户端 real server不能将网关指向director 只有支持隧道功能的OS才能用于real server 不支持端口映射这三种模型以NAT最为简单,以DR最为常见三、调度算法分析调度算法的含义:英文是schedule method,它是挑选一个后端服务器接收一个新请求的计算标准通常情况下,一个调度器只为一个服务提供调度功能,可为N个服务提供集群能力大致分为两种类型的调度1、静态(固定)调度:在调度时不考虑当前服务器上是否空闲   rr:轮询调度   wrr:(Weight,加权)加权轮询,以权重比例作为轮询标准,在轮询之前会事先计算各服务器之间权重的比例,按照这个比例实现在各主机之间进行调度   sh:source hash,源地址hash,来自同一个客户端的请求都发至同一个real server(实现会话绑定的功能),但在一定程度上破坏了公平实现调度性,但又必须使用,是因为要追踪用户此前访问过哪些内容,实现会话绑定(web服务器是无状态的,cookie---》session(会话))客户端第一次访问服务器时,服务器端会生成一段标识符给客户端,客户端会把这段标识符保存在本地的cookie文件中当客户端再次访问此站点时,它都会把这个cookie(cookie中包含用户身份认证,url等等信息)信息附加在请求中,服务器端收到两个的cookie信息都是一样的他就可以判定此客户端访问过哪些网站,进而可以给你提供一些你可能喜欢看的东西   dh:destination hash,目标地址hash,将同一IP地址请求发送给同一个real server(以目标地址为标准,进行挑选),举例说明:前端是一个director server,后端是两个缓存服务器(cache server)此时某用户发起的请求被轮到其中的某个cacheserver上,若缓存中没有,就会去找原始服务器,原始服务器的数据会先保存在缓存中,在经缓存服务器返回给客户端;若第二次客户端请求了同个内容,那就会发往同一个cacheserver上,提高了缓存命中率2、动态调度方法:   lc:最少连接(active*256+inactive)挑选最小值(值越小连接数越少)   wlc;加权最少连接(active*256+inactive)/weight,挑选最小值   sed:最短期望延迟,非活动连接可以忽略,(active+1)*256/weight,挑选最小值   nq;永不排队(nerve queue),不管权重多大,每个服务器都会先给一个,再进行计算权重,不会让服务器闲着的,只是权重大的会优先发到,不管怎样都会被发到的   LBLC:基于本地的最少连接   LBLCR:基于本地带复制功能的最少连接active:活动连接,用户请求进来,并且正在实现数据传输,占据大量的内存空间inactive:非活动连接,连接建立,数据传输结束,但没有断开(例如长连接,会话没有断开),占据内存少最理想的调度方法:wlc(默认的)四、LVS实现高可用集群的工具ipvsadm:主要功能1、管理集群服务添加:-A -t|u|f service-address [-s scheduler]              -t:TCP协议的集群              -u:UDP协议的集群,service-address: IP:PORT             -f:FWM,防火墙标记 service-address: Mark Number     修改:-E     删除:-D -t|u|f service-address  # ipvsadm -A -t 172.16.100.1:80 -s rr     2、管理集群服务中的RS添加:-a -t|u|f service-address -r server-address [-g|i|m] [-w weight]                -t|u|f service-address:事先定义好的某集群服务               -r server-address:某RS的地址,在NAT模型中,可使用IP:PORT实现端口映射                 [-g|i|m]:LVS类型                    -g:DR                    -i:TUN                    -m:NAT                  [-w weight] :定义服务器权重     修改:-e     删除:-d -t|u|f service-address -r server-address  # ipvsadm -a -t 172.16.50.1:80 -r 192.168.10.2 -m # ipvsadm -a -t 172.16.50.1:80 -r 192.168.10.3 -m 3、查看-L|l 后面有很多子命令,如下     -n:数字格式显示Ip(主机)地址和端口号     --stats:统计数据信息     --rate:速率     --timeout:显示tcp、tcpfin、udp的会话超时时长     --sort:根据升序进行排序(默认是升序)     -c:显示当前的ipvs连接状况 # ipvsadm -L -n --stats 4、删除所有集群服务-C:清空ipvs规则 #ipvsadm -C 5、保存规则-S # ipvsadm -S > /path/to/somefile(默认保存在/etc/sysconfig/ipvsadm) 6、载入此前的规则-R # ipvsadm -R < /path/from/somefile 知识更新中...................  ... 全文

集群知识点总结

heartbeat 3.0集群(2)集群安装

一,前期准备    1、Heartbeat集群必须的硬件      构建一个Heartbeat集群系统必须的硬件设备有:      节点服务器、网络和网卡、共享磁盘    2、操作系统规划      每个节点服务器都有两块网卡,一块用作连接公用网络,另一块通过以太网交叉线连接两个节点,作为心跳监控    3,ip规划... 全文

集群 heartbeat

深入理解Hadoop集群和网络(1)

本文侧重于Hadoop集群的体系结构和方法,以及它与网络和服务器基础设施这件的关系。文章的素材主要来自于研究工作以及同现实生活中运行Hadoop集群客户的讨论。如果你也在你的数据中心运行产品级的Hadoop集群,那么我希望你能写下有价值的评论。 Hadoop集群部署时有三个角色:Client machines, Master nodes和Slave nodes。... 全文

hadoop Hadoop集群 集群和网络

在线操作SequoiaDB集群缩减

我公司之前上线了一个新应用,底层数据库使用国内一家名叫SequoiaDB的NoSQL数据库作为存储。在原来的规划中,由6台PC服务器共同组成SequoiaDB集群,每台机器均部署了协调节点与CM集群管理节点。sdb1、sdb2和sdb3三台机器共同组成了编目节点组SYSCatalogGroup与数据节点组datagroup1。sdb4、sdb5和sdb6三台机器组成了另外一个数据节点组datagroup2。具体部署如下图示:... 全文

nosql数据库 服务器 数据库 集群 集群缩减

HA集群理论及配置实例

服务器的衡量标准:计算机系统的可用性(availability)是通过系统的可靠性(reliability)和可维护性(maintainability)来度量的。工程上通常用平均无故障时间(MTTF)来度量系统的可靠性,用平均维修时间(MTTR)来度量系统的可维护性。于是可用性被定义为:MTTF/(MTTF+MTTR)*100%99.9% 一年宕机时间不超过10h99.999% 一年宕机时间不超过6min如何提高服务器的可用性呢,这就需要使用HA(high availability)集群,一般是由多个节点的来组成。HA集群是集群中较为常见的一种,当硬件和软件系统发生故障的时候,运行在集群系统中的数据不易丢失,而且能在尽可能短的时间里恢复正常运行。双机热备是HA集群中常见的一种解决方案,双机热备按照工作方式不同可以分为一下几种:1.主-备(active-standby)主 - 备方式即指的是一台服务器处于某种业务的激活状态,另一台服务器处于该业务的备用状态;2.主-主(active-active)双主机方式即指两种不同业务分别在两台服务器上互为主备状态; 主服务器&&备用服务器主服务器和备用服务器是建立双机热备的基本条件。两个系统上的数据库服务器共享同一个数据库文件。通常情况下,数据库文件挂靠在主数据库服务器上,用户连接到主服务器上进行数据库操作。当主服务器出现故障时,备用服务器会自动连接数据库文件,并接替主系统的工作。用户在未告知的情况下,通过备用数据库连接到数据库文件进行操作。等主服务器的故障修复之后,又可以重新加入集群; 说到这里,那么备用服务器是如何知道主服务器挂掉了呢,这就要使用一定的机制,如心跳检测,也就是说每一个节点都会定期向其他节点通知自己的心跳信息,尤其主服务器,如果备用服务器在3~5个心跳周期还没有检测到的话,就认为主服务器宕掉了,而这期间在通告心跳信息当然不能使用tcp的,如果使用tcp检测,还要经过三次握手,等手握完了,不定经过几个心跳周期了,所以在检测心跳信息的时候采用的是udp的端口号694进行传递信息的如果主服务器在某一端时间由于服务繁忙,没时间响应心跳信息,如果这个时候备用服务器要是一下子把服务资源抢过去,但是这个时候主服务器还没有宕掉,这样就会导致资源抢占,就这样用户在主辅上都能访问,如果仅仅是读操作还没事,要是有写的操作,那就会导致文件系统崩溃,这样一切都玩了,所以在资源抢占的时候,可以采用一定的隔离方法,来实现,就是备用服务器抢占资源的时候,直接把主服务器给“一脚踹死”; 运行于备用主机上的Heartbeat可以通过以太网连接检测主服务器的运行状态,一旦其无法检测到主服务器的“心跳”则自动接管主服务器的资源。通常情况下,主、备服务器间的心跳连接是一个独立的物理连接,这个连接可以是串行线缆、一个由“交叉线”实现的以太网连接。Heartbeat甚至可同时通过多个物理连接检测主服务器的工作状态,而其只要能通过其中一个连接收到主服务器处于活动状态的信息,就会认为主服务器处于正常状态。从实践经验的角度来说,建议为Heartbeat配置多条独立的物理连接,以避免Heartbeat通信线路本身存在单点故障。 1、串行电缆:被认为是比以太网连接安全性稍好些的连接方式,因为hacker无法通过串行连接运行诸如telnet、ssh或rsh类的程序,从而可以降低其通过已劫持的服务器再次侵入备份服务器的几率。但串行线缆受限于可用长度,因此主、备服务器的距离必须非常短。 2、以太网连接:使用此方式可以消除串行线缆的在长度方面限制,并且可以通过此连接在主备服务器间同步文件系统,从而减少了从正常通信连接带宽的占用。 3、光电交换机总体部署如下图所示,当然只是选择其中的一种方式就行了: 隔离级别: 1.节点级别:   STONITH:Shoot The Other Node In the Head (俗称“爆头”)呵呵,挺形象的,意思就是直接切断电源;常用的方法是所有节点都接在一个电源交换机上,如果有故障,就直接导致该节点的电压不稳定,或断电,是有故障的节点重启 2.资源级别:   fencing 只是把某种资源截获过来   而对于多节点的集群就要复杂了,在多节点集群中要有个“头头”就是指定的“协调员”DC,就是一个集群中每个几点上都有一个相当于选举票的权值,而这个权值就是根据服务器的性能进行手动分配的,性能好的可以分配的大点,而所有的其他节点都要听从DC的调度,在一个集群中只有选票达到50%以上才能称为集群系统。如果出现故障了,就会有一个故障转移(failover),设置不同的优先级,可以使故障按照优先级的高低进行转移,选择一个性能好的服务器当DC。 既然前面讲到了共享存储,下面就简单的介绍一下共享存储的方式: DAS:(Direct attached storage)设备直接连接到主机总线上的,距离有限,而且还要重新挂载,之间有耽误时间   RAID   SCSI NAS:(network attached storage)网络附加存储   文件级别的共享 SAN:(storage area network)存储区域网络   块级别的   模拟的scsi协议     FC光网络(交换机的光接口超贵,有一个差不多2万,如果使用这个,代价太高)     IPSAN(iscsi)存取快,块级别集群文件系统:GFS2、OCFS2,这只能在集群中使用  HA的架构层次:从下向上讲:1.Messageing and Infrastructure Layer (信息基础架构层):<套件---heartbeat,keepalive,corosync/openais,RHCS  传递心跳信息的非常重要的子层,通过单独的服务组件来实现,除了心跳信息,还传递集群事务信息2.Membership 成员层: <套件-----pacemaker(心脏起搏器),cman (CCM,成员信息)  重新收敛集群成员信息,生成一个概览图,为第三层采取动作提供信息3.Resource Allocation资源分配层  Cluster Resource Manage(集群资源管理)  LRM,决策本地资源(local resource manage)。定义资源的属性,反映本地资源的信息  policy engine 策略引擎,做决策  transition engine 执行引擎,执行策略引擎做的决定  Cluster information Base 集群信息基础,他是一个包括membership,resoutces,constraints的XML文,在任意一个节点上使用命令进行修改,都会自动的同步到主节点DC的配置文件中去4.Resource Layer(资源层)  Resource Agent资源代理:就是运行具体的服务,服务启动的脚本,数据文件等资源整体结构如下图所示: heartbeat v1上的配置总体拓扑如下图所示: 一、首先实现两个节点之间的主机相互登录不使用密码,方便后面的使用 Node1上的配置 #ssh-keygen -t rsa  //生成公钥和密钥,一步enter到底就行了 ## ssh-copy-id -i .ssh/id_rsa root@10.1.1.2  //输入密码就行了 Node2上的配置 #ssh-keygen -t rsa  //生成公钥和密钥,一步enter到底就行了 ## ssh-copy-id -i .ssh/id_rsa root@10.1.1.1  //输入密码就行了  二、配置Node1: 1.配置网卡的地址,强烈建议使用静态地址 2.#vim /etc/hosts对所有的节点主机的心跳IP和主机名都写入     10.1.1.1 node1.a.org   node1     10.1.1.2 node2.a.org   node2 3.编辑主机名      #vim /etc/sysconfig/network     HOSTNAME=node1.a.org   #hostname node1.a.org   #yum install httpd    #echo "<h1>node1server</h1>" >/var/www/html/index.html   任何集群服务都不能自动启动,而且还不能开机自动启动   #server httpd stop   #chkconfig httpd off    4.安装heartbeat,复制配置文件及配置  所需的软件包如下所示   #yum localinstall * -y --nogpgcheck  //安装heartbeat软件包   #cd /usr/share/doc/heartbeat-2.1.4/   #cp ha.cf haresources authkeys /etc/ha.d/   #cd /etc/ha.d/   #vim /etc/ha.d/ha.cf    修改如下内容    keepalive 2    //保持时间    deadtime 30    //死亡时间    warntime 10    //警告时间    initdead 120   //启动时间    udpport 694    //使用udp的端口    bcast eth1     //心跳接口    logfile /var/log/ha-log  //日志文件    auto_failback on  //失败自动退回    node node1.a.org  //节点对应的主机名,这里面要写所有的    node node2.a.org   #vim authkeys    auth 2    2 sha1 jlasdlfladddd //这个后面的密码可以随意写,也可以使用自动生成随机数(#dd if=/dev/urandom bs=512 count=1 |md5sum )的方式来生成,但是节点之间是一样的   #chmod 400 authkeys  //修改权限   #vim haresources    node1.a.org 192.168.1.254/24eth0/192.168.1.255 httpd  //生成一个VIP  #cd /usr/lib/heabeat     ./ha_propagate //拷贝文件authkeys和ha.cf文件     三、配置Node2:    1.配置网卡的地址,强烈建议使用静态地址 2.#vim /etc/hosts对所有的节点主机的心跳IP和主机名都写入     10.1.1.1 node1.a.org   node1     10.1.1.2 node2.a.org   node2 3.编辑主机名      #vim /etc/sysconfig/network     HOSTNAME=node2.a.org   #hostname node2.a.org   #yum install httpd    #echo "<h1>node2server</h1>" >/var/www/html/index.html   任何集群服务都不能自动启动,而且还不能开机自动启动   #server httpd stop   #chkconfig httpd off   四、安装heartbeat软件包并拷贝配置文件   #yum localinstall * -y --nogpgcheck  //和Node1 一样的安装   #cd /usr/lib/heatbeat   #./ha_propagate //拷贝文件authkeys和ha.cf文件        #cd /etc/ha.d/   #scp haresources node2:/etc/ha.d/   五、启动服务     #/etc/init.d/heartbeat start   #ssh node2 --'/etc/init.d/heartbeat start' //无论哪个先启动,但是所有集群的节点必须在同一个上面启动其他节点    六、测试:   在浏览器中输入http://192.168.1.254进行访问   测试的时候,在Node2上停止Node1的服务   #ssh node1 --'/etc/init.d/heartbeat stop'   在主节点上执行/usr/lig/heartbeat/hb_standy 让出主节点                  /usr/lig/heartbeat/hb_takeover 主节点把资源抢回来实验结束!                          本文出自 “Ro の博客” 博客,谢绝转载!... 全文

集群 HA 休闲 HA高性能集群 HA理论

红帽集群套件RHCS iSCSI GFS实现iscsi集群

                           红帽集群套件RHCS 虚拟fence实验 RHCS(Red Hat Cluster Suite)是一个能够提供高可用性、高可靠性、负载均衡、存储共享且经济廉价的集群工具集合. LUCI:是一个基于web的集群配置方式,通过luci可以轻松的搭建一个功能强大的集群系统。 CLVM:Cluster逻辑卷管理,是LVM的扩展,这种扩展允许cluster中的机器使用LVM来管理共享存储。 CMAN:分布式集群管理器。 实验规划:节点两台,管理主机一台 节点一:192.168.0.54 (desktop54.example.com) 节点二:192.168.0.85 (desktop85.example.com) 管理主机:192.168.0.22 (desktop22.example.com) 一、【准备工作】 1、将三台电脑的解析分别写入到各自的 hosts 文件,这里是这样:192.168.0.54 desktop54.example.com 192.168.0.85 desktop85.example.com 192.168.0.22 desktop22.example.com 2、两台节点主机关闭 selinux、iptables、和NetworkManager [root@desktop54 node1]# iptables -F [root@desktop54 node1]# service iptables save [root@desktop54 node1]# grep ^SELINUX= /etc/selinux/config SELINUX=enforcing [root@desktop54 node1]# sed -i 's/^SELINUX=.*/SELINUX=disabled/g' /etc/selinux/config [root@desktop54 node1]# yum remove NetworkManager NetworkManager-glib NetworkManager-gnome NetworkManager-devel NetworkManager-glib-devel [root@desktop54 node1]# reboot (node1和node2都关闭selinux、iptables和NetworkManager) 一、【管理主机】 安装luci: [root@desktop22 manager]# yum install luci -y [root@desktop22 manager]# chkconfig luci on [root@desktop22 manager]# service luci startPoint your web browser to https://desktop22.example.com:8084 to access luci 这是可以通过访问 https://desktop22.example.com:8084 进入到RHCS网页集群管理。要求安装证书,然后以系统用户登录。这里以 root 登录。 二、【节点配置】 安装 ricci、rgmanager、cman [root@desktop54 node1]# yum install ricci rgmanager cman -y [root@desktop54 node1]# chkconfig ricci on [root@desktop54 node1]# chkconfig rgmanager on [root@desktop54 node1]# chkconfig cman on [root@desktop54 node1]# service ricci start Starting ricci:                                            [  OK  ] [root@desktop54 node1]# service rgmanager start Starting Cluster Service Manager:           [  OK  ] [root@desktop85 node2]# service cman start   Starting cluster:    Checking Network Manager...               [  OK  ]    Global setup...                                         [  OK  ]    Loading kernel modules...                       [  OK  ]    Mounting configfs...                                 [  OK  ]    Starting cman... xmlconfig cannot find /etc/cluster/cluster.conf                                                                     [FAILED] 这是因为还没有加入集群没有产生配置文件/etc/cluster/cluster.conf 三、【管理界面配置】 登录网址:https://desktop22.example.com:8084 name:root password:kevin 1、添加集群:Manager Clusters -> Create {集群名字,节点的密码是否一样,输入主机名和密码,端口不用改。这里选择在线下载所需的软件包,允许加入节点前重启,支持共享存储。} ->Create Cluster 2、配置集群:(点击创建的集群进去) **创建节点: 创建完集群之后:会将添加的节点加进去,但都是显示红色,是因为相互通信的cman服务没有开启,手动开启cman服务: [root@desktop54 node1]# service cman start    (节点1) Starting cluster:    Checking Network Manager...                             [  OK  ]    Global setup...                                         [  OK  ]    Loading kernel modules...                               [  OK  ]    Mounting configfs...                                    [  OK  ]    Starting cman...                                        [  OK  ]    Waiting for quorum...                                   [  OK  ]    Starting fenced...                                      [  OK  ]    Starting dlm_controld...                                [  OK  ]    Starting gfs_controld...                                [  OK  ]    Unfencing self...                                       [  OK  ]    Joining fence domain...                                 [  OK  ] [root@desktop86 node2]# service cman start    (节点2) Starting cluster:    Checking Network Manager...                             [  OK  ]    Global setup...                                         [  OK  ]    Loading kernel modules...                               [  OK  ]    Mounting configfs...                                    [  OK  ]    Starting cman...                                        [  OK  ]    Waiting for quorum...                                   [  OK  ]    Starting fenced...                                      [  OK  ]    Starting dlm_controld...                                [  OK  ]    Starting gfs_controld...                                [  OK  ]    Unfencing self...                                       [  OK  ]    Joining fence domain...                                 [  OK  ] 此时再刷新管理页面,节点都显示正常了。 **添加fence设备:Fence Devices -> Add{Fence virt(Multicast Mode) (然后fence type 会变为fence xvm ) ; 名字:kevin_virt_fence} -> Submit 确定 **添加Failover Domains 故障转移域: Prioritized:优先级,故障转移时选择优先级高的。 Restricted:服务只运行在指定的节点上。 No Failback:当故障节点又正常的时候,不必把服务切换回去。Failover Domains -> Add {名字:kevin_failover ;勾选Prioritized,No Failback具体情况自己设定;将实验的两台节点勾选,设定其优先级。}... 全文

RHEL RHCS 集群 故障转移 CLVM

Linux服务器集群系统(四) LVS集群的负载调度

window.location.href='http://www.ibm.com/developerworks/cn/linux/cluster/lvs/part4/index.html?S_TACT=105AGX52&S_CMP=techcto';给力(0票)动心(0票)废话(0票)专业(0票)标题党(0票)路过(0票) getcountscom(48980,11); getcountscom(48980,12); getcountscom(48980,13); getcountscom(48980,14); getcountscom(48980,15); getcountscom(48980,16); ... 全文

LVS 集群 负载 IPVS

Linux服务器集群系统(三) LVS集群中的IP负载均衡技术

window.location.href='http://www.ibm.com/developerworks/cn/linux/cluster/lvs/part3/index.html?S_TACT=105AGX52&S_CMP=techcto';给力(0票)动心(0票)废话(0票)专业(0票)标题党(0票)路过(0票) getcountscom(48979,11); getcountscom(48979,12); getcountscom(48979,13); getcountscom(48979,14); getcountscom(48979,15); getcountscom(48979,16); ... 全文

LVS 集群 Linxu

Corosync+pacemaker实现高可用集群

前面的博客中介绍使用Heartbeat来实现高可用集群,接下来使用的是corosync来实现共可用集群。下面是一个实验拓扑图HA1------HA2IP规划:VIP:192.168.1.80HA1:192.168.1.78HA2:192.168.1.151一、环境初始化:HA的主机名的配置,以及/etc/hosts文件的配置,不需要密码就能实现两个HA之间相互访问的配置:#vim /etc/hosts  //HA1和HA2上都要配置192.168.1.78 www.luowei.com www192.168.1.151 wap.luowei.com wap#hostname www.luowei.com  //HA1上的配置#hostname wap.luowei.com //HA2上的配置生成密钥文件,实现不实用密码就能相互访问主机:#ssh-keygen -t rsa //一直Enter下去#ssh-copy-id  -i .ssh/id_rsa.pub root@wap  //然后输入密码即可,在HA2上做同样的操作,只是后面的root@wap改为root@www就行了在两个HA上安装httpd服务#yum install httpd -y给两个HA添加两个测试的页面#echo "<h1>HA1:www.luowei.com</h1>" >/var/www/html/index.html#echo "<h1>HA2:wap.luowei.com</h1>" >/var/www/html/index.html确保两个HA上的httpd服务不会自动启动#chkconfig httpd off二、配置HA并启动服务安装corosync软件包,如下所示[root@www corosync]# ls cluster-glue-1.0.6-1.6.el5.i386.rpm cluster-glue-libs-1.0.6-1.6.el5.i386.rpm corosync-1.2.7-1.1.el5.i386.rpm corosynclib-1.2.7-1.1.el5.i386.rpm heartbeat-3.0.3-2.3.el5.i386.rpm heartbeat-libs-3.0.3-2.3.el5.i386.rpm libesmtp-1.0.4-5.el5.i386.rpm openais-1.1.3-1.6.el5.i386.rpm openaislib-1.1.3-1.6.el5.i386.rpm pacemaker-1.0.11-1.2.el5.i386.rpm pacemaker-libs-1.0.11-1.2.el5.i386.rpm perl-TimeDate-1.16-5.el5.noarch.rpm resource-agents-1.0.4-1.1.el5.i386.rpm由于要解决一定的依赖关系,所以直接使用yum安装了#yum localinstall * --nogpgcheck -y#cd /etc/corosync/#cp corosync.conf.example corosync.conf#vim corosync.confbindnetaddr: 192.168.1.0  //修改集群所在的网络号,我使用的是192.168.1.0的网段,所以就写192.168.1.0secauth: on   //开启认证功能,防止其他的集群加入到自己的集群然后在添加如下内容:service { ver: 0 name: pacemaker}aisexec { user: root group: root}保存退出!由于集群之间还要进行认证,下面生成authkeys文件:#corosync-keygen  //生成的文件就在/etc/corosync/目录下由于配置文件中需要记录日志,需要建立一个和配置文件中同样的目录#mkdir /var/log/clusterOK!配置完成,接下来就可以启动corosync服务了[root@www corosync]# /etc/init.d/corosync startStarting Corosync Cluster Engine (corosync):               [  OK  ]启动成功!接下来就是检查一下是否还有其他的错误了!1.查看corosync引擎是否正常启动:[root@www corosync]# grep -e "Corosync Cluster Engine" -e "configuration file" /var/log/messagesSep 14 03:46:37 station78 corosync[17916]:   [MAIN  ] Corosync Cluster Engine ('1.2.7'): started and ready to provide service.Sep 14 03:46:37 station78 corosync[17916]:   [MAIN  ] Successfully read main configuration file '/etc/corosync/corosync.conf'.Sep 14 03:47:44 station78 corosync[17916]:   [MAIN  ] Corosync Cluster Engine exiting with status 0 at main.c:170.Sep 14 03:47:44 station78 corosync[18015]:   [MAIN  ] Corosync Cluster Engine ('1.2.7'): started and ready to provide service.Sep 14 03:47:44 station78 corosync[18015]:   [MAIN  ] Successfully read main configuration file '/etc/corosync/corosync.conf'.2.查看初始化成员节点通知是否正常发出:[root@www corosync]# grep  TOTEM  /var/log/messagesSep 14 03:46:37 station78 corosync[17916]:   [TOTEM ] Initializing transport (UDP/IP).Sep 14 03:46:37 station78 corosync[17916]:   [TOTEM ] Initializing transmit/receive security: libtomcrypt SOBER128/SHA1HMAC (mode 0).Sep 14 03:46:37 station78 corosync[17916]:   [TOTEM ] The network interface [192.168.1.78] is now up.Sep 14 03:46:38 station78 corosync[17916]:   [TOTEM ] Process pause detected for 681 ms, flushing membership messages.Sep 14 03:46:38 station78 corosync[17916]:   [TOTEM ] A processor joined or left the membership and a new membership was formed.Sep 14 03:47:44 station78 corosync[18015]:   [TOTEM ] Initializing transport (UDP/IP).Sep 14 03:47:44 station78 corosync[18015]:   [TOTEM ] Initializing transmit/receive security: libtomcrypt SOBER128/SHA1HMAC (mode 0).Sep 14 03:47:45 station78 corosync[18015]:   [TOTEM ] The network interface [192.168.1.78] is now up.Sep 14 03:47:45 station78 corosync[18015]:   [TOTEM ] Process pause detected for 513 ms, flushing membership messages.Sep 14 03:47:45 station78 corosync[18015]:   [TOTEM ] A processor joined or left the membership and a new membership was formed.3.检查启动过程中是否有错误产生:[root@www corosync]# grep ERROR: /var/log/messages | grep -v unpack_resources[root@www corosync]# 4.查看pacemaker是否正常启动:[root@www corosync]# grep pcmk_startup /var/log/messagesSep 14 03:46:38 station78 corosync[17916]:   [pcmk  ] info: pcmk_startup: CRM: InitializedSep 14 03:46:38 station78 corosync[17916]:   [pcmk  ] Logging: Initialized pcmk_startupSep 14 03:46:38 station78 corosync[17916]:   [pcmk  ] info: pcmk_startup: Maximum core file size is: 4294967295Sep 14 03:46:38 station78 corosync[17916]:   [pcmk  ] info: pcmk_startup: Service: 9Sep 14 03:46:38 station78 corosync[17916]:   [pcmk  ] info: pcmk_startup: Local hostname: www.luowei.comSep 14 03:47:45 station78 corosync[18015]:   [pcmk  ] info: pcmk_startup: CRM: InitializedSep 14 03:47:45 station78 corosync[18015]:   [pcmk  ] Logging: Initialized pcmk_startupSep 14 03:47:45 station78 corosync[18015]:   [pcmk  ] info: pcmk_startup: Maximum core file size is: 4294967295Sep 14 03:47:45 station78 corosync[18015]:   [pcmk  ] info: pcmk_startup: Service: 9Sep 14 03:47:45 station78 corosync[18015]:   [pcmk  ] info: pcmk_startup: Local hostname: www.luowei.com由上面的信息可以看出,一切正常!接下来就是启动HA2了:[root@www corosync]# ssh wap -- '/etc/init.d/corosync start'Starting Corosync Cluster Engine (corosync): [  OK  ]启动成功!验证:# crm statusOnline: [ www.luowei.com wap.luowei.com ] //可以看出两个都启动了四、配置集群的工作属性1.禁用stonithcorosync默认启用了stonith,而当前集群并没有相应的stonith设备,因此此默认配置目前尚不可用,这可以通过如下命令验正[root@www ~]# crm_verify -Lcrm_verify[20031]: 2011/09/14_04:36:38 ERROR: unpack_resources: Resource start-up disabled since no STONITH resources have been definedcrm_verify[20031]: 2011/09/14_04:36:38 ERROR: unpack_resources: Either configure some or disable STONITH with the stonith-enabled optioncrm_verify[20031]: 2011/09/14_04:36:38 ERROR: unpack_resources: NOTE: Clusters with shared data need STONITH to ensure data integrity#crm configure property stonith-enabled=false //禁止stonith然后查看:#crm configure show node wap.luowei.comnode www.luowei.comproperty $ \ dc-version="1.0.11-1554a83db0d3c3e546cfd3aaff6af1184f79ee87" \ cluster-infrastructure="openais" \ expected-quorum-votes="2" \ stonith-enabled="false"    //刚禁用的stonith2.由于是两个节点的集群,不考虑quroum#crm configure property no-quorum-policy=ignore3.配置资源,由于我使用的是httpd服务的集群,所以要添加两个资源#crm configure primitive webip ocf:heartbeat:IPaddr params ip=192.168.1.80  //为httpd添加VIP#crm configure primitive webserver  lsb:httpd   //添加httpd进程[root@www ~]# crm configure show //查看配置的信息node wap.luowei.comnode www.luowei.comprimitive webip ocf:heartbeat:IPaddr \ params ip="192.168.1.80"primitive webserver lsb:httpdproperty $ \ dc-version="1.0.11-1554a83db0d3c3e546cfd3aaff6af1184f79ee87" \ cluster-infrastructure="openais" \ expected-quorum-votes="2" \ stonith-enabled="false" \ no-quorum-policy="ignore"五、测试:在浏览器中输入http://192.168.1.80可以看到对应的网页现在我们在来看一下资源情况:由此可见资源现在在HA1上,然后到HA1上使用ifconfig查看的时候会出现一个eth0:0的接口,如下图所示:接下来我就在HA2上把HA1 的corosync给停了,然后在看一下资源流动的情况:[root@wap ~]# ssh www -- '/etc/init.d/corosync stop'可以看到资源已经流转到了HA2上,使用ifconfig查看的话,VIP也会流转到HA2上:这时候再在浏览其中输入http://192.168.1.80查看 OK!实验完成,效果实现了! 本文出自 “Ro の博客” 博客,请务必保留此出处http://luoweiro.blog.51cto.com/2186161/665245... 全文

corosync+pacemaker 集群 高可用集群 休闲 职场

集群理论和部分LVS

集群就是一群机器,按照一定的组合,来实现负载均衡、高可用、高性能的一群机器,所以集群就分为三种:1.LB:Load balancing 负载均衡集群2.HA:High availability 高可用性集群3.HP:High performance 高性能集群目前,提高服务器性能按照大的分类,可以有两种1、scale on向上扩展,就是使用更好的服务器的组件来替代现有的服务器的组件,如使用多颗cpu,更大的内存,但是这样会提高成本。2、scale out 向外发展,这也是集群的方式。各种集群的解决方案LB: lvs * haproxy F5 (硬件)HA: heartbeat * corosync+openais:RHCS ultramokey keepalive *HP: bowerfull一、LB负载均衡集群 lvs(linux virtual server)Linux的虚拟服务 Internet的快速增长使多媒体网络服务器面对的访问数量快速增加,服务器需要具备提供大量并发访问服务的能力,因此对于大负载的服务器来讲, CPU、I/O处理能力很快会成为瓶颈。由于单台服务器的性能总是有限的,简单的提高硬件性能并不能真正解决这个问题。为此,必须采用多服务器和负载均衡技术才能满足大量并发访问的需要。Linux 虚拟服务器(Linux Virtual Servers,LVS) 使用负载均衡技术将多台服务器组成一个虚拟服务器。它为适应快速增长的网络访问需求提供了一个负载能力易于扩展,而价格低廉的解决方案。 LVS的结构和工作原理: LVS由前端的负载均衡器(Load Balancer,LB)和后端的真实服务器(Real Server,RS)群组成。RS间可通过局域网或广域网连接。LVS的这种结构对用户是透明的,用户只能看见一台作为LB的虚拟服务器(Virtual Server),而看不到提供服务的RS群。 当用户的请求发往虚拟服务器,LB根据设定的包转发策略和负载均衡调度算法将用户请求转发给RS。RS再将用户请求结果返回给用户。同请求包一样,应答包的返回方式也与包转发策略有关。 lvs的工作模式有三种:  1.net(LVS-NET)   a.集群接点必须和LB在同一个子网中(即DIP和),不能跨域网段   b.RIP 是私有地址   c.所有的RIP的网关必须指向DIP   d.调度器处理所有的请求   e.端口地址转换   f.因为是NAT   h.单点瓶颈    2.直接路由(LVS-DR)   a.集群接点必须和LB必须在一个物理网段,之间不能有路由器   b.RIP可以使用公网地址,建议使用公网地址   c.LB仅处理请求,不处理响应   d.real server的网关不能指向DIP   e.不能做端口转换   f.并非所有的系统都可以做接点   h.LVS-DR 可以带动比LVS-NAT更多的接点 3.隧道(LVS-TUN)   a.集群接点和LB接点不必在同一个物理网络   b.RIP使用公网地址   c.LB只处理进来的请求,不处理出去的请求   d.响应的请求一定不经过LB   e.不支持端口地址转换   f.只能使用支持IP隧道协议的操作系统做集群接点lvs提供的功能: 1.higher throughput 2.redundancy 3.adaptabilitylvs常见的命名机制: VIP(virtual ip)虚拟ip地址 RIP(real ip)后端真正提供接点的ip DIP(Director‘s ip)及负载均衡器(Loader balance,LB)上连接D/RIP的地址 CIP(custom ip)用户请求的iplvs LB是一个L4转发,因为他是根据用户请求的服务不同,提供转发的,所以他是使用四层的端口进行转发的,对用户来说是透明的。lvs的LB的调度方法及各个调度方法对应的算法: 1.静态调度方法:(fixed scheduling)不考虑后端连接状态   a.RR(round-robin)轮循着,它将请求依次分配不同的RS,也就是在RS中均摊请求。这种算法简单,但是只适合于RS处理性能相差不大的情况;   b.WRR(weight round-robin)加权轮调,它将依据不同RS的权值分配任务。权值较高的RS将优先获得任务,并且分配到的连接数将比权值较低的RS更多。相同权值的RS得到相同数目的连接数;   c.destination hashing 根据服务的请求转发到特定的服务器,跟用户建立粘性,提高缓存命中率   d.source hashing 将来自同一个用户的请求,始终转发到特定的路由器或防火墙(平均内网负载) 2.动态调度方法:(dynamic scheduling)考虑后端连接状态   1.LC (least-connect)最少连接,检查active和inactive,连接数(overhead)最少的接受请求   2.WLC(weight least-connect)加权最小连接数(集群最好的算法)   3.shortest expected delay (SED)最短期望延迟 ,不考虑非活动状态,在计算overhead之前,把非活动状态的总数加上1   4.NQ(never query)只要有空闲的,不考虑算法的接受请求;   5.LBLC(locality-based-least-connect:DH)支持权重(后面的是缓存服务器的)基于地址的最小连接数调度(Locality-Based Least-Connection) 将来自同一目的地址的请求分配给同一台RS如果这台服务器尚未满负荷,否则分配给连接数最小的RS,并以它为下一次分配的首先考虑;   6.LBLCR (locality-based-least-connect with replication scheduling)是对LBLC的改进,对于某一目的地址,对应有一个RS子集。对此地址的请求,为它分配子集中连接数最小的RS;如果子集中所有的服务器均已满负荷,则从集群中选择一个连接数较小的服务器,将它加入到此子集并分配连接;若一定时间内,这个子集未被做任何修改,则将子集中负载最大的节点从子集删除;lvs: ipvsadm用户空间的命令 ipvs是内核空间模块 用户在LB负载均衡器上使用ipvsadm命令进行操作,基于不同模式的不同调度算法进行设置,然后实现不同的不同的负载措施:ipvsadm 功能及使用:1.定义集群服务 ipvsadm -A|-E -t|-u|-f VIP:PORT {tcp|udp|firewall mark} -s 调度算法,默认是wlc      -A 添加      -E 修改 ipvsadm -D -t|-u VIP:PORT 删除定义的集群2.要为集群服务定义realserveripvsadm -a|-e -t|-u VIP:port -r REALSERVER:port -g|-i|-m(模型) [-w weitht]      -a 添加      -e 修改      -w 权重      -d 删除        ipvsadm -d -t|-u VIP:port -r REALSERVER:PORT      -C 情况规则      -R 恢复      -S 保存      其中模式中的-g|-i|-m分别用于dr|tun|nat3.查看ipvsadm        -l       -L        -n 数字的方式来显示地址       --stats显示统计的数据信息       --rate 显示统计的速率 接下来就要使用实验来实现LVS的三种工作模式和10种算法:1.LVS-NAT拓扑如下图: LB负载均衡器上的配置 #yum install ipvsadm #ifconfig eth0 192.168.1.108/24 #ifconfig eth1 10.1.1.1/8 #echo 1 >/proc/sys/net/ipv4/ip_forward #ipvsadm -A -t 192.168.1.108:80 -s rr #ipvsadm -a -t 192.168.1.108:80 -r 10.1.1.2:80 -m #ipvsadm -a -t 192.168.1.108:80 -r 10.1.1.3:80 -m  RealServer1上的配置 #yum install httpd mysql-server php php-mysql php-mbstring #service mysqld start #echo "<h1>RealServer1<h1>" >/var/www/html/index.html #server httpd start #ifconfig eth0 10.1.1.2/8 #route add default gw 10.1.1.1  RealServer2上的配置 #yum install httpd mysql-server php php-mysql php-mbstring #service mysqld start #echo "<h1>RealServer2<h1>" >/var/www/html/index.html #server httpd start #ifconfig eth0 10.1.1.3/8 #route add default gw 10.1.1.1  测试: 然后使用自己的主机进行测试: 在浏览器中输入http://192.168.1.108然后不断的刷新页面,可以看到这时候会出现不同的页面的,而且是轮循这出现 (算法是自己选择的,不同的算法,会导致服务器的响应不同) ok,这个实验就完成了。 LVS-DR拓扑如下所示: 1.在LB负载均衡器上做的配置如下:  LB负载均衡器上的配置:  DIP配置在接口上,VIP配置在接口别名  #ifconfig eth0 172.16.100.10/16  #ifconfig eth0:0 172.16.100.1 broadcast 172.16.100.1 netmask 255.255.255.255 up  #route -host 172.16.100.1 dev eth0:0  #echo 1 > /proc/sys/net/ipv4/ip_forward  定义集群的服务:  #ipvsadm -A -t 172.16.100.1:80 -s rr  #ipvsadm -a -t 172.16.100.1:80 -r 172.16.100.11:80 -g  #ipvsadm -a -t 172.16.100.1:80 -r 172.16.100.12:80 -g   2.RealServer1上的配置:  RIP 要配置在接口上,VIP配置在lo的别名上  定义内核参数,禁止响应对应VIP的ARP的广播请求  #echo 1 > /proc/sys/net/ipv4/conf/lo/arp_igonre  #echo 1 > /proc/sys/net/ipv4/conf/all/arp_igonre  #echo 2 > /proc/sys/net/ipv4/conf/all/arp_announce  #echo 2 > /proc/sys/net/ipv4/conf/lo/arp_announce  配置RIP&&VIP  #ifconfig eth0 172.16.100.11/16  #ifconfig lo:0 172.16.100.1 broadcast 172.16.100.1 netmask 255.255.255.255 up  #route add -host 172.16.100.1 dev lo:0  #yum install php httpd mysql-server php-mysql php-mbstring  #service httpd start  #service mysqld start   3.RealServer1上的配置:  RIP 要配置在接口上,VIP配置在lo的别名上  定义内核参数,禁止响应对应VIP的ARP的广播请求  #echo 1 > /proc/sys/net/ipv4/conf/lo/arp_igonre  #echo 1 > /proc/sys/net/ipv4/conf/all/arp_igonre  #echo 2 > /proc/sys/net/ipv4/conf/all/arp_announce  #echo 2 > /proc/sys/net/ipv4/conf/lo/arp_announce  配置RIP&&VIP  #ifconfig eth0 172.16.100.12/16  #ifconfig lo:0 172.16.100.1 broadcast 172.16.100.1 netmask 255.255.255.255 up  #route add -host 172.16.100.1 dev lo:0   #yum install php httpd mysql-server php-mysql php-mbstring  #service httpd start  #service mysqld start    4.测试OK了!本文出自 “Ro の博客” 博客,请务必保留此出处http://luoweiro.blog.51cto.com/2186161/660813... 全文

lvs-dr lvs-nat 集群 集群理论知识 休闲

Corosync/Openais + Pacemaker 实现高可用集群

Corosync/Openais + Pacemaker  实现高可用集群Corosync简介:... 全文

Linux 集群 休闲 职场 高可用集群

Linux服务器集群系统(二) LVS集群的体系结构

window.location.href='http://www.ibm.com/developerworks/cn/linux/cluster/lvs/part2/index.html?S_TACT=105AGX52&S_CMP=techcto';给力(0票)动心(0票)废话(0票)专业(0票)标题党(0票)路过(0票) getcountscom(48978,11); getcountscom(48978,12); getcountscom(48978,13); getcountscom(48978,14); getcountscom(48978,15); getcountscom(48978,16); ... 全文

LVS 集群 Linux 共享存储 IBMDW

基于linux的集群系统第3季 典型集群系统介绍之二

window.location.href='http://www.ibm.com/developerworks/cn/linux/cluster/linux_cluster/part3/index.html?S_TACT=105AGX52&S_CMP=techcto';给力(0票)动心(0票)废话(0票)专业(0票)标题党(0票)路过(0票) getcountscom(48788,11); getcountscom(48788,12); getcountscom(48788,13); getcountscom(48788,14); getcountscom(48788,15); getcountscom(48788,16); ... 全文

IBMDW linux 集群 负载平衡

集群系列五(基于corosync+pacemaker的高可用集群)

实验环境:  1)基于vmwere虚拟机实现  2)本配置共有两个测试节点,分别node1.a.com和node2.a.com,相的IP地址分别为172.16.4.11和172.16.4.22;  3)模拟实现的集群服务是web服务;  4)提供web服务的地址为172.16.4.1实验拓扑图:1,基础环境设置:首先配置一台HA主机需要做的准备工作:... 全文

约束 集群 高可用 corosync 黏性值

基于linux的集群系统第1季 集群系统概述

window.location.href='http://www.ibm.com/developerworks/cn/linux/cluster/linux_cluster/part1/index.html?S_TACT=105AGX52&S_CMP=techcto';给力(0票)动心(0票)废话(0票)专业(0票)标题党(0票)路过(0票) getcountscom(48640,11); getcountscom(48640,12); getcountscom(48640,13); getcountscom(48640,14); getcountscom(48640,15); getcountscom(48640,16); ... 全文

linux 集群 系统 VMS UNIX WindowsNT Linux IBMDW

2 3 4 5 6 7 8 9 10 11