技术改变世界 阅读塑造人生! - shaogx.com

This string was altered by TechBlog\Plugins\Example.; This is an example to show the potential of an offcanvas layout pattern in Bootstrap. Try some responsive-range viewport sizes to see it in action.

RHEL5.5 新建Cluster出错

新建cluster:mycluster,并附加2个节点: v1.askzz.com v2.askzz.com 两个节点添加成功,但是找不到新增的cluster,然后删除这2个节点,重新建cluster,但是报错,提示如下 The following errors occurred: physical2.sys.com reports it is a member of cluster "lyasp-cluster" physical1.sys.com reports it is a member of cluster "lyasp-cluster" 解决方法: cd /etc/cluster rm  cluster.conf ... 全文

cluster Cluster出错 职场 休闲

Printer server cluster

Printer server cluster昨天领导发了一封说测试中心有个需求想搭建一个打印服务群集,问谁有兴趣做一下,我内心已经毫不犹豫的答应了自己,那肯定我来做了,因为之前做过很多群集的实验了,对于打印服务群集确实还没做过,这样一来自己又能充实一下了,好了,废话不多说了,开始今天的实验吧,具体操作见下。一、环境介绍1.)Hostname:Abc-dcIP:192.168.220.254Roles: DNS DHCP DC ISCSI2.)Hostname:Abc-pt01IP:192.168.220.10Heart line:100.100.100.10Roles:Print server cluster3.)Hostname:Abc-pt02... 全文

Printer server cluster

LVS_Cluster

这是一个朋友给我的LVS文档,感觉不错,和大家一起分享本文出自 “CrazyLinux工作室” 博客,请务必保留此出处http://crazylinux.blog.51cto.com/259244/294142... 全文

LVS Cluster 休闲 职场

通过命令备份和还原MySQL Cluster

本文通过命令的方式来讲述了ndb_mgm管理客户端中的start backup命令来备份MySQL Cluster,通过ndb_restore命令进行MySQL Cluster的还原过程。首先是备份:备份:采用ndb_mgm管理客户端来备份,在管理节点执行ndb_mgm即可进入管理命令行。输入start backup备份所有节点,如果后面还跟着对应数据节点的id就只备份对应的数据节点。还原:使用命令ndb_restore进行还原,具体过程如下:启动管理节点:... 全文

MySQL Cluster

MySQL Cluster 与 MongoDB集群

 分布式数据库计算涉及到分布式事务、数据分布、数据收敛计算等等要求分布式数据库能实现高安全、高性能、高可用等特征,当然也带来了高成本(固定成本及运营成本),我们通过MongoDB及MySQL Cluster从实现上来分析其中的设计思路,用以抽象我们在设计数据库时,可以引用的部分设计方法,应用于我们的生产系统 首先说说关系及非关系数据库的特征 MySQL的Innodb及Cluster拥有完整的ACID属性A 原子性  整个事务将作为一个整体,要么完成,要么回滚C 一致性 事务开始之前和事务结束以后,数据库的完整性限制没有被破坏... 全文

MongoDB MySQL Cluster

linux cluster

­一、LVS--NAT  configuration1、ENVOS:RedHat AS3Packeage:ipvsadm-1.21-9.ipvs108.i386.rpm2、system architecturedirector server:10.64.20.1 eth0     VIP:192.168.1.100 eth1real server1:10.64.20.110    eth0real server2:10.64.20.111    eth0all netmask 255.255.255.03. director server configuration:#install ipvsadmrom -ivh ipvsadm-1.21-9.ipvs108.i386.rpm#confiigure ip forward and redirectsecho "1" >/proc/sys/net/ipv4/ip_forwardifconfig eth0 10.64.20.1#configure VIP addresssbin/ifconfig eth1 192.168.1.100­#configre ipvsadmipvsadm -Cipvsadm -A -t 10.64.20.113:http -s wrripvsadm -a -t 10.64.20.113:http -r 10.64.20.111 -mipvsadm -a -t 10.64.20.113:http -r 10.64.20.110 -m4. real server1 config#configure ipifconfig eth0: 10.64.20.110ifconfig gw:10.64.20.15. real server2 config#configure ipifconfig eth0: 10.64.20.111ifconfig gw:10.64.20.1­­二、LVS--DR  configuration1、ENVOS:RedHat AS3Packeage:ipvsadm-1.21-9.ipvs108.i386.rpm2、system architecturedirector server:10.64.20.112real server1:10.64.20.110real server2:10.64.20.111VIP:10.64.20.113real server1 and 2 Ip address are configured . eth0we first assume all servers are finished installed.­3. director server configuration:#install ipvsadmrom -ivh ipvsadm-1.21-9.ipvs108.i386.rpm­#confiigure ip forward and redirectsecho "0" >/proc/sys/net/ipv4/ip_forwardecho "1" >/proc/sys/net/ipv4/conf/default/send_redirectsecho "1" >/proc/sys/net/ipv4/conf/lo/send_redirects­#configure VIP address/sbin/ifconfig eth0:0 10.64.20.113 broadcast 10.64.20.113 netmask 255.255.255.255 up/sbin/route add -host 10.64.20.113 dev eth0:0­#configre ipvsadmipvsadm -Cipvsadm -A -t 10.64.20.113:http -s rripvsadm -a -t 10.64.20.113:http -r 10.64.20.111 -g -w 1ipvsadm -a -t 10.64.20.113:http -r 10.64.20.110 -g -w 1­4. real server1 config­#configure ip forwardecho "0" >/proc/sys/net/ipv4/ip_forward­#configure VIP . realserver and route/sbin/ifconfig lo:0 10.64.20.113 broadcast 10.64.20.113 netmask 255.255.255.255 up/sbin/route add -host 10.64.20.113 dev lo:0­#hidden arp requestarptables -A IN -d 10.64.20.113 -j DROParptables -A OUT -o lo -d  10.64.20.113 -j mangle --mangle-ip-s  10.64.20.113arptables -A OUT -o eth0 -d  10.64.20.113 -j mangle --mangle-ip-s  10.64.20.110arptables -A OUT -o eth1 -d  10.64.20.113 -j mangle --mangle-ip-s  <real_ip_on_eth1>  (if you have eth1 connect to network)Windows系统  对于Windows系统的服务器,只要添加一个Loopback的网卡,IP地址设置成虚拟IP(10.64.20.113),子网掩码设置成255.255.255.255,网关地址留空Windows子网掩码无法配置成255.255.255.255,我们可以先按默认的保存配置,然后从注册表修改子网掩码。   从注册表[HKEY_LOCAL_MACHINE\SYSTEM\CurrentControlSet\Services\Tcpip\Parameters\Interfaces]下找到对应的网卡,将SubnetMask修改成255.255.255.255。然后禁用再启用该网卡即可。­5. real server2 config­#configure ip forwardecho "0" >/proc/sys/net/ipv4/ip_forward­#configure VIP . realserver and route/sbin/ifconfig lo:0 10.64.20.113 broadcast 10.64.20.113 netmask 255.255.255.255 up/sbin/route add -host 10.64.20.113 dev lo:0#hidden arp requestarptables -A IN -d 10.64.20.113 -j DROParptables -A OUT -o lo -d  10.64.20.113 -j mangle --mangle-ip-s  10.64.20.113arptables -A OUT -o eth0 -d  10.64.20.113 -j mangle --mangle-ip-s  10.64.20.111arptables -A OUT -o eth1 -d  10.64.20.113 -j mangle --mangle-ip-s  <real_ip_on_eth1>  (if you have eth1 connect to network)­6. check with IE.on Director server check ipvsadm list:#ipvsadm -L­­二、LVS--TUN  configuration1、ENVOS:RedHat AS3Packeage:ipvsadm-1.21-9.ipvs108.i386.rpm2、system architecturedirector server:10.64.20.112real server1:10.64.20.110real server2:10.64.20.111VIP:10.64.20.113real server1 and 2 Ip address are configured . eth0we first assume all servers are finished installed.­3. Director Server#!/bin/bash#set ip_forward . for vs-tun director(1 ., 0 off)echo "0" >/proc/sys/net/ipv4/ip_forward#add ethernet device and routing for VIP/sbin/ifconfig eth0:0 10.64.20.113 broadcast 10.64.20.113 netmask 255.255.255.255 up/sbin/route add -host 10.64.20.113 dev eth0:0ipvsadm -Cipvsadm -A -t 10.64.20.113:http -s rripvsadm -a -t 10.64.20.113:http -r 10.64.20.110 -i -w 1ipvsadm -a -t 10.64.20.113:http -r 10.64.20.111 -i -w 1­4.real server 1        ­#!/bin/bash#set_realserver_ip_forwarding to OFF(1 ., 0 off)echo "0" >/proc/sys/net/ipv4/ip_forward­#install_readserver_vipinsmod ipipifconfig tunl0 10.64.20.113 broadcast 10.64.20.113 netmask 255.255.255.255 uproute add -host 10.64.20.113 dev tunl0­#hiding interface tunl0, will not arparptables -A IN -d 10.64.20.113 -j DROParptables -A OUT -o tunl0 -d  10.64.20.113 -j mangle --mangle-ip-s  10.64.20.113arptables -A OUT -o eth0 -d  10.64.20.113 -j mangle --mangle-ip-s  10.64.20.110arptables -A OUT -o eth1 -d  10.64.20.113 -j mangle --mangle-ip-s  <real_ip_on_eth1>  (if you have eth1 connect to network)­5.real server 2        ­#!/bin/bash#set_realserver_ip_forwarding to OFF(1 ., 0 off)echo "0" >/proc/sys/net/ipv4/ip_forward­#install_readserver_vipinsmod ipipifconfig tunl0 10.64.20.113 broadcast 10.64.20.113 netmask 255.255.255.255 uproute add -host 10.64.20.113 dev tunl0­#hiding interface tunl0, will not arparptables -A IN -d 10.64.20.113 -j DROParptables -A OUT -o tunl0 -d  10.64.20.113 -j mangle --mangle-ip-s  10.64.20.113arptables -A OUT -o eth0 -d  10.64.20.113 -j mangle --mangle-ip-s  10.64.20.111arptables -A OUT -o eth1 -d  10.64.20.113 -j mangle --mangle-ip-s  <real_ip_on_eth1>  (if you have eth1 connect to network)­6. check with IE.on Director server check ipvsadm list:#ipvsadm -L本文出自 “集群存储” 博客,谢绝转载!... 全文

linux 集群 休闲 cluster heartbea

MySQL Cluster集群配置方案

#/bin/bash #MySQL Cluster集群配置方案 #用途           主机名     IP #管理节点     ndb_mgmd     192.168.40.129 #数据节点1     ndb1         192.168.40.131 #数据节点2     ndb2         192.168.40.132 #sql节点1     mysqld1     192.168.40.131 #sql节点2     mysqld2     192.168.40.132 #所需软件推荐用mysql-max-5.0.24 #开始安装 #sql、数据节点安装 #在每个节点计算机上都采用mysql 用户来运行Cluster,因此执行如下命令添加相关用户 groupadd mysql useradd -g mysql mysql #sql节点、数据节点安装mysql的二进制安装包 wget http://downloads.skysql.com/archives/mysql-5.0/mysql-max-5.0.24-linux-i686.tar.gz tar  -zxf  mysql-max-5.0.24-linux-i686.tar.gz mv  mysql-max-5.0.24-linux-i686  /usr/local/mysql #拷贝MySQL配置文件到/etc/下,初始化数据库,设置目录权限,启动MySQL cd /usr/local/mysql \cp  -rf support-files/my-medium.cnf /etc/my.cnf scripts/mysql_install_db --user=mysql  chown -R mysql.mysql /usr/local/mysql bin/MySQLd_safe --user=mysql & #将MySQL写入服务,初始化MySQL的root密码 cp support-files/mysql.server /etc/rc.d/init.d/mysqld chkconfig --add mysqld bin/mysqladmin -u root password 123123 vi /etc/my.cnf 在最下面添加内容: [mysqld] ndbcluster  ndb-connectstring=192.168.40.129 [mysql_cluster] ndb-connectstring=192.168.40.129 #管理节点安装 tar -zxvf mysql-max-5.0.24-linux-i686.tar.gz mkdir /usr/local/mysql mkdir /usr/local/mysql/data cd mysql-max-5.0.24-linux-i686/bin cp ndb_mgm* /usr/local/mysql chown -R mysql.mysql /usr/local/mysql #配置管理节点 vim /usr/local/mysql/config.ini [ndbd default] NoOfReplicas=2 DataMemory=200M IndexMemory=100M [tcp default] portnumber=4444  #此端口为数据节点使用的端口 [ndb_mgmd] #set Management server hostname=192.168.40.129 #Management save log directory datadir=/usr/local/mysql/data/ #set Storage server [ndbd] hostname=192.168.40.131 datadir=/usr/local/mysql/data/ [ndbd] hostname=192.168.40.132 datadir=/usr/local/mysql/data/ #set sql server [mysqld] hostname=192.168.40.131 [mysqld] hostname=192.168.40.132 #启动mysql cluster #较为合理的启动顺序是,首先启动管理节点服务器,然后启动存储节点服务器,最后才启动SQL节点服务器: #在管理节点服务器上,执行以下命令启动MGM节点进程: /usr/local/mysql/ndb_mgmd -f /usr/local/mysql/config.ini #必须用参数“-f”或“--config-file”告诉 ndb_mgm 配置文件所在位置,默认是在ndb_mgmd相同目录下。 #在每台存储节点服务器上,如果是第一次启动ndbd进程的话,必须先执行以下命令: /usr/local/mysql/bin/ndbd --initial #注意,仅应在首次启动ndbd时,或在备份/恢复数据或配置文件发生变化后重启ndbd时使用“--initial”参数。因为该参数会使节点删除由早期ndbd实例创建的、用于恢复的任何文件,包括用于恢复的日志文件。 #如果不是第一次启动,直接运行如下命令即可: /usr/local/mysql/bin/ndbd #最后,运行以下命令启动SQL节点服务器: /usr/local/mysql/bin/mysqld_safe --defaults-file=/etc/my.cnf & #如果一切顺利,也就是启动过程中没有任何错误信息出现,那么就在管理节点服务器上运行如下命令: [root@localhost mysql]# /usr/local/mysql/ndb_mgm -- NDB Cluster -- Management Client -- ndb_mgm> show Connected to Management Server at: localhost:1186 Cluster Configuration --------------------- [ndbd(NDB)]    2 node(s) id=2    @192.168.40.131  (Version: 5.0.24, Nodegroup: 0) id=3    @192.168.40.132  (Version: 5.0.24, Nodegroup: 0, Master) [ndb_mgmd(MGM)]    1 node(s) id=1    @192.168.40.129  (Version: 5.0.24) [mysqld(API)]    2 node(s) id=4    @192.168.40.131  (Version: 5.0.24) id=5    @192.168.40.132  (Version: 5.0.24) #测试 #在mysqld1节点上,用root在test数据库上新建一个t1的表 mysql> use test; Database changed mysql> show tables; Empty set (0.11 sec) mysql> create table t1(a int) engine=ndb; Query OK, 0 rows affected (0.74 sec) mysql> insert into t1 values(100); Query OK, 1 row affected (0.32 sec) #在mysqld2节点2上,用root查看效果 mysql> show tables; +----------------+ | Tables_in_test | +----------------+ | t1             | +----------------+ 1 row in set (0.00 sec)  本文出自 “Create One Eternal Love” 博客,请务必保留此出处http://yijiaxin.blog.51cto.com/2973774/863218... 全文

MySQL Cluster 集群配置方案

rocks cluster 安装配置

rocks是一个开源的集群管理系统,本文的内容主要参考自rocks的官方文档,详细内容可参考http://www.rocksclusters.org1.rocks的网络架构: ... 全文

rocks cluster 安装 配置 管理系统

SRX防火墙cluster配置步骤

SRX防火墙cluster配置步骤防火墙HA配置必须要按照以下步骤进行1.首先将2台防火墙的HA控制信号端口进行直连,HA控制信号端口为厂商指定的端口设备型号:For SRX100 devices, connect the fe-0/0/7 port to the fe-1/0/7 portFor SRX210 devices, connect the fe-0/0/7 port to the fe-2/0/7 portFor SRX240 devices, connect the ge-0/0/1 port to the ge-5/0/1 portFor SRX650 devices, connect the ge-0/0/1 port to the ge-9/0/1 port 2.配置root密码(2台设备配置相同的密码)SRX-A>set system root-authentication plain-text-passwordSRX-B>set system root-authentication plain-text-password 3.将所有默认端口的配置进行删除SRX-A>delete interface ge-0/0/0SRX-B>delete interface ge-0/0/0 4.配置cluster(建议将主设备配置为node 0)SRX-A>set chassis cluster cluster-id 1 node 0 reboot(Cluster ID 取值范围为1 – 15,当Cluster ID = 0 时将unsets the cluster)SRX-B>set chassis cluster cluster-id 1 node 1 reboot 5.以上配置完成,重启后,HA状态将同步,可以通过show命令查看状态,以后所有的操作将在一台防火墙上完成show chassis cluster status 6.将2台防火墙的HA的控制界面端口进行直连(可以任意指定),然后进行配置set interfaces fab0 fabric-options member-interfaces ge-0/0/2set interfaces fab1 fabric-options member-interfaces ge-5/0/2 7.配置优先级别(node 0 为高优先级别)RG0 固定用于主控板RE 切换,RG1 以后用于redundant interface 切换,RE 切换独立于接口切换set chassis cluster reth-count 10 (指定整个Cluster 中redundant ethernet interface 最多数量)set chassis cluster redundancy-group 0 node 0 priority 200set chassis cluster redundancy-group 0 node 1 priority 100set chassis cluster redundancy-group 1 node 0 priority 200set chassis cluster redundancy-group 1 node 1 priority 100 8.配置设备名称,以及管理口(管理口也为厂商指定的端口)set groups node0 system host-name SRX-Aset groups node0 interfaces fxp0 unit 0 family inet address 1.1.1.1/24 (带外网管口名称为fxp0)set groups node1 system host-name SRX-Bset groups node1 interfaces fxp0 unit 0 family inet address 1.1.1.2/24set apply-groups ${node} (应用上述groups 配置) 9.通过以下命令查看所有端口的信息run show interfaces terse 10.将要配置的端口进行接线(等设置端口监控后,如果不接线会导致HA状态异常) 11.端口配置set interface ge-0/0/8 gigether-options redundant-parent reth0 (node 0 的ge-0/0/8 接口)set interface ge-5/0/8 gigether-options redundant-parent reth0 (node 1 的ge-0/0/8 接口)set interface reth0 redundant-ether-options redundancy-group 1 (reth0 属于RG1)set interface reth0 unit 0 family inet address 192.168.0.1/24 12.端口监控set chassis cluster redundancy-group 1 interface-monitor ge-0/0/3 weight 255set chassis cluster redundancy-group 1 interface-monitor ge-0/0/4 weight 255set chassis cluster redundancy-group 1 interface-monitor ge-5/0/3 weight 255set chassis cluster redundancy-group 1 interface-monitor ge-5/0/4 weight 255 13.如果在配置过程中,需要进行出厂值恢复A.关闭cluster,并且重启设备SRX-A>set chassis cluster disable rebootSRX-B>set chassis cluster disable reboot B.出厂值恢复SRX-A>Load factory-defaultSRX-A>set system root-authentication plain-text-passwordSRX-A>commit SRX-B>Load factory-defaultSRX-B>set system root-authentication plain-text-passwordSRX-B>commit ... 全文

srx juniper HA cluster

RHEL5/Cluster(DR部分)

RHEL5/Cluster(DR部分)RHEL5中的Cluster组件是基于章文嵩先生创立的LVS(Linux Virtual Server) 制作而成,关于lvs的工作原理请参照《Linux 服务器集群系统》... 全文

休闲 Cluster 职场

linux cluster+heartbeat

heartbeat主要的配置文件有3个,aukeys ,ha.cf和haresources   网络环境:vip  192.168.3.100/24ha1  192.168.3.101/24ha2  192.168.3.102/24===========================================     1.authkeys heartbeat的认证配置文件auth 3#1 crc#2 sha1 HI!3 md5 Hello! chmod 600 authkeys ===========================================     2 ha.cf heartbeat的主要配置文件   debugfile /var/log/ha-debug    logfile /var/log/ha-log     keepalive 2 发送心跳报文的间隔,默认单位为秒,如果你毫秒为单位,那么需要在后面跟ms单位,如1500ms即代表1.5s     deadtime 30 用于配置认为对方节点菪掉的间隔     warntime 10 发出最后的心跳警告报文的间隔   initdead 120 #网络启动的时间     udpport 694 #广播/单播通讯使用的udp端口   bcast eth0 # Linux 心跳所使用的网络接口mcast eth0 225.0.0.1 694 1 0 如果采用组播通讯,在这里可以设置组播通讯所使用的接口,绑定的组播ip地#址(在224.0.0.0 - 239.255.255.255间),通讯端口,ttl(time to live)所能经过路由的#跳数,是否允许环回(也就是本地发出的数据包时候还接收)     ucast eth0 192.168.1.2  如果采用单播,那么可以配置其网络接口以及所使用的ip地址     auto_failback . 用于决定,当拥有该资源的属主恢复之后,资源是否变迁:是迁移到属主上,还是在当前节点上继续运行,直到当前节点出现故障。     stonith baytech /etc/ha.d/conf/stonith.baytech 用于共享资源的集群环境中,采用stonith防御技术来保证数据的一致性     watchdog /dev/watchdog  该指令是用于设置看门狗定时器,如果节点一分钟内都没有心跳,那么节点将重新启动node ha1node ha2ping 10.10.10.254 ping指令以及下面的ping_group指令是用于建立伪集群成员,它们必须与下述#的ipfail指令一起使用,它们的作用是监测物理链路,也就是说如果集群节点与上述伪设备不相通,那么该节点也将无权接管资源或服务,它将释放掉资源。     apiauth client-name gid=gidlist uid=uidlistapiauth ipfail gid=haclient uid=hacluster    设置你所指定的启动进程的权限     ===================================================     3 haresourceheartbeat的资源配置文件   ha1 192.168.3.200  ipvsadm  http  主服务器名  虚拟IP 接管资料  本文出自 “集群存储” 博客,谢绝转载!... 全文

linux cluster 休闲 heartbea 集群

配置 MySQL cluster

 一,基本概念:NDB是一种“内存中”存储引擎,它具有可用性高和数据一致性好的特点。能够使用多种故障切换和负载平衡选项配置NDB存储引擎,但以簇层面上的存储引擎开始最简单。MySQL簇的NDB存储引擎包含完整的数据集,仅取决于簇本身内的其他数据。下面,我们介绍了设置由NDB存储引擎和一些MySQL服务器构成的MySQL簇的设置方法。目前,MySQL簇的簇部分可独立于MySQL服务器进行配置。在MySQL簇中,簇的每个部分被视为1个节点。   有三类簇节点,在最低的MySQL簇配置中,至少有三个节点,这三类节点分别是:... 全文

mysql cluster 数据库 休闲 职场

mysql cluster解决方案

Mysql cluster实验1 测试环境:1.1 软件系统版本Gentoo 3.8.13Mysql 5.1.67Haproxy-1.4.241.2 架构... 全文

linux mysql 集群 cluster haproxy

使用SCOM监控Windows Cluster

      好长时间没有写文章了,并不是小弟懒,而是最近手头两大System Center项目緾身,工作太忙了(借口^_^),抽不出时间来写blog。小弟我潜水了N天,经过激烈的思想斗争后,决定浮出水面透透气,顺便解解手痒。今天我来带给大家的是最近在SCOM项目中的实际例子--利用SCOM监控Windows Cluster,要想监控cluster,我们大概需要下面3个步骤:     1.导入Windows Cluster MP     2.在Cluster Node中安装Scom Agent     3.在Cluster Node中启用发现代理     首先我们来说说Windows Cluster MP的导入,该MP在微软官方网络可以下载到:Microsoft Windows Server Cluster Management Pack for Operations Manager 2007,下载完MP在本地安装之后,接下来需要在SCOM控制台中进行导入,在控制台中定位到“Administration”—“Management Packs”,右键选择“Import Management Packs”,如下图所示:           在弹出的选择窗口中找到cluster mp所在的目录,将相关MP选择后单击“Open”,如下图所示:         在弹出的“Import Management Packs”窗口中选择“Import”,细心的朋友可能已经发现下面截图有“叹号”,那是因为我的环境中已经曾经导入过Cluster MP了,生产环境嘛,没办法,总不能为了篇Blog而把客户环境中的MP卸载掉重来……大家凑合看吧,嘿嘿,如果是第一次导入MP,不会是这种情况的,大家能理解就行。         在成功导入Windows Cluster MP之后,接下来就要在Cluster节点上安装SCOM Agent了,这安装过程非常简单,可以手动安装,也可以在SCOM控制台推送,在此忽略掉,省点力气了^_^     安装完Agent之后,最后的步骤就是在Agent中启用发现代理了。这一步操作很简单,但是是至关重要的一步,google了一下,网上有不少朋友使用SCOM监控Exchange Server群集时总是不能够成功发现Exchange的群集实例,估计有可能就是因为漏掉这一步操作。这不能怪大家,要怪就怪微软的文档有遗漏,误导了大家,微软提供的Exchange Server Management Pack Guide for Operations Manager 2007中说会自动发现群集实例,根本就不是那么回事,BS一下。           扯的有点远了,回到正题,接着来告诉大家如何在Cluster Node中启用发现代理,以便能够成功发现群集实例并且正常监控上。为了能够让更多的Exchange Server管理员了解怎样使用SCOM监控Exchange Cluster,下面我用实际环境中的Exchange Server Cluster演示:      在SCOM控制台中定位到“Administration”—“Agent Managed”,在右边窗口中找到需要开启发现代理的Cluster Node,右键选择“Properties”,如下图所示:            在本例中的mail1\mail2\mail3\mail4分别为两组Exchange Server Cluster的节点      在弹出的“Agent Properties”窗口中选中如下选框:         做完上面的操作之后,SCOM监控群集的配置过程就完成了,当然了,我们不能够就此结束工作,接下来还需要验证一下结果。     在SCOM控制台中定位到“Administration”—“Agentless Managed”,如果Cluster Node上的代理发现能够工作正常的话,群集实例就会出现在Agentless Managed窗口中,如下图所示:         本例中监控的是Exchange Server 2003 Cluster,所以还得在Monitoring中验证一下两组Exchange群集实例是否出现在Microsoft Exchange Server 2003视图中:         从上面的几张截图返回的信息可以知道现在SCOM已经成功监控上Exchange Cluster,今天就到此结束了,夜深人静,继续潜水去……本文出自 “叶俊坚” 博客,请务必保留此出处http://yejunjian.blog.51cto.com/718462/167485... 全文

Cluster 休闲 SCOM 职场 Windows

RHEL5/Cluster(TUN部分)

RHEL5/Cluster(TUN部分)RHEL5中的Cluster组件是基于章文嵩先生创立的LVS(Linux Virtual Server) 制作而成,关于lvs的工作原理请参照《Linux 服务器集群系统》... 全文

TUN 职场 休闲 Cluster

RHEL5/Cluster(NAT部分)

RHEL5/Cluster(NAT部分)RHEL5中的Cluster组件是基于章文嵩先生创立的LVS(Linux Virtual Server) 制作而成,关于lvs的工作原理请参照《Linux 服务器集群系统》... 全文

Cluster 职场 NAT 休闲

SQL SERVER 2008R2 CLUSTER

SQL SERVER 2008R2 CLUSTERWindows2008 提供两种群集技术:故障转移群集(CLUSTER)和网络负载均衡(NLB)。故障转移主要提供高可用性。网络负载均衡提供可伸缩性。故障转移群集技术主要是针对长期运行的内存状态或具有大型,频繁更新的数据状态的应用程序。(LIVEMIGRATION)网络负载均衡技术主要是用于没有长期运行的内存状态或者故障转移群集可以提高服务及应用程序的可用性。群集中的多个节点之间有物理线路和软件链接,如果其中一个节点故障会自动切换到另外一个节点这个过程叫故障转移... 全文

CLUSTER SQL Server 2008R2 故障转移群集

1 2 3 4 5 6