搜档网
当前位置:搜档网 › REDIS+KEEPALIVED+HAPROXY 集群,负载均衡,主备自动切换安装手册

REDIS+KEEPALIVED+HAPROXY 集群,负载均衡,主备自动切换安装手册

REDIS+KEEPALIVED+HAPROXY 集群,负载均衡,主备自动切换安装手册
REDIS+KEEPALIVED+HAPROXY 集群,负载均衡,主备自动切换安装手册

REDIS集群,

KEEPALIVED+HAPROXY

负载均衡,主备自动切换安装手册

服务器环境:centos6.3

机器1:

redis主节点(172.16.8.21:6379)

从节点(172.16.8.21:63791)

从节点(172.16.8.21:63792)

机器2:

从节点172.16.8.22:63793

从节点172.16.8.23:63794

一、REDIS集群安装

进入机器1:

mkdir /usr/local/redis

mkdir /usr/local/redis/data

1 下载redis,进入/usr/local/src目录

2 wget http://download.redis.io/releases/redis-2.8.9.tar.gz

3 tar xvf redis-2.8.9.tar.gz

4 cd redis-2.8.9

5 make && make install

6 cp redis.conf /usr/local/bin

7 cd /usr/local/bin

8 cp redis.conf redis-slave1

9 cp redis.conf redis-slave2

10 vi redis.conf

11 搜索

dind设为172.16.8.21

dir 设为/usr/local/redis/data

daemonize 设为yes

12 vi redis-slave1

13 搜索

bind 设为172.16.8.21

pidfile 设为/var/run/redis-slave1.pid

dbfilename设为dump-slave1.rdb

dir设为/usr/local/redis/data

port 设为63791

将slaveof前面的#号去掉,改为slaveof 172.16.8.21 6379 daemonize 设为yes

14 vi redis-slave2

15 搜索

bind 设为172.16.8.21

pidfile 设为/var/run/redis-slave2.pid

dbfilename设为dump-slave2.rdb

dir设为/usr/local/redis/data

port 设为63792

将slaveof前面的#号去掉,改为slaveof 172.16.8.21 6379 daemonize 设为yes

16

redis-server redis.conf

redis-server redis-slave1

redis-server redis-slave2

进入机器2

mkdir /usr/local/redis

mkdir /usr/local/redis/data

1 下载redis,进入/usr/local/src目录

2 wget http://download.redis.io/releases/redis-2.8.9.tar.gz

3 tar xvf redis-2.8.9.tar.gz

4 cd redis-2.8.9

5 make && make install

6 cp redis.conf /usr/local/bin

7 cd /usr/local/bin

8 cp redis.conf redis-slave3

9 cp redis.conf redis-slave4

10 vi redis-slave3

11 搜索

bind 设为172.16.8.22

pidfile 设为/var/run/redis-slave3.pid

dbfilename设为dump-slave3.rdb

dir设为/usr/local/redis/data

port 设为63793

将slaveof前面的#号去掉,改为slaveof 172.16.8.21 6379

daemonize 设为yes

12 vi redis-slave4

13 搜索

bind 设为172.16.8.22

pidfile 设为/var/run/redis-slave4.pid

dbfilename设为dump-slave4.rdb

dir设为/usr/local/redis/data

port 设为63794

将slaveof前面的#号去掉,改为slaveof 172.16.8.21 6379

daemonize 设为yes

14 redis-server redis-slave3

15 redis-server redis-slave4

到现在已完成redis集群配置,且只有172.16.8.21 6379可写数据,其余slave机器只能读数据

redis-cli -h 172.16.8.21 -p 6379

info

可以看到这样子就是成功了

二、安装haproxy

进入机器1

cd /usr/loca/src

wget http://haproxy.1wt.eu/download/1.4/src/haproxy-1.4.25.tar.gz

tar xvf http://haproxy.1wt.eu/download/1.4/src/haproxy-1.4.25.tar.gz

cd haproxy-1.4.25

make TARGET=linux26 PREFIX=/usr/local/haproxy

make install PREFIX=/usr/local/haproxy

cd /usr/local/haproxy

vi haproxy.cfg

添加下面内容

# this config needs haproxy-1.1.28 or haproxy-1.2.1

global

log 172.16.8.21 local0

#log 172.16.8.21 local1 notice

#log loghost local0 info

maxconn 4096

chroot /usr/local/haproxy

uid 99

gid 99

daemon

#debug

quiet

nbproc 2

pidfile /usr/local/haproxy/haproxy.pid

defaults

log global

mode http

option httplog

option dontlognull

log 172.16.8.21 local3 info

retries 3

redispatch

maxconn 3000

contimeout 5000

clitimeout 50000

srvtimeout 50000

listen cluster 0.0.0.0:63790

mode tcp

balance roundrobin

option forwardfor

server redis-slave1 172.16.8.21:63791 weight 100 check inter 2000 rise 2 fall 3 server redis-slave2 172.16.8.21:63792 weight 100 check inter 2000 rise 2 fall 3 server redis-slave3 172.16.8.22:63793 weight 100 check inter 2000 rise 2 fall 3 server redis-slave4 172.16.8.22:63794 weight 100 check inter 2000 rise 2 fall 3

listen 172.16.8.21 *:8888

mode http

#transparent

stats refresh 10s

stats uri /haproxyadmin

stats realm Haproxy \ statistic

stats auth admin:admin

stats hide-version

保存

加上日志支持 vi /etc/rsyslog.conf

在最下边增加

local3.* /var/log/haproxy.log

local0.* /var/log/haproxy.log

vi /etc/sysconfig/rsyslog

修改: SYSLOGD_OPTIONS="-r -m 0"

重启日志服务service rsyslog restart

进入机器2

cd /usr/loca/src

wget http://haproxy.1wt.eu/download/1.4/src/haproxy-1.4.25.tar.gz tar xvf http://haproxy.1wt.eu/download/1.4/src/haproxy-1.4.25.tar.gz cd haproxy-1.4.25

make TARGET=linux26 PREFIX=/usr/local/haproxy

make install PREFIX=/usr/local/haproxy

cd /usr/local/haproxy

vi haproxy.cfg

添加下面内容

# this config needs haproxy-1.1.28 or haproxy-1.2.1

global

log 172.16.8.22 local0

#log 172.16.8.22 local1 notice

#log loghost local0 info

maxconn 4096

chroot /usr/local/haproxy

uid 99

gid 99

daemon

#debug

quiet

nbproc 2

pidfile /usr/local/haproxy/haproxy.pid

defaults

log global

mode http

option httplog

option dontlognull

log 172.16.8.22 local3 info

retries 3

redispatch

maxconn 3000

contimeout 5000

clitimeout 50000

srvtimeout 50000

listen cluster 0.0.0.0:63790

mode tcp

balance roundrobin

option forwardfor

server redis-slave1 172.16.8.21:63791 weight 100 check inter 2000 rise 2 fall 3 server redis-slave2 172.16.8.21:63792 weight 100 check inter 2000 rise 2 fall 3 server redis-slave3 172.16.8.22:63793 weight 100 check inter 2000 rise 2 fall 3 server redis-slave4 172.16.8.22:63794 weight 100 check inter 2000 rise 2 fall 3 listen 172.16.8.22*:8888

mode http

#transparent

stats refresh 10s

stats uri /haproxyadmin

stats realm Haproxy \ statistic

stats auth admin:admin

stats hide-version

保存

加上日志支持 vi /etc/rsyslog.conf

在最下边增加

local3.* /var/log/haproxy.log

local0.* /var/log/haproxy.log

vi /etc/sysconfig/rsyslog

修改: SYSLOGD_OPTIONS="-r -m 0"

重启日志服务service rsyslog restart

三、安装keepalived

进入机器1

cd /usr/local/src

wget https://www.sodocs.net/doc/7517711376.html,/software/keepalived-1.2.12.tar.gz

tar xvf keepalived-1.2.12.tar.gz

cd keepalived-1.2.12

./configure

make&&make install

注:若这里报错提示没有装openssl,则执行yum –y install openssl-devel安装,若还有其他的包没装,则执行yum命令进行安装

cp /usr/local/etc/rc.d/init.d/keepalived /etc/rc.d/init.d/

cp /usr/local/etc/sysconfig/keepalived /etc/sysconfig/

mkdir /etc/keepalived

cp /usr/local/etc/keepalived/keepalived.conf /etc/keepalived/

ln -s /usr/local/sbin/keepalived /usr/sbin/

vi /etc/keepalived/keepalived.conf

将内容改为如下

! Configuration File for keepalived

vrrp_script chk_haproxy {

script "/etc/keepalived/check_haproxy.sh"

interval 2

global_defs {

router_id LVS_DEVEL

}

vrrp_instance VI_1 {

state MASTER

interface eth0

virtual_router_id 51

priority 150

advert_int 1

authentication {

auth_type PASS

auth_pass 1111

}

track_script {

chk_haproxy

}

virtual_ipaddress {

172.16.8.20

}

}

}

保存

vi /etc/keepalived/check_haproxy.sh

添加内容

#!/bin/bash

#A = `ps -C haproxy --no-header |wc -l`

if [[ `ps -C haproxy --no-header |wc -l` -eq 0 ]];

then

echo "haproxy not runing,attempt to start up."

/usr/local/haproxy/sbin/haproxy -f /usr/local/haproxy/haproxy.cfg

sleep 3

if [[ `ps -C haproxy --no-header |wc -l` -eq 0 ]];

then

/etc/init.d/keepalived stop

echo "haproxy start failure,stop keepalived"

else

echo "haproxy started success"

fi

fi

注意`这个符号不是单引号,是esc下面那个键

进入机器2

cd /usr/local/src

wget https://www.sodocs.net/doc/7517711376.html,/software/keepalived-1.2.12.tar.gz

tar xvf keepalived-1.2.12.tar.gz

cd keepalived-1.2.12

./configure

make&&make install

注:若这里报错提示没有装openssl,则执行yum –y install openssl-devel安装,若还有

其他的包没装,则执行yum命令进行安装

cp /usr/local/etc/rc.d/init.d/keepalived /etc/rc.d/init.d/

cp /usr/local/etc/sysconfig/keepalived /etc/sysconfig/ mkdir /etc/keepalived

cp /usr/local/etc/keepalived/keepalived.conf /etc/keepalived/ ln -s /usr/local/sbin/keepalived /usr/sbin/

vi /etc/keepalived/keepalived.conf

将内容改为如下

! Configuration File for keepalived

vrrp_script chk_haproxy {

script "/etc/keepalived/check_haproxy.sh"

interval 2

global_defs {

router_id LVS_DEVEL

}

vrrp_instance VI_1 {

state BACKUP

interface eth0

virtual_router_id 51

priority 120

advert_int 1

authentication {

auth_type PASS

auth_pass 1111

}

track_script {

chk_haproxy

}

virtual_ipaddress {

172.16.8.20

}

}

}

保存

vi /etc/keepalived/check_haproxy.sh

添加内容

#!/bin/bash

#A = `ps -C haproxy --no-header |wc -l`

if [[ `ps -C haproxy --no-header |wc -l` -eq 0 ]];

then

echo "haproxy not runing,attempt to start up."

/usr/local/haproxy/sbin/haproxy -f /usr/local/haproxy/haproxy.cfg

sleep 3

if [[ `ps -C haproxy --no-header |wc -l` -eq 0 ]];

then

/etc/init.d/keepalived stop

echo "haproxy start failure,stop keepalived"

else

echo "haproxy started success"

fi

fi

注意`这个符号不是单引号,是esc下面那个键

保存

在机器1机器2中分别执行

service keepalived start

然后在浏览器上打开http://172.16.8.20:8888/haproxyadmin

用户名和密码是admin

只要机器1和机器2中keepalived服务没有同时挂掉,一台机器挂掉后,另一台机器就会绑定172.16.8.20地址,实现主备切换,因此都可以通过172.16.8.20:63790访问该redis 集群

Vip压力测试

redis-benchmark -h 172.16.8.20 -p 63790 -t get -q -r 1000 -n 100000 -c 800

主机器压力测试

redis-benchmark -h 172.16.8.21 -p 6379 -t get -q -r 1000 -n 100000 -c 800

从节点压力测试

redis-benchmark -h 172.16.8.22 -p 63793 -t get -q -r 1000 -n 100000 -c 800

本文参考于百度文库地址

https://www.sodocs.net/doc/7517711376.html,/link?url=Wd0Z2arJ4wdspy7jw9O1mGZCy2e5GiO4hCIv36 QxoOtNGcFOMG8rPpegmRH_z72Ejc-KAP9Ld2Aieo7DPgmC_b1bXB2BZVSKPTXsoz BNNYi

weblogic集群负载均衡部署文档(支持win7+linux6.5)

Weblogic集群和负载分发的部署(支持win7+linux6.5 64位)

目录 1.集群目的 (3) 2.部署环境 (3) 3.注意问题 (3) 4.安装weblogic过程 (3) 5.weblogic集群部署过程 (9) 5.1创建weblogic域 (9) 5.2 weblogic集群化配置 (15) 5.3 weblogic简单负载均衡配置 (28) 5.4 weblogic集群复杂均衡测试 (32)

1.集群目的 项目成功部署后,可能会出现运行过程中服务器挂掉不能正常使用。为了防止这种情况,采用weblogic 集群方式部署,以消除客户的担心。 2.部署环境 3.注意问题 因为时间仓促和作者水平有限有些待解决问题需要说明 1.请不要登陆后在地址栏按回车键重新访问地址来验证session复制。 2.如果按F5刷新页面则会跳到选择模块界面,无法说明session复制失败。 3.服务器地址默认用127.0.0.1 ,如果用ip地址(如:192.169.1.169),则把配置过程所有地方的127.0.0.1改成你的实际ip地址,记住创建时候ip地址要统一。 4.安装weblogic过程 1)首先登陆 https://www.sodocs.net/doc/7517711376.html,/technetwork/cn/middleware/ias/downloads/wls-main-091116-z hs.html 去下载一个windows版的weblogic 我下载的是1036版本

2)双击打开后3)初始化完成后 4)点击下一步

把“我希望通过这个。。。。。。”勾选取消。

Tomcat集群与负载均衡

Tomcat集群与负载均衡(转载) 在单一的服务器上执行WEB应用程序有一些重大的问题,当网站成功建成并开始接受大量请求时,单一服务器终究无法满足需要处理的负荷量,所以就有点显得有点力不从心了。另外一个常见的问题是会产生单点故障,如果该服务器坏掉,那么网站就立刻无法运作了。不论是因为要有较佳的扩充性还是容错能力,我们都会想在一台以上的服务器计算机上执行WEB应用程序。所以,这时候我们就需要用到集群这一门技术了。 在进入集群系统架构探讨之前,先定义一些专门术语: 1. 集群(Cluster):是一组独立的计算机系统构成一个松耦合的多处理器系统,它们之间通过网络实现进程间的通信。应用程序可以通过网络共享内存进行消息传送,实现分布式计算机。 2. 负载均衡(Load Balance):先得从集群讲起,集群就是一组连在一起的计算机,从外部看它是一个系统,各节点可以是不同的操作系统或不同硬件构成的计算机。如一个提供Web服务的集群,对外界来看是一个大Web服务器。不过集群的节点也可以单独提供服务。 3. 特点:在现有网络结构之上,负载均衡提供了一种廉价有效的方法扩展服务器带宽和增加吞吐量,加强网络数据处理能力,提高网络的灵活性和可用性。集群系统(Cluster)主要解决下面几个问题: 高可靠性(HA):利用集群管理软件,当主服务器故障时,备份服务器能够自动接管主服务器的工作,并及时切换过去,以实现对用户的不间断服务。 高性能计算(HP):即充分利用集群中的每一台计算机的资源,实现复杂运算的并行处理,通常用于科学计算领域,比如基因分析,化学分析等。 负载平衡:即把负载压力根据某种算法合理分配到集群中的每一台计算机上,以减轻主服务器的压力,降低对主服务器的硬件和软件要求。 目前比较常用的负载均衡技术主要有: 1. 基于DNS的负载均衡 通过DNS服务中的随机名字解析来实现负载均衡,在DNS服务器中,可以为多个不同的地址配置同一个名字,而最终查询这个名字的客户机将在解析这个名字时得到其中一个地址。因此,对于同一个名字,不同的客户机会得到不同的地址,他们也就访问不同地址上的Web服务器,从而达到负载均衡的目的。 2. 反向代理负载均衡(如Apache+JK2+Tomcat这种组合) 使用代理服务器可以将请求转发给内部的Web服务器,让代理服务器将请求均匀地转发给多台内部Web服务器之一上,从而达到负载均衡的目的。这种代理方式与普通的代理方式有所不同,标准代理方式是客户使用代理访问多个外部Web服务器,而这种代理方式是多个客户使用它访问内部Web服务器,因此也被称为反向代理模式。 3. 基于NAT(Network Address Translation)的负载均衡技术(如Linux Virtual Server,简称LVS)

集群HA负载均衡技术

实用标准文案 NLB 、HA、HPC集群、双机、负载均衡、 1.1什么是集群)就是一组计算机,它们作为一个整体向用户cluster 简单的说,集群()。一提供一组网络资源。这些单个的计算机系统就是集群的节点(node她们看/个理想的集群是,用户从来不会意识到集群系统底层的节点,在他来,集群是一个系统,而非多个计算机系统。并且集群系统的管理员可以随意增加和删改集群系统的节点。集群系统的主要优点:1.2 高可扩展性:(1):集群中的一个节点失效,它的任务可传递给其他节点。可高可用性HA(2) 以有效防止单点失效。 高性能:负载平衡集群允许系统同时接入更多的用户。(3) 高性价比:可以采用廉价的符合工业标准的硬件构造高性能的系统。(4) 集群系统的分类2.1 虽然,根据集群系统的不同特征可以有多种分类方法,但是一般把集群系统 分为两类:集群。,、高可用(High Availability)集群简称HA(1) 这类集群致力于提供高度可靠的服务。就是利用集群系统的容错性对外提供 小时不间断的服务,如高可用的文件服务器、数据库服务等关键应用。7*24负载均衡集群:使任务可以在集群中尽可能平均地分摊不同的计算机进行处 精彩文档. 实用标准文案 理,充分利用集群的处理能力,提高对任务的处理效率。以提供更加高效稳

定的服务。在实际应用中这几种集群类型可能会混合使用, 高就会包含高可用的网络文件系统、如在一个使用的网络流量负载均衡集群中,可用的网络服务。集群,也HPC(High Perfermance Computing)集群,简称(2)、性能计算称为科学计算集群。 在这种集群上运行的是专门开发的并行应用程序,它可以把一个问题的数据 从而可以分布到多台的计算机上,利用这些计算机的共同资源来完成计算任务,解决单机不能胜任的工作(如问题规模太大,单机计算速度太慢)。 如天气预报、这类集群致力于提供单个计算机所不能提供的强大的计算能力。石油勘探与油藏模拟、分子模拟、生物计算等。(HA) 3.1 什么是高可用性和可维护(reliability)计算机系统的可用性(availability)是通过系统的可靠性 来度量系统(MTTF)来度量的。工程上通常用平均无故障时间性(maintainability)于是可用性被定义)来度量系统的可维护性。,用平均维修时间(MTTR的可靠性MTTF/ (MTTF+MTTR)*100% 为:负载均衡服务器的高可用性主服务器和备份机上都需要建立一个备份机。为了屏蔽负载均衡服务器的失效,”这样的信息来监I am alive监控程序,通过传送诸如“运行High Availability它就接管当备份机不能在一定的时间内收到这样的信息时,控对方的运行状况。I am 并继续提供服务;当备份管理器又从主管理器收到“主服务器的服务IP精彩文档.实用标准文案 地址,这样的主管理器就开开始再次进IPalive”这样的信息是,它就释放服务行集群管理的工作了。为在主服务器失效的情况下系统能正常工作,我们在主、备份机之间实现负载集群系统配置信息的同步与备份,保持二者系统的基本一

数据库负载均衡解决方案

双节点数据库负载均衡解决方案 问题的提出? 在SQL Server数据库平台上,企业的数据库系统存在的形式主要有单机模式和集群模式(为了保证数据库的可用性或实现备份)如:失败转移集群(MSCS)、镜像(Mirror)、第三方的高可用(HA)集群或备份软件等。伴随着企业的发展,企业的数据量和访问量也会迅猛增加,此时数据库就会面临很大的负载和压力,意味着数据库会成为整个信息系统的瓶颈。这些“集群”技术能解决这类问题吗?SQL Server数据库上传统的集群技术 Microsoft Cluster Server(MSCS) 相对于单点来说Microsoft Cluster Server(MSCS)是一个可以提升可用性的技术,属于高可用集群,Microsoft称之为失败转移集群。 MSCS 从硬件连接上看,很像Oracle的RAC,两个节点,通过网络连接,共享磁盘;事实上SQL Server 数据库只运行在一个节点上,当出现故障时,另一个节点只是作为这个节点的备份; 因为始终只有一个节点在运行,在性能上也得不到提升,系统也就不具备扩展的能力。当现有的服务器不能满足应用的负载时只能更换更高配置的服务器。 Mirror 镜像是SQL Server 2005中的一个主要特点,目的是为了提高可用性,和MSCS相比,用户实现数据库的高可用更容易了,不需要共享磁盘柜,也不受地域的限制。共设了三个服务器,第一是工作数据库(Principal Datebase),第二个是镜像数据库(Mirror),第三个是监视服务器(Witness Server,在可用性方面有了一些保证,但仍然是单服务器工作;在扩展和性能的提升上依旧没有什么帮助。

集群方案

Ecology系统HA集群方案及常见问题解决 目录: 一、常用的ecology 高可用环境部署架构 (2) 二、常见的负载均衡器(硬件和软件) (2) 三、常见的服务器类型 (3) 四、服务器配置建议 (3) 五、服务器操作系统分区建议 (3) 六、ecology系统安装部署 (3) 七、集群模式下https部署 (9) 八、常见问题及相应解决方法 (10)

一、常用的ecology 高可用环境部署架构 OA 系统部署拓扑示意图 二、常见的负载均衡器(硬件和软件) 首先说一下什么是负载均衡: 负载均衡说白了是一种代理,也就是说客户端访问应用服务器的统一入口点,客户端通过负载均衡(F5)来将请求转发到应用服务器,而不是客户端直接请求到应用服务器。负载均衡(F5)可以建立一个应用服务器资源池,然后根据不同的策略将请求分发到应用服务器资源池中的其中一台服务器中,进而应用服务器完成相关的业务请求工作。 注:负载均衡和集群之间的理解: 集群是指应用服务器之间的协同工作,应用服务器和应用服务器之间的业务交互,即ecology 系统之间的数据交互。 负载均衡指负载均衡设备和应用服务器之间的业务关系,它是将客户端请求通过负载均衡设备转发到应用服务器,应用服务器处理完毕后,将结果返回到负载均衡,然后负载均衡将结果返回到客户端。 常见的负载均衡设备: 硬件设备:F5、A10、ARRAY 、深信服、梭子鱼等等 软件设备:NGINX 、HAPROXY 、LVS 等等(注:LVS 用的不是太多) 针对我们的ecology 系统,以上负载均衡设备均可使用。 注:由于ecology 系统session 同步的局限性,负载均衡设备分发模式需要配置成:最小连接数模式。(硬件负载均衡) 针对于负载均衡的硬件设备可以咨询相应的硬件厂商,

负载均衡技术的三种实现方法

目前,网络应用正全面向纵深发展,企业上网和政府上网初见成效。随着网络技术的发展,教育信息网络和远程教学网络等也得到普及,各地都相继建起了教育信息网络,带动了网络应用的发展。 一个面向社会的网站,尤其是金融、电信、教育和零售等方面的网站,每天上网的用户不计其数,并且可能都同时并发访问同一个服务器或同一个文件,这样就很容易产生信息传输阻塞现象;加上Internet线路的质量问题,也容易引起出 现数据堵塞的现象,使得人们不得不花很长时间去访问一个站点,还可能屡次看到某个站点“服务器太忙”,或频繁遭遇系统故障。因此,如何优化信息系统的性能,以提高整个信息系统的处理能力是人们普遍关心的问题。 一、负载均衡技术的引入 信息系统的各个核心部分随着业务量的提高、访问量和数据流量的快速增长,其处理能力和计算强度也相应增大,使得单一设备根本无法承担,必须采用多台服务器协同工作,提高计算机系统的处理能力和计算强度,以满足当前业务量的需求。而如何在完成同样功能的多个网络设备之间实现合理的业务量分配,使之不会出现一台设备过忙、而其他的设备却没有充分发挥处理能力的情况。要解决这一问题,可以采用负载均衡的方法。 负载均衡有两个方面的含义:首先,把大量的并发访问或数据流量分担到多台节点设备上分别处理,减少用户等待响应的时间;其次,单个重负载的运算分担到多台节点设备上做并行处理,每个节点设备处理结束后,将结果汇总,再返回给用户,使得信息系统处理能力可以得到大幅度提高。 对一个网络的负载均衡应用,可以从网络的不同层次入手,具体情况要看对网络瓶颈所在之处的具体情况进行分析。一般来说,企业信息系统的负载均衡大体上都从传输链路聚合、采用更高层网络交换技术和设置服务器集群策略三个角度实现。 二、链路聚合——低成本的解决方案 为了支持与日俱增的高带宽应用,越来越多的PC机使用更加快速的方法连入网络。而网络中的业务量分布是不平衡的,一般表现为网络核心的业务量高,而边缘比较低,关键部门的业务量高,而普通部门低。伴随计算机处理能力的大幅度提高,人们对工作组局域网的处理能力有了更高的要求。当企业内部对高带宽应用需求不断增大时(例如Web访问、文档传输及内部网连接),局域网核心部位的数据接口将产生瓶颈问题,因此延长了客户应用请求的响应时间。并且局域网具有分散特性,网络本身并没有针对服务器的保护措施,一个无意的动作,像不小心踢掉网线的插头,就会让服务器与网络断开。 通常,解决瓶颈问题采用的对策是提高服务器链路的容量,使其满足目前的需求。例如可以由快速以太网升级到千兆以太网。对于大型网络来说,采用网络系统升级技术是一种长远的、有前景的解决方案。然而对于许多企业,当需求还没有大到非得花费大量的金钱和时间进行升级时,使用升级的解决方案就显得有些浪费

集群的负载均衡技术综述

集群的负载均衡技术综述 摘要:当今世界,无论在机构内部的局域网还是在广域网如Internet上,信息处理量的增长都远远超出了过去最乐观的估计,即使按照当时最优配置建设的网络,也很快会感到吃不消。如何在完成同样功能的多个网络设备之间实现合理的业务量分配,使之不致于出现一台设备过忙、而别的设备却未充分发挥处理能力的情况,负载均衡机制因此应运而生。本组在课堂上讲解了《集群监控与调度》这一课题,本人在小组内负责负载均衡部分内容,以及PPT的制作。 关键词:负载均衡集群网络计算机 一、前言 负载均衡建立在现有网络结构之上,它提供了一种廉价有效的方法扩展服务器带宽和增加吞吐量,加强网络数据处理能力,提高网络的灵活性和可用性。它主要完成以下任务:解决网络拥塞问题,服务就近提供,实现地理位置无关性;为用户提供更好的访问质量;提高服务器响应速度;提高服务器及其他资源的利用效率;避免了网络关键部位出现单点失效。 其实,负载均衡并非传统意义上的“均衡”,一般来说,它只是把有可能拥塞于一个地方的负载交给多个地方分担。如果将其改称为“负载分担”,也许更好懂一些。说得通俗一点,负载均衡在网络中的作用就像轮流值日制度,把任务分给大家来完成,以免让一个人累死累活。不过,这种意义上的均衡一般是静态的,也就是事先确定的“轮值”策略。 与轮流值日制度不同的是,动态负载均衡通过一些工具实时地分析数据包,掌握网络中的数据流量状况,把任务合理分配出去。结构上分为本地负载均衡和地域负载均衡(全局负载均衡),前一种是指对本地的服务器集群做负载均衡,后一种是指对分别放置在不同的地理位置、在不同的网络及服务器群集之间作负载均衡。 服务器群集中每个服务结点运行一个所需服务器程序的独立拷贝,诸如Web、FTP、Telnet或e-mail服务器程序。对于某些服务(如运行在Web服务器上的那些服务)而言,程序的一个拷贝运行在群集内所有的主机上,而网络负载均衡则将工作负载在这些主机间进行分配。对于其他服务(例如e-mail),只有一台主机处理工作负载,针对这些服务,网络负载均衡允许网络通讯量流到一个主机上,并在该主机发生故障时将通讯量移至其他主机。 二、负载均衡技术实现结构 在现有网络结构之上,负载均衡提供了一种廉价有效的方法扩展服务器带宽和增加吞吐量,加强网络数据处理能力,提高网络的灵活性和可用性。它主要完成以下任务: 1.解决网络拥塞问题,服务就近提供,实现地理位置无关性 2.为用户提供更好的访问质量 3.提高服务器响应速度

负载均衡集群系统解决方案

Linux负载均衡集群系统解决方案 行业: 跨行业 功能:Linux,负载均衡集群 供应商: 中国软件股份集团 方案正文: Linux虚拟服务器简介 基于中软Linux的虚拟服务器(Linux Virtual Server,即LVS)是一个具有高可用性特点的负载均衡集群系统。该系统可以提供与服务器节点的数量、性能成正比的负载能力,有效提高服务的吞吐量、可靠性、冗余度、适应性,性能价格比高。同时,LVS也是利用低端设备实现高端服务器性能的有效途径。 中软Linux虚拟服务器(Linux Virtual Server,即LVS)是建立在一个主控服务器(director)及若干真实服务器(real-server)所组成的集群之上。real-server负责实际提供服务,主控服务器根据指定的调度算法对real-server进行控制。而集群的结构对于用户来说是透明的,客户端只与单个的IP(集群系统的虚拟IP)进行通信,也就是说从客户端的视角来看,这里只存在单个服务器。 Real-server可以提供众多服务,如ftp, http, dns, telnet, nntp, smtp 等。主控服务器负责对Real-Server进行控制。客户端在向LVS发出服务请求时,Director会通过特定的调度算法来指定由某个Real-Server来应答请求,而客户端只与Load Balancer的IP(即虚拟IP,VIP)进行通信。 二、优点 *提高吞吐量:为获得更高的吞吐量,在LVS中增加real-servers,其开销只是线性增长;而如果我们选择更换一台更高性能的服务器来获得相当的吞吐量,其开销要大得多,而且被替换掉的旧服务器会造成资源的浪费。 *冗余:如果LVS中某real-server由于需要升级或其它原因而停止服务,其退出以及恢复工作,并不会造成整个LVS对客户端服务的中断。 *适应性:不管是需要吞吐量逐渐地变化(因日常事务量变化),还是快速地变化(因突发事务量变化),服务器数量的增减对于客户端都是透明的。 三、结构图

负载均衡软件实现与硬件实现方案

该文档是word2003—word2007兼容版 软件、硬件负载均衡部署方案 目录 1、硬件负载均衡之F5部署方案 (2) 1.1网络拓扑结构 (2) 1.2反向代理部署方式 (3) 2软件负载均衡方案 (4) 2.1负载均衡软件实现方式之一- URL重定向方式 (4) 2.2负载均衡软件实现方式之二- 基于DNS (5) 2.3负载均衡软件实现方式之三- LVS (8) 2.4负载均衡软件实现方式之四- 专业负载均衡软件 (16) 总结: (16)

1、硬件负载均衡之F5部署方案 对于所有的对外服务的服务器,均可以在BIG-IP上配置Virtual Server实现负载均衡,同时BIG-IP可持续检查服务器的健康状态,一旦发现故障服务器,则将其从负载均衡组中摘除。 BIG-IP利用虚拟IP地址(VIP由IP地址和TCP/UDP应用的端口组成,它是一个地址)来为用户的一个或多个目标服务器(称为节点:目标服务器的IP地址和TCP/UDP应用的端口组成,它可以是internet的私网地址)提供服务。因此,它能够为大量的基于TCP/IP的网络应用提供服务器负载均衡服务。根据服务类型不同分别定义服务器群组,可以根据不同服务端口将流量导向到相应的服务器。BIG-IP连续地对目标服务器进行L4到L7合理性检查,当用户通过VIP请求目标服务器服务时,BIG-IP根椐目标服务器之间性能和网络健康情况,选择性能最佳的服务器响应用户的请求。如果能够充分利用所有的服务器资源,将所有流量均衡的分配到各个服务器,我们就可以有效地避免“不平衡”现象的发生。 利用UIE+iRules可以将TCP/UDP数据包打开,并搜索其中的特征数据,之后根据搜索到的特征数据作相应的规则处理。因此可以根据用户访问内容的不同将流量导向到相应的服务器,例如:根据用户访问请求的URL将流量导向到相应的服务器。 1.1网络拓扑结构 网络拓扑结构如图所示:

windows下Tomcat负载均衡和集群配置

轻松实现Apache,Tomcat集群和负载均衡 作者:罗代均 ldj_work#https://www.sodocs.net/doc/7517711376.html,,转载请保持完整性 0,环境说明 Apache :apache_2.0.55 1 个 Tomcat: apache-tomcat-5.5.17 (zip版) 2个 mod_jk:: mod_jk-apache-2.0.55.so 1个 第一部分:负载均衡 负载均衡,就是apache将客户请求均衡的分给tomcat1,tomcat2....去处理 1.安装apche,tomcat https://www.sodocs.net/doc/7517711376.html,/下载Apache 2.0.55 https://www.sodocs.net/doc/7517711376.html,/download-55.cgi下载tomcat5.5 zip版本(解压即可,绿色版) https://www.sodocs.net/doc/7517711376.html,/tomcat/tomcat-connectors/jk/binaries/win32/jk-1.2.15/下载mod_jk,注意和 apache版本匹配 按照jdk,我的路径为:E:\ide\apache\Apache2 解压两份Tomcat, 路径分别为 E:\ide\tomcat1,E:\ide\tomcat2

下载mod_jk

2.修改Apache配置文件http.conf 在apache安装目录下conf目录中找到http.conf 在文件最后加上下面一句话就可以了 include "E:\ide\apache\Apache2\conf\mod_jk.conf"

2. http.conf 同目录下新建mod_jk.conf文件,内容如下 #加载mod_jk Module LoadModule jk_module modules/mod_jk-apache-2.0.55.so #指定 workers.properties文件路径 JkWorkersFile conf/workers.properties #指定那些请求交给tomcat处理,"controller"为在workers.propertise里指定的负载分配控制器JkMount /*.jsp controller 3.在http.conf同目录下新建 workers.properties文件,内容如下 worker.list = controller,tomcat1,tomcat2 #server 列表 #========tomcat1======== worker.tomcat1.port=8009 #ajp13 端口号,在tomcat下server.xml配置,默认8009 worker.tomcat1.host=localhost #tomcat的主机地址,如不为本机,请填写ip地址 worker.tomcat1.type=ajp13 worker.tomcat1.lbfactor = 1 #server的加权比重,值越高,分得的请求越多 #========tomcat2======== worker.tomcat2.port=9009 #ajp13 端口号,在tomcat下server.xml配置,默认8009 worker.tomcat2.host=localhost #tomcat的主机地址,如不为本机,请填写ip地址 worker.tomcat2.type=ajp13 worker.tomcat2.lbfactor = 1 #server的加权比重,值越高,分得的请求越多

负载均衡系统构架

负载均衡系统构架 负载均衡系统构架 【摘要】随着计算机网络和Internet应用的飞速发展,信息共享日益广泛化,并深入到人们工作和生活的各个领域。人们对信息共享的依赖正逐渐增强。而作为提供信息载体的服务器的压力也越来越大,对于电子商务、信息共享平台急需合理分配访问流量来减少服务器的压力。 本文对目前的负载均衡技术进行简单的阐述,并对现有均衡算法进行简单的比较,分析其不足之处。并采用LVS(Linux虚拟服务器)实现负载均衡的架构。采用Keepalived技术实现负载均衡的高可用性。并对LVS不同策略上实现的均衡结果进行详细的比较。最终完成对负载均衡系统的构建同时提供了详细的系统搭建步骤,为研究该方向的人员提供可靠的参考资料。 【关键词】负载均衡、LVS、Keepalived、高并发 中图分类号:TN711 文献标识码:A 文章编号: 简介 1.1背景 目前随着网络技术的迅速崛起,网络信息共享数据越来越大,访问量和数据流量的快速增长,所需的处理能力和运算强度也越来越大,使得单一的服务器设备根本无法承担。在此情况下,如果花大量的资金进行硬件方面的升级,会造成大量的资源浪费。并且对于下一次升级来说,将会投入更大的成本,如何才能利用现有资源,在少量的投入下解决该问题? 针对此情况而衍生出来的一种廉价有效透明的方法来扩展现有网络设备和服务器的带宽、增加吞吐量、加强网络数 据处理能力、提高网络的灵活性和可用性的技术就是负载均 衡(Load Balance)。 1.2负载均衡技术概述 负载均衡(又称为负载分担),英文名称为Load Balance,其

负载均衡软件实现方式

负载均衡软件实现方式之一- URL重定向方式 有一种用软件实现负载均衡的方式,是基于"URL重定向"的. 先看看什么是URL重定向: "简单的说,如果一个网站有正规的URL和别名URL,对别名URL进行重定向到正规URL,访问同一个网址,或者网站改换成了新的域名则把旧的域名重定向到新的域名,都叫URL 重定向" (https://www.sodocs.net/doc/7517711376.html,/service/host_faq.php) "很多网络协议都支持“重定向”功能,例如在HTTP协议中支持Location指令,接收到这个指令的浏览器将自动重定向到Location指明的另一个URL上。" (https://www.sodocs.net/doc/7517711376.html,/art/200604/25388.htm) 这种方式,对于简单的网站,如果网站是自己开发的,也在一定程度上可行.但是它存在着较多的问题: 1、“例如一台服务器如何能保证它重定向过的服务器是比较空闲的,并且不会再次发送Location指令,Location指令和浏览器都没有这方面的支持能力,这样很容易在浏览器上形成一种死循环。” 2、在哪里放LOCATION,也是一个问题。很有可能用户会访问系统的很多个不同URL,这个时候做起来会非常麻烦。并且,对URL的访问,有的时候是直接过来的,可以被重定向,有的时候是带着SESSION之类的,重定向就可能会出问题。并且,这种做法,将负载均衡这个系统级的问题放到了应用层,结果可能是麻烦多多。 3、这种方式一般只适用于HTTP方式,但是实际上有太多情况不仅仅是HTTP方式了,特别是用户如果在应用里面插一点流媒体之类的。 4、重定向的方式,效率远低于IP隧道。 5、这种方式,有的时候会伴以对服务器状态的检测,但往往也是在应用层面实现,从而实时性大打折扣。 实际上,这种方式是一种“对付”的解决方法,并不能真正用于企业级的负载均衡应用(这里企业级是指稍微复杂一点的应用系统) 可以看一下专业的负载均衡软件是如何来实现的: https://www.sodocs.net/doc/7517711376.html,/pcl/pcl_sis_theory.htm 对比一下可以发现,专业的负载均衡软件要更适用于正规应用,而重定向方式则比较适用于

集群和负载均衡的概念

集群和负载均衡的概念 什么是集群(Cluster) 所谓集群是指一组独立的计算机系统构成的多处理器系统,每台服务器都具有等价的地位,它们之间通过网络实现进程间的通信。应用程序可以通过网络共享内存进行消息传送,实现分布式计算机。集群也是指多台计算机共同协作运行一个应用。 可分为以下几种: (1)高可靠性(HA)。利用集群管理软件,当主服务器故障时,备份服务器能够自动接管主服务器的工作,并及时切换过去,以实现对用户的不间断服务。 (2)高性能计算(HP)。即充分利用集群中的每一台计算机的资源,实现复杂运算的并行处理,通常用于科学计算领域。 (3)负载平衡(Load Balance)。负载均衡就是集群功能其中的一种。即把负载压力根据某种算法合理分配到集群中的每一台计算机上,以减轻主服务器的压力,降低对主服务器的硬件和软件要求。 负载均衡是指将计算请求分配到集群中以使集群中的计算机的计算负载均衡。 负载均衡有两方面的含义: 1:大量的并发访问或数据流量分担到多台节点设备上分别处理,减少用户等待响应的时间。 2:单个重负载的运算分担到多台节点设备上做并行处理,每个节点设备处理结束后,将结果汇总,返回给用户,系统处理能力得到大幅度提高。实现起来可分为: (1)基于服务器软件的集群负载均衡。(在服务器上实现。) (2)NAT的集群负载均衡(在放火墙上,或在交换机上实现。) (3)基于DNS的集群负载均衡(在DNS服务器上实现。) (4)也可以用ISA放火墙实现集群负载均衡,但是需要有ISA服务器本人认为可行性不大。 基于服务器软件的集群负载均衡 microsoft的产品4种集群技术: 1:microsoft 集群服务(MSCS) 2:网络负载均衡(NLB) 3:组件负载均衡(CLB) 4:application center(应用负载均衡) linux 的集群技术:LVS(Linux VirtualServer) LVS对Linux的kernel进行了修改和增加所以要重新编译linux 内核。包名linux-2.4.20-ipvs-*.*.*.patch.gz 基与nat的集群负载均衡(在放火墙上,或在交换机上实现。) NAT(Network Address Translation 网络地址转换)简单地说就是将一个IP地址转换为另一个IP地址。一般用于内部地址与合法的转换。适用于解决Internet IP地址紧张、不想让网络外部知道内部网络结构等的场合下。 NAT负载均衡将一个外部IP地址映射为多个内部IP地址,对每次连接请求动态地转换为一个内部服务器的地址,将外部连接请求引到转换得到地址的那个服务器上,从而达到负载均衡的目的。 基于DNS的集群负载均衡(在DNS服务器上实现。) DNS负载均衡技术是在DNS服务器中为同一个主机名配置多个IP地址,在应答DNS查询时,DNS服务器对每个查询将以DNS文件中主机记录的IP地址按顺序返回不同的解析结果,将客户端的访问引导到不同的机器上去,使得不同的客户端访问不同的服务器,从而达到负载均衡的目的。

分布式与集群的区别

1、Linux集群主要分成三大类( 高可用集群,负载均衡集群,科学计算集群)(下面只介绍负载均衡集群) 负载均衡集群(Load Balance Cluster) 负载均衡系统:集群中所有的节点都处于活动状态,它们分摊系统的工作负载。一般Web服务器集群、数据库集群和应用服务器集群都属于这种类型。 负载均衡集群一般用于相应网络请求的网页服务器,数据库服务器。这种集群可以在接到请求时,检查接受请求较少,不繁忙的服务器,并把请求转到这些服务器上。从检查其他服务器状态这一点上看,负载均衡和容错集群很接近,不同之处是数量上更多。 2、负载均衡系统:负载均衡又有DNS负载均衡(比较常用)、IP负载均衡、反向代理负载均衡等,也就是在集群中有服务器A、B、C,它们都是互不影响,互不相干的,任何一台的机器宕了,都不会影响其他机器的运行,当用户来一个请求,有负载均衡器的算法决定由哪台机器来处理,假如你的算法是采用round算法,有用户a、b、c,那么分别由服务器A、B、C来处理; 3、分布式是指将不同的业务分布在不同的地方。 而集群指的是将几台服务器集中在一起,实现同一业务。 分布式中的每一个节点,都可以做集群。 而集群并不一定就是分布式的。 举例:就比如新浪网,访问的人多了,他可以做一个群集,前面放一个响应服务器,后面几台服务器完成同一业务,如果有业务访问的时候,响应服务器看哪台服务器的负载不是很重,就将给哪一台去完成。 而分布式,从窄意上理解,也跟集群差不多,但是它的组织比较松散,不像集群,有一个组织性,一台服务器垮了,其它的服务器可以顶上来。 分布式的每一个节点,都完成不同的业务,一个节点垮了,哪这个业务就不可访问了。

Web服务器集群负载均衡技术的应用与研究

Web服务器集群负载均衡技术的应用与研究 侯秀杰祝永志孔令鑫 (曲阜师范大学计算机科学学院,山东日照 276826 ) 摘要为了提高集群系统对用户的快速响应与整体吞吐量,必须采取一定的策略将Web访问均衡地分配到集群中的每一个服务器。基于此思想本文针对传统的单机思想给出了一种多机三层结构的负载均衡系统。实验结果表明了它在负载均衡方面的优越性。 关键词负载均衡;均衡策略;调度算法;Web服务器集群模型 1 引言 Internet的快速增长,特别是电子商务应用的发展,使Web应用成为目前最重要最广泛的应用,Web 服务器动态内容越来越流行。目前,网上信息交换量几乎呈指数增长,需要更高性能的Web服务器提供更多用户的Web服务,因此,Web服务器面临着访问量急剧增加的压力,对其处理能力和响应能力等带来更高的要求,如果Web 服务器无法满足大量Web访问服务,将无法为用户提供稳定、良好的网络应用服务。 由于客观存在的服务器物理内存、CPU 处理速度和操作系统等方面的影响因素,当大量突发的数据到达时,Web服务器无法完全及时处理所有的请求,造成应答滞后、请求丢失等,严重的导致一些数据包因延时而重发,使传输线路和服务器的负担再次增加。传统的方法是提高Web 服务器的CPU 处理速度和增加内存容量等硬件办法但无论如何增加Web 服务器硬件性能,均无法满足日益增加的对用户的访问服务能力。 面对日渐增加的Web 访问服务要求,必须对Web 服务器按一定策略进行负载分配。利用负载均衡[1]的技术,按照一定策略将Web 访问服务分配到几台服务器上,负载处理对用户透明,整体上对外如同一台Web 服务器为用户提供Web服务。 2 Web负载均衡结构 2.1 负载均衡 负载是一个抽象的概念,是表示系统繁忙程度,系统在一段时间空闲,该系统负载轻,系统在一段时间空忙,该系统负载重,影响系统负载的各种因数较多如果存在很多的数据包同时通过网络连向一台Web 服务器,也就是网络的速度比网络所连接的设备速度快的情况下,系统负载不断增加,直到最大。 目前提高Web 服务器性能,使其具有较强负载能力,主要有两种处理思想[2]: 1)单机思想 不断升级服务器硬件性能,每当负载增加,服务器随之升级。这随之将带来一些问题,首先,服务器向高档升级,花费资金较多;其次,升级频繁,机器切换造成服务中断,可能会导致整个服务中断;最后,每种架构的服务器升级总有一个极限限制。 2)多机思想 使用多台服务器提供服务,通过一定机制使它们共同分担系统负载,对单一的服务器没有太高的性能要求,系统负载增加,可以多增加服务器来分担。对用户而言,整个系统仿佛是一台单一的逻辑服务器,这样的系统能够提供较强的可扩展性和较好的吞吐性能。 为了适应当前急剧增长的Web访问,有别于传统的单机思想,解决单机思想带来的一系列问题,本文提出了一种基于权值的策略分配负载。 2.2 负载均衡实现设备[2]

用双机高可用集群还是使用负载均衡集群

用双机高可用集群还是使用负载均衡集群 北京麒麟博峰科技有限公司 2010年11月 1

目录 第一章问题描述 (1) 第二章基本的技术知识 (1) 2.1.HA高可用集群 (1) 2.2.Load Balance负载均衡集群 (2) 第三章该使用哪种集群 (3) I

第一章问题描述 系统工程师通常会对如何使用HA高可用集群,即“双机”,和负载均衡集群,比如KYLIN Netsphere等负载均衡设备,产生疑惑不解,通常在构筑服务器集群的时候,不合理的设计造成系统的整体效率不高、设备浪费或者维护的不便利,本文试图用最简单的方式解惑。 要解决这些问题,不惑者需要正确自我解答以下问题: 1.系统的并发是否是考虑的主要问题之一? 2.以后并发用户会不会急剧增长? 3.运营的软件是否是一个标准的三级架构或者多级架构(N-Tier)? 4.运营的软件的端口是否对应不同的业务? 5.不同的业务软件是否运行在不同的服务器设备上? 6.资金是否成为问题? 第二章基本的技术知识 2.1 HA高可用集群 HA(单字母发音, H A 不是“哈”)高可用集群主要是为了“保护”“特定资源”所开发的一种集群技术,这里所说的“特定资源”包含以下内容: 1)进程; 如果进程被杀死,即从系统角度上看,该进程没有了,那么,HA可以及时发现,并在 另外一个地方将部署好的进程启动;如果该进程僵死,即不工作了,可能由于软件设计 的不好,出现了死循环或者其他原因,但该进程还存在,这时HA是不能发现的,所以,有时候即使进程不响应了,HA并没有切换; 解决这个问题,只能依靠应用软件提供监控接口,并将该接口公布给HA开发商。我们 在市场中发现有些厂商的基于数据库的特别好使,有些公司的产品出现同样状况时却像 傻子一样,这个可能是不同的HA厂商和数据库厂商合作的深浅度有关。 2)网卡; 如果网卡完全挂掉,HA是可以发现并采用行动,但是工作的不正常,这种情况HA可 能不能发现,尤其是抖动的情况发生; 3)存储; 1

集群HA负载均衡技术

集群、双机、负载均衡、HA、HPC、NLB 1.1什么是集群 简单的说,集群(cluster)就是一组计算机,它们作为一个整体向用户提供一组网络资源。这些单个的计算机系统就是集群的节点(node)。 一个理想的集群是,用户从来不会意识到集群系统底层的节点,在他/她们看来,集群是一个系统,而非多个计算机系统。并且集群系统的管理员可以随意增加和删改集群系统的节点。 1.2 集群系统的主要优点: (1)高可扩展性: (2)高可用性HA:集群中的一个节点失效,它的任务可传递给其他节点。可以有效防止单点失效。 (3)高性能:负载平衡集群允许系统同时接入更多的用户。 (4)高性价比:可以采用廉价的符合工业标准的硬件构造高性能的系统。 2.1 集群系统的分类 虽然,根据集群系统的不同特征可以有多种分类方法,但是一般把集群系统分为两类: (1)、高可用(High Availability)集群,简称HA集群。 这类集群致力于提供高度可靠的服务。就是利用集群系统的容错性对外提供7*24小时不间断的服务,如高可用的文件服务器、数据库服务等关键应用。 负载均衡集群:使任务可以在集群中尽可能平均地分摊不同的计算机进行处理,充分利用集群的处理能力,提高对任务的处理效率。 在实际应用中这几种集群类型可能会混合使用,以提供更加高效稳定的服务。如在一个使用的网络流量负载均衡集群中,就会包含高可用的网络文件系统、高可用的网络服务。 (2)、性能计算(High Perfermance Computing)集群,简称HPC集群,也称为科学计算集群。 在这种集群上运行的是专门开发的并行应用程序,它可以把一个问题的

Linux平台Apache高可用双机集群Tomcat负载均衡集群配置手册

Linux平台Apache双机高可用集群 + Tomcat负载均衡集群配置手册

在这个配置手册中,使用的操作系统和软件清单如下: 操作系统: RedHat Enterprise Linux AS4 U4 64bit(安装时最好选择完全安装) 软件: jdk-1_5_0_15-linux-amd64.bin Tomcat5.5.26 httpd-2.0.63.tar.gz jakarta-tomcat-connectors-jk2-src-current.tar.gz ipvsadm-1.24.tar.gz libnet.tar.gz heartbeat-2.1.3-3.el4.centos.x86_64.rpm heartbeat-pils-2.1.3-3.el4.centos.x86_64.rpm heartbeat-stonith-2.1.3-3.el4.centos.x86_64.rpm 因为是linux操作系统,所以在安装软件时请使用对应自己操作系统内核的软件,这是整个集群成功的第一步。本配置手册中的软件都是对应RedHat Enterprise Linux AS4 U4 64bit 这个版本的软件。 jdk-1_5_0_15-linux-amd64.bin JAVA环境包使用的是64位1.5版 Tomcat版本为公司指定的5.5版本 Apache为2.0.63版 jakarta-tomcat-connectors-jk2-src-current.tar.gz 是连接Apache和Tomcat的连接插件,具体可以去Tomcat网站上查找下载 ipvsadm-1.24.tar.gz libnet.tar.gz 这两个是用于2台Apache服务器虚拟一个IP地址使用 heartbeat-2.1.3-3.el4.centos.x86_64.rpm heartbeat-pils-2.1.3-3.el4.centos.x86_64.rpm heartbeat-stonith-2.1.3-3.el4.centos.x86_64.rpm 这3个软件是用于2台Apache服务器之间的心跳检测

多台服务器负载均衡地实现方法

负载均衡是由多台服务器以对称的方式组成一个服务器集合,每台服务器都具有等价的地位,都可以单独对外提供服务而无须其他服务器的辅助。通过某种负载分担技术,将外部发送来的请求均匀分配到对称结构中的某一台服务器上,而接收到请求的服务器独立地回应客户的请求。均衡负载能够平均分配客户请求到服务器列阵,籍此提供快速获取重要数据,解决大量并发访问服务问题。这种群集技术可以用最少的投资获得接近于大型主机的性能。 网络负载均衡的优点 第一,网络负载均衡能将传入的请求传播到多达32台服务器上,即可以使用最多32台服务器共同分担对外的网络请求服务。网络负载均衡技术保证即使是在负载很重的情况下,服务器也能做出快速响应; 第二,网络负载均衡对外只需提供一个IP地址(或域名); 第三,当网络负载均衡中的一台或几台服务器不可用时,服务不会中断。网络负载均衡自动检测到服务器不可用时,能够迅速在剩余的服务器中重新指派客户机通讯。这项保护措施能够帮助你为关键的业务程序提供不中断的服务,并可以根据网络访问量的增加来相应地增加网络负载均衡服务器的数量; 第四,网络负载均衡可在普通的计算机上实现。 网络负载均衡的实现过程

在Windows Server 2003中,网络负载均衡的应用程序包括Internet信息服务(IIS)、ISA Server 2000防火墙与代理服务器、VPN虚拟专用网、终端服务器、Windows Media Services(Windows视频点播、视频广播)等服务。同时,网络负载均衡有助于改善服务器的性能和可伸缩性,以满足不断增长的基于Internet客户端的需求。 网络负载均衡可以让客户端用一个逻辑Internet名称和虚拟IP地址(又称群集IP 地址)访问群集,同时保留每台计算机各自的名称。下面,我们将在两台安装Windows Server 2003的普通计算机上,介绍网络负载均衡的实现及应用。 这两台计算机中,一台计算机名称为A,IP地址为192.168.0.7;另一台名为B,IP 地址为192.168.0.8。规划网络负载均衡专用虚拟IP地址为192.168.0.9。当正式应用时,客户机只需要使用IP地址192.168.0.9来访问服务器,网络服务均衡会根据每台服务器的负载情况自动选择192.168.0.7或者192.168.0.8对外提供服务。具体实现过程如下: 在实现网络负载均衡的每一台计算机上,只能安装TCP/IP协议,不要安装任何其他的协议(如IPX协议或者NetBEUI协议),这可以从“网络连接属性”中查看。 第一步,分别以管理员身份登录A机和B机,打开两台机的“本地连接”属性界面,勾选“此连接使用下列项目”中的“负载均衡”项并进入“属性”对话框,将IP地址都设为192.168.0.9(即负载均衡专用IP),将子网掩码设置为255.255.255.0;

相关主题