Nginx+Tomcat搭建高性能负载均衡集群

来源:互联网 发布:淘宝双十二报名入口 编辑:程序博客网 时间:2024/04/19 22:40

一、       工具


  nginx-1.8.0

  apache-tomcat-6.0.33


二、    目标


  实现高性能负载均衡的Tomcat集群:


  

 

三、    步骤


  1、首先下载Nginx,要下载稳定版:


  


  2、然后解压两个Tomcat,分别命名为apache-tomcat-6.0.33-1和apache-tomcat-6.0.33-2:


  


  3、然后修改这两个Tomcat的启动端口,分别为18080和28080,下面以修改第一台Tomcat为例,打开Tomcat的conf目录下的server.xml:


  


  共需修改3处端口:


  


  当然第二台Tomcat也一样,如下图:


  


  4、然后启动两个Tomcat,并访问,看是否正常:


  

  


  5、然后修改上面两个Tomcat的默认页面(为了区分下面到底访问的是那一台Tomcat,随便改一下即可):


  


  改完以后,进行访问,如下图:


  

  


  6、OK,现在我们可以开始配置Nginx来实现负载均衡了,其实非常的简单,只需要配置好Nginx的配置文件即可:


  


  配置如下(这里只进行了简单的配置,实际生产环境可以进行更详细完善配置):

[html] view plain copy
  1. worker_processes  1;#工作进程的个数,一般与计算机的cpu核数一致  
  2.   
  3. events {  
  4.     worker_connections  1024;#单个进程最大连接数(最大连接数=连接数*进程数)  
  5. }  
  6.   
  7. http {  
  8.     include       mime.types; #文件扩展名与文件类型映射表  
  9.     default_type  application/octet-stream;#默认文件类型  
  10.   
  11.     sendfile        on;#开启高效文件传输模式,sendfile指令指定nginx是否调用sendfile函数来输出文件,对于普通应用设为 on,如果用来进行下载等应用磁盘IO重负载应用,可设置为off,以平衡磁盘与网络I/O处理速度,降低系统的负载。注意:如果图片显示不正常把这个改成off。  
  12.       
  13.     keepalive_timeout  65; #长连接超时时间,单位是秒  
  14.   
  15.     gzip  on;#启用Gizp压缩  
  16.       
  17.     #服务器的集群  
  18.     upstream  netitcast.com {  #服务器集群名字   
  19.         server    127.0.0.1:18080  weight=1;#服务器配置   weight是权重的意思,权重越大,分配的概率越大。  
  20.         server    127.0.0.1:28080  weight=2;  
  21.     }     
  22.   
  23.     #当前的Nginx的配置  
  24.     server {  
  25.         listen       80;#监听80端口,可以改成其他端口  
  26.         server_name  localhost;##############   当前服务的域名  
  27.   
  28.     location / {  
  29.             proxy_pass http://netitcast.com;  
  30.             proxy_redirect default;  
  31.         }  
  32.           
  33.   
  34.         error_page   500 502 503 504  /50x.html;  
  35.         location = /50x.html {  
  36.             root   html;  
  37.         }  
  38.     }  
  39. }  

  核心配置如下:


  


  到此配置完成,下面开始演示负载均衡。


  7、首先,我们启动Nginx:


  


  8、然后我们即可输入:localhost/index.jsp查看运行状况了


  第一次访问,发现访问的是Tomcat2上的程序:


  


  然后刷新,访问的还是Tomcat2上的程序:


  


  再刷新,发现变为了Tomcat1上的程序:


  


  再刷新,发现又变为了Tomcat2上的程序:


  


  到此,我们利用Nginx已经实现了负载均衡的Tomcat集群。我们不断的刷新,发现访问Tomcat2的概率大概是Tomcat1的2倍,这是因为我们在Nginx中配置的两台Tomcat的权重起的作用,如下图:


  



四、    总结


  谁能想到实现一个高性能的负载均衡集群会如此简单。Nginx的功能如此强大,配置却如此简单,我们还有什么理由拒绝它呢?这比我们动不动就十多万至几十万人民币的F5 BIG-IP、NetScaler等硬件负载均衡交换机廉价了不知多少。此外,大家别忘了Nginx不仅仅是一个反向代理服务器,它本身也可以托管网站,作为Web服务器,进行Http服务处理。


Windows下Nginx的启动、停止等命令

在Windows下使用Nginx,我们需要掌握一些基本的操作命令,比如:启动、停止Nginx服务,重新载入Nginx等,下面我就进行一些简单的介绍。
1、启动:

C:\server\nginx-1.0.2>start nginx

C:\server\nginx-1.0.2>nginx.exe

注:建议使用第一种,第二种会使你的cmd窗口一直处于执行中,不能进行其他命令操作。

2、停止:

C:\server\nginx-1.0.2>nginx.exe -s stop

C:\server\nginx-1.0.2>nginx.exe -s quit


注:stop是快速停止nginx,可能并不保存相关信息;quit是完整有序的停止nginx,并保存相关信息。

3、重新载入Nginx:

C:\server\nginx-1.0.2>nginx.exe -s reload

当配置信息修改,需要重新载入这些配置时使用此命令。

4、重新打开日志文件:

C:\server\nginx-1.0.2>nginx.exe -s reopen

5、查看Nginx版本:

C:\server\nginx-1.0.2>nginx -




nginx的upstream目前支持4种方式的分配

1、轮询(默认)

每个请求按时间顺序逐一分配到不同的后端服务器,如果后端服务器down掉,能自动剔除。

2、weight

指定轮询几率,weight和访问比率成正比,用于后端服务器性能不均的情况。 例如:

upstream bakend {server 192.168.0.14 weight=10;server 192.168.0.15 weight=10;}

2、ip_hash

每个请求按访问ip的hash结果分配,这样每个访客固定访问一个后端服务器,可以解决session的问题。 例如:

upstream bakend {ip_hash;server 192.168.0.14:88;server 192.168.0.15:80;}

3、fair(第三方)

按后端服务器的响应时间来分配请求,响应时间短的优先分配。

upstream backend {server server1;server server2;fair;}

4、url_hash(第三方)

按访问url的hash结果来分配请求,使每个url定向到同一个后端服务器,后端服务器为缓存时比较有效。

例:在upstream中加入hash语句,server语句中不能写入weight等其他的参数,hash_method是使用的hash算法

upstream backend {server squid1:3128;server squid2:3128;hash $request_uri;hash_method crc32;}

tips:

upstream bakend{#定义负载均衡设备的Ip及设备状态ip_hash;server 127.0.0.1:9090 down;server 127.0.0.1:8080 weight=2;server 127.0.0.1:6060;server 127.0.0.1:7070 backup;}

在需要使用负载均衡的server中增加

proxy_pass http://bakend/;

每个设备的状态设置为:

1.down 表示单前的server暂时不参与负载 2.weight 默认为1.weight越大,负载的权重就越大。 3.max_fails :允许请求失败的次数默认为1.当超过最大次数时,返回proxy_next_upstream 模块定义的错误 4.fail_timeout:max_fails次失败后,暂停的时间。 5.backup: 其它所有的非backup机器down或者忙的时候,请求backup机器。所以这台机器压力会最轻。

nginx支持同时设置多组的负载均衡,用来给不用的server来使用。

  • client_body_in_file_only 设置为On 可以讲client post过来的数据记录到文件中用来做debug
  • client_body_temp_path 设置记录文件的目录 可以设置最多3层目录

location 对URL进行匹配.可以进行重定向或者进行新的代理 负载均衡




   现在网站发展的趋势对网络负载均衡的使用是随着网站规模的提升根据不同的阶段来使用不同的技术:  

1.硬件级别负载均衡

   这种负载均衡是通过硬件来进行,常见的硬件有比较昂贵的NetScaler、F5、Radware和Array等商用的负载均衡器。硬件负载均衡是OSI第四层(传输层)上的应用

它的优点就是有专业的维护团队来对这些服务进行维护、缺点就是花销太大,所以对于规模较小的网络服务来说暂时还没有需要使用;

2.软件级别的负载均衡 

      软件级别负载均衡,比如LVS/HAProxy、Nginx等基于Linux的开源免费的负载均衡软件。软件负载均衡是OSI第七层(应用层)的应用。第七层负载均衡控制应用层服务的内容,提供了一种对访问流量的高层控制方式,适合对HTTP服务器群的应用。第七层负载均衡技术通过检查流经的HTTP报头,根据报头内的信息来执行负载均衡任务。

第七层负载均衡优点表现在如下几个方面:

1、通过对HTTP报头的检查,可以检测出HTTP400、500和600系列的错误信息,因而能透明地将连接请求重新定向到另一台服务器,避免应用层故障。

2、可根据流经的数据类型(如判断数据包是图像文件、压缩文件或多媒体文件格式等),把数据流量引向相应内容的服务器来处理,增加系统性能。

3、能根据连接请求的类型,如是普通文本、图象等静态文档请求,还是asp、cgi等的动态文档请求,把相应的请求引向相应的服务器来处理,提高系统的性能及安全性。

     缺点: 第七层负载均衡受到其所支持的协议限制(一般只有HTTP),这样就限制了它应用的广泛性,并且检查HTTP报头会占用大量的系统资源,势必会影响到系统的性能,

 在大量连接请求的情况下,负载均衡设备自身容易成为网络整体性能的瓶颈


    一般而言,硬件负载均衡在功能、性能上优于软件方式,不过成本昂贵。


0 0
原创粉丝点击