本文介绍在Docker上配置简单的负载均衡,宿主机为Ubuntu 14.04.2 LTS,两个CentOS容器,宿主机安装Nginx,两台容器安装tomcat7。结构如下: 此方案的原理是将宿主机的端口和docker容器的端口做一个映射(即访问宿主机的某端口会映射到docker容器对应的端口),然后在宿主机通过配置Nginx,即可达到访问宿主机的某端口,按规则分配到指定的服务地址,即完成了负载均衡。
配置步骤
1.准备宿主机,宿主机是Ubuntu 14.04.2 LTS,安装在Vmware中,具体安装方式不做赘述。
2.在宿主机中安装Nginx,直接用如下命令即可。
sudo apt-get install nginx
安装完成后,可以查看Nginx是否安装完成,可以用如下命令查看版本,打印出Nginx版本,则说明安装成功。
$ nginx -v<br> nginx version: nginx/1.4.6 (Ubuntu)
之后,可以用如下命令启动Nginx服务:
#启动服务 $ sudo service nginx start #查看服务状态 $ sudo service nginx status * nginx is running #说明服务是启动状态
在浏览器中访问http://localhost,显示结果如下:
3.下载Docker镜像,用docker pull命令即可,具体镜像操作可参看这篇文章
4.启动一个容器并设置端口映射,其中一台命令如下:
sudo docker run -t -i -p 3222:22 -p 3280:80 87e5b6b3ccc1 /bin/bash
上面的命令是以标准的bash输出方式启动一个容器,设置端口映射,用-p参数,-p 宿主机端口:docker容器端口 ,上面的命令是设置宿主机的3222端口映射到容器的22端口,设置宿主机的3280的端口映射到容器的80端口。
5.在容器中安装jre和tomcat7.0,安装jre
wget -O jre-7u6-linux-x64.rpm http://javadl.sun.com/webapps/download/AutoDL?BundleId=67387 yum install jre-7u6-linux-x64.rpm
查看jre是否安装成功
java -version java version "1.7.0_06" Java(TM) SE Runtime Environment (build 1.7.0_06-b24) Java HotSpot(TM) 64-Bit Server VM (build 23.2-b09, mixed mode)
安装tomcat7.0
wget http://apache.fayea.com/tomcat/tomcat-7/v7.0.65/bin/apache-tomcat-7.0.65.tar.gz tar -zxvf apache-tomcat-7.0.65.tar.gz
启动tomcat,进入解压目录,cd到bin目录,执行命令并输入如下信息,说明tomcat启动成功
bash startup.sh Using CATALINA_BASE: /home/apache-tomcat-7.0.65 Using CATALINA_HOME: /home/apache-tomcat-7.0.65 Using CATALINA_TMPDIR: /home/apache-tomcat-7.0.65/temp Using JRE_HOME: /usr Using CLASSPATH: /home/apache-tomcat-7.0.65/bin/bootstrap.jar:/home/apache-tomcat-7.0.65/bin/tomcat-juli.jar Tomcat started.
由于tomcat默认端口是8080,这里设置的是80端口,所以,需要修改默认端口到80,进入tomcat安装目录的conf目录,用vi打开server.xml文件,将如下配置
<Connector port="8080" protocol="HTTP/1.1" connectionTimeout="20000" redirectPort="8443" />
修改为
<Connector port="80" protocol="HTTP/1.1" connectionTimeout="20000" redirectPort="8443" />
之后,在这台docker容器中,访问http://localhost,可以访问到tomcat主页,说明tomcat安装并配置成功。
6.进入tomcat的webapps/ROOT目录中,由于这个容器的ip为172.17.0.2,创建一个hello.html文件,在文件中写上如下内容“hello this is 172.17.0.2”,然后在宿主机访问http://172.17.0.2/hello.html,显示内容如下:
7.同上面的步骤一致,配置另外一台容器,只是容器启动时设置的映射端口有所区别,命令如下: sudo docker run -t -i -p 3322:22 -p 3380:80 87e5b6b3ccc1 /bin/bash
最后在这台容器tomcat安装目录的webapps/ROOT目录下创建hello.html文件,因为这台容器的ip为172.17.0.3,所以hello.html文件中填入的内容为“hello this is 170.17.0.3”,之后在宿主机访问http://172.17.0.3/hello.html,显示如下内容:
8.容器配置完成后,剩下的工作就是配置宿主机的Nginx,用来完成负载均衡工作。
进入/etc/nginx目录,用vim编辑nginx.conf,在http节点中增加如下内容:
server { listen 80; server_name 192.168.1.106; location / { proxy_pass http://blance; } } upstream blance{ server localhost:3280 weight=5; server localhost:3380 weight=5; }
首先定义一个upstream,设置web服务器的端口映射和权重,之后定义一个server,监听80端口,server_name为192.168.1.106,这是宿主机的ip地址(可配置成域名),“location /” 意思是监听80端口下的所有请求,并使用上面设置的upstream作为代理。
9.完成以上配置并保存后,在浏览器中访问http://192.168.1.106/hello.html,并刷新页面,会发现页面有时显示“hello this is 172.17.0.3”,有时显示“hello this is 172.17.0.2”,说明配置成功,这样就完成了一个简单的负载均衡环境的配置。
Nginx+Tomcat 负载均衡集群方案
该方案是我之前做过的一个项目生产应用的,目前运行良好,如何您生产使用,请先做好测试。
系统架构图 下载软件包
" ][root@Nginx-node1 src]# cd /usr/local/src [root@Nginx-node1 src]# wget ftp://ftp.csx.cam.ac.uk/pub/software/programming/pcre/pcre-8.02.tar.gz [root@Nginx-node1 src]# wget http://nginx.org/download/nginx-0.8.34.tar.gz [root@Nginx-node1 src]# wget http://www.keepalived.org/software/keepalived-1.1.19.tar.gz [root@Nginx-node1 src]# chmod +x * [root@Nginx-node1 src]# ls -l -rwxr-xr-x 1 root root 241437 10-01 17:25 keepalived-1.1.19.tar.gz -rwxr-xr-x 1 root root 621534 03-04 01:00 nginx-0.8.34.tar.gz -rwxr-xr-x 1 root root 1247730 03-31 16:31 pcre-8.02.tar.gz
" ][root@Nginx-node1 src]# cd /usr/local/src [root@Nginx-node1 src]# wget ftp://ftp.csx.cam.ac.uk/pub/software/programming/pcre/pcre-8.02.tar.gz [root@Nginx-node1 src]# wget http://nginx.org/download/nginx-0.8.34.tar.gz [root@Nginx-node1 src]# wget http://www.keepalived.org/software/keepalived-1.1.19.tar.gz [root@Nginx-node1 src]# chmod +x * [root@Nginx-node1 src]# ls -l -rwxr-xr-x 1 root root 241437 10-01 17:25 keepalived-1.1.19.tar.gz -rwxr-xr-x 1 root root 621534 03-04 01:00 nginx-0.8.34.tar.gz -rwxr-xr-x 1 root root 1247730 03-31 16:31 pcre-8.02.tar.gz
安装Nginx
安装Nginx依赖的包
" ][root@Nginx-node1 src]# tar zxvf pcre-8.02.tar.gz [root@Nginx-node1 src]# cd pcre-8.02 [root@Nginx-node1 pcre-8.02]# ./configure [root@Nginx-node1 pcre-8.02]# make && make install
" ][root@Nginx-node1 src]# tar zxvf pcre-8.02.tar.gz [root@Nginx-node1 src]# cd pcre-8.02 [root@Nginx-node1 pcre-8.02]# ./configure [root@Nginx-node1 pcre-8.02]# make && make install
安装Nginx
" ][root@Nginx-node1 pcre-8.02]# cd ../ [root@Nginx-node1 src]# tar zxvf nginx-0.8.34.tar.gz [root@Nginx-node1 src]# cd nginx-0.8.34 [root@Nginx-node1 nginx-0.8.34]# ./configure --prefix=/usr/local/nginx \ > --with-http_stub_status_module \ > --with-http_ssl_module [root@Nginx-node1 nginx-0.8.34]# make && make install [root@Nginx-node1 ~]# vim /usr/local/nginx/conf/nginx.conf
" ][root@Nginx-node1 pcre-8.02]# cd ../ [root@Nginx-node1 src]# tar zxvf nginx-0.8.34.tar.gz [root@Nginx-node1 src]# cd nginx-0.8.34 [root@Nginx-node1 nginx-0.8.34]# ./configure --prefix=/usr/local/nginx \ > --with-http_stub_status_module \ > --with-http_ssl_module [root@Nginx-node1 nginx-0.8.34]# make && make install [root@Nginx-node1 ~]# vim /usr/local/nginx/conf/nginx.conf
Nginx 配置文件 " ]user website website; worker_processes 4;
error_log logs/error.log; pid logs/nginx.pid; worker_rlimit_nofile 65535;
events { use epoll; worker_connections 10240; } http { include mime.types; default_type application/octet-stream; server_names_hash_bucket_size 128; client_header_buffer_size 32k; large_client_header_buffers 4 32k; client_max_body_size 8m; sendfile on; tcp_nopush on; keepalive_timeout 60; tcp_nodelay on;
gzip on; gzip_min_length 1k; gzip_buffers 4 16k; gzip_http_version 1.0; gzip_comp_level 2; gzip_types text/plain application/x-javascript text/css application/xml; gzip_vary on;
server_tokens off;
upstream web #设置web集群池 { ip_hash; # server 192.168.0.141:8080; server 192.168.0.142:8080; server 192.168.0.143:8080; server 192.168.0.144:8080; server 192.168.0.145:8080; server 192.168.0.146:8080;
}
upstream wap #设置wap集群池 { ip_hash; server 192.168.0.151:8080; server 192.168.0.152:8080; server 192.168.0.153:8080; server 192.168.0.154:8080; server 192.168.0.155:8080; server 192.168.0.156:8080;
}
server { listen 80; server_name www.***.com;
location / { root html; index index.html index.htm; proxy_redirect off; proxy_set_header Host $host; proxy_set_header X-Real-IP $remote_addr; proxy_set_header X-Forwarded-For $proxy_add_x_forwarded_for; proxy_pass http://web; #注意设置在这里 }
error_page 500 502 503 504 /50x.html; location = /50x.html { root html; }
}
server { listen 80; server_name wap.***.com;
location / { root html; index index.html index.htm; proxy_redirect off; proxy_set_header Host $host; proxy_set_header X-Real-IP $remote_addr; proxy_set_header X-Forwarded-For $proxy_add_x_forwarded_for; proxy_pass http://wap; #注意:设置在这里 } error_page 500 502 503 504 /50x.html; location = /50x.html { root html; }
} }
" ]user website website; worker_processes 4; error_log logs/error.log; pid logs/nginx.pid; worker_rlimit_nofile 65535; events { use epoll; worker_connections 10240; } http { include mime.types; default_type application/octet-stream; server_names_hash_bucket_size 128; client_header_buffer_size 32k; large_client_header_buffers 4 32k; client_max_body_size 8m; sendfile on; tcp_nopush on; keepalive_timeout 60; tcp_nodelay on; gzip on; gzip_min_length 1k; gzip_buffers 4 16k; gzip_http_version 1.0; gzip_comp_level 2; gzip_types text/plain application/x-javascript text/css application/xml; gzip_vary on; server_tokens off; upstream web #设置web集群池 { ip_hash; # server 192.168.0.141:8080; server 192.168.0.142:8080; server 192.168.0.143:8080; server 192.168.0.144:8080; server 192.168.0.145:8080; server 192.168.0.146:8080; } upstream wap #设置wap集群池 { ip_hash; server 192.168.0.151:8080; server 192.168.0.152:8080; server 192.168.0.153:8080; server 192.168.0.154:8080; server 192.168.0.155:8080; server 192.168.0.156:8080; } server { listen 80; server_name www.***.com; location / { root html; index index.html index.htm; proxy_redirect off; proxy_set_header Host $host; proxy_set_header X-Real-IP $remote_addr; proxy_set_header X-Forwarded-For $proxy_add_x_forwarded_for; proxy_pass http://web; #注意设置在这里 } error_page 500 502 503 504 /50x.html; location = /50x.html { root html; } } server { listen 80; server_name wap.***.com; location / { root html; index index.html index.htm; proxy_redirect off; proxy_set_header Host $host; proxy_set_header X-Real-IP $remote_addr; proxy_set_header X-Forwarded-For $proxy_add_x_forwarded_for; proxy_pass http://wap; #注意:设置在这里 } error_page 500 502 503 504 /50x.html; location = /50x.html { root html; } } }
Nginx Upstream支持的分配方法
nginx的upstream目前支持5种方式的分配
*1.轮询(默认)
每个请求按时间顺序逐一分配到不同的后端服务器,如果后端服务器down掉,能自动剔除。
*2.weight (带权重的)
指定轮询权重,weight和访问比率成正比,用于后端服务器性能不均的情况。
例如:
" ]upstream bakend { server 192.168.0.141 weight=10; server 192.168.0.142 weight=10; }
" ]upstream bakend { server 192.168.0.141 weight=10; server 192.168.0.142 weight=10; }
*3.ip_hash
每个请求按访问ip的hash结果分配,这样每个访客固定访问一个后端服务器,可以解决session的问题。
例如:
" ]upstream bakend { ip_hash; server 192.168.0.151:80; server 192.168.0.152:80; }
" ]upstream bakend { ip_hash; server 192.168.0.151:80; server 192.168.0.152:80; }
*4.fair(第三方)
按后端服务器的响应时间来分配请求,响应时间短的优先分配。
" ]upstream backend { server server1; server server2; fair; }
" ]upstream backend { server server1; server server2; fair; }
*5.url_hash(第三方)
按访问url的hash结果来分配请求,使每个url定向到同一个后端服务器,后端服务器为缓存时比较有效。
例:在upstream中加入hash语句,server语句中不能写入weight等其他的参数,hash_method是使用的hash算法
" ]upstream backend { server squid1:3128; server squid2:3128; hash $request_uri; hash_method crc32; }
" ]upstream backend { server squid1:3128; server squid2:3128; hash $request_uri; hash_method crc32; }
*设置说明:
每个设备的状态设置为:
1.down 表示单前的server暂时不参与负载 2.weight 默认为1.weight越大,负载的权重就越大。 3.max_fails :允许请求失败的次数默认为1.当超过最大次数时,返回proxy_next_upstream 模块定义的错误 4.fail_timeout:max_fails次失败后,暂停的时间。 5.backup: 其它所有的非backup机器down或者忙的时候,请求backup机器。所以这台机器压力会最轻。 nginx支持同时设置多组的负载均衡,用来给不用的server来使用。 client_body_in_file_only 设置为On 可以讲client post过来的数据记录到文件中用来做debug client_body_temp_path 设置记录文件的目录 可以设置最多3层目录 location 对URL进行匹配.可以进行重定向或者进行新的代理 负载均衡
|