Nginx实战-后端应用健康检查

摘要:
utm_source=tuicool&utm_medium=referral公司前一段对业务线上的nginx做了整理,重点就是对nginx上负载均衡器的后端节点做健康检查。比如如果将max_fails设置为0,则代表不对后端服务器进行健康检查,这样还会使fail_timeout参数失效。

原文链接:http://nolinux.blog.51cto.com/4824967/1594029?utm_source=tuicool&utm_medium=referral

公司前一段对业务线上的nginx做了整理,重点就是对nginx上负载均衡器的后端节点做健康检查。目前,nginx对后端节点健康检查的方式主要有3种,这里列出:

1
2
3
4
5
6
1、ngx_http_proxy_module模块和ngx_http_upstream_module模块(自带)
官网地址:http://nginx.org/cn/docs/http/ngx_http_proxy_module.html#proxy_next_upstream
2、nginx_upstream_check_module模块
官网网址:https://github.com/yaoweibin/nginx_upstream_check_module
3、ngx_http_healthcheck_module模块
官网网址:http://wiki.nginx.org/NginxHttpHealthcheckModule

公司业务线上对后端节点的健康检查是通过nginx_upstream_check_module模块做的,这里我将分别介绍这三种实现方式以及之间的差异性。

一、ngx_http_proxy_module 模块和ngx_http_upstream_module模块(自带)

严格来说,nginx自带是没有针对负载均衡后端节点的健康检查的,但是可以通过默认自带的ngx_http_proxy_module 模块和ngx_http_upstream_module模块中的相关指令来完成当后端节点出现故障时,自动切换到健康节点来提供访问。

这里列出这两个模块中相关的指令:

ngx_http_proxy_module 模块中的proxy_connect_timeout 指令、proxy_read_timeout指令和proxy_next_upstream指令

1
2
3
语法: proxy_connect_timeouttime;
默认值: proxy_connect_timeout60s;
上下文: http,server,location

设置与后端服务器建立连接的超时时间。应该注意这个超时一般不可能大于75秒。

1
2
3
语法: proxy_read_timeouttime;
默认值: proxy_read_timeout60s;
上下文: http,server,location

定义从后端服务器读取响应的超时。此超时是指相邻两次读操作之间的最长时间间隔,而不是整个响应传输完成的最长时间。如果后端服务器在超时时间段内没有传输任何数据,连接将被关闭。

1
2
3
语法: proxy_next_upstreamerror|timeout|invalid_header|http_500|http_502|http_503|http_504|http_404|off...;
默认值: proxy_next_upstreamerrortimeout;
上下文: http,server,location

指定在何种情况下一个失败的请求应该被发送到下一台后端服务器:

1
2
3
4
5
6
7
8
9
error#和后端服务器建立连接时,或者向后端服务器发送请求时,或者从后端服务器接收响应头时,出现错误
timeout#和后端服务器建立连接时,或者向后端服务器发送请求时,或者从后端服务器接收响应头时,出现超时
invalid_header#后端服务器返回空响应或者非法响应头
http_500#后端服务器返回的响应状态码为500
http_502#后端服务器返回的响应状态码为502
http_503#后端服务器返回的响应状态码为503
http_504#后端服务器返回的响应状态码为504
http_404#后端服务器返回的响应状态码为404
off#停止将请求发送给下一台后端服务器

需要理解一点的是,只有在没有向客户端发送任何数据以前,将请求转给下一台后端服务器才是可行的。也就是说,如果在传输响应到客户端时出现错误或者超时,这类错误是不可能恢复的。

范例如下:

1
2
3
http{
proxy_next_upstreamhttp_502http_504http_404errortimeoutinvalid_header;
}

ngx_http_upstream_module模块中的server指令

1
2
3
语法: serveraddress[parameters];
默认值: —
上下文: upstream

范例如下:

1
2
3
4
upstreamname{
server10.1.1.110:8080max_fails=1fail_timeout=10s;
server10.1.1.122:8080max_fails=1fail_timeout=10s;
}

下面是每个指令的介绍:

1
2
3
4
5
6
max_fails=number#设定Nginx与服务器通信的尝试失败的次数。在fail_timeout参数定义的时间段内,如果失败的次数达到此值,Nginx就认为服务器不可用。在下一个fail_timeout时间段,服务器不会再被尝试。失败的尝试次数默认是1。设为0就会停止统计尝试次数,认为服务器是一直可用的。你可以通过指令proxy_next_upstream、fastcgi_next_upstream和memcached_next_upstream来配置什么是失败的尝试。默认配置时,http_404状态不被认为是失败的尝试。
fail_timeout=time#设定服务器被认为不可用的时间段以及统计失败尝试次数的时间段。在这段时间中,服务器失败次数达到指定的尝试次数,服务器就被认为不可用。默认情况下,该超时时间是10秒。
在实际应用当中,如果你后端应用是能够快速重启的应用,比如nginx的话,自带的模块是可以满足需求的。但是需要注意。如果后端有不健康节点,负载均衡器依然会先把该请求转发给该不健康节点,然后再转发给别的节点,这样就会浪费一次转发。
可是,如果当后端应用重启时,重启操作需要很久才能完成的时候就会有可能拖死整个负载均衡器。此时,由于无法准确判断节点健康状态,导致请求handle住,出现假死状态,最终整个负载均衡器上的所有节点都无法正常响应请求。由于公司的业务程序都是java开发的,因此后端主要是nginx集群和tomcat集群。由于tomcat重启应部署上面的业务不同,有些业务启动初始化时间过长,就会导致上述现象的发生,因此不是很建议使用该模式。
并且ngx_http_upstream_module模块中的server指令中的max_fails参数设置值,也会和ngx_http_proxy_module模块中的的proxy_next_upstream指令设置起冲突。比如如果将max_fails设置为0,则代表不对后端服务器进行健康检查,这样还会使fail_timeout参数失效(即不起作用)。此时,其实我们可以通过调节ngx_http_proxy_module模块中的proxy_connect_timeout指令、proxy_read_timeout指令,通过将他们的值调低来发现不健康节点,进而将请求往健康节点转移。
以上就是nginx自带的两个和后端健康检查相关的模块。

二、nginx_upstream_check_module模块

除了自带的上述模块,还有一个更专业的模块,来专门提供负载均衡器内节点的健康检查的。这个就是淘宝技术团队开发的 nginx 模块 nginx_upstream_check_module,通过它可以用来检测后端 realserver 的健康状态。如果后端 realserver 不可用,则所以的请求就不会转发到该节点上。

在淘宝自己的 tengine 上是自带了该模块的,大家可以访问淘宝tengine的官网来获取该版本的nginx,官方地址:http://tengine.taobao.org/

如果我们没有使用淘宝的 tengine 的话,可以通过补丁的方式来添加该模块到我们自己的 nginx 中。我们业务线上就是采用该方式进行添加的。

下面是部署流程!

1、下载nginx_upstream_check_module模块

1
2
3
4
5
[root@localhost~]#cd/usr/local/src
wgethttps://codeload.github.com/yaoweibin/nginx_upstream_check_module/zip/master
unzipmaster
[root@localhost/usr/local/src]#ll-dnginx_upstream_check_module-master
drwxr-xr-x.6rootroot4096Dec102:28nginx_upstream_check_module-master

2、为nginx打补丁

1
2
3
4
5
6
7
8
[root@localhost/usr/local/src]#cdnginx-1.6.0#进入nginx的源码目录

给nginx打补丁(根据nginx版本号选择补丁包)

[root@localhostnginx-1.6.0]#patch-p1<../nginx_upstream_check_module-master/check_1.5.12+.patch

[root@localhostnginx-1.6.0]#./configure--user=nginx--group=nginx--prefix=/usr/local/nginx-1.6.0--with-http_ssl_module--with-openssl=/usr/local/src/openssl-0.9.8q--with-pcre=/usr/local/src/pcre-8.32--add-module=/usr/local/src/nginx_concat_module/--add-module=../nginx_upstream_check_module-master/
make(注意:此处只make,编译参数需要和之前的一样)
[root@localhostnginx-1.6.0]#mv/usr/local/nginx/sbin/nginx/usr/local/nginx/sbin/nginx-1.6.0.bak
[root@localhostnginx-1.6.0]#cp./objs/nginx/usr/local/nginx/sbin/
[root@localhostnginx-1.6.0]#/usr/local/nginx/sbin/nginx-t#检查下是否有问题
[root@localhostnginx-1.6.0]#kill-USR2`cat/usr/local/nginx/logs/nginx.pid`

3、在nginx.conf配置文件里面的upstream加入健康检查,如下:

1
2
3
4
5
6
upstreamname{
server192.168.0.21:80;
server192.168.0.22:80;
checkinterval=3000rise=2fall=5timeout=1000type=http;
}

上面配置的意思是,对name这个负载均衡条目中的所有节点,每个3秒检测一次,请求2次正常则标记 realserver状态为up,如果检测 5 次都失败,则标记 realserver的状态为down,超时时间为1秒。

这里列出nginx_upstream_check_module模块所支持的指令意思:

1
2
3
Syntax:checkinterval=milliseconds[fall=count][rise=count][timeout=milliseconds][default_down=true|false][type=tcp|http|ssl_hello|mysql|ajp][port=check_port]
Default:如果没有配置参数,默认值是:interval=30000fall=5rise=2timeout=1000default_down=truetype=tcp
Context:upstream

该指令可以打开后端服务器的健康检查功能。

指令后面的参数意义是:

1
2
3
4
5
6
7
8
9
10
11
12
-interval:向后端发送的健康检查包的间隔。
-fall(fall_count):如果连续失败次数达到fall_count,服务器就被认为是down。
-rise(rise_count):如果连续成功次数达到rise_count,服务器就被认为是up。
-timeout:后端健康请求的超时时间。
-default_down:设定初始时服务器的状态,如果是true,就说明默认是down的,如果是false,就是up的。默认值是true,也就是一开始服务器认为是不可用,要等健康检查包达到一定成功次数以后才会被认为是健康的。
-type:健康检查包的类型,现在支持以下多种类型
-tcp:简单的tcp连接,如果连接成功,就说明后端正常。
-ssl_hello:发送一个初始的SSLhello包并接受服务器的SSLhello包。
-http:发送HTTP请求,通过后端的回复包的状态来判断后端是否存活。
-mysql:向mysql服务器连接,通过接收服务器的greeting包来判断后端是否存活。
-ajp:向后端发送AJP协议的Cping包,通过接收Cpong包来判断后端是否存活。
-port:指定后端服务器的检查端口。你可以指定不同于真实服务的后端服务器的端口,比如后端提供的是443端口的应用,你可以去检查80端口的状态来判断后端健康状况。默认是0,表示跟后端server提供真实服务的端口一样。该选项出现于Tengine-1.4.0。
1
2
3
Syntax:check_keepalive_requestsrequest_num
Default:1
Context:upstream

该指令可以配置一个连接发送的请求数,其默认值为1,表示Tengine完成1次请求后即关闭连接。

1
2
3
Syntax:check_http_sendhttp_packet
Default:"GET/HTTP/1.0 "
Context:upstream

该指令可以配置http健康检查包发送的请求内容。为了减少传输数据量,推荐采用"HEAD"方法。

当采用长连接进行健康检查时,需在该指令中添加keep-alive请求头,如:"HEAD / HTTP/1.1 Connection: keep-alive "。 同时,在采用"GET"方法的情况下,请求uri的size不宜过大,确保可以在1个interval内传输完成,否则会被健康检查模块视为后端服务器或网络异常。

1
2
3
Syntax:check_http_expect_alive[http_2xx|http_3xx|http_4xx|http_5xx]
Default:http_2xx|http_3xx
Context:upstream

该指令指定HTTP回复的成功状态,默认认为2XX和3XX的状态是健康的。

1
2
3
Syntax:check_shm_sizesize
Default:1M
Context:http

所有的后端服务器健康检查状态都存于共享内存中,该指令可以设置共享内存的大小。默认是1M,如果你有1千台以上的服务器并在配置的时候出现了错误,就可能需要扩大该内存的大小。

1
2
3
Syntax:check_status[html|csv|json]
Default:check_statushtml
Context:location

显示服务器的健康状态页面。该指令需要在http块中配置。

在Tengine-1.4.0以后,你可以配置显示页面的格式。支持的格式有:html、csv、json。默认类型是html。

你也可以通过请求的参数来指定格式,假设‘/status’是你状态页面的URL,format参数改变页面的格式,比如:

1
2
3
/status?format=html
/status?format=csv
/status?format=json

同时你也可以通过status参数来获取相同服务器状态的列表,比如:

1
2
/status?format=html&status=down
/status?format=csv&status=up

下面是一个状态也配置的范例:

1
2
3
4
5
6
7
8
9
10
http{
server{
location/nstatus{
check_status;
access_logoff;
#allowIP;
#denyall;
}
}
}

配置完毕后,重启nginx。此时通过访问定义好的路径,就可以看到当前 realserver 实时的健康状态啦。效果如下图:
realserver 都正常的状态:

wKiom1SZZXKQcPJTAAFnMqUEfBo238.jpg

一台 realserver 故障的状态:

wKioL1SZZivDAzdWAAGTyIK9cS8558.jpgOK,以上nginx_upstream_check_module模块的相关信息,更多的信息大家可以去该模块的淘宝tengine页面和github上该项目页面去查看,下面是访问地址:

http://tengine.taobao.org/document_cn/http_upstream_check_cn.html

https://github.com/yaoweibin/nginx_upstream_check_module

在生产环境的实施应用中,需要注意的有 2 点:

1、主要定义好type。由于默认的type是tcp类型,因此假设你服务启动,不管是否初始化完毕,它的端口都会起来,所以此时前段负载均衡器为认为该服务已经可用,其实是不可用状态。

2、注意check_http_send值的设定。由于它的默认值是"GET / HTTP/1.0 "。假设你的应用是通过http://ip/name访问的,那么这里你的check_http_send值就需要更改为"GET /name HTTP/1.0 "才可以。针对采用长连接进行检查的,这里增加keep-alive请求头,即"HEAD /name HTTP/1.1 Connection: keep-alive "。如果你后端的tomcat是基于域名的多虚拟机,此时你需要通过check_http_send定义host,不然每次访问都是失败,范例:check_http_send "GET /mobileapi HTTP/1.0 HOSTwww.redhat.sx ";

三、ngx_http_healthcheck_module模块

除了上面两个模块,nginx官方在早期的时候还提供了一个ngx_http_healthcheck_module模块用来进行nginx后端节点的健康检查。nginx_upstream_check_module模块就是参照该模块的设计理念进行开发的,因此在使用和效果上都大同小异。但是需要注意的是,ngx_http_healthcheck_module模块仅仅支持nginx的1.0.0版本,1.1.0版本以后都不支持了!因此,对于目前常见的生产环境上都不会去用了,这里仅仅留个纪念,给大家介绍下这个模块!

具体的使用方法,这里可以贴出几篇靠谱的博文地址以及官方地址:

http://wiki.nginx.org/HttpHealthcheckModule

https://github.com/cep21/healthcheck_nginx_upstreams/blob/master/README

四、在nginx_upstream_check_module-master模块安装正常的情况下,通过web界面查看后端节点状态配置方法,有问题请QQ联系我:405110958

1、配置upstream节点,并将健康监测页面添加至该节点池内

upstream dvwa {
server 192.168.2.41:9000;
server 192.168.2.42:9000;
server 192.168.2.43:9000;
server 192.168.2.44:9000;
#check interval=5000 rise=1 fall=3 timeout=16000;
#check interval=3000 rise=2 fall=5 timeout=1000 type=ssl_hello;
check interval=3000 rise=2 fall=5 timeout=1000 type=http;
check_keepalive_requests 100;
check_http_send "GET /dvwa/check.html HTTP/1.1 Host:dvwa.manjd.com Connection: keep-alive ";
check_http_expect_alive http_2xx http_3xx;
#check_http_send "HEAD / HTTP/1.1 Connection: keep-alive ";

}

2、新增反向代理健康检查节点

server
{
listen 80;
server_name dvwa.manjd.com;
index index.html index.htm index.php;
location /status {
check_status;
access_log on;
#allow SOME.IP.ADD.RESS;
allow 10.0.0.0/8;
allow 127.0.0.1/32;
allow 192.168.0.0/16;
#deny all;
}

location /ngx_status {

stub_status on;
allow 10.0.0.0/8;
allow 127.0.0.1;
allow 192.168.0.0/16;
deny all;
}

location / {

proxy_pass http://dvwa;
proxy_set_header Host $host;
proxy_set_header X-Real-IP $remote_addr;
proxy_set_header X-Forwarder-For @proxy_add_x_forwarded_for;

}

}

3、web界面查看健康状态

Nginx实战-后端应用健康检查第3张

免责声明:文章转载自《Nginx实战-后端应用健康检查》仅用于学习参考。如对内容有疑问,请及时联系本站处理。

上篇mysql删除某个表前100条数据Vmware安装Linux打开一直黑屏的四个解决方法下篇

宿迁高防,2C2G15M,22元/月;香港BGP,2C5G5M,25元/月 雨云优惠码:MjYwNzM=

相关文章

Nginx虚拟主机配置教程

说明:配置之前先把域名解析到服务器IP地址上 站点1:bbs.osyunwei.com 程序所在目录/data/osyunwei/bbs 站点2:sns.osyunwei.com 程序所在目录/data/osyunwei/sns chown www.www /data/osyunwei/ -R #设置目录所有者,www为nginx运行账户 chmod 70...

logstash收集日志并写入Redis再到es集群

redis做数据缓存 图形架构: 环境准备 172.31.2.101 es1 + kibana 172.31.2.102 es2 172.31.2.103 es3 172.31.2.104 logstash1 172.31.2.105 logstash2 172.31.2.106 Redis 172.31.2.107 web1 安装redis [roo...

Tengine环境安装

访问网址:http://tengine.taobao.org/download_cn.html下载需要的版本 第一步,解压   第二步、安装tegine 编译库 gcc, zlib1g-dev, libpcre3, libpcre3-dev这些库文件是必须的,会没办法编译tegine ubuntu安装命令:  apt-get install gcc lib...

阿里云免费购买SSL证书,nginx无缝升级https

最近在升级交流学习社区,觉得有必要升级成https.以下是自己在升级中记录。 以下包括以下部分: 一、阿里云免费购买SSL证书 1、自己在阿里云申请了免费的,然后自己支付0元,购买了SSL证书 2、我选择DNS验证 3、在SSL证书中,下载cert证书,然后放到nginx服务器上 二、nginx无缝升级https 4、查看nginx是否支持ssl 5、配置...

Nginx报错:Sorry, the page you are looking for is currently unavailable. Please try again later.

查看了进程, nginx, php-fpm都在运行, 排除程序错误, 那么就是配置的问题了. 一个可能的错误, 是由于配置中的fastcgi_pass 配置错了 错误的配置如下 server { listen 80; server_name localhost; #charset koi8-r; #a...

[tls][https][nginx] https的client session cache与session ticket机制分析

more title tls的客户端会话恢复与会话票证机制分析 golang fasthttp库关于会话恢复与会话票证的源码分析 前言 https握一次手是很艰辛的,计算量很大。所以如果连续两次短连接通信的话,完全可以 复用上一次的会话。这样可以压缩通信,节省计算。 TLS提供了两个机制来做这个事。分别是 session cache(会话缓存,会话恢复)...