Varnish 缓存服务器调优
线上服务器使用Varnish已经有一个多月了,一直没有碰到问题,挺省心的,因此也没有比较深入的折腾Varnish。 上周由于业务变化,请求量一下子涨了很多,Varnish接二连三挂了,于是折腾了一下。
Thread Pool问题现象Varnish响应很慢、甚至返回503,而backend是好的。
复现方法经过检查发现,在此前某一时刻,一个backend响应很慢(回源时间很长),hold住了大量分配到这个backend的请求, 此后,对所有的请求(即使分配到其他健康的backend)都会变得很慢。
问题分析每一个来自客户端请求在varnish中都是一个session,一个session会被分配到一个空闲的thread处理。 当没有空闲的thread时,varnish会创建新的thread来处理。当全局的thread数量超过thread_pool_max * thread_pools时, varnish会将请求放入队列,当队列满时,varnish开始丢弃请求。Varnish的默认配置,thread_pools为2,thread_pool_max为500, 也即最多1000个thread。当并发处理的请求量(注意不等价与并发请求量)大于1000时,varnish就过载了。
上述问题正是如此,有大量请求处于(响应较慢的backend)回源阶段,占用了大量的thread,导致新进的请求无法处理。 对线上Varnish参数进行了调整,将thread_pool_max设置为5000,问题基本解决。
调优建议thread_pool_max 根据Varnish Book所述,最高应该只有5000。我个人认为这个参数应该跟CPU的处理能力有关。thread_pools 根据Varnish Book所述,该参数最好设置为2(默认值),无需修改。thread_pool_min 网上有一些建议,如果服务器经常会有突发的高负载,可以将该值调高一些,以减少突发高负载时创建thread的延迟。如何确定是否需要调优
重点观察varnishstat输出中的这几项:
n_wrk 这表示当前的thread数量,如果该数量接近甚至超过thread_pool_max * thread_pools,那么说明thread可能不够了,需要调整。n_wrk_queued 正常情况下,该数值应该不增长,如果该数值在增长,说明thread不够了。n_wrk_drop 正常情况下,该数值应该为0,如果该数值不为零(或者甚至在增长),说明已经有请求被丢弃了,thread不够了。高内存占用问题现象
有一天发现varnishd占用的内存(top中的RES列)达到了15g,吃掉了所有的内存,导致系统负载变高。 而Varnish设置使用的Storage是malloc,1g。
复现方法经过检查发现,由于客户端更新,上了了一个量很大的请求,每个客户端都待了一个随机参数,因此该请求无法命中, 而vcl中对所有的obj都设置了1h的beresp.grace时间。这导致所有的object都在cache中保存1h。 而每个object会额外占用1k左右的meta data,因此,10m数量个object会额外占用10g的内存。
问题分析这个问题其实是因为最初写vcl时对grace的理解不准确所致。有两个grace值,req.grace和beresp.grace。
beresp.grace 表示一个object即使已经过期了,仍然在缓存中存放一段时间。req.grace 表示,当一个请求命中了一个刚过期的object,由于回源需要一段时间,为了立刻返回,那么在过期后的req.grace时间内, 可以将过期的那个object返回给客户端,当然,这要求beresp.grace >= req.grace根据我们实际的业务逻辑,这里beresp.grace无需设置为1h那么长。调整后的设置为:
sub vcl_fetch { # 仅当该请求可以缓存时,才设置beresp.grace,若该请求不能被缓存,则不设置beresp.grace if (beresp.ttl > 0s) { set beresp.grace = 1m; }}sub vcl_recv { # 若backend是健康的,则仅grace 5s,如果backend不健康,则grace 1m。 # 这里,5s的目的是为了提高高并发时的吞吐率; # 1m的目的是,backend挂了之后,还能继续服务一段时间,期望backend挂的不要太久。。。 if (req.backend.healthy) { set req.grace = 5s; } else { set req.grace = 1m; }}调优建议观察varnishstat的输出,关注n_object这一项,实际内存占用率为这么多object本身的体积,外加他们的1k的meta data。 如果这个值大到百万量级的话,内存占用就非常可观了,这时候应该观察是什么样的请求导致了这么多object, 这样的请求要么是不该缓存(因此也无需grace)的,要么是需要normalize一下之后再缓存的。
Content-Length: chunked问题现象由于我们有一个客户端(flash)比较二逼,不支持接收到Content-Length: chunked的数据。 而chunked一般是由gzip或者后端服务器产生,varnish如果回源时获取到的数据是chunked,那么返回给客户端的也一样。
解决方法对于这样的请求,缓存两份(因此也回源两次),一份为不支持chunked的客户端(flash),一份为正常的客户端。
sub vcl_recv { if (req.http.User-Agent ~ "flash") { set req.http.X-Agent = "flash"; }}sub vcl_hash { if (req.http.X-Agent) { hash_data(req.http.X-Agent); }}sub vcl_miss { if (req.http.X-Agent) { set bereq.http.Accept-Encoding = "identity"; }}sub vcl_pass { if (req.http.X-Agent) { set bereq.http.Accept-Encoding = "identity"; }}与Cookie有关的缓存这个问题就不跟上面那样分析了。业务要求大致如此,对于一个domain下的请求,客户端总是会带Cookie, 而该domain下面有一些请求是需要缓存的。在之前的配置中,vcl_recv中设置了只要有Cookie就return(pass), 因此如果某个url需要缓存,就需要手动对该url在vcl_recv中删除req.http.Cookie,并在vcl_fetch中删除beresp.http.Set-Cookie。 这样运维的工作与后端的开发工作就耦合了。期望的效果是,后端如果需要缓存某个url,则在该请求的返回头中带有Cache-Control头, 然后Varnish就自动根据该头来缓存相应的时间,而如果一个请求的返回中没有Cache-Control头,则默认不能缓存。
Varnish的默认设置中,是不会将req.http.Cookie添加到hash_data的,因此req.http.Cookie本身并不会影响缓存, 但是如果服务器返回的请求中含有Set-Cookie头,那么Varnish默认就不会缓存。
因此修改Varnish的配置如下:
sub vcl_fetch { # 如果反回头有Cache-Control,则删除Set-Cookie头 if (beresp.http.Cache-Control && beresp.ttl > 0s) {unset beresp.http.Set-Cookie; } # 如果反回头没有Cache-Control,则标记为hit_for_pass,强制后续请求回源 if ((!beresp.http.Cache-Control && !beresp.http.Expires) ||beresp.http.Cache-Control ~ "(private|no-cache|no-store)") { set beresp.ttl = 120s; return (hit_for_pass); }}郑重声明:本文版权归原作者所有,转载文章仅为传播更多信息之目的,如作者信息标记有误,请第一时间联系我们修改或删除,多谢。