Sto eseguendo un server nginx che funge da proxy per un socket unix upstream, in questo modo:
upstream app_server {
server unix:/tmp/app.sock fail_timeout=0;
}
server {
listen ###.###.###.###;
server_name whatever.server;
root /web/root;
try_files $uri @app;
location @app {
proxy_set_header X-Forwarded-For $proxy_add_x_forwarded_for;
proxy_set_header X-Forwarded-Proto $scheme;
proxy_set_header Host $http_host;
proxy_redirect off;
proxy_pass http://app_server;
}
}
Alcuni processi del server delle app, a loro volta, /tmp/app.sock
eseguono il pull delle richieste non appena diventano disponibili. Il particolare server di app in uso qui è Unicorn, ma non credo sia rilevante per questa domanda.
Il problema è che sembra che oltre un certo carico, nginx non riesca a ricevere richieste attraverso il socket a una velocità abbastanza veloce. Non importa quanti processi del server delle app ho impostato.
Ricevo un flusso di questi messaggi nel registro degli errori di nginx:
connect() to unix:/tmp/app.sock failed (11: Resource temporarily unavailable) while connecting to upstream
Molte richieste comportano il codice di stato 502 e quelle che non richiedono molto tempo per il completamento. La stat della coda di scrittura nginx si aggira intorno a 1000.
Ad ogni modo, mi sento come se mi sfuggisse qualcosa di ovvio qui, perché questa particolare configurazione di nginx e app server è piuttosto comune, specialmente con Unicorn (in realtà è il metodo consigliato). Ci sono opzioni del kernel di Linux che devono essere impostate o qualcosa in nginx? Qualche idea su come aumentare il throughput al socket upstream? Qualcosa che sto chiaramente sbagliando?
Ulteriori informazioni sull'ambiente:
$ uname -a
Linux servername 2.6.35-32-server #67-Ubuntu SMP Mon Mar 5 21:13:25 UTC 2012 x86_64 GNU/Linux
$ ruby -v
ruby 1.9.3p194 (2012-04-20 revision 35410) [x86_64-linux]
$ unicorn -v
unicorn v4.3.1
$ nginx -V
nginx version: nginx/1.2.1
built by gcc 4.6.3 (Ubuntu/Linaro 4.6.3-1ubuntu5)
TLS SNI support enabled
Modifiche correnti al kernel:
net.core.rmem_default = 65536
net.core.wmem_default = 65536
net.core.rmem_max = 16777216
net.core.wmem_max = 16777216
net.ipv4.tcp_rmem = 4096 87380 16777216
net.ipv4.tcp_wmem = 4096 65536 16777216
net.ipv4.tcp_mem = 16777216 16777216 16777216
net.ipv4.tcp_window_scaling = 1
net.ipv4.route.flush = 1
net.ipv4.tcp_no_metrics_save = 1
net.ipv4.tcp_moderate_rcvbuf = 1
net.core.somaxconn = 8192
net.netfilter.nf_conntrack_max = 524288
Impostazioni di Ulimit per l'utente nginx:
core file size (blocks, -c) 0
data seg size (kbytes, -d) unlimited
scheduling priority (-e) 20
file size (blocks, -f) unlimited
pending signals (-i) 16382
max locked memory (kbytes, -l) 64
max memory size (kbytes, -m) unlimited
open files (-n) 65535
pipe size (512 bytes, -p) 8
POSIX message queues (bytes, -q) 819200
real-time priority (-r) 0
stack size (kbytes, -s) 8192
cpu time (seconds, -t) unlimited
max user processes (-u) unlimited
virtual memory (kbytes, -v) unlimited
file locks (-x) unlimited
ulimit -n
dice 65535
.
ulimit
, in particolare il numero di file aperti?