Macchina: Dell r815, CentOS 5.4, 256 GB di RAM, 4 x 12 core.
Abbiamo un'applicazione che ha un file da 275 GB. Fa un ordinamento sul posto su 20 GB di dati alla volta, cioè scambia i bit e li sostituisce nello stesso file. Funziona tutto bene.
C'è un ultimo passaggio che poi legge l'intero file e fa un ordinamento di unione sui diversi blocchi da 20 GB e li restituisce a un file completamente nuovo.
Questo processo sembra funzionare bene per un po 'e finisce per scaricare circa 50 GB su disco. Qualche tempo dopo, l'intera macchina inizia a dare di matto.
Comandi semplici come ps -ef
, ls -al
, appendere per lungo tempo e mostrano come prendendo 100% CPU (che è solo un core).
Osservando le statistiche della memoria top
, vedo che utilizza circa 120 GB di RAM (quindi 128 GB gratuiti) e 120 GB nella sezione "cache".
Qualcuno ha mai visto questo tipo di comportamento prima? Lo stesso processo funziona bene su una macchina con 64 GB di memoria, quindi in qualche modo penso che sia correlato al montaggio della RAM che ho nella macchina.
(mentre parliamo, sto eseguendo il test su questa macchina con tutti tranne 64 GB - per escludere un problema hardware).
Mi sto forse perdendo alcuni parametri vm /etc/sysctrl.conf
?
Grazie!