[Crossposted dal mio post Ask HN . Sentiti libero di chiuderlo se la domanda è troppo ampia per il superutente.]
Questo è qualcosa di cui sono curioso da anni, ma non ho mai trovato buone discussioni sull'argomento. Certo, il mio Google-Fu potrebbe semplicemente non riuscire a farmi ...
Mi occupo spesso di progetti che coinvolgono migliaia di file relativamente piccoli. Ciò significa che eseguo spesso operazioni su tutti quei file o su un grande sottoinsieme di essi, copiando la cartella del progetto altrove, eliminando un mucchio di file temporanei, ecc. Di tutte le macchine su cui ho lavorato nel corso degli anni, ho ho notato che NTFS gestisce queste attività in modo costantemente più lento di HFS su un Mac o ext3 / ext4 su un box Linux. Tuttavia, per quanto ne so, la velocità effettiva non è più lenta su NTFS (almeno non significativamente), ma il ritardo tra ogni singolo file è solo un po 'più lungo. Quel piccolo ritardo si aggiunge davvero a migliaia di file.
(Nota a margine: da quello che ho letto, questo è uno dei motivi per cui git è un tale dolore su Windows, dal momento che si basa molto sul file system per il suo database di oggetti.)
Certo, le mie prove sono semplicemente aneddotiche: al momento non ho numeri di prestazioni reali, ma è qualcosa che mi piacerebbe testare ulteriormente (forse con un Mac con doppio avvio su Windows). Tuttavia, la mia genialità insiste sul fatto che qualcuno là fuori lo abbia già fatto.
Qualcuno può spiegare questo, o forse indicarmi la giusta direzione per approfondire ulteriormente me stesso?