Ho una tabella aggiornata molto frequentemente con 240 milioni di righe (e in crescita). Ogni tre ore vengono inserite 1,5 milioni di righe e 1,5 milioni vengono eliminate. Quando ho spostato il cluster su un SSD, questo tempo di inserimento in blocco (usando la copia) è stato ridotto da 22 minuti a 2,3 minuti. Anche il tempo di eliminazione è stato migliorato. Ho intenzione di effettuare questo aggiornamento in blocco ogni due ore o ogni ora.
Sebbene le prestazioni ora (dopo SSD) siano compatibili con un aggiornamento più frequente, ho letto alcune storie dell'orrore sulla morte di SSD a causa della resistenza NAND limitata combinata con l'amplificazione della scrittura. Dato che gli SSD sono costosi, vorrei spingerlo il più lontano possibile nel futuro. Da qui la mia domanda: cosa succede realmente al file del disco in una cancellazione e nel successivo vuoto? Suppongo che ci siano due scritture su disco, una per contrassegnare la riga come eliminata e l'altra durante l'aspirazione per contrassegnarla come disponibile per la sovrascrittura. Se invece di eliminare e passare l'aspirapolvere divido la tabella creando e rilasciando tabelle in corrispondenza di ogni inserimento / eliminazione di massa, ridurrei al minimo l'usura dell'SSD?