Quasi 2 decenni fa sarebbe stato dominato dalla gamma di Windows 98 a XP, inclusi NT4 e 2000 sul lato workstation / server.
Tutti i dischi rigidi sarebbero anche archiviazione magnetica cablata PATA o SCSI, poiché gli SSD costano più del computer e SATA non esiste.
Come dice la risposta di WooShell, i settori logici inferiori sull'unità (al di fuori del piatto) tendono ad essere i più veloci. Le mie unità Velociraptor da 1 TB WDC partono da 215 MB / s, ma scendono a 125 MB / s nei settori esterni, con un calo del 40%. E questo è un disco da 2,5 ", quindi la maggior parte delle unità da 3,5" vede un calo delle prestazioni sempre maggiore , maggiore del 50% . Questo è il motivo principale per mantenere piccola la partizione principale, ma si applica solo dove la partizione è piccola rispetto alla dimensione dell'unità.
L'altro motivo principale per mantenere piccola la partizione era se si utilizzava FAT32 come file system, che non supportava partizioni superiori a 32 GB. Se si utilizzava NTFS, le partizioni fino a 2 TB erano supportate prima di Windows 2000, quindi fino a 256 TB.
Se la partizione era troppo piccola rispetto alla quantità di dati che sarebbero stati scritti, è più facile frammentarsi e più difficile da deframmentare. Di te puoi semplicemente rimanere senza spazio come quello che ti è successo. Se si disponevano di troppi file relativi alle dimensioni della partizione e del cluster, la gestione della tabella dei file potrebbe essere problematica e influire sulle prestazioni. Se si utilizzano volumi dinamici per la ridondanza, mantenendo i volumi ridondanti piccoli quanto necessario si risparmia spazio sugli altri dischi.
Oggi le cose sono diverse, l'archiviazione client è dominata da SSD flash o unità magnetiche con accelerazione flash. Lo spazio di archiviazione è generalmente abbondante ed è facile aggiungere altro a una workstation, mentre nei giorni PATA, potresti avere avuto una sola connessione a unità non utilizzata per dispositivi di archiviazione aggiuntivi.
Quindi è ancora una buona idea o ha qualche vantaggio? Dipende dai dati che conservi e da come li gestisci. La mia workstation C: ha solo 80 GB, ma il computer stesso ha ben 12 TB di spazio di archiviazione, distribuiti su più unità. Ogni partizione contiene solo un determinato tipo di dati e la dimensione del cluster è abbinata sia al tipo di dati che alla dimensione della partizione, il che mantiene la frammentazione vicino a 0 e impedisce all'MFT di essere irragionevolmente grande.
Il ridimensionamento è che non c'è spazio inutilizzato, ma le prestazioni aumentano più che compensano, e se voglio più spazio di archiviazione aggiungo più unità. C: contiene il sistema operativo e le applicazioni usate di frequente. P: contiene applicazioni meno comunemente utilizzate ed è un SSD da 128 GB con un livello di durabilità in scrittura inferiore rispetto a C :. T: si trova su un SSD SLC più piccolo e contiene file temporanei dell'utente e del sistema operativo, inclusa la cache del browser. I file audio e video vengono archiviati in modo magnetico, così come le immagini delle macchine virtuali, i backup e i dati archiviati, in genere hanno dimensioni di cluster pari o superiori a 16 KB e le operazioni di lettura / scrittura sono dominate dall'accesso sequenziale. Eseguo la deframmentazione solo una volta all'anno su partizioni con volume di scrittura elevato e sono necessari circa 10 minuti per eseguire l'intero sistema.
Il mio laptop ha solo un singolo SSD da 128 GB e un caso d'uso diverso, quindi non posso fare la stessa cosa, ma continuo a separare in 3 partizioni, C: (80 GB di sistema operativo e programmi), T: (8 GB di temperatura) e F: ( 24 GB di file utente), che fa un buon lavoro nel controllare la frammentazione senza sprecare spazio, e il laptop verrà sostituito molto prima che finisca lo spazio. Inoltre semplifica notevolmente il backup, poiché F: contiene gli unici dati importanti che cambiano regolarmente.