C'è un motivo per mantenere la partizione / unità C principale di Windows: piccola?


70

Nei miei lavori quasi due decenni fa, gli esperti IT avrebbero mantenuto le dimensioni della partizione principale (unità C) di Windows estremamente ridotte rispetto alle altre partizioni. Sostengono che questo fa funzionare il PC a una velocità ottimale senza rallentare.

Ma il rovescio della medaglia è che C: l'unità si riempie facilmente se mantenuta piccola e presto non è possibile installare un nuovo software in quanto esaurisce lo spazio. Anche se installo software in D: drive, parte di esso viene sempre copiato in C: che lo riempie.

La mia domanda è questa pratica ancora buona? Perché è fatto Quali sono i suoi principali vantaggi? Uno ovvio è se la partizione primaria si arresta in modo anomalo, i tuoi dati sono al sicuro in secondario.

Il motivo per cui sto ponendo questa domanda è perché sto cercando di aggiornare Visual Studio e non posso perché mi rimangono solo 24 MB nella partizione primaria.


2
Cosa intendi con "dimensione della partizione principale piccola (come 100 GB)"? 100 GB non è "piccolo" dalla maggior parte delle misure? Vuoi dire "più piccolo dell'intero disco"? E per "partizione principale" intendi la partizione che ospita il filesystem per l'unità Windows C :? E cosa dovrebbe spiegare la schermata che hai pubblicato? Mostra solo un disco completo ... Modifica per chiarire.
sleske,

10
100 GB potrebbero non sembrare piccoli ma al giorno d'oggi i grandi software lo riempiono abbastanza rapidamente come nel mio caso. Partizione principale = Partizione primaria = Partizione di avvio. La schermata mostra il mio partigiano principale (unità c :) e vede che rimangono solo 24 MB. My D: è gratis 90 GB ed E: gratis 183 GB.
hk_

1
Mi sono preso la libertà di modificare la tua domanda per chiarire. In futuro, è meglio se modifichi direttamente la tua domanda per aggiungere informazioni: i commenti possono essere rimossi e non tutti li leggeranno tutti.
sleske,

28
Direi che questi "esperti" avevano torto allora e adesso torto. Sono sicuro che ci sono casi in cui un piccolo disco C: potrebbe essere / è stato utile, ma per la maggior parte degli utenti normali (inclusi gli sviluppatori), l'impostazione predefinita di avere una sola partizione C: più grande possibile è la cosa migliore fare proprio a causa del problema che hai.
Neil,

1
Tieni presente che non sei sempre in grado di modificare l'unità in cui è installato un programma (ad esempio MS Office) e potresti aver bisogno di più spazio di quanto inizialmente previsto.
Nijin22,

Risposte:


89

Nei miei lavori quasi due decenni fa, gli esperti IT avrebbero mantenuto le dimensioni della partizione principale (unità C) di Windows estremamente ridotte rispetto alle altre partizioni. Sostengono che questo fa funzionare il PC a una velocità ottimale senza rallentare. [...] La mia domanda è questa pratica ancora buona?

In generale: no .

Nelle versioni precedenti di Windows, c'erano problemi di prestazioni con unità di grandi dimensioni (più precisamente: con file system di grandi dimensioni), principalmente perché il file system FAT utilizzato da Windows non supportava bene i file system di grandi dimensioni. Tuttavia, tutte le moderne installazioni di Windows utilizzano NTFS, che ha risolto questi problemi. Vedere ad esempio Le prestazioni NTFS si riducono significativamente in volumi superiori a cinque o sei TB? , il che spiega che anche le partizioni di dimensioni pari a terabyte non sono in genere un problema.

Al giorno d'oggi, non vi è generalmente motivo di non utilizzare una singola, grande partizione C :. Per impostazione predefinita, il programma di installazione di Microsoft crea una singola unità C: grande. Se ci fossero buoni motivi per creare una partizione dati separata, l'installer lo offrirebbe: perché Microsoft dovrebbe lasciarti installare Windows in un modo che crea problemi?

Il motivo principale per più unità è che aumenta la complessità, il che è sempre negativo per l'IT. Crea nuovi problemi, come:

  • devi decidere quali file mettere su quale unità (e modificare le impostazioni in modo appropriato, fare clic sugli elementi negli installatori ecc.)
  • alcuni software (scritti in modo errato) potrebbero non piacere a non essere inseriti in un'unità diversa da C:
  • puoi finire con troppo poco spazio libero su una partizione, mentre l'altra ha ancora spazio libero, che può essere difficile da riparare

Ci sono alcuni casi speciali in cui più partizioni hanno ancora senso:

  • Se si desidera eseguire il dual-boot, è necessario (solitamente) partizioni separate per ogni installazione del sistema operativo (ma comunque solo una partizione per installazione).
  • Se hai più di un'unità (in particolare unità con caratteristiche diverse, come SSD e HD), potresti voler scegliere ciò che va dove - in tal caso può avere senso ad esempio mettere l'unità C: sull'SSD e D : su HD.

Per affrontare alcuni argomenti spesso sollevati a favore di partizioni piccole / separate:

  • le piccole partizioni sono più facili da eseguire il backup

In ogni caso dovresti davvero eseguire il backup di tutti i tuoi dati, dividerli tra le partizioni non è di grande aiuto. Inoltre, se hai davvero bisogno di farlo, tutto il software di backup che conosco ti consente di eseguire il backup selettivo di una parte di una partizione.

  • se una partizione è danneggiata, l'altra partizione potrebbe comunque essere ok

Sebbene ciò sia teoricamente vero, non vi è alcuna garanzia che il danno si limiti a una partizione (ed è ancora più difficile verificarlo in caso di problemi), quindi ciò fornisce solo una garanzia limitata. Inoltre, se si dispone di backup buoni e ridondanti, la sicurezza aggiuntiva è di solito troppo piccola per essere degna di fastidio. E se non si dispone di backup, si hanno problemi molto più grandi ...

  • se si inseriscono tutti i dati utente su una partizione dati, è possibile cancellare e reinstallare / non eseguire il backup della partizione del sistema operativo poiché non sono presenti dati utente

Sebbene ciò possa essere vero in teoria, in pratica molti programmi scriveranno le impostazioni e altri dati importanti per guidare C: (perché sono purtroppo codificati per farlo, o perché hai accidentalmente dimenticato di cambiare le loro impostazioni). Pertanto, IMHO è molto rischioso fare affidamento su questo. Inoltre, hai bisogno di buoni backup (vedi sopra), quindi dopo la reinstallazione puoi ripristinare i backup, il che ti darà lo stesso risultato (solo in modo più sicuro). Le moderne versioni di Windows mantengono già i dati dell'utente in una directory separata (directory del profilo utente), quindi è possibile il ripristino selettivo.


Vedi anche Installerai software sulla stessa partizione del sistema Windows? per maggiori informazioni.


3
più partizioni hanno senso anche se si desidera spostare i dati utente da C: \ scollegandoli da (m) qualsiasi problema con il sistema operativo. Potresti quindi dire, installare un altro sistema operativo al suo posto e i tuoi dati utente rimangono al sicuro (fino a quando la partizione utente non viene eliminata)
Baldrickk,

1
Potresti voler eseguire un backup dell'immagine per la tua partizione di sistema mentre è sufficiente un semplice backup dei dati per tutte le altre partizioni.
Thomas,

26
Il resto della tua risposta è buona, ma "il programma di installazione ti consente di farlo" non è un modo valido per verificare se qualcosa è buono o no. Perché dovrebbero farlo? Dimenticanza, la stupidità, la pigrizia, l'ignoranza, limitazioni tecniche, il middle management ... ci sono un milione di motivi l'installatore potrebbe fare la cosa sbagliata per difetto, per non parlare solo lasciando fare la cosa sbagliata. Ciò vale doppiamente per un sistema complesso come Windows.
Nic Hartley,

2
Ricordo WinXP e Win 7 che consentivano all'utente di creare più partizioni e impostare la dimensione delle partizioni durante l'installazione. Tuttavia, non ricordo più se questo è il caso. La SM è nota per aver preso decisioni sbagliate, apparentemente per capriccio, e per averle supportate per anni prima di prendere un'altra decisione sbagliata per "risolvere" il (non) problema. Inoltre, gli utenti tecnici / artistici che devono manipolare file di grandi dimensioni a livello locale spesso hanno bisogno di più unità per gestire il lavoro. E: "aumenta la complessità, il che è sempre negativo per l'IT", in genere è solo metà. Il mio ragionamento è fuori tema, quindi lo lascerò.
computercarguy,

2
"perché Microsoft dovrebbe lasciarti installare Windows in modo da creare problemi?" Perché ritieni che Microsoft ti consenta sempre di utilizzare l'opzione migliore e ottimizzata?
Jonathan Drapeau,

25

La ragione storica di questa pratica è molto probabilmente radicata nelle proprietà prestazionali degli HDD magnetici rotanti. La zona in dischi di filatura con la più alta velocità di accesso sequenziale sono i settori più esterni (vicino l'inizio dell'azionamento).

Se si utilizza l'intera unità per il proprio sistema operativo, prima o poi (tramite aggiornamenti, ecc.) I file del sistema operativo verranno distribuiti su tutta la superficie del disco. Quindi, per assicurarti che i file del sistema operativo rimangano fisicamente nell'area del disco più veloce, devi creare una piccola partizione di sistema all'inizio dell'unità e distribuire il resto dell'unità in tutte le partizioni dati che desideri.

La latenza di ricerca dipende anche in parte da quanto devono spostarsi le testine, quindi mantenere tutti i piccoli file un po 'vicini l'uno all'altro ha anche un vantaggio sulle unità di rotazione.

Questa pratica ha perso tutte le sue ragioni con l'avvento dell'archiviazione SSD.


1
Oltre a perdere trazione a causa degli SSD, le nuove unità SATA e SASS girano molto più velocemente (7200 e + 10k rpm contro 5400 rpm) e hanno tempi di ricerca più veloci rispetto alle vecchie unità. Sebbene ci sia ancora una verità minima sul "problema della velocità", non molte persone che utilizzano l'hardware di oggi noterebbero effettivamente un aumento della velocità utilizzando una piccola partizione senza software di benchmarking.
computercarguy,

6
"la massima velocità di accesso sono i settori più interni." , "Quindi, per assicurarti che i file del sistema operativo rimangano fisicamente nell'area del disco più veloce, crei una piccola partizione di sistema all'inizio dell'unità" - No, ce l'hai al contrario, proprio come questa domanda: superuser.com / questions / 643013 /… . Anche la tua richiesta di "ragione storica" è dubbia. Fino a quando le unità ATAPI non hanno iniziato a utilizzare la registrazione a bit di zona, tutti i precedenti HDD utilizzavano una registrazione angolare costante, quindi non c'era differenza di velocità di cui parlare tra i cilindri.
segatura,

3
@sawdust, il motivo storico non è stato letto la latenza, ma cercare la latenza. Il FAT è stato memorizzato con l'indirizzo di traccia più basso e quindi la testina del disco dovrebbe tornare lì almeno ogni volta che un file è stato creato o esteso. Con i dischi degli anni '80, la differenza di prestazioni era misurabile. Una delle caratteristiche di progettazione di HPFS (antenato di NTFS) era quella di mettere la MFT al centro della partizione per ridurre i tempi medi di ricerca. Naturalmente, una volta inserite più partizioni su un disco, si hanno più zone FAT / MFT, quindi la ricerca non è più ottimizzata.
Grahamj42,

@ grahamj42 - No, ti sbagli ancora. Il tempo di ricerca è puramente una funzione (non lineare) della distanza di ricerca, che viene misurata nel numero di cilindri. Il tempo di ricerca non è completamente correlato ai cilindri interni rispetto a quelli esterni, come si afferma. Non sono sicuro di cosa intendi per "latenza di lettura" . Cordiali saluti, ho esperienza diretta con gli interni dell'unità disco, i controller del disco e il firmware dell'unità disco, ovvero questa conoscenza non è stata appresa dalla sola lettura. E io ero professionalmente attivo prima e dopo questa "storia" a cui ti riferivi era stata fatta.
segatura

1
@sawdust - Mi dispiace che tu mi abbia frainteso e la dimensione di un commento abbia limitato ciò che potevo scrivere. Su una partizione FAT, la testa deve riposizionarsi sul FAT ogni volta che viene aggiornato, o se il settore FAT da leggere non viene più memorizzato nella cache, quindi la probabilità di trovare la testa in un cilindro esterno è molto più alta rispetto a trovarla in un interno cilindro, il che significa che il tempo medio di ricerca è inferiore. Sto parlando degli azionamenti del motore passo-passo dei primi anni '80 (l'ST-412 aveva un tempo medio di ricerca di 85 ms ma 3 ms per un cilindro). Un disco moderno è circa 10 volte più veloce.
Grahamj42,

5

C'è un motivo per mantenere la partizione / unità C principale di Windows: piccola?

Ecco alcuni motivi per farlo:

  1. Tutti i file di sistema e il sistema operativo stesso si trovano sulla partizione primaria. È meglio mantenere quei file separati da altri software, dati personali e file, semplicemente perché intromettersi costantemente nella partizione di avvio e mescolare i file in alcuni casi potrebbe portare a errori, come l'eliminazione accidentale di file o cartelle di sistema. L'organizzazione è importante. Questo è il motivo per cui la dimensione della partizione primaria è bassa - per scoraggiare gli utenti dal dumping di tutti i loro dati.
  2. Backup : è molto più semplice, veloce ed efficace eseguire il backup e il ripristino di una partizione più piccola di una più grande, a seconda dello scopo del sistema. Come notato da @computercarguy nei commenti, è meglio eseguire il backup di cartelle e file specifici, piuttosto che eseguire il backup di un'intera partizione, a meno che non sia necessario.
  3. Si potrebbe migliorare le prestazioni, però, in maniera quasi impercettibile. Sui filesystem NTFS , ci sono le cosiddette tabelle di file master su ogni partizione e contiene metadati su tutti i file sulla partizione:

    Descrive tutti i file sul volume, inclusi nomi di file, timestamp, nomi di stream ed elenchi di numeri di cluster in cui risiedono flussi di dati, indici, identificatori di sicurezza e attributi di file come "sola lettura", "compresso", "crittografato", ecc.

Ciò potrebbe introdurre un vantaggio, sebbene impercettibile, quindi potrebbe essere ignorato, poiché in realtà non fa differenza. La risposta di @WooShell è più correlata al problema delle prestazioni, anche se è ancora trascurabile.

Un'altra cosa da notare è che, nel caso in cui si disponga di un SSD + HDD, è molto meglio archiviare il proprio sistema operativo sull'SSD e tutti i propri file / dati personali sull'HDD. Molto probabilmente non avresti bisogno di un aumento delle prestazioni avendo un SSD per la maggior parte dei tuoi file personali e le unità a stato solido di livello consumer di solito non hanno molto spazio su di loro, quindi preferiresti non provare a riempirlo con file personali .

Qualcuno può spiegare perché questa pratica è stata fatta ed è ancora valida?

Descritto alcuni dei motivi per cui è stato fatto. E sì, è ancora valido, anche se non è più una buona pratica come sembra. Gli svantaggi più importanti sono che gli utenti finali dovranno tenere traccia di dove le applicazioni suggeriscono di installare i propri file e cambiare quella posizione (possibile durante quasi tutte le installazioni di software, specialmente se l'installazione avanzata / avanzata è un'opzione), quindi la partizione di avvio non lo fa ' riempire, poiché il sistema operativo deve aggiornare a volte, e un altro aspetto negativo è che quando si copiano i file da una partizione all'altra, in realtà deve copiarli, mentre se fossero nella stessa partizione, aggiorna solo la MFT e i metadati, non è necessario riscrivere l'intero file.

Alcuni di questi purtroppo possono presentare più problemi:

  1. Aumenta la complessità della struttura, il che rende più difficile e richiede più tempo per la gestione.
  2. Alcune applicazioni scrivono ancora file / metadati nella partizione di sistema (associazioni di file, menu di scelta rapida, ecc.), Anche se installati in un'altra partizione, quindi ciò rende più difficile il backup e potrebbe causare errori nella sincronizzazione tra le partizioni. (grazie al commento di @ Bob)

Per evitare il problema che stai riscontrando, devi:

  1. Prova sempre a installare le applicazioni sulle altre partizioni (modifica il percorso di installazione predefinito).
  2. Assicurati di installare solo software importante nella partizione di avvio. Altri software non necessari e non importanti dovrebbero essere tenuti al di fuori di esso.

Non sto anche dicendo che avere più partizioni con una piccola primaria sia l'idea migliore. Tutto dipende dallo scopo del sistema e, sebbene introduca un modo migliore di organizzare i file, ha i suoi lati negativi, che sui sistemi Windows ai giorni nostri sono più dei professionisti.

Nota: E come hai detto tu stesso, mantiene sicuri i dati che si trovano in partizioni separate in caso di errore della partizione avviabile.


1
"Pertanto, una partizione più piccola con una tabella di file master più piccola eseguirà ricerche più veloci e migliorerà le prestazioni di un disco rigido." Richiesta di citazione - serverfault.com/questions/222110/…, ad esempio, indica che anche enormi volumi non sono più un problema al giorno d'oggi.
sleske,

1
"Certo, molti sviluppatori di software hanno la cattiva pratica di suggerire agli utenti finali di installare la loro applicazione nella partizione primaria. Ma in generale, non è una buona idea." - citazione necessaria
gronostaj

5
"Poiché le tabelle di file master memorizzano informazioni su tutti i file su una partizione, quando si eseguono azioni su uno qualsiasi dei file su quella partizione, vengono visualizzate nell'intera tabella." Oh, assolutamente no. Tale affermazione può essere fatta solo nell'ignoranza quasi completa di come funzionano i file system e di come l'organizzazione di archiviazione su disco viene eseguita in generale. Se ciò fosse vero, le prestazioni di qualsiasi operazione che coinvolgono la MFT si degraderebbero linearmente (o peggio!) Con le dimensioni della MFT, e ciò non avviene in modo piatto.
Jamie Hanrahan,

1
"poiché il sistema operativo non esegue tutte le operazioni di lettura / scrittura di altri software" . Se il tuo sistema operativo è Windows, sta eseguendo molte operazioni R / W sul disco di installazione. Molti di loro. Se stai usando IE o Edge, è installato come parte di Windows (non pensare di poter specificare dove è installato, anche se potrei sbagliarmi), e questo memorizza un sacco di cose mentre scrivo questo commento.
FreeMan,

2
"È meglio mantenere quei file [OS] separati da altri software" - No. Il problema con questo approccio è che molti software mantengono lo stato di installazione (e programmi di disinstallazione) con il sistema operativo. Un sacco di software si registra anche con varie parti del sistema operativo - associazioni di file, voci di menu contestuali, renderer di anteprima, ecc. L'installazione del software stesso in una partizione separata non le impedisce; semplicemente li fa diffondere in due partizioni. Il che è, semmai, peggio che tenerli insieme: ora hai aggiunto il rischio che le due partizioni non siano sincronizzate nei backup.
Bob,

4

Sono uno sviluppatore di software, ma ho anche trascorso del tempo a svolgere un lavoro IT "regolare" / back-office. In genere, mantengo il sistema operativo e le applicazioni sull'unità C: e i miei file personali sull'unità D :. Questi non devono necessariamente essere unità fisiche separate, ma attualmente sto usando un SSD relativamente piccolo come unità "di sistema" (C :) e un'unità disco "tradizionale" (ovvero con piatti magnetici rotanti) come mia "casa" guidare (D :).

Tutti i filesystem sono soggetti a frammentazione. Con gli SSD questo è fondamentalmente un problema, ma è ancora un problema con le unità disco tradizionali.

Ho scoperto che la frammentazione può degradare significativamente le prestazioni del sistema. Ad esempio, ho scoperto che una build completa di un grande progetto software è migliorata di oltre il 50% dopo la deframmentazione del mio disco - e la build in questione ha richiesto la parte migliore di un'ora, quindi questa non è stata una differenza banale.

Mantenendo i miei file personali su un volume separato, ho trovato:

  • il volume del sistema non viene frammentato altrettanto rapidamente (o severamente);
  • è molto più veloce deframmentare i due volumi separati rispetto a un singolo volume con tutto su di esso - ogni volume impiega il 20% -25% fino a quando il volume combinato sarebbe.

L'ho osservato su diverse generazioni di PC, con diverse versioni di Windows.

(Come ha sottolineato un commentatore, questo tende anche a facilitare i backup.)

Devo notare che gli strumenti di sviluppo che utilizzo tendono a generare un gran numero di file temporanei, che sembrano contribuire in modo significativo al problema della frammentazione. Quindi la gravità di questo problema varierà in base al software utilizzato; potresti non notare una differenza, o quanto più di una. (Ma ci sono altre attività - ad esempio la composizione e l'editing di video / audio - che sono ad alta intensità di I / O e, a seconda del software utilizzato, possono generare un gran numero di file temporanei / intermedi. Il mio punto di vista è di non scrivere questo come qualcosa che riguarda solo una classe di utenti.)

Avvertenza: con le versioni più recenti di Windows (dall'8 in poi), questo è diventato molto più difficile, perché le cartelle degli utenti su un volume diverso da C: non sono più ufficialmente supportate. Posso dirti che non sono stato in grado di eseguire un aggiornamento sul posto da Windows 7 a Windows 10, ma YMMV (ci sono diversi modi per [ri] individuare una cartella utente, non so quali siano interessati) .

Un'ulteriore nota: se si mantengono due volumi separati su un'unità tradizionale, è possibile impostare un file di paging sul volume D :. Per i motivi descritti nella risposta di WooShell, ciò ridurrà il tempo di ricerca durante la scrittura nel file di paging.


Per me, è solo che C: può essere reinstallato, dove è necessario eseguire il backup di tutto su D: è necessario eseguire il backup
Mawg

Con gli SSD, la frammentazione dei metadati è ancora un problema perché significa più comandi di lettura / scrittura per lo stesso lavoro. Sebbene l'impatto sia ancora incomparabilmente inferiore rispetto agli azionamenti rotazionali.
ivan_pozdeev,

4

Risposta breve: non più.

Nella mia esperienza (oltre 20 anni di lavoro di amministrazione IT), il motivo principale di questa pratica (altri sono elencati di seguito) è che gli utenti non si fidavano sostanzialmente di Windows con i loro dati e lo spazio sul disco rigido.

Windows è stato a lungo notoriamente cattivo nel rimanere stabile nel tempo, pulendo dopo se stesso, mantenendo in salute la partizione di sistema e fornendo un comodo accesso ai dati dell'utente su di esso. Quindi gli utenti hanno preferito rifiutare la gerarchia del filesystem fornita da Windows e farla propria al di fuori di essa. La partizione di sistema fungeva anche da ghetto per negare a Windows i mezzi per provocare il caos al di fuori dei suoi confini.

  • Esistono molti prodotti, inclusi quelli di Microsoft, che non disinstallano in modo pulito e / o causano problemi di compatibilità e stabilità (la manifestazione più importante sono i file rimanenti e le voci di registro tutt'intorno e DLL Hellin tutte le sue incarnazioni). Molti file creati dal sistema operativo non vengono successivamente ripuliti (registri, aggiornamenti di Windows, ecc.), Portando il sistema operativo a occupare sempre più spazio con il passare del tempo. In Windows 95 e persino nell'era XP, i consigli arrivavano fino a suggerire una reinstallazione pulita del sistema operativo di tanto in tanto. La reinstallazione del sistema operativo richiedeva la capacità di garantire la cancellazione del sistema operativo e della sua partizione (anche per ripulire eventuali dati fasulli nel file system) - impossibile senza più partizioni. E dividere l'unità senza perdere dati è possibile solo con programmi specializzati (che possono avere le loro brutte sorprese come salvare e lasciare i dati in uno stato inutilizzabile quando si incontra un settore danneggiato). Vari programmi di "pulizia" hanno alleviato il problema, ma, essendo la loro logica basata sul reverse engineering e sul comportamento osservato,RegCleanl'utilità di MS stessa è stata annullata dopo il rilascio di Office 2007 che ha infranto le ipotesi sul registro su cui si basava). Il fatto che molti programmi abbiano salvato i loro dati in posizioni arbitrarie ha reso ancora più difficile la separazione dei dati dell'utente e del sistema operativo, rendendo anche gli utenti che installano programmi al di fuori della gerarchia del sistema operativo.
    • Microsoft ha provato diversi modi per migliorare la stabilità, con vari gradi di successo ( DLL condivise , protezione dei file di Windows e il suo successore TrustedInstaller, sottosistema side-by-side , un repository separato per moduli .NET con struttura di archiviazione che impedisce conflitti di versione e fornitore ). Le ultime versioni di Windows Installer hanno persino un controllo di dipendenza rudimentale (probabilmente l'ultimo gestore di pacchetti principale in uso generale per includere quella funzionalità).
    • Per quanto riguarda la conformità del software di terze parti alle migliori pratiche, si sono spostati tra il mantenimento della compatibilità con il software scritto in modo sciatto ma sufficientemente usato (altrimenti, i suoi utenti non si aggiornerebbero a una nuova versione di Windows) - il che porta a una quantità strabiliante di kludges e soluzioni alternative nel sistema operativo, inclusi comportamenti API non documentati, patch live di programmi di terze parti per correggere bug in essi e alcuni livelli di virtualizzazione del registro e del filesystem - e tra forzare i fornitori di terze parti a conformarsi a misure come un logo di certificazione programma e un programma di firma del conducente (reso obbligatorio a partire da Vista).
  • I dati dell'utente seppelliti sotto un lungo percorso sotto il profilo dell'utente hanno reso scomodo cercare e specificare i percorsi. I percorsi usavano anche nomi lunghi , avevano spazi (una rovina di shell di comando ovunque) e caratteri nazionali (un grave problema per i linguaggi di programmazione tranne quelli molto recenti che hanno un supporto Unicode completo) ed erano specifici della locale (!) E non ottenibili senza accesso winapi (!!) (uccidendo qualsiasi tentativo di internazionalizzazione negli script), che non ha aiutato nulla.
    Quindi avere i tuoi dati nella directory principale di un'unità separata è stata vista come una struttura dati più conveniente di quella fornita da Windows.
    • Ciò è stato risolto solo in versioni di Windows molto recenti. I percorsi stessi sono stati corretti in Vista, compattando nomi lunghi, eliminando spazi e nomi localizzati. Il problema di navigazione è stato risolto in Win7 che forniva le voci del menu Start sia per la radice del profilo utente e la maggior parte delle altre directory sotto di esso e cose come le cartelle "preferite" persistenti nelle finestre di dialogo di selezione dei file, con impostazioni predefinite sensibili come Downloads, per salvare la necessità di navigare per loro ogni volta.
  • Tutto sommato, gli sforzi della SM alla fine hanno dato i suoi frutti. All'incirca da Win7, il sistema operativo, il software di stock e di terze parti, comprese le utility di pulizia, sono abbastanza stabili e ben comportati e gli HDD abbastanza grandi, per il sistema operativo da non richiedere la reinstallazione per l'intera durata di una tipica workstation. E la gerarchia delle azioni è utilizzabile e accessibile abbastanza da accettarla e usarla nella pratica quotidiana.

Le ragioni secondarie sono:

  • I primi software (file system e supporto per il partizionamento nel BIOS e nei SO) erano in ritardo rispetto ai dischi rigidi nel supportare grandi volumi di dati, richiedendo la suddivisione di un disco rigido in parti per poter sfruttare tutta la sua capacità.
    • Questo era principalmente un problema in DOS e Windows 95 volte. Con l'avvento di FAT32 (Windows 98) e NTFS (Windows NT 3.1), il problema è stato ampiamente risolto per il momento.
    • La barriera da 2 TB emersa di recente è stata risolta dalla recente generazione di filesystem ( ext4 e versioni recenti di NTFS ), GPT e dischi 4k .
  • Vari tentativi di ottimizzare le prestazioni. I dischi rigidi rotazionali sono leggermente (circa 1,5 volte) più veloci nella lettura dei dati dalle tracce esterne (che mappano ai settori di partenza) rispetto a quelli interni, suggerendo di localizzare i file a cui si accede frequentemente come librerie del sistema operativo e file di paging vicino all'inizio del disco.
    • Poiché anche i dati degli utenti sono accessibili molto spesso e il riposizionamento della testa ha un impatto ancora maggiore sulle prestazioni, al di fuori di carichi di lavoro molto specifici, il miglioramento nell'uso nella vita reale è nella migliore delle ipotesi marginale.
  • Più dischi fisici. Si tratta di una configurazione non tipica per una workstation poiché un moderno HDD è spesso sufficientemente grande da solo e i laptop non hanno nemmeno spazio per un secondo HDD. La maggior parte se non tutte le stazioni che ho visto con questa configurazione sono desktop che (ri) usano HDD più vecchi che sono ancora operativi e si sommano alle dimensioni necessarie - altrimenti, dovrebbe essere usato un RAID, o una delle unità dovrebbe contenere backup e non essere in uso regolare.
    • Questo è probabilmente l'unico caso in cui si ottiene un vero vantaggio dalla divisione del sistema e dei dati in volumi separati: poiché si trovano fisicamente su hardware diverso, è possibile accedervi in ​​parallelo (a meno che non siano due unità PATA sullo stesso cavo) e non ci siano prestazioni colpito al riposizionamento della testa quando si passa da una all'altra.
      • Per riutilizzare la struttura di directory di Windows, ho typicaly muovo C:\Usersal drive di dati. Spostando solo un singolo profilo o anche solo Documents, Downloadse Desktopsi è dimostrato inferiore rispetto ad altre parti del profilo e Publicpuò anche crescere in modo incontrollato (vedere la configurazione "dati e configurazione separati" di seguito).
    • Sebbene i dischi possano essere consolidati in un volume con spanning , non lo uso o lo consiglio perché i volumi dinamici sono una tecnologia proprietaria con cui gli strumenti di terze parti hanno problemi a lavorare e perché se una delle unità si guasta, l'intero volume viene perso.
  • Un SSD M.2 + HDD.
    • In questo caso, consiglio piuttosto di utilizzare SSD esclusivamente come cache: in questo modo, ottieni il vantaggio di un SSD per l'intero array di dati anziché solo una parte arbitraria di esso, e ciò che viene accelerato viene determinato automagicamente da ciò che effettivamente accesso in pratica.
    • In ogni caso, questa configurazione in un laptop è inferiore a un solo SSD perché gli HDD sono anche intolleranti a shock e vibrazioni esterni che sono eventi reali per i laptop.
  • Scenari di doppio avvio. In genere, due sistemi operativi non possono coesistere su una singola partizione. Questo è l'unico scenario che conosco che garantisce più partizioni su una workstation. E i casi d'uso per questo sono al giorno d'oggi raramente rari perché ogni workstation è ora abbastanza potente per eseguire macchine virtuali.
  • Sui server, ci sono molti altri scenari validi, ma nessuno di questi si applica al dominio di Super User.
    • Ad esempio, è possibile separare i dati persistenti (programmi e configurazione) dalla modifica dei dati (dati e registri dell'app) per evitare che un'app in fuga rompa l'intero sistema. Esistono anche varie esigenze speciali (ad es. In un sistema incorporato, i dati persistenti spesso risiedono su una EEPROM mentre i dati di lavoro su un'unità RAM). Lo standard di gerarchia dei filesystem di Linux si presta bene a modifiche di questo tipo.

3

Quasi 2 decenni fa sarebbe stato dominato dalla gamma di Windows 98 a XP, inclusi NT4 e 2000 sul lato workstation / server.

Tutti i dischi rigidi sarebbero anche archiviazione magnetica cablata PATA o SCSI, poiché gli SSD costano più del computer e SATA non esiste.

Come dice la risposta di WooShell, i settori logici inferiori sull'unità (al di fuori del piatto) tendono ad essere i più veloci. Le mie unità Velociraptor da 1 TB WDC partono da 215 MB / s, ma scendono a 125 MB / s nei settori esterni, con un calo del 40%. E questo è un disco da 2,5 ", quindi la maggior parte delle unità da 3,5" vede un calo delle prestazioni sempre maggiore , maggiore del 50% . Questo è il motivo principale per mantenere piccola la partizione principale, ma si applica solo dove la partizione è piccola rispetto alla dimensione dell'unità.

L'altro motivo principale per mantenere piccola la partizione era se si utilizzava FAT32 come file system, che non supportava partizioni superiori a 32 GB. Se si utilizzava NTFS, le partizioni fino a 2 TB erano supportate prima di Windows 2000, quindi fino a 256 TB.

Se la partizione era troppo piccola rispetto alla quantità di dati che sarebbero stati scritti, è più facile frammentarsi e più difficile da deframmentare. Di te puoi semplicemente rimanere senza spazio come quello che ti è successo. Se si disponevano di troppi file relativi alle dimensioni della partizione e del cluster, la gestione della tabella dei file potrebbe essere problematica e influire sulle prestazioni. Se si utilizzano volumi dinamici per la ridondanza, mantenendo i volumi ridondanti piccoli quanto necessario si risparmia spazio sugli altri dischi.

Oggi le cose sono diverse, l'archiviazione client è dominata da SSD flash o unità magnetiche con accelerazione flash. Lo spazio di archiviazione è generalmente abbondante ed è facile aggiungere altro a una workstation, mentre nei giorni PATA, potresti avere avuto una sola connessione a unità non utilizzata per dispositivi di archiviazione aggiuntivi.

Quindi è ancora una buona idea o ha qualche vantaggio? Dipende dai dati che conservi e da come li gestisci. La mia workstation C: ha solo 80 GB, ma il computer stesso ha ben 12 TB di spazio di archiviazione, distribuiti su più unità. Ogni partizione contiene solo un determinato tipo di dati e la dimensione del cluster è abbinata sia al tipo di dati che alla dimensione della partizione, il che mantiene la frammentazione vicino a 0 e impedisce all'MFT di essere irragionevolmente grande.

Il ridimensionamento è che non c'è spazio inutilizzato, ma le prestazioni aumentano più che compensano, e se voglio più spazio di archiviazione aggiungo più unità. C: contiene il sistema operativo e le applicazioni usate di frequente. P: contiene applicazioni meno comunemente utilizzate ed è un SSD da 128 GB con un livello di durabilità in scrittura inferiore rispetto a C :. T: si trova su un SSD SLC più piccolo e contiene file temporanei dell'utente e del sistema operativo, inclusa la cache del browser. I file audio e video vengono archiviati in modo magnetico, così come le immagini delle macchine virtuali, i backup e i dati archiviati, in genere hanno dimensioni di cluster pari o superiori a 16 KB e le operazioni di lettura / scrittura sono dominate dall'accesso sequenziale. Eseguo la deframmentazione solo una volta all'anno su partizioni con volume di scrittura elevato e sono necessari circa 10 minuti per eseguire l'intero sistema.

Il mio laptop ha solo un singolo SSD da 128 GB e un caso d'uso diverso, quindi non posso fare la stessa cosa, ma continuo a separare in 3 partizioni, C: (80 GB di sistema operativo e programmi), T: (8 GB di temperatura) e F: ( 24 GB di file utente), che fa un buon lavoro nel controllare la frammentazione senza sprecare spazio, e il laptop verrà sostituito molto prima che finisca lo spazio. Inoltre semplifica notevolmente il backup, poiché F: contiene gli unici dati importanti che cambiano regolarmente.


Comunque la mia domanda dica, il nostro esperto IT "continua" a farlo poiché sto riscontrando lo stesso problema in questo momento.
hk_

Si noti che da Vista, Windows mantiene automaticamente i file di sistema a cui si accede spesso nei settori esterni (se possibile) comunque. Questo è uno dei motivi principali per cui le velocità di avvio sono aumentate così tanto: l'intera sequenza di avvio, incluse le applicazioni di avvio, di solito legge sequenzialmente dall'unità nel punto in cui è la più veloce. A meno che tu non abbia pasticciato con le partizioni, ovviamente: gli SSD P aiutano comunque immensamente, anche solo per la loro maggiore produttività.
Luaan,

2
@hk_ solo perché il tuo esperto IT sta ancora facendo le cose per abitudine non significa che le verità fondamentali per quell'abitudine di 20 o 15 (o anche 5) anni fa siano ancora vere oggi. Se fossi britannico e continuassi a guidare per abitudine sul lato sinistro della strada quando attraversi l'Europa continentale, ti sentiresti ferito. cioè "perché l'ho sempre fatto in quel modo" non è una buona ragione per continuare a fare qualcosa.
FreeMan,

@FreeMan Non lo sto supportando. Avevo dubbi quindi la mia domanda.
hk_

3

Facevo un po 'di lavoro IT, ed ecco cosa so e ricordo.

In passato, come altri hanno già detto, c'era un vero vantaggio nell'avere una piccola partizione C all'inizio del disco. Anche oggi su alcuni laptop di fascia bassa questo potrebbe essere vero. Essenzialmente avendo una partizione più piccola, hai meno frammentazione e mantenendola all'inizio del disco hai una ricerca e una lettura dei tempi migliori. Questo è ancora valido oggi con laptop (di solito) e dischi rigidi "verdi" più lenti.

Un altro grande vantaggio che uso ancora oggi è avere "dati" e "os" su unità separate, o se non riesco a gestire quelle partizioni separate. Non c'è un vero aumento di velocità se si utilizza SSD o unità magnetiche anche più veloci, ma c'è un'enorme opzione di "facile correzione" quando il sistema operativo alla fine si riempie. Basta scambiare l'unità o re-ghost quella partizione. I dati dell'utente sono intatti. Se configurato correttamente, tra un'unità D: e "Profili mobili" la reinstallazione di Windows è un problema di 5 minuti. Lo rende un buon passo per una tecnologia di livello 1.


Non sono sicuro che "un buon passo per una tecnologia di livello 1" sarebbe reinstallare Windows, indipendentemente da quanto sia veloce. Penso che reinstallare il sistema operativo dovrebbe quasi sempre essere un'opzione di ultima istanza. Così tante piccole cose strane potrebbero rompersi se si rimuove l'installazione del sistema operativo in tutte le applicazioni installate e la si sostituisce con un'altra (anche se molto simile). Ad esempio, cosa succede alle voci di registro specifiche dell'applicazione che non si trovano in HKCU?
Aaron M. Eshbach,

1
Anche loro vengono cancellati, il che significa che puoi anche escludere problemi di configurazione.
Coteyr,

2

Ecco un motivo, ma non credo che sia un motivo valido per i computer (moderni) di oggi.

Questo risale a Windows 95/98 e XT. Probabilmente non si applica a Vista e versioni successive, ma era una limitazione hardware, quindi eseguire un sistema operativo più recente su hardware vecchio avrebbe comunque dovuto gestire la limitazione.

Credo che la limitazione fosse di 2 GB, ma in precedenza potrebbe esserci stata una limitazione di 1 GB (o forse altre).

Il problema era (qualcosa del genere) questo: la partizione BOOT doveva trovarsi entro i primi 2 GB (forse 1 GB prima) dello spazio fisico sull'unità. Avrebbe potuto essere che 1) l'INIZIO della partizione BOOT dovesse rientrare nei limiti del limite, oppure, 2) TUTTA la partizione di avvio doveva rientrare nei limiti del limite. È possibile che in vari casi ciascuno di questi casi sia stato applicato, ma se si applicava il n. 2, probabilmente era di breve durata, quindi suppongo che sia il n. 1.

Quindi, con # 1, l'INIZIO della partizione BOOT doveva trovarsi entro i primi 2 GB di spazio fisico. Ciò non precluderebbe la creazione di 1 grande partizione per Boot / OS. Ma il problema era dual / multi boot. Se sembrava essere possibile voler eseguire il dual / multi boot dell'unità, ci doveva essere spazio disponibile sotto il segno da 2 GB per creare altre partizioni avviabili sull'unità. Poiché al momento dell'installazione potrebbe non essere noto se l'unità avrebbe mai bisogno di un'altra partizione di avvio, ad esempio Linix, o di una partizione di debug / risoluzione dei problemi / ripristino avviabile, è stato spesso consigliato (e spesso senza sapere perché) di installare su un "piccolo "Partizione di avvio del sistema operativo.


2

Mi chiedo se il vostro reparto IT decennale fosse preoccupato per il backup. Poiché C: è una partizione di avvio / sistema operativo, sarebbe tipico utilizzare un tipo di backup dell'immagine, ma per una partizione dati / programma, è possibile utilizzare un backup incrementale di file + cartelle. Ridurre lo spazio utilizzato nella partizione C: ridurrebbe il tempo e lo spazio necessari per il backup di un sistema.


Un commento sul mio uso personale della partizione C :. Ho un sistema multi-boot incluso Win 7 e Win 10 e non ho alcun sistema operativo sulla partizione C: solo i file di avvio. Uso il backup dell'immagine di sistema di Windows sia per Win 7 che per Win 10 e il backup dell'immagine di sistema di Windows include sempre la partizione C: (avvio), oltre alla partizione Win 7 o Win 10, quindi questo è un altro scenario in cui ridurre la quantità di dati e programmi sulla partizione C: riduce il tempo e lo spazio necessari per un backup dell'immagine di sistema (o ripristina se necessario).


Lascio questa sezione nella mia risposta a causa dei commenti qui sotto.

Poiché il mio sistema è multi-boot, il riavvio in un sistema operativo diverso semplifica il backup delle partizioni di dati / programmi poiché non vi è alcuna attività sulle partizioni durante il backup. Ho scritto un semplice programma di backup che esegue una copia di una cartella + file insieme a informazioni di sicurezza e analisi, ma non funziona abbastanza per le partizioni del sistema operativo Win 7 o Win 10, quindi sto usando il backup dell'immagine di sistema per C ;, Win 7 e vinci 10 partizioni OS.


3
...che cosa? Non mancano strumenti e metodi per eseguire il backup della partizione di sistema. Inoltre, il tuo sistema di backup domestico probabilmente fallirà per qualcosa di complesso perché non gestisce i casi comuni di file hard-link (SxS fa molto affidamento su questo), punti di giunzione (di nuovo, il sistema operativo di base si basa su questo), parzialmente- file scritti (VSS gestisce questo), file bloccati (di nuovo, VSS), ecc.
Bob

Probabilmente posso nominare una mezza dozzina di diversi pacchetti software - veem, macrium, acronis, symentec ghost ... che fanno questo. La maggior parte di questi utilizza meccanismi integrati anche in background.
Journeyman Geek

Corro Veeam, ho eseguito il backup su un disco esterno ma corro tutti i giorni. Ci sono alcune altre parti mobili per i backup di backup, ma certamente non è necessario deframmentare manualmente o eseguire il backup offline.
Journeyman Geek

Per quanto riguarda i backup di partizioni complete online, quasi tutto utilizza VSS per ottenere uno snapshot point-in-time (altrimenti si verificano problemi quando si esegue il backup, ad esempio, un file di database parzialmente scritto, quindi si esegue il backup del journal del database dopo il la lettura del file è terminata). Disk2vhd è l'esempio più banale; suite più complete come Acronis gestiranno inoltre immagini differenziali / incrementali.
Bob,

@Bob - Eseguo il mio programma solo dopo il riavvio in un altro sistema operativo, quindi qualsiasi partizione di cui è stato eseguito il backup non è attiva, evitando il problema dello snapshot temporaneo nel tentativo di eseguire il backup di una partizione attiva. È simile all'avvio da un CD-ROM eseguire un'utilità di imaging del disco per "clonare" un disco rigido (cosa che ho fatto qualche tempo fa quando ho sostituito tutti i miei dischi rigidi).
rcgldr,

2

No, non con Windows e le sue principali suite di software che insistono sui legami con il Sistema: nonostante li installi su Programmi :. (È una necessità istituzionalizzata nel modo in cui sono costruiti la maggior parte dei sistemi operativi.) Un dato: il volume ha un senso, ma un'unità rimovibile separata per i tuoi dati (o NAS, o backup selettivi o incrementali su tale unità rimovibile) ha ancora più senso.

Anche il partizionamento per sistemi multi-OS ha senso, ma ogni partizione ti costringe a selezionare un limite massimo di archiviazione superiore. Generalmente è meglio con unità separate anche in questo caso.

E oggi, le macchine virtuali e le unità cloud integrano molte di queste scelte.


2

C'è un motivo particolare: utilizzare le istantanee del volume.

Un'istantanea del volume è un backup dell'intera partizione. Quando si esegue il ripristino da questo tipo di backup, si riscrive l'intera partizione, ripristinando efficacemente il sistema allo stato precedente.

Un amministratore di sistema può creare tali istantanee su base regolare in preparazione a qualsiasi tipo di errore del software. Possono persino memorizzarli su un'altra partizione della stessa unità. Ecco perché vuoi che la partizione di sistema sia relativamente piccola.

Quando si utilizza questo schema, gli utenti sono incoraggiati a memorizzare i propri dati sull'unità di rete. In caso di problemi software, un amministratore di sistema può semplicemente ripristinare il sistema allo stato di funzionamento. Sarebbe estremamente efficiente in termini di tempo rispetto a indagare manualmente le ragioni del problema e risolverlo.


0

Ho programmato per quasi mezzo secolo. Un'altra risposta dice storica e un'altra lunga risposta dice Più dischi fisici .

Voglio sottolineare che più dischi fisici è molto probabilmente ciò che ha iniziato la raccomandazione. Più di mezzo secolo fa, quando non c'erano cose come le partizioni, era estremamente comune usare un'unità fisica separata per il sistema. La ragione principale di ciò è il movimento fisico delle teste e la rotazione delle unità. Questi vantaggi non esistono per le partizioni quando l'unità fisica viene spesso utilizzata per altre cose.

Si noti inoltre che Unix separa il sistema e i dati in partizioni separate. Ci sono molte buone ragioni per farlo, come spiegato in molte altre risposte, ma per le prestazioni, unità fisiche separate sono la giustificazione principale.


-1

Il motivo che abbiamo usato per creare 2 partizioni era dovuto ai virus. Alcuni virus utilizzati per sovrascrivere il settore di avvio e l'inizio del disco.

I backup sui computer degli utenti erano soliti ridurre a una copia dell'intero programma su un dischetto. (In realtà un non backup)

Quindi, quando un virus "mangiava" l'inizio del disco, di solito doveva essere reinstallato solo il sistema.

E se non c'erano backup, il ripristino dei dati era più semplice se la seconda partizione era intatta.

Quindi, se si dispone di backup, questo motivo non è valido.

Utilizzando il nostro sito, riconosci di aver letto e compreso le nostre Informativa sui cookie e Informativa sulla privacy.
Licensed under cc by-sa 3.0 with attribution required.