Quando le dimensioni della tecnologia diminuiscono, la resistenza / capacità del filo non può ridimensionarsi proporzionalmente al ritardo di propagazione dei transistor ora più veloci / più piccoli. Per questo motivo, il ritardo viene largamente dominato dal filo (man mano che i transistor che compongono le porte si restringono; diminuiscono sia la capacità di ingresso che la capacità di unità di uscita).
Pertanto, esiste un compromesso tra un transistor più veloce e le capacità di azionamento dello stesso transistor per un dato carico. Se si considera che il carico più significativo per la maggior parte delle porte digitali è la capacità del filo e la protezione ESD nelle porte seguenti, ci si rende conto che esiste un punto in cui i transistor più piccoli (più veloci e più deboli) non riducono più il ritardo in situ (poiché il carico del gate è dominato dal filo e dalla resistenza / capacità ESD dei cavi e dalla protezione ESD al gate successivo).
Le CPU possono mitigare questo perché tutto è integrato insieme a fili di dimensioni proporzionali. Tuttavia, il ridimensionamento del ritardo del gate non viene associato al ridimensionamento del ritardo di interconnessione. La capacità del filo viene ridotta rendendo il filo più piccolo (più corto e / o più sottile) e isolandolo dai conduttori vicini. La riduzione del filo ha l'effetto collaterale di aumentare anche la resistenza del filo.
Quando si esce dal chip, le dimensioni dei cavi che collegano i singoli circuiti integrati diventano proibitive (spessore e lunghezza). Non ha senso creare un circuito integrato che commuta a 2 GHz quando può praticamente solo guidare 2fF. Non è possibile connettere i circuiti integrati senza superare le capacità massime dell'unità. Ad esempio, un filo "lungo" nelle nuove tecnologie di processo (7-22nm) è lungo tra 10 e 100um (e forse 80nm di spessore per 120nm di larghezza). Non puoi ragionevolmente raggiungere questo obiettivo, non importa quanto tu sia intelligente con il posizionamento dei tuoi singoli circuiti integrati monolitici.
E sono anche d'accordo con jonk, riguardo ESD e buffering dell'output.
Come esempio numerico del buffering di output, si consideri una tecnologia NAND gate con una corrente corrente ha un ritardo di 25ps con un carico adeguato e una rotazione di ingresso di ~ 25ps.
Ignorare il ritardo per passare attraverso i pad / i circuiti ESD; questo cancello può solo guidare ~ 2-3fF. Per bufferizzare questo fino a un livello appropriato all'output potresti aver bisogno di molte fasi del buffer.
Ogni fase del buffer avrà un ritardo di circa ~ 20ps con una dissolvenza di 4. Quindi puoi vedere che perdi molto rapidamente il vantaggio di gate più veloci quando devi bufferizzare così tanto l'output.
Supponiamo solo che la capacità di ingresso attraverso la protezione ESD + filo (il carico che ogni gate deve essere in grado di guidare) sia di circa 130fF, il che è probabilmente molto sottovalutato. Usando una dissolvenza di ~ 4 per ogni stadio avrai bisogno di 2fF-> 8fF-> 16fF-> 32fF-> 128fF: 4 stadi di buffering.
Ciò aumenta il ritardo NAND 25ps a 105ps. E si prevede che anche la protezione ESD al gate successivo aggiungerà un notevole ritardo.
Quindi, c'è un equilibrio tra "usare il gate più veloce possibile e buffering dell'output" e "usare un gate più lento che intrinsecamente (a causa di transistor più grandi) ha più drive di output, e quindi richiede meno stadi di buffering di output". La mia ipotesi è che questo ritardo si verifichi intorno a 1 ns per porte logiche per scopi generici.
Le CPU che devono interfacciarsi con il mondo esterno ottengono un maggiore ritorno sull'investimento nel buffer (e quindi perseguono tecnologie sempre più piccole) perché invece di pagare quel costo tra ogni singolo gate, lo pagano una volta per ogni porta I / O.