Consentitemi di semplificare ed espandere i miei commenti precedenti e collegare i punti per coloro che sembrano averne bisogno.
Il design è ancora fatto a un livello (sub) di gate logico?
Il design è fatto a molti livelli, il livello sub-logico è sempre diverso . Ogni restringimento di fabbricazione richiede la più brillante esperienza di fisica, chimica e processo litografico poiché la struttura di un transistor cambia e anche la geometria cambia per compensare i compromessi, mentre si riduce a livelli atomici e costa ~ $ miliardi ogni passo binario in dimensione. Raggiungere la geometria a 14 nm è un impegno enorme in ricerca e sviluppo, controllo e gestione dei processi e questo è ancora un eufemismo!
Ad esempio le competenze professionali richieste per fare ciò includono;
- "FET, layout personalizzati a livello di cella e di blocco, planimetrie a livello di FUB, generazione di viste astratte, estrazione RC e verifica e debug da schema a layout utilizzando fasi di sviluppo del progetto fisico tra cui estrazione parassitaria, temporizzazione statica, carico del filo modelli, generazione di clock, modifica di poligoni personalizzati, algoritmi di posizionamento automatico e instradamento, pianificazione del pavimento, assemblaggio di chip completi, imballaggio e verifica. "*
- non c'è più molta innovazione in quell'area?
- SBAGLIATO - C'è un'innovazione significativa e fortemente finanziata nella fisica dei semiconduttori, a giudicare dalla legge di Moore e dal numero di brevetti, non si fermerà mai. Il risparmio di energia, calore e quindi quadruplicando le capacità ripaga ogni volta.
- siamo passati a un livello superiore di astrazione?
- Non ha mai smesso di muoversi. - Con la richiesta di più core, facendo di più in un'istruzione come CPU ARM RISC, µC o MCU integrati più potenti, RAM intelligente con DDR4 che ha ECC di default e settori come il flash con bit prioritari per recuperi di memoria urgenti. - L'evoluzione della CPU e le modifiche all'architettura non si fermeranno mai.
Lascia che ti dia un suggerimento. Vai a fare una ricerca di lavoro su Intel, AMD, TI o AD per gli ingegneri e guarda le descrizioni dei lavori.
- Da dove vengono i disegni per i miliardi di transistor?
- È arrivato dall'aggiunta di più blocchi di hardware a 64 bit. ma ora si verificano guasti ai nanotubi, il pensiero deve cambiare dall'approccio dall'alto verso il basso dei blocchi all'approccio dal basso verso l'alto dei nanotubi per farlo funzionare.
- Sono principalmente generati automaticamente dal software? con la lingua ben piantata nella guancia ...
In realtà stanno ancora estraendo progetti da Area51 dalle astronavi e hanno ancora molta strada da fare .... fino a quando non saremo completamente conformi ai tubi nano-nano. Un ingegnere entra nella libreria e dice a nVidia che vorremmo che tu ci unissi a noi su questo chip e diventi una parte, che va in un macroblocco . Il layout può essere replicato come Ants in Toystory ma il controllo esplicito su tutte le connessioni deve essere instradato / estratto manualmente e utilizzare DRC e routing automatico per il confronto. Sì, gli strumenti di automazione vengono costantemente aggiornati per rimuovere duplicazioni e perdite di tempo.
- c'è ancora molta ottimizzazione manuale?
- Considerando che una compagnia aerea ha risparmiato abbastanza denaro per pagare il tuo stipendio rimuovendo solo 1 oliva dalla cena in First Class, Intel cercherà di rimuovere il maggior numero possibile di atomi entro il periodo di tempo. Qualsiasi capacità in eccesso significa spreco di calore, prestazioni e oops anche più rumore, non così veloce ...
Ma in realtà la CPU cresce come Tokyo, non è una notte, ma decine di milioni vivono lì con un costante miglioramento. Non ho imparato a progettare in Univ. ma leggendo e cercando di capire come funzionano le cose, sono stato in grado di accelerare abbastanza rapidamente nel settore. Ho avuto 10 anni di esperienza nei miei primi 5 anni in aerospaziale, progettazione di strumenti nucleari, progettazione SCADA, monitoraggio dei processi, progettazione di antenne, progettazione e debug di stazioni meteorologiche automatizzate, VLF Rx di PLX di OCXO, telecomando a 2 vie di Black Brandt Rockets ... e quello era solo il mio primo lavoro. Non avevo idea di cosa avrei potuto fare.
Non preoccuparti di miliardi di transistor o di avere paura di cosa imparare o di quanto devi sapere. Segui la tua passione e leggi le riviste specializzate tra il sonno, quindi non sembrerai così ecologico sul lavoro e non ti senti più come lavoro.
Ricordo di aver progettato un amplificatore operazionale "come" 741 come parte di un esame una volta, in 20 minuti. Non l'ho mai usato davvero, ma posso riconoscere bene dai grandi design. Ma poi aveva solo 20 transistor.
Ma come progettare una CPU deve iniziare con una specifica, vale a dire;
Perché progettare una CPU e fare benchmark misurabili per raggiungere tali;
- Macro istruzioni al secondo (MIPS) (più importanti del clock della CPU), ad esempio; - Il chip Intel Itanium si basa su quello che chiamano un design EPIC (Explicitly Parallel Instruction Computing).
- Design della CPU brevettato Transmeta con microprocessori morphing a codice parola di istruzioni molto lunghi (VLIWCMM). Hanno fatto causa a Intel nel 2006, hanno chiuso il negozio e si sono stabiliti per $ 200 milioni nel 2007.
- Prestazioni per watt (PPW), quando i costi di alimentazione> costo del chip (per server) - Punto di galleggiamento Ops al secondo (FLOPS) per le prestazioni matematiche.
Esistono molte più metriche, ma mai basare la qualità di progettazione di una CPU sulla sua velocità GHz (vedi mito)
Quindi quali strumenti di pianificazione sono necessari per progettare le CPU? L'elenco non si adatterebbe a questa pagina dalla progettazione fisica a livello atomico alla progettazione EM / RF fisica EMC a maglia dinamica fino all'ingegnere responsabile della verifica della progettazione del front-end, dove le competenze richieste includono; - Simulazione RTL front-end - conoscenza dell'IA e dell'architettura del computer e progettazione a livello di sistema - Verifica della logica e simulazione della logica mediante VHDL o Verilog. - Programmazione orientata agli oggetti e vari protocolli CPU, bus / interconnessione, coerenza.