Penso che tu abbia alcune idee sbagliate sulla storia dell'informatica.
La prima astrazione (nel 1936) fu, in effetti, il Lambda Calculus della Alonzo Church, che è la base del concetto di funzioni di alto ordine e di tutti i linguaggi funzionali che seguirono. Ha ispirato direttamente Lisp (il secondo linguaggio di programmazione di alto livello più antico, creato nel 1959), che a sua volta ha ispirato qualsiasi cosa, da ML a Haskell e Clojure.
La seconda astrazione era la programmazione procedurale. È uscito dalle architetture informatiche von Neumann in cui sono stati scritti programmi sequenziali, un'istruzione alla volta. FORTRAN (il più antico linguaggio di programmazione di alto livello, 1958) fu il primo linguaggio di alto livello ad uscire dal paradigma procedurale.
La terza astrazione era probabilmente una programmazione dichiarativa, esemplificata da Absys (1967), e successivamente da Prolog (1972). È il fondamento della programmazione logica, in cui le espressioni vengono valutate abbinando una serie di dichiarazioni o regole, anziché eseguire una serie di istruzioni.
La quarta astrazione fu quindi la programmazione orientata agli oggetti, che fece la sua prima apparizione nei programmi Lisp negli anni '60, ma fu successivamente esemplificata da Smalltalk nel 1972. (Anche se sembra esserci un dibattito sul fatto che lo stile di passaggio di messaggi di Smalltalk sia l'unica vera astrazione orientata agli oggetti. Non la toccherò.)
Tutte le altre astrazioni, in particolare sulla tradizionale architettura informatica di von Neumann, sono variazioni su questi quattro temi. Non sono convinto che ci sia un'altra astrazione oltre quelle quattro che non è semplicemente una variazione o una combinazione di esse.
Ma un'astrazione è, in sostanza, semplicemente un modo per modellare e descrivere un algoritmo. È possibile descrivere gli algoritmi come una serie di passaggi discreti, come un insieme di regole che devono essere rispettate, come un insieme di funzioni matematiche o come oggetti interagenti. È molto difficile concepire un altro modo per descrivere o modellare gli algoritmi e, anche se esiste, non sono convinto della sua utilità.
Vi è, tuttavia, il modello di calcolo quantistico. Nell'informatica quantistica sono necessarie nuove astrazioni per modellare gli algoritmi quantistici. Essendo un neofita in quest'area, non posso commentarlo.