Quando si considerano i modelli di calcolo della macchina, la gerarchia di Chomsky è normalmente caratterizzata da (in ordine), automi finiti, automi push-down, automi rilegati lineari e macchine di Turing.
Per il primo e l'ultimo livello 1 (linguaggi regolari e linguaggi ricorsivamente enumerabili), non fa alcuna differenza per la potenza del modello se si considerano macchine deterministiche o non deterministiche, ovvero i DFA sono equivalenti ai NFA e i DTM equivalenti ai NTM 2 .
Tuttavia, per PDA e LBA la situazione è diversa. I PDA deterministici riconoscono un set di lingue strettamente più piccolo dei PDA non deterministici. È anche una questione aperta e significativa se gli LBA deterministici sono potenti quanto gli LBA non deterministici o meno [1].
Questo pone la mia domanda:
Esiste un modello macchina che caratterizza i linguaggi senza contesto, ma per il quale il non determinismo non aggiunge alcun potere aggiuntivo? (In caso contrario, c'è qualche proprietà dei CFL che suggerisce un motivo per questo?)
Mi sembra improbabile (per me) che sia dimostrabile che i linguaggi senza contesto necessitano in qualche modo di non determinismo, ma non sembra esserci un modello di macchina (noto) per il quale le macchine deterministiche sono sufficienti.
La domanda di estensione è la stessa, ma per le lingue sensibili al contesto.
Riferimenti
- S.-Y. Kuroda, "Classi di lingue e automi vincolati lineari" , Informazione e controllo, 7: 207-223, 1964.
Le note
- Domanda a margine per i commenti, c'è una ragione per cui i livelli (ordinati per inclusione impostata) della gerarchia di Chomsky siano i numeri da 3 a 0, anziché da 0 a 3?
- Per essere chiari, sto parlando delle lingue che possono essere riconosciute solo. Ovviamente le questioni di complessità sono radicalmente influenzate da tale cambiamento.