Definire LOGLOG come la classe di linguaggi che può essere calcolata nello spazio O (loglog n) da una macchina Turing deterministica (con accesso bidirezionale all'input). Allo stesso modo definire NLOGLOG come la classe di linguaggi che può essere calcolata nello spazio O (log log n) da una macchina di Turing non deterministica (con accesso bidirezionale all'input). Non si sa davvero che queste classi differiscono?
Potrei trovare solo alcuni sondaggi più vecchi e un teorema che se uguagliano allora L = NL (che non è solo un banale argomento di riempimento!), Ma in qualche modo sento che separare queste classi non può essere così difficile. Ovviamente potrei sbagliarmi completamente, ma se ogni secondo bit dell'input sono i numeri da 1 a n in ordine crescente in binario, separati da alcuni simboli, allora le macchine possono già imparare il loglog n e con ogni altro secondo bit possiamo inserire un problema che può ingannare una macchina deterministica ma non una deterministica. Non vedo ancora esattamente come ciò possa essere fatto, ma sembra un possibile approccio, poiché con questo trucco possiamo sostanzialmente inserire un registro di profondità in un albero binario insieme alla sua struttura invece del solito nastro lineare.