Ci sono stati tentativi di dimostrare che la casualità di Kolmogorov sarebbe sufficiente per RP ? La probabilità utilizzata nell'affermazione "Se la risposta corretta è SÌ, allora (la macchina di Turing probabilistica) restituisce SÌ con probabilità ..." sarebbe sempre ben definita in quel caso? O ci sarebbero solo limiti superiori e inferiori per quella probabilità? O ci sarebbe sempre solo qualche macchina di Turing probabilistica, per la quale le probabilità sarebbero ben definite (o almeno il limite inferiore che dovrebbe essere maggiore di 1/2)?
La classe RP qui è relativamente arbitraria, e si potrebbe anche porre questa domanda per nozioni più deboli di (pseudo-) casualità rispetto alla casualità di Kolmogorov. Ma la casualità di Kolmogorov sembra essere un buon punto di partenza.
Dare un senso alla parola "probabilità" sarebbe parte di un tentativo di dimostrare che la casualità di Kolmogorov funziona per RP. Tuttavia, lasciami provare a descrivere un possibile approccio, per chiarire cosa potrebbe significare e perché ho parlato dei limiti superiore e inferiore:
Let essere un (Kolmogorov casuale) stringa. Sia una determinata macchina di Turing probabilistica corrispondente a una lingua di RP. Eseguire con come fonte per bit casuali volte, continuando a consumare bit precedentemente non incorporati da uno dopo l'altro.A A s n
Per , lascia che e p _- ^ s: = \ liminf_ {n \ to \ infty} p_n ^ s . Si osservi che p _ ^ + s e p _- ^ s sono ben definiti per una data stringa s , anche se non sarebbe casuale. Ma ci si potrebbe chiedere se p _ + ^ s = p _- ^ s nel caso s sia Kolmogorov casuale, o se p _- ^ {s_1} = p _- ^ {s_2} per due stringhe casuali arbitrarie di Kolmogorov s_1 e s_2 . O se esiste un p \ geq 1/2 tale che p \ leq p _- ^ s per qualsiasi stringa casuale di Kolmogorov p s - : = lim inf n → ∞ p s n p s + p s - s p s + = p s - s p s 1 - = p s 2 - s 1 s 2 p ≥ 1 / 2 p ≤ s .