Stavo cercando di implementare un test di primalità di Miller-Rabin e sono rimasto perplesso sul motivo per cui ci volesse così tanto tempo (> 20 secondi) per i numeri di medie dimensioni (~ 7 cifre). Alla fine ho scoperto che la seguente riga di codice era l'origine del problema:
x = a**d % n
(dove a
, d
e n
sono tutti numeri medi simili, ma disuguali, **
è l'operatore di esponenziazione ed %
è l'operatore modulo)
Ho quindi provato a sostituirlo con il seguente:
x = pow(a, d, n)
e in confronto è quasi istantaneo.
Per contesto, ecco la funzione originale:
from random import randint
def primalityTest(n, k):
if n < 2:
return False
if n % 2 == 0:
return False
s = 0
d = n - 1
while d % 2 == 0:
s += 1
d >>= 1
for i in range(k):
rand = randint(2, n - 2)
x = rand**d % n # offending line
if x == 1 or x == n - 1:
continue
for r in range(s):
toReturn = True
x = pow(x, 2, n)
if x == 1:
return False
if x == n - 1:
toReturn = False
break
if toReturn:
return False
return True
print(primalityTest(2700643,1))
Un esempio di calcolo a tempo:
from timeit import timeit
a = 2505626
d = 1520321
n = 2700643
def testA():
print(a**d % n)
def testB():
print(pow(a, d, n))
print("time: %(time)fs" % {"time":timeit("testA()", setup="from __main__ import testA", number=1)})
print("time: %(time)fs" % {"time":timeit("testB()", setup="from __main__ import testB", number=1)})
Risultato (eseguito con PyPy 1.9.0):
2642565
time: 23.785543s
2642565
time: 0.000030s
Output (eseguito con Python 3.3.0, 2.7.2 restituisce tempi molto simili):
2642565
time: 14.426975s
2642565
time: 0.000021s
E una domanda correlata, perché questo calcolo è quasi due volte più veloce se eseguito con Python 2 o 3 rispetto a PyPy, quando di solito PyPy è molto più veloce ?
>>> print pow.__doc__ pow(x, y[, z]) -> number With two arguments, equivalent to x**y. With three arguments, equivalent to (x**y) % z, but may be more efficient (e.g. for longs).