La documentazione di Bash afferma che ogni volta che $RANDOM
viene fatto riferimento, viene restituito un numero casuale compreso tra 0 e 32767. Se sommiamo due riferimenti consecutivi, otteniamo valori da 0 a 65534, che copre l'intervallo desiderato di 63001 possibilità per un numero casuale compreso tra 2000 e 65000.
Per adattarlo all'intervallo esatto, utilizziamo la somma modulo 63001, che ci darà un valore compreso tra 0 e 63000. Ciò a sua volta richiede solo un incremento di 2000 per fornire il numero casuale desiderato, tra 2000 e 65000. Questo può essere riassunto come segue:
port=$((((RANDOM + RANDOM) % 63001) + 2000))
analisi
# Generate random numbers and print the lowest and greatest found
test-random-max-min() {
max=2000
min=65000
for i in {1..10000}; do
port=$((((RANDOM + RANDOM) % 63001) + 2000))
echo -en "\r$port"
[[ "$port" -gt "$max" ]] && max="$port"
[[ "$port" -lt "$min" ]] && min="$port"
done
echo -e "\rMax: $max, min: $min"
}
# Sample output
# Max: 64990, min: 2002
# Max: 65000, min: 2004
# Max: 64970, min: 2000
Correttezza del calcolo
Ecco un test completo a forza bruta per la correttezza del calcolo. Questo programma cerca solo di generare casualmente tutte le 63001 diverse possibilità, usando il calcolo sotto test. Il --jobs
parametro dovrebbe renderlo più veloce, ma non è deterministico (il totale delle possibilità generate potrebbe essere inferiore a 63001).
test-all() {
start=$(date +%s)
find_start=$(date +%s)
total=0; ports=(); i=0
rm -f ports/ports.* ports.*
mkdir -p ports
while [[ "$total" -lt "$2" && "$all_found" != "yes" ]]; do
port=$((((RANDOM + RANDOM) % 63001) + 2000)); i=$((i+1))
if [[ -z "${ports[port]}" ]]; then
ports["$port"]="$port"
total=$((total + 1))
if [[ $((total % 1000)) == 0 ]]; then
echo -en "Elapsed time: $(($(date +%s) - find_start))s \t"
echo -e "Found: $port \t\t Total: $total\tIteration: $i"
find_start=$(date +%s)
fi
fi
done
all_found="yes"
echo "Job $1 finished after $i iterations in $(($(date +%s) - start))s."
out="ports.$1.txt"
[[ "$1" != "0" ]] && out="ports/$out"
echo "${ports[@]}" > "$out"
}
say-total() {
generated_ports=$(cat "$@" | tr ' ' '\n' | \sed -E s/'^([0-9]{4})$'/'0\1'/)
echo "Total generated: $(echo "$generated_ports" | sort | uniq | wc -l)."
}
total-single() { say-total "ports.0.txt"; }
total-jobs() { say-total "ports/"*; }
all_found="no"
[[ "$1" != "--jobs" ]] && test-all 0 63001 && total-single && exit
for i in {1..1000}; do test-all "$i" 40000 & sleep 1; done && wait && total-jobs
Per determinare quante iterazioni sono necessarie per ottenere una determinata probabilità che p/q
siano state generate tutte le 63001 possibilità, credo che possiamo usare l'espressione sotto. Ad esempio, ecco il calcolo per una probabilità maggiore di 1/2 e qui per maggiore di 9/10 .
shuf
sia relativamente recente - l'ho visto su sistemi Ubuntu negli ultimi due anni, ma non l'attuale RHEL / CentOS.