Data una singola lettera dalla A alla Z (tranne J e K) come input, genera il numero intero non negativo più piccolo contenente quella lettera nella sua forma scritta. Supponiamo che i numeri non contengano mai la parola "e", quindi 101
"centouno", non "centouno". Assumi il conteggio americano (su scala ridotta), quindi un milione è 10^6
e un miliardo lo è 10^9
.
a 1000 one thousand
b 1000000000 one billion
c 1000000000000000000000000000 one octillion
d 100 one hundred
e 0 zero
f 4 four
g 8 eight
h 3 three
i 5 five
j
k
l 11 eleven
m 1000000 one million
n 1 one
o 0 zero
p 1000000000000000000000000 one septillion
q 1000000000000000 one quadrillion
r 0 zero
s 6 six
t 2 two
u 4 four
v 5 five
w 2 two
x 6 six
y 20 twenty
z 0 zero
J e K non fanno parte delle specifiche di input, quindi il tuo comportamento non è definito per loro. Data una delle lettere sopra, genera il numero (decimale) accanto ad essa. È possibile accettare input in minuscolo o maiuscolo, ma non è possibile richiedere che alcuni input siano minuscoli e altri maiuscoli.
Questo è code-golf , quindi vince la risposta più breve in byte.