Questo è un problema comune, quindi ecco un'illustrazione relativamente completa.
Per le stringhe non Unicode (cioè quelle senza u
prefisso come u'\xc4pple'
), è necessario decodificare dalla codifica nativa ( iso8859-1
/ latin1
, a meno che non sia modificata con lasys.setdefaultencoding
funzione enigmatica ) a unicode
, quindi codificare in un set di caratteri che può visualizzare i caratteri desiderati, in questo caso io lo consiglierei UTF-8
.
Innanzitutto, ecco una pratica funzione di utilità che aiuterà a illuminare i modelli di stringa Python 2.7 e unicode:
>>> def tell_me_about(s): return (type(s), s)
Una semplice stringa
>>> v = "\xC4pple"
>>> tell_me_about(v)
(<type 'str'>, '\xc4pple')
>>> v
'\xc4pple'
>>> print v
?pple
Decodifica di una stringa iso8859-1: converti una stringa semplice in unicode
>>> uv = v.decode("iso-8859-1")
>>> uv
u'\xc4pple'
>>> tell_me_about(uv)
(<type 'unicode'>, u'\xc4pple')
>>> print v.decode("iso-8859-1")
Äpple
>>> v.decode('iso-8859-1') == u'\xc4pple'
True
Un po 'più di illustrazione - con "Ä"
>>> u"Ä" == u"\xc4"
True
>>> "Ä" == u"\xc4"
False
>>> "Ä".decode('utf8') == u"\xc4"
True
>>> "Ä" == "\xc4"
False
Codifica in UTF
>>> u8 = v.decode("iso-8859-1").encode("utf-8")
>>> u8
'\xc3\x84pple'
>>> tell_me_about(u8)
(<type 'str'>, '\xc3\x84pple')
>>> u16 = v.decode('iso-8859-1').encode('utf-16')
>>> tell_me_about(u16)
(<type 'str'>, '\xff\xfe\xc4\x00p\x00p\x00l\x00e\x00')
>>> tell_me_about(u8.decode('utf8'))
(<type 'unicode'>, u'\xc4pple')
>>> tell_me_about(u16.decode('utf16'))
(<type 'unicode'>, u'\xc4pple')
Relazione tra unicode e UTF e latin1
>>> print u8
Äpple
>>> print u8.decode('utf-8')
Äpple
>>> print u16
���pple
>>> print u16.decode('utf16')
Äpple
>>> v == u8
False
>>> v.decode('iso8859-1') == u8
False
>>> u8.decode('utf-8') == v.decode('latin1') == u16.decode('utf-16')
True
Eccezioni Unicode
>>> u8.encode('iso8859-1')
Traceback (most recent call last):
File "<stdin>", line 1, in <module>
UnicodeDecodeError: 'ascii' codec can't decode byte 0xc3 in position 0:
ordinal not in range(128)
>>> u16.encode('iso8859-1')
Traceback (most recent call last):
File "<stdin>", line 1, in <module>
UnicodeDecodeError: 'ascii' codec can't decode byte 0xff in position 0:
ordinal not in range(128)
>>> v.encode('iso8859-1')
Traceback (most recent call last):
File "<stdin>", line 1, in <module>
UnicodeDecodeError: 'ascii' codec can't decode byte 0xc4 in position 0:
ordinal not in range(128)
Si potrebbero aggirare questi convertendo dalla codifica specifica (latin-1, utf8, utf16) ad es u8.decode('utf8').encode('latin1')
. Unicode .
Quindi forse si potrebbero trarre i seguenti principi e generalizzazioni:
- un tipo
str
è un insieme di byte, che può avere una delle numerose codifiche come Latin-1, UTF-8 e UTF-16
- un tipo
unicode
è un insieme di byte che può essere convertito in un numero qualsiasi di codifiche, più comunemente UTF-8 e latin-1 (iso8859-1)
- il
print
comando ha una propria logica per la codifica , impostata susys.stdout.encoding
su UTF-8 e di default
- È necessario decodificare un
str
in Unicode prima di convertirlo in un'altra codifica.
Ovviamente, tutto questo cambia in Python 3.x.
Spero che sia illuminante.
Ulteriore lettura
E gli sproloqui molto illustrativi di Armin Ronacher: