Jest to częsty problem, więc oto stosunkowo dokładna ilustracja.
W przypadku ciągów innych niż Unicode (tj. Bez u
prefiksu u'\xc4pple'
), należy dekodować z natywnego kodowania ( iso8859-1
/ latin1
, chyba że zmodyfikowano za pomocąsys.setdefaultencoding
funkcji enigmatycznej ) do unicode
, a następnie zakodować do zestawu znaków, który może wyświetlać żądane znaki, w tym przypadku I polecamUTF-8
.
Po pierwsze, oto przydatna funkcja narzędziowa, która pomoże wyjaśnić wzorce łańcucha znaków i Unicode w Pythonie 2.7:
>>> def tell_me_about(s): return (type(s), s)
Zwykły sznurek
>>> v = "\xC4pple"
>>> tell_me_about(v)
(<type 'str'>, '\xc4pple')
>>> v
'\xc4pple'
>>> print v
?pple
Dekodowanie ciągu iso8859-1 - przekonwertuj zwykły ciąg na Unicode
>>> uv = v.decode("iso-8859-1")
>>> uv
u'\xc4pple'
>>> tell_me_about(uv)
(<type 'unicode'>, u'\xc4pple')
>>> print v.decode("iso-8859-1")
Äpple
>>> v.decode('iso-8859-1') == u'\xc4pple'
True
Trochę więcej ilustracji - z „Ę”
>>> u"Ä" == u"\xc4"
True
>>> "Ä" == u"\xc4"
False
>>> "Ä".decode('utf8') == u"\xc4"
True
>>> "Ä" == "\xc4"
False
Kodowanie do UTF
>>> u8 = v.decode("iso-8859-1").encode("utf-8")
>>> u8
'\xc3\x84pple'
>>> tell_me_about(u8)
(<type 'str'>, '\xc3\x84pple')
>>> u16 = v.decode('iso-8859-1').encode('utf-16')
>>> tell_me_about(u16)
(<type 'str'>, '\xff\xfe\xc4\x00p\x00p\x00l\x00e\x00')
>>> tell_me_about(u8.decode('utf8'))
(<type 'unicode'>, u'\xc4pple')
>>> tell_me_about(u16.decode('utf16'))
(<type 'unicode'>, u'\xc4pple')
Związek między Unicode i UTF a latin 1
>>> print u8
Äpple
>>> print u8.decode('utf-8')
Äpple
>>> print u16
���pple
>>> print u16.decode('utf16')
Äpple
>>> v == u8
False
>>> v.decode('iso8859-1') == u8
False
>>> u8.decode('utf-8') == v.decode('latin1') == u16.decode('utf-16')
True
Wyjątki Unicode
>>> u8.encode('iso8859-1')
Traceback (most recent call last):
File "<stdin>", line 1, in <module>
UnicodeDecodeError: 'ascii' codec can't decode byte 0xc3 in position 0:
ordinal not in range(128)
>>> u16.encode('iso8859-1')
Traceback (most recent call last):
File "<stdin>", line 1, in <module>
UnicodeDecodeError: 'ascii' codec can't decode byte 0xff in position 0:
ordinal not in range(128)
>>> v.encode('iso8859-1')
Traceback (most recent call last):
File "<stdin>", line 1, in <module>
UnicodeDecodeError: 'ascii' codec can't decode byte 0xc4 in position 0:
ordinal not in range(128)
Można by to obejść, konwertując z określonego kodowania (latin-1, utf8, utf16) na Unicode, np. u8.decode('utf8').encode('latin1')
.
Może więc można by wyciągnąć następujące zasady i uogólnienia:
- typ
str
to zestaw bajtów, który może mieć jedno z wielu kodowań, takich jak Latin-1, UTF-8 i UTF-16
- typ
unicode
to zestaw bajtów, które można przekonwertować na dowolną liczbę kodowań, najczęściej UTF-8 i latin-1 (iso8859-1)
print
komenda ma swoją logikę do kodowania , ustawsys.stdout.encoding
i zalegających UTF-8
str
Przed konwersją do innego kodowania należy zdekodować a do Unicode.
Oczywiście wszystkie te zmiany w Pythonie 3.x.
Mam nadzieję, że to rozjaśnia.
Dalsza lektura
Oraz bardzo ilustracyjne tyrady Armina Ronachera: