4.2 字符串編碼
我們已經(jīng)講過了,字符串也是一種數(shù)據(jù)類型,但是,字符串比較特殊的是還有一個編碼問題。
因為計算機只能處理數(shù)字,如果要處理文本,就必須先把文本轉(zhuǎn)換為數(shù)字才能處理。最早的計算機在設計時采用8個比特(bit)作為一個字節(jié)(byte),所以,一個字節(jié)能表示的最大的整數(shù)就是255(二進制11111111=十進制255),如果要表示更大的整數(shù),就必須用更多的字節(jié)。比如兩個字節(jié)可以表示的最大整數(shù)是65535
,4個字節(jié)可以表示的最大整數(shù)是4294967295
。
由于計算機是美國人發(fā)明的,因此,最早只有127個字符被編碼到計算機里,也就是大小寫英文字母、數(shù)字和一些符號,這個編碼表被稱為ASCII
編碼,比如大寫字母A
的編碼是65
,小寫字母z
的編碼是122
。
但是要處理中文顯然一個字節(jié)是不夠的,至少需要兩個字節(jié),而且還不能和ASCII編碼沖突,所以,中國制定了GB2312
編碼,用來把中文編進去。
你可以想得到的是,全世界有上百種語言,日本把日文編到Shift_JIS
里,韓國把韓文編到Euc-kr
里,各國有各國的標準,就會不可避免地出現(xiàn)沖突,結(jié)果就是,在多語言混合的文本中,顯示出來會有亂碼。

因此,Unicode字符集應運而生。Unicode把所有語言都統(tǒng)一到一套編碼里,這樣就不會再有亂碼問題了。
Unicode標準也在不斷發(fā)展,但最常用的是UCS-16編碼,用兩個字節(jié)表示一個字符(如果要用到非常偏僻的字符,就需要4個字節(jié))?,F(xiàn)代操作系統(tǒng)和大多數(shù)編程語言都直接支持Unicode。
現(xiàn)在,捋一捋ASCII編碼和Unicode編碼的區(qū)別:ASCII編碼是1個字節(jié),而Unicode編碼通常是2個字節(jié)。
字母A
用ASCII編碼是十進制的65
,二進制的01000001
;
字符0
用ASCII編碼是十進制的48
,二進制的00110000
,注意字符'0'
和整數(shù)0
是不同的;
漢字中
已經(jīng)超出了ASCII編碼的范圍,用Unicode編碼是十進制的20013
,二進制的01001110 00101101
。
你可以猜測,如果把ASCII編碼的A
用Unicode編碼,只需要在前面補0就可以,因此,A
的Unicode編碼是00000000 01000001
。
新的問題又出現(xiàn)了:如果統(tǒng)一成Unicode編碼,亂碼問題從此消失了。但是,如果你寫的文本基本上全部是英文的話,用Unicode編碼比ASCII編碼需要多一倍的存儲空間,在存儲和傳輸上就十分不劃算。
所以,本著節(jié)約的精神,又出現(xiàn)了把Unicode編碼轉(zhuǎn)化為“可變長編碼”的UTF-8
編碼。UTF-8編碼把一個Unicode字符根據(jù)不同的數(shù)字大小編碼成1-6個字節(jié),常用的英文字母被編碼成1個字節(jié),漢字通常是3個字節(jié),只有很生僻的字符才會被編碼成4-6個字節(jié)。如果你要傳輸?shù)奈谋景罅坑⑽淖址?,用UTF-8編碼就能節(jié)省空間:

從上面的表格還可以發(fā)現(xiàn),UTF-8編碼有一個額外的好處,就是ASCII編碼實際上可以被看成是UTF-8編碼的一部分,所以,大量只支持ASCII編碼的歷史遺留軟件可以在UTF-8編碼下繼續(xù)工作。
搞清楚了ASCII、Unicode和UTF-8的關系,我們就可以總結(jié)一下現(xiàn)在計算機系統(tǒng)通用的字符編碼工作方式:
在計算機內(nèi)存中,統(tǒng)一使用Unicode編碼,當需要保存到硬盤或者需要傳輸?shù)臅r候,就轉(zhuǎn)換為UTF-8編碼。
用記事本編輯的時候,從文件讀取的UTF-8字符被轉(zhuǎn)換為Unicode字符到內(nèi)存里,編輯完成后,保存的時候再把Unicode轉(zhuǎn)換為UTF-8保存到文件:

瀏覽網(wǎng)頁的時候,服務器會把動態(tài)生成的Unicode內(nèi)容轉(zhuǎn)換為UTF-8再傳輸?shù)綖g覽器:

所以你看到很多網(wǎng)頁的源碼上會有類似<meta charset="UTF-8" />
的信息,表示該網(wǎng)頁正是用的UTF-8編碼。
Python的字符串
搞清楚了令人頭疼的字符編碼問題后,我們再來研究Python的字符串。
在最新的Python 3版本中,字符串是以Unicode編碼的,也就是說,Python的字符串支持多語言,例如:
>>> print(
'包含中文的str')
包含中文的str
對于單個字符的編碼,Python提供了ord()
函數(shù)獲取字符的整數(shù)表示,chr()
函數(shù)把編碼轉(zhuǎn)換為對應的字符:
>>> ord(
'A')
65
>>> ord(
'中')
20013
>>> chr(
66)
'B'
>>> chr(
25991)
'文'
如果知道字符的整數(shù)編碼,還可以用十六進制這么寫str
:
>>> '\u4e2d\u6587
''中文'
兩種寫法完全是等價的。
由于Python的字符串類型是str
,在內(nèi)存中以Unicode表示,一個字符對應若干個字節(jié)。如果要在網(wǎng)絡上傳輸,或者保存到磁盤上,就需要把str
變?yōu)橐宰止?jié)為單位的bytes
。
Python對bytes
類型的數(shù)據(jù)用帶b
前綴的單引號或雙引號表示:
x = b'ABC'
要注意區(qū)分'ABC'
和b'ABC'
,前者是str
,后者雖然內(nèi)容顯示得和前者一樣,但bytes
的每個字符都只占用一個字節(jié)。
以Unicode表示的str
通過encode()
方法可以編碼為指定的bytes
,例如:
>>> 'ABC'.encode('ascii')
b'ABC'
>>> '
中文'.encode('utf-8')
b'\xe4\xb8\xad\xe6\x96\x87'
>>> '
中文'.encode('ascii')
Traceback (most recent call last):
? File "
<stdin>", line 1, in
<module>UnicodeEncodeError: 'ascii' codec can't encode characters in position 0-1: ordinal not in range(128)
純英文的str
可以用ASCII
編碼為bytes
,內(nèi)容是一樣的,含有中文的str
可以用UTF-8
編碼為bytes
。含有中文的str
無法用ASCII
編碼,因為中文編碼的范圍超過了ASCII
編碼的范圍,Python會報錯。
在bytes
中,無法顯示為ASCII字符的字節(jié),用\x##
顯示。
反過來,如果我們從網(wǎng)絡或磁盤上讀取了字節(jié)流,那么讀到的數(shù)據(jù)就是bytes
。要把bytes
變?yōu)?code>str,就需要用decode()
方法:
>>> b'ABC'.decode(
'ascii')
'ABC'
>>> b'\xe4\xb8\xad\xe6\x96\x87'.decode(
'utf-8')
'中文'
如果bytes
中包含無法解碼的字節(jié),decode()
方法會報錯:
>>> b'\xe4\xb8\xad\xff'.decode('utf-8')
Traceback (most recent
call last):? ...UnicodeDecodeError: 'utf-8' codec can't decode byte 0xff in position 3: invalid start byte
如果bytes
中只有一小部分無效的字節(jié),可以傳入errors='ignore'
忽略錯誤的字節(jié):
>>> b'\xe4\xb8\xad\xff'.decode(
'utf-8', errors=
'ignore')
'中'
要計算str
包含多少個字符,可以用len()
函數(shù):
>>> len(
'ABC')
3
>>> len(
'中文')
2
len()
函數(shù)計算的是str
的字符數(shù),如果換成bytes
,len()
函數(shù)就計算字節(jié)數(shù):
>>> len(
b'ABC')
3
>>> len(
b'\xe4\xb8\xad\xe6\x96\x87')
6
>>> len(
'中文'.encode(
'utf-8'))
6
可見,1個中文字符經(jīng)過UTF-8編碼后通常會占用3個字節(jié),而1個英文字符只占用1個字節(jié)。
在操作字符串時,我們經(jīng)常遇到str
和bytes
的互相轉(zhuǎn)換。為了避免亂碼問題,應當始終堅持使用UTF-8編碼對str
和bytes
進行轉(zhuǎn)換。
由于Python源代碼也是一個文本文件,所以,當你的源代碼中包含中文的時候,在保存源代碼時,就需要務必指定保存為UTF-8編碼。當Python解釋器讀取源代碼時,為了讓它按UTF-8編碼讀取,我們通常在文件開頭寫上這兩行:
#!/usr/bin/env python3
# -*- coding: utf-8 -*-
第一行注釋是為了告訴Linux/OS X系統(tǒng),這是一個Python可執(zhí)行程序,Windows系統(tǒng)會忽略這個注釋;
第二行注釋是為了告訴Python解釋器,按照UTF-8編碼讀取源代碼,否則,你在源代碼中寫的中文輸出可能會有亂碼。
申明了UTF-8編碼并不意味著你的.py
文件就是UTF-8編碼的,必須并且要確保文本編輯器正在使用UTF-8 without BOM編碼:

如果.py
文件本身使用UTF-8編碼,并且也申明了# -*- coding: utf-8 -*-
,打開命令提示符測試就可以正常顯示中文:

格式化
最后一個常見的問題是如何輸出格式化的字符串。我們經(jīng)常會輸出類似'
親愛的
xxx
你好!你
xx
月的話費是
xx
,余額是
xx'
之類的字符串,而xxx的內(nèi)容都是根據(jù)變量變化的,所以,需要一種簡便的格式化字符串的方式。

在Python中,采用的格式化方式和C語言是一致的,用%
實現(xiàn),舉例如下:
>>> 'Hello, %s' %
'world''Hello, world'
>>> 'Hi, %s, you have $%d.' % (
'Michael',
1000000)
'Hi, Michael, you have $1000000.'
你可能猜到了,%
運算符就是用來格式化字符串的。在字符串內(nèi)部,%s
表示用字符串替換,%d
表示用整數(shù)替換,有幾個%?
占位符,后面就跟幾個變量或者值,順序要對應好。如果只有一個%?
,括號可以省略。
常見的占位符有:

其中,格式化整數(shù)和浮點數(shù)還可以指定是否補0和整數(shù)與小數(shù)的位數(shù):
print(‘%2d-%02d’%(3,1))?
print(‘%.2f % 3.1415926)
如果你不太確定應該用什么,%s
永遠起作用,它會把任何數(shù)據(jù)類型轉(zhuǎn)換為字符串:
>>> 'Age: %s. Gender: %s' % (
25,
True)
'Age: 25. Gender: True'
有些時候,字符串里面的%
是一個普通字符怎么辦?這個時候就需要轉(zhuǎn)義,用%%
來表示一個%
:
>>> 'growth rate: %d %%' %
7
'growth rate: 7 %'
format()
另一種格式化字符串的方法是使用字符串的format()
方法,它會用傳入的參數(shù)依次替換字符串內(nèi)的占位符{0}
、{1}
……,不過這種方式寫起來比%要麻煩得多:
>>> 'Hello, {0}, 成績提升了 {1:.1f}%'.format(
'小明',
17.125)
'Hello, 小明, 成績提升了 17.1%'
f-string
最后一種格式化字符串的方法是使用以f
開頭的字符串,稱之為f-string
,它和普通字符串不同之處在于,字符串如果包含{xxx}
,就會以對應的變量替換:
>>> r =
2.5>>> s =
3.14 * r **
2
>>> print(f
'The area of a circle with radius {r} is {s:.2f}')
The area of a circle
with radius
2.5
is
19.62
上述代碼中,{r}
被變量r
的值替換,{s:.2f}
被變量s
的值替換,并且:
后面的.2f
指定了格式化參數(shù)(即保留兩位小數(shù)),因此,{s:.2f}
的替換結(jié)果是19.62
。
小結(jié)
Python 3的字符串使用Unicode,直接支持多語言。
當str
和bytes
互相轉(zhuǎn)換時,需要指定編碼。最常用的編碼是UTF-8
。Python當然也支持其他編碼方式,比如把Unicode編碼成GB2312
:
>>> '中文'.encode(
'gb2312')
b'\xd6\xd0\xce\xc4'
但這種方式純屬自找麻煩,如果沒有特殊業(yè)務要求,請牢記僅使用UTF-8
編碼。
格式化字符串的時候,可以用Python的交互式環(huán)境測試,方便快捷。