1、變量在計(jì)算機(jī)內(nèi)存中的表示:
? ? ? ? 當(dāng)我們?cè)趯懀? a = 'ABC' 的時(shí)候,python解釋器做了兩件事情:
? ? ? ? ? ? ? ? a、在內(nèi)存當(dāng)中創(chuàng)建一個(gè)'ABC'的字符串。
? ? ? ? ? ? ? ? b、在內(nèi)存中創(chuàng)建一個(gè)名為a的變量,并且將它指向'ABC'。這里的變量a就像一個(gè)指針一樣。
2、在Python中,除法為什么是精確的???
? ? ? ? 先說一下除法的兩個(gè)分類:
? ? ? ? ? ? ? ? 1、/,它的計(jì)算結(jié)果是浮點(diǎn)數(shù),即使兩個(gè)整數(shù)恰好整除,結(jié)果也是浮點(diǎn)數(shù):
>>> 10 / 3
3.3333333333333335
>>> 9 / 3
3.0
? ? ? ? ? ? ? ?2、//,稱為地板除,兩個(gè)整數(shù)的除法仍然是整數(shù),即使除不盡。
>>> 10 // 3
3
余數(shù)運(yùn)算,可以得到兩個(gè)整數(shù)相除的余數(shù):
>>> 10 % 3
1
無論整數(shù)做//除法還是取余數(shù),結(jié)果永遠(yuǎn)是整數(shù),所以,整數(shù)運(yùn)算結(jié)果永遠(yuǎn)是精確的。
3、?Python的整數(shù)沒有大小限制。
? ?????Python的浮點(diǎn)數(shù)也沒有大小限制,但是超出一定范圍就直接表示為inf(無限大)。
4、字符編碼和python中的字符編碼:
字符編碼:
? ? ? ?計(jì)算機(jī)只能處理數(shù)字,如果要處理文本,就必須先把文本轉(zhuǎn)換為數(shù)字才能處理。最早的計(jì)算機(jī)在設(shè)計(jì)時(shí)采用8個(gè)比特(bit)作為一個(gè)字節(jié)(byte),所以,一個(gè)字節(jié)能表示的最大的整數(shù)就是255(二進(jìn)制11111111=十進(jìn)制255),如果要表示更大的整數(shù),就必須用更多的字節(jié)。比如兩個(gè)字節(jié)可以表示的最大整數(shù)是65535(2的16次方減一),4個(gè)字節(jié)可以表示的最大整數(shù)是4294967295。
????????由于計(jì)算機(jī)是美國人發(fā)明的,因此,最早只有127個(gè)字符被編碼到計(jì)算機(jī)里,也就是大小寫英文字母、數(shù)字和一些符號(hào),這個(gè)編碼表被稱為ASCII編碼,比如大寫字母A的編碼是65,小寫字母z的編碼是122。但是要處理中文顯然一個(gè)字節(jié)是不夠的,至少需要兩個(gè)字節(jié),而且還不能和ASCII編碼沖突,所以,中國制定了GB2312編碼,用來把中文編進(jìn)去。?全世界有上百種語言,日本把日文編到Shift_JIS里,韓國把韓文編到Euc-kr里,各國有各國的標(biāo)準(zhǔn),就會(huì)不可避免地出現(xiàn)沖突,結(jié)果就是,在多語言混合的文本中,顯示出來會(huì)有亂碼。
? ? ? ?Unicode應(yīng)運(yùn)而生。Unicode把所有語言都統(tǒng)一到一套編碼里,這樣就不會(huì)再有亂碼問題了。Unicode標(biāo)準(zhǔn)也在不斷發(fā)展,但最常用的是用兩個(gè)字節(jié)表示一個(gè)字符(如果要用到非常偏僻的字符,就需要4個(gè)字節(jié))?,F(xiàn)代操作系統(tǒng)和大多數(shù)編程語言都直接支持Unicode。?
? ? ? ? 這邊總結(jié)一下,ASCII編碼和unicode編碼的區(qū)別:ASCII編碼是1個(gè)字節(jié),而Unicode編碼通常是2個(gè)字節(jié)。漢字中已經(jīng)超出了ASCII編碼的范圍,用Unicode編碼是十進(jìn)制的20013,二進(jìn)制的01001110 00101101。你可以猜測(cè),如果把ASCII編碼的A用Unicode編碼,只需要在前面補(bǔ)0就可以,因此,A的Unicode編碼是00000000 01000001。如果統(tǒng)一使用unicode編碼的話,亂碼的問題解決了,可新的問題就又出現(xiàn)了---------當(dāng)你寫的文本全部都是英文的話,使用unicode存儲(chǔ)比使用ASCII編碼多占據(jù)一倍的空間!這樣來看,傳輸上又是十分的不劃算。
? ? ? ? 本著節(jié)約精神,堅(jiān)韌不拔的計(jì)算機(jī)編碼專家又創(chuàng)造出了UTF-8這種編碼格式,它的出現(xiàn)又能改變些什么呢?這就不得不說一說這種編碼格式與以往編碼格式的不同了,UTF-8編碼把一個(gè)Unicode字符根據(jù)不同的數(shù)字大小編碼成1-6個(gè)字節(jié),常用的英文字母被編碼成1個(gè)字節(jié),漢字通常是3個(gè)字節(jié),只有很生僻的字符才會(huì)被編碼成4-6個(gè)字節(jié)。如果你要傳輸?shù)奈谋景罅坑⑽淖址?,用UTF-8編碼就能節(jié)省空間:

? ? ? ? 從上邊的表格可以看出,utf-8包括了ASCII編碼,就是ASCII編碼實(shí)際上可以被看成是UTF-8編碼的一部分,所以,大量只支持ASCII編碼的歷史遺留軟件可以在UTF-8編碼下繼續(xù)工作。這個(gè)時(shí)候我們就可以總結(jié)一下計(jì)算機(jī)通用的編碼工作方式:
? ??????在計(jì)算機(jī)內(nèi)存中,統(tǒng)一使用Unicode編碼,當(dāng)需要保存到硬盤或者需要傳輸?shù)臅r(shí)候,就轉(zhuǎn)換為UTF-8編碼。用記事本編輯的時(shí)候,從文件讀取的UTF-8字符被轉(zhuǎn)換為Unicode字符到內(nèi)存里,編輯完成后,保存的時(shí)候再把Unicode轉(zhuǎn)換為UTF-8保存到文件:

瀏覽網(wǎng)頁的時(shí)候,服務(wù)器會(huì)把動(dòng)態(tài)生成的Unicode內(nèi)容轉(zhuǎn)換為UTF-8再傳輸?shù)綖g覽器:

????????所以你看到很多網(wǎng)頁的源碼上會(huì)有類似<meta charset="UTF-8" />的信息,表示該網(wǎng)頁正是用的UTF-8編碼。
python中的編碼:
python3中的字符串是Unicode編碼的,也就是說,Python的字符串支持多語言,如:
>>> print('包含中文的str')
包含中文的str
對(duì)于單個(gè)字符的編碼,Python提供了ord()函數(shù)獲取字符的整數(shù)表示,chr()函數(shù)把編碼轉(zhuǎn)換為對(duì)應(yīng)的字符:
>>> ord('A')
65
>>> ord('中')
20013
>>> chr(66)
'B'
>>> chr(25991)
'文'
如果知道字符的整數(shù)編碼,還可以用十六進(jìn)制這么寫str:
>>> '\u4e2d\u6587'
'中文'
????????兩種寫法完全是等價(jià)的。Python的字符串類型是str,在內(nèi)存中以Unicode表示,一個(gè)字符對(duì)應(yīng)若干個(gè)字節(jié)。如果要在網(wǎng)絡(luò)上傳輸,或者保存到磁盤上,就需要把str變?yōu)橐宰止?jié)為單位的bytes。
Python對(duì)bytes類型的數(shù)據(jù)用帶b前綴的單引號(hào)或雙引號(hào)表示:
x = b'ABC'
????????'ABC'和b'ABC',前后的內(nèi)容一樣,但是前者是str,后者的bytes的每個(gè)字符都只占用一個(gè)字節(jié)。以Unicode表示的str通過encode()方法可以編碼為指定的bytes,如:
>>> 'ABC'.encode('ascii')
b'ABC'
>>> '中文'.encode('utf-8')
b'\xe4\xb8\xad\xe6\x96\x87'
>>> '中文'.encode('ascii')
Traceback (most recent call last):
??File "<stdin>", line 1, in <module>
UnicodeEncodeError: 'ascii' codec can't encode characters in position 0-1: ordinal not in range(128)
????????純英文的str可以用ASCII編碼為bytes,內(nèi)容是一樣的,含有中文的str可以用UTF-8編碼為bytes。含有中文的str無法用ASCII編碼,因?yàn)橹形木幋a的范圍超過了ASCII編碼的范圍,Python會(huì)報(bào)錯(cuò)。在bytes中,無法顯示為ASCII字符的字節(jié),用\x##顯示。?如果我們從網(wǎng)絡(luò)或磁盤上讀取了字節(jié)流,那么讀到的數(shù)據(jù)就是bytes。要把bytes變?yōu)閟tr,就需要用decode()方法:
>>> b'ABC'.decode('ascii')
'ABC'
>>> b'\xe4\xb8\xad\xe6\x96\x87'.decode('utf-8')
'中文'
?如果bytes中包含無法解碼的字節(jié),decode()方法會(huì)報(bào)錯(cuò):
>>> b'\xe4\xb8\xad\xff'.decode('utf-8')
Traceback (most recent call last):
??...
UnicodeDecodeError: 'utf-8' codec can't decode byte 0xff in position 3: invalid start byte
如果bytes中只有一小部分無效的字節(jié),可以傳入errors='ignore'忽略錯(cuò)誤的字節(jié):
>>> b'\xe4\xb8\xad\xff'.decode('utf-8', errors='ignore')
'中'
要計(jì)算str包含多少個(gè)字符,可以用len()函數(shù):
>>> len('ABC')
3
>>> len('中文')
2
len()函數(shù)計(jì)算的是str的字符數(shù),如果換成bytes,len()函數(shù)就計(jì)算字節(jié)數(shù):
>>> len(b'ABC')
3
>>> len(b'\xe4\xb8\xad\xe6\x96\x87')
6
>>> len('中文'.encode('utf-8'))
6
????????可見,1個(gè)中文字符經(jīng)過UTF-8編碼后通常會(huì)占用3個(gè)字節(jié),而1個(gè)英文字符只占用1個(gè)字節(jié)。在操作字符串時(shí),我們經(jīng)常遇到str和bytes的互相轉(zhuǎn)換。為了避免亂碼問題,應(yīng)當(dāng)始終堅(jiān)持使用UTF-8編碼對(duì)str和bytes進(jìn)行轉(zhuǎn)換。?? ? ?? ??? ?由于Python源代碼也是一個(gè)文本文件,所以,當(dāng)你的源代碼中包含中文的時(shí)候,在保存源代碼時(shí),就需要?jiǎng)?wù)必指定保存為UTF-8編碼。當(dāng)Python解釋器讀取源代碼時(shí),為了讓它按UTF-8編碼讀取,我們通常在文件開頭寫上這兩行:
#!/usr/bin/env python3?? ??? ?為了告訴Linux/OS X系統(tǒng),這是一個(gè)Python可執(zhí)行程序,Windows系統(tǒng)會(huì)忽略這個(gè)注釋;
# -*- coding: utf-8 -*-?? ??? 為了告訴Python解釋器,按照UTF-8編碼讀取源代碼,否則,你在源代碼中寫的中文輸出可能會(huì)有亂碼。
申明了UTF-8編碼并不意味著你的.py文件就是UTF-8編碼的,必須并且要確保文本編輯器正在使用UTF-8 without BOM編碼:

如果.py文件本身使用UTF-8編碼,并且也申明了# -*- coding: utf-8 -*-,打開命令提示符測(cè)試就可以正常顯示中文:
