codecs --- 編解碼器注冊和相關基類?

源代碼: Lib/codecs.py


This module defines base classes for standard Python codecs (encoders and decoders) and provides access to the internal Python codec registry, which manages the codec and error handling lookup process. Most standard codecs are text encodings, which encode text to bytes (and decode bytes to text), but there are also codecs provided that encode text to text, and bytes to bytes. Custom codecs may encode and decode between arbitrary types, but some module features are restricted to be used specifically with text encodings or with codecs that encode to bytes.

該模塊定義了以下用于使用任何編解碼器進行編碼和解碼的函數(shù):

codecs.encode(obj, encoding='utf-8', errors='strict')?

使用為 encoding 注冊的編解碼器對 obj 進行編碼。

可以給定 Errors 以設置所需要的錯誤處理方案。 默認的錯誤處理方案 'strict' 表示編碼錯誤將引發(fā) ValueError (或更特定編解碼器相關的子類,例如 UnicodeEncodeError)。 請參閱 編解碼器基類 了解有關編解碼器錯誤處理的更多信息。

codecs.decode(obj, encoding='utf-8', errors='strict')?

使用為 encoding 注冊的編解碼器對 obj 進行解碼。

可以給定 Errors 以設置所需要的錯誤處理方案。 默認的錯誤處理方案 'strict' 表示編碼錯誤將引發(fā) ValueError (或更特定編解碼器相關的子類,例如 UnicodeDecodeError)。 請參閱 編解碼器基類 了解有關編解碼器錯誤處理的更多信息。

每種編解碼器的完整細節(jié)也可以直接查找獲取:

codecs.lookup(encoding)?

在 Python 編解碼器注冊表中查找編解碼器信息,并返回一個 CodecInfo 對象,其定義見下文。

首先將會在注冊表緩存中查找編碼,如果未找到,則會掃描注冊的搜索函數(shù)列表。 如果沒有找到 CodecInfo 對象,則將引發(fā) LookupError。 否則,CodecInfo 對象將被存入緩存并返回給調用者。

class codecs.CodecInfo(encode, decode, streamreader=None, streamwriter=None, incrementalencoder=None, incrementaldecoder=None, name=None)?

查找編解碼器注冊表所得到的編解碼器細節(jié)信息。 構造器參數(shù)將保存為同名的屬性:

name?

編碼名稱

encode?
decode?

無狀態(tài)的編碼和解碼函數(shù)。 它們必須是具有與 Codec 的 encode()decode() 方法相同接口的函數(shù)或方法 (參見 Codec 接口)。 這些函數(shù)或方法應當工作于無狀態(tài)的模式。

incrementalencoder?
incrementaldecoder?

增量式的編碼器和解碼器類或工廠函數(shù)。 這些函數(shù)必須分別提供由基類 IncrementalEncoderIncrementalDecoder 所定義的接口。 增量式編解碼器可以保持狀態(tài)。

streamwriter?
streamreader?

流式寫入器和讀取器類或工廠函數(shù)。 這些函數(shù)必須分別提供由基類 StreamWriterStreamReader 所定義的接口。 流式編解碼器可以保持狀態(tài)。

為了簡化對各種編解碼器組件的訪問,本模塊提供了以下附加函數(shù),它們使用 lookup() 來執(zhí)行編解碼器查找:

codecs.getencoder(encoding)?

查找給定編碼的編解碼器并返回其編碼器函數(shù)。

在編碼無法找到時將引發(fā) LookupError。

codecs.getdecoder(encoding)?

查找給定編碼的編解碼器并返回其解碼器函數(shù)。

在編碼無法找到時將引發(fā) LookupError。

codecs.getincrementalencoder(encoding)?

查找給定編碼的編解碼器并返回其增量式編碼器類或工廠函數(shù)。

在編碼無法找到或編解碼器不支持增量式編碼器時將引發(fā) LookupError。

codecs.getincrementaldecoder(encoding)?

查找給定編碼的編解碼器并返回其增量式解碼器類或工廠函數(shù)。

在編碼無法找到或編解碼器不支持增量式解碼器時將引發(fā) LookupError。

codecs.getreader(encoding)?

查找給定編碼的編解碼器并返回其 StreamReader 類或工廠函數(shù)。

在編碼無法找到時將引發(fā) LookupError

codecs.getwriter(encoding)?

查找給定編碼的編解碼器并返回其 StreamWriter 類或工廠函數(shù)。

在編碼無法找到時將引發(fā) LookupError。

自定義編解碼器的啟用是通過注冊適當?shù)木幗獯a器搜索函數(shù):

codecs.register(search_function)?

注冊一個編解碼器搜索函數(shù)。 搜索函數(shù)預期接收一個參數(shù),即全部以小寫字母表示的編碼格式名稱,其中中連字符和空格會被轉換為下劃線,并返回一個 CodecInfo 對象。 在搜索函數(shù)無法找到給定編碼格式的情況下,它應當返回 None。

在 3.9 版更改: 連字符和空格會被轉換為下劃線。

codecs.unregister(search_function)?

注銷一個編解碼器搜索函數(shù)并清空注冊表緩存。 如果指定搜索函數(shù)未被注冊,則不做任何操作。

3.10 新版功能.

雖然內置的 open() 和相關聯(lián)的 io 模塊是操作已編碼文本文件的推薦方式,但本模塊也提供了額外的工具函數(shù)和類,允許在操作二進制文件時使用更多各類的編解碼器:

codecs.open(filename, mode='r', encoding=None, errors='strict', buffering=- 1)?

使用給定的 mode 打開已編碼的文件并返回一個 StreamReaderWriter 的實例,提供透明的編碼/解碼。 默認的文件模式為 'r',表示以讀取模式打開文件。

備注

下層的已編碼文件總是以二進制模式打開。 在讀取和寫入時不會自動執(zhí)行 '\n' 的轉換。 mode 參數(shù)可以是內置 open() 函數(shù)所接受的任意二進制模式;'b' 會被自動添加。

encoding 指定文件所要使用的編碼格式。 允許任何編碼為字節(jié)串或從字節(jié)串解碼的編碼格式,而文件方法所支持的數(shù)據(jù)類型則取決于所使用的編解碼器。

可以指定 errors 來定義錯誤處理方案。 默認值 'strict' 表示在出現(xiàn)編碼錯誤時引發(fā) ValueError

buffering 的含義與內置 open() 函數(shù)中的相同。 默認值 -1 表示將使用默認的緩沖區(qū)大小。

在 3.11 版更改: The 'U' mode has been removed.

codecs.EncodedFile(file, data_encoding, file_encoding=None, errors='strict')?

返回一個 StreamRecoder 實例,它提供了 file 的透明轉碼包裝版本。 當包裝版本被關閉時原始文件也會被關閉。

寫入已包裝文件的數(shù)據(jù)會根據(jù)給定的 data_encoding 解碼,然后以使用 file_encoding 的字節(jié)形式寫入原始文件。 從原始文件讀取的字節(jié)串將根據(jù) file_encoding 解碼,其結果將使用 data_encoding 進行編碼。

如果 file_encoding 未給定,則默認為 data_encoding。

可以指定 errors 來定義錯誤處理方案。 默認值 'strict' 表示在出現(xiàn)編碼錯誤時引發(fā) ValueError。

codecs.iterencode(iterator, encoding, errors='strict', **kwargs)?

使用增量式編碼器通過迭代來編碼由 iterator 所提供的輸入。 此函數(shù)屬于 generator。 errors 參數(shù)(以及任何其他關鍵字參數(shù))會被傳遞給增量式編碼器。

此函數(shù)要求編解碼器接受 str 對象形式的文本進行編碼。 因此它不支持字節(jié)到字節(jié)的編碼器,例如 base64_codec

codecs.iterdecode(iterator, encoding, errors='strict', **kwargs)?

使用增量式解碼器通過迭代來解碼由 iterator 所提供的輸入。 此函數(shù)屬于 generator。 errors 參數(shù)(以及任何其他關鍵字參數(shù))會被傳遞給增量式解碼器。

此函數(shù)要求編解碼器接受 bytes 對象進行解碼。 因此它不支持文本到文本的編碼器,例如 rot_13,但是 rot_13 可以通過同樣效果的 iterencode() 來使用。

本模塊還提供了以下常量,適用于讀取和寫入依賴于平臺的文件:

codecs.BOM?
codecs.BOM_BE?
codecs.BOM_LE?
codecs.BOM_UTF8?
codecs.BOM_UTF16?
codecs.BOM_UTF16_BE?
codecs.BOM_UTF16_LE?
codecs.BOM_UTF32?
codecs.BOM_UTF32_BE?
codecs.BOM_UTF32_LE?

這些常量定義了多種字節(jié)序列,即一些編碼格式的 Unicode 字節(jié)順序標記(BOM)。 它們在 UTF-16 和 UTF-32 數(shù)據(jù)流中被用以指明所使用的字節(jié)順序,并在 UTF-8 中被用作 Unicode 簽名。 BOM_UTF16BOM_UTF16_BEBOM_UTF16_LE,具體取決于平臺的本機字節(jié)順序,BOMBOM_UTF16 的別名, BOM_LEBOM_UTF16_LE 的別名,BOM_BEBOM_UTF16_BE 的別名。 其他序列則表示 UTF-8 和 UTF-32 編碼格式中的 BOM。

編解碼器基類?

codecs 模塊定義了一系列基類用來定義配合編解碼器對象進行工作的接口,并且也可用作定制編解碼器實現(xiàn)的基礎。

每種編解碼器必須定義四個接口以便用作 Python 中的編解碼器:無狀態(tài)編碼器、無狀態(tài)解碼器、流讀取器和流寫入器。 流讀取器和寫入器通常會重用無狀態(tài)編碼器/解碼器來實現(xiàn)文件協(xié)議。 編解碼器作者還需要定義編解碼器將如何處理編碼和解碼錯誤。

錯誤處理方案?

To simplify and standardize error handling, codecs may implement different error handling schemes by accepting the errors string argument:

>>>
>>> 'German ?, ?'.encode(encoding='ascii', errors='backslashreplace')
b'German \\xdf, \\u266c'
>>> 'German ?, ?'.encode(encoding='ascii', errors='xmlcharrefreplace')
b'German ß, ♬'

The following error handlers can be used with all Python 標準編碼 codecs:

含意

'strict'

Raise UnicodeError (or a subclass), this is the default. Implemented in strict_errors().

'ignore'

忽略錯誤格式的數(shù)據(jù)并且不加進一步通知就繼續(xù)執(zhí)行。 在 ignore_errors() 中實現(xiàn)。

'replace'

Replace with a replacement marker. On encoding, use ? (ASCII character). On decoding, use ? (U+FFFD, the official REPLACEMENT CHARACTER). Implemented in replace_errors().

'backslashreplace'

Replace with backslashed escape sequences. On encoding, use hexadecimal form of Unicode code point with formats \xhh \uxxxx \Uxxxxxxxx. On decoding, use hexadecimal form of byte value with format \xhh. Implemented in backslashreplace_errors().

'surrogateescape'

在解碼時,將字節(jié)替換為 U+DC80U+DCFF 范圍內的單個代理代碼。 當在編碼數(shù)據(jù)時使用 'surrogateescape' 錯誤處理方案時,此代理將被轉換回相同的字節(jié)。 (請參閱 PEP 383 了解詳情。)

The following error handlers are only applicable to encoding (within text encodings):

含意

'xmlcharrefreplace'

Replace with XML/HTML numeric character reference, which is a decimal form of Unicode code point with format &#num; Implemented in xmlcharrefreplace_errors().

'namereplace'

Replace with \N{...} escape sequences, what appears in the braces is the Name property from Unicode Character Database. Implemented in namereplace_errors().

此外,以下錯誤處理方案被專門用于指定的編解碼器:

編解碼器

含意

'surrogatepass'

utf-8, utf-16, utf-32, utf-16-be, utf-16-le, utf-32-be, utf-32-le

Allow encoding and decoding surrogate code point (U+D800 - U+DFFF) as normal code point. Otherwise these codecs treat the presence of surrogate code point in str as an error.

3.1 新版功能: 'surrogateescape''surrogatepass' 錯誤處理方案。

在 3.4 版更改: The 'surrogatepass' error handler now works with utf-16* and utf-32* codecs.

3.5 新版功能: 'namereplace' 錯誤處理方案。

在 3.5 版更改: The 'backslashreplace' error handler now works with decoding and translating.

允許的值集合可以通過注冊新命名的錯誤處理方案來擴展:

codecs.register_error(name, error_handler)?

在名稱 name 之下注冊錯誤處理函數(shù) error_handler。 當 name 被指定為錯誤形參時,error_handler 參數(shù)所指定的對象將在編碼和解碼期間發(fā)生錯誤的情況下被調用,

對于編碼操作,將會調用 error_handler 并傳入一個 UnicodeEncodeError 實例,其中包含有關錯誤位置的信息。 錯誤處理程序必須引發(fā)此異常或別的異常,或者也可以返回一個元組,其中包含輸入的不可編碼部分的替換對象,以及應當繼續(xù)進行編碼的位置。 替換對象可以為 strbytes 類型。 如果替換對象為字節(jié)串,編碼器將簡單地將其復制到輸出緩沖區(qū)。 如果替換對象為字符串,編碼器將對替換對象進行編碼。 對原始輸入的編碼操作會在指定位置繼續(xù)進行。 負的位置值將被視為相對于輸入字符串的末尾。 如果結果位置超出范圍則將引發(fā) IndexError

解碼和轉換的做法很相似,不同之處在于將把 UnicodeDecodeErrorUnicodeTranslateError 傳給處理程序,并且來自錯誤處理程序的替換對象將被直接放入輸出。

之前注冊的錯誤處理方案(包括標準錯誤處理方案)可通過名稱進行查找:

codecs.lookup_error(name)?

返回之前在名稱 name 之下注冊的錯誤處理方案。

在處理方案無法找到時將引發(fā) LookupError。

以下標準錯誤處理方案也可通過模塊層級函數(shù)的方式來使用:

codecs.strict_errors(exception)?

Implements the 'strict' error handling.

Each encoding or decoding error raises a UnicodeError.

codecs.ignore_errors(exception)?

Implements the 'ignore' error handling.

Malformed data is ignored; encoding or decoding is continued without further notice.

codecs.replace_errors(exception)?

Implements the 'replace' error handling.

Substitutes ? (ASCII character) for encoding errors or ? (U+FFFD, the official REPLACEMENT CHARACTER) for decoding errors.

codecs.backslashreplace_errors(exception)?

Implements the 'backslashreplace' error handling.

Malformed data is replaced by a backslashed escape sequence. On encoding, use the hexadecimal form of Unicode code point with formats \xhh \uxxxx \Uxxxxxxxx. On decoding, use the hexadecimal form of byte value with format \xhh.

在 3.5 版更改: Works with decoding and translating.

codecs.xmlcharrefreplace_errors(exception)?

Implements the 'xmlcharrefreplace' error handling (for encoding within text encoding only).

The unencodable character is replaced by an appropriate XML/HTML numeric character reference, which is a decimal form of Unicode code point with format &#num; .

codecs.namereplace_errors(exception)?

Implements the 'namereplace' error handling (for encoding within text encoding only).

The unencodable character is replaced by a \N{...} escape sequence. The set of characters that appear in the braces is the Name property from Unicode Character Database. For example, the German lowercase letter '?' will be converted to byte sequence \N{LATIN SMALL LETTER SHARP S} .

3.5 新版功能.

無狀態(tài)的編碼和解碼?

基本 Codec 類定義了這些方法,同時還定義了無狀態(tài)編碼器和解碼器的函數(shù)接口:

Codec.encode(input, errors='strict')?

編碼 input 對象并返回一個元組 (輸出對象, 消耗長度)。 例如,text encoding 會使用特定的字符集編碼格式 (例如 cp1252iso-8859-1) 將字符串轉換為字節(jié)串對象。

errors 參數(shù)定義了要應用的錯誤處理方案。 默認為 'strict' 處理方案。

此方法不一定會在 Codec 實例中保存狀態(tài)。 可使用必須保存狀態(tài)的 StreamWriter 作為編解碼器以便高效地進行編碼。

編碼器必須能夠處理零長度的輸入并在此情況下返回輸出對象類型的空對象。

Codec.decode(input, errors='strict')?

解碼 input 對象并返回一個元組 (輸出對象, 消耗長度)。 例如,text encoding 的解碼操作會使用特定的字符集編碼格式將字節(jié)串對象轉換為字符串對象。

對于文本編碼格式和字節(jié)到字節(jié)編解碼器,input 必須為一個字節(jié)串對象或提供了只讀緩沖區(qū)接口的對象 -- 例如,緩沖區(qū)對象和映射到內存的文件。

errors 參數(shù)定義了要應用的錯誤處理方案。 默認為 'strict' 處理方案。

此方法不一定會在 Codec 實例中保存狀態(tài)。 可使用必須保存狀態(tài)的 StreamReader 作為編解碼器以便高效地進行解碼。

解碼器必須能夠處理零長度的輸入并在此情況下返回輸出對象類型的空對象。

增量式的編碼和解碼?

IncrementalEncoderIncrementalDecoder 類提供了增量式編碼和解碼的基本接口。 對輸入的編碼/解碼不是通過對無狀態(tài)編碼器/解碼器的一次調用,而是通過對增量式編碼器/解碼器的 encode()/decode() 方法的多次調用。 增量式編碼器/解碼器會在方法調用期間跟蹤編碼/解碼過程。

調用 encode()/decode() 方法后的全部輸出相當于將所有通過無狀態(tài)編碼器/解碼器進行編碼/解碼的單個輸入連接在一起所得到的輸出。

IncrementalEncoder 對象?

IncrementalEncoder 類用來對一個輸入進行分步編碼。 它定義了以下方法,每個增量式編碼器都必須定義這些方法以便與 Python 編解碼器注冊表相兼容。

class codecs.IncrementalEncoder(errors='strict')?

IncrementalEncoder 實例的構造器。

所有增量式編碼器必須提供此構造器接口。 它們可以自由地添加額外的關鍵字參數(shù),但只有在這里定義的參數(shù)才會被 Python 編解碼器注冊表所使用。

IncrementalEncoder 可以通過提供 errors 關鍵字參數(shù)來實現(xiàn)不同的錯誤處理方案。 可用的值請參閱 錯誤處理方案。

errors 參數(shù)將被賦值給一個同名的屬性。 通過對此屬性賦值就可以在 IncrementalEncoder 對象的生命期內在不同的錯誤處理策略之間進行切換。

encode(object, final=False)?

編碼 object (會將編碼器的當前狀態(tài)納入考慮) 并返回已編碼的結果對象。 如果這是對 encode() 的最終調用則 final 必須為真值(默認為假值)。

reset()?

將編碼器重置為初始狀態(tài)。 輸出將被丟棄:調用 .encode(object, final=True),在必要時傳入一個空字節(jié)串或字符串,重置編碼器并得到輸出。

getstate()?

返回編碼器的當前狀態(tài),該值必須為一個整數(shù)。 實現(xiàn)應當確保 0 是最常見的狀態(tài)。 (比整數(shù)更復雜的狀態(tài)表示可以通過編組/選擇狀態(tài)并將結果字符串的字節(jié)數(shù)據(jù)編碼為整數(shù)來轉換為一個整數(shù)值)。

setstate(state)?

將編碼器的狀態(tài)設為 state。 state 必須為 getstate() 所返回的一個編碼器狀態(tài)。

IncrementalDecoder 對象?

IncrementalDecoder 類用來對一個輸入進行分步解碼。 它定義了以下方法,每個增量式解碼器都必須定義這些方法以便與 Python 編解碼器注冊表相兼容。

class codecs.IncrementalDecoder(errors='strict')?

IncrementalDecoder 實例的構造器。

所有增量式解碼器必須提供此構造器接口。 它們可以自由地添加額外的關鍵字參數(shù),但只有在這里定義的參數(shù)才會被 Python 編解碼器注冊表所使用。

IncrementalDecoder 可以通過提供 errors 關鍵字參數(shù)來實現(xiàn)不同的錯誤處理方案。 可用的值請參閱 錯誤處理方案。

errors 參數(shù)將被賦值給一個同名的屬性。 通過對此屬性賦值就可以在 IncrementalDecoder 對象的生命期內在不同的錯誤處理策略之間進行切換。

decode(object, final=False)?

解碼 object (會將解碼器的當前狀態(tài)納入考慮) 并返回已解碼的結果對象。 如果這是對 decode() 的最終調用則 final 必須為真值(默認為假值)。 如果 final 為真值則解碼器必須對輸入進行完全解碼并且必須 刷新所有緩沖區(qū)。 如果這無法做到(例如由于在輸入結束時字節(jié)串序列不完整)則它必須像在無狀態(tài)的情況下那樣初始化錯誤處理(這可能引發(fā)一個異常)。

reset()?

將解碼器重置為初始狀態(tài)。

getstate()?

返回解碼器的當前狀態(tài)。 這必須為一個二元組,第一項必須是包含尚未解碼的輸入的緩沖區(qū)。 第二項必須為一個整數(shù),可以表示附加狀態(tài)信息。 (實現(xiàn)應當確保 0 是最常見的附加狀態(tài)信息。) 如果此附加狀態(tài)信息為 0 則必須可以將解碼器設為沒有已緩沖輸入并且以 0 作為附加狀態(tài)信息,以便將先前已緩沖的輸入饋送到解碼器使其返回到先前的狀態(tài)而不產(chǎn)生任何輸出。 (比整數(shù)更復雜的附加狀態(tài)信息可以通過編組/選擇狀態(tài)信息并將結果字符串的字節(jié)數(shù)據(jù)編碼為整數(shù)來轉換為一個整數(shù)值。)

setstate(state)?

將解碼器的狀態(tài)設為 state。 state 必須為 getstate() 所返回的一個解碼器狀態(tài)。

流式的編碼和解碼?

StreamWriterStreamReader 類提供了一些泛用工作接口,可被用來非常方便地實現(xiàn)新的編碼格式子模塊。 請參閱 encodings.utf_8 中的示例了解如何做到這一點。

StreamWriter 對象?

StreamWriter 類是 Codec 的子類,它定義了以下方法,每個流式寫入器都必須定義這些方法以便與 Python 編解碼器注冊表相兼容。

class codecs.StreamWriter(stream, errors='strict')?

StreamWriter 實例的構造器。

所有流式寫入器必須提供此構造器接口。 它們可以自由地添加額外的關鍵字參數(shù),但只有在這里定義的參數(shù)才會被 Python 編解碼器注冊表所使用。

stream 參數(shù)必須為一個基于特定編解碼器打開用于寫入文本或二進制數(shù)據(jù)的文件類對象。

StreamWriter 可以通過提供 errors 關鍵字參數(shù)來實現(xiàn)不同的錯誤處理方案。 請參閱 錯誤處理方案 了解下層的流式編解碼器可支持的標準錯誤處理方案。

errors 參數(shù)將被賦值給一個同名的屬性。 通過對此屬性賦值就可以在 StreamWriter 對象的生命期內在不同的錯誤處理策略之間進行切換。

write(object)?

將編碼后的對象內容寫入到流。

writelines(list)?

Writes the concatenated iterable of strings to the stream (possibly by reusing the write() method). Infinite or very large iterables are not supported. The standard bytes-to-bytes codecs do not support this method.

reset()?

重置用于保持內部狀態(tài)的編解碼器緩沖區(qū)。

調用此方法應當確保在干凈的狀態(tài)下放入輸出數(shù)據(jù),以允許直接添加新的干凈數(shù)據(jù)而無須重新掃描整個流來恢復狀態(tài)。

除了上述的方法,StreamWriter 還必須繼承來自下層流的所有其他方法和屬性。

StreamReader 對象?

StreamReader 類是 Codec 的子類,它定義了以下方法,每個流式讀取器都必須定義這些方法以便與 Python 編解碼器注冊表相兼容。

class codecs.StreamReader(stream, errors='strict')?

StreamReader 實例的構造器。

所有流式讀取器必須提供此構造器接口。 它們可以自由地添加額外的關鍵字參數(shù),但只有在這里定義的參數(shù)才會被 Python 編解碼器注冊表所使用。

stream 參數(shù)必須為一個基于特定編解碼器打開用于讀取文本或二進制數(shù)據(jù)的文件類對象。

StreamReader 可以通過提供 errors 關鍵字參數(shù)來實現(xiàn)不同的錯誤處理方案。 請參閱 錯誤處理方案 了解下層的流式編解碼器可支持的標準錯誤處理方案。

errors 參數(shù)將被賦值給一個同名的屬性。 通過對此屬性賦值就可以在 StreamReader 對象的生命期內在不同的錯誤處理策略之間進行切換。

errors 參數(shù)所允許的值集合可以使用 register_error() 來擴展。

read(size=- 1, chars=- 1, firstline=False)?

解碼來自流的數(shù)據(jù)并返回結果對象。

chars 參數(shù)指明要返回的解碼后碼位或字節(jié)數(shù)量。 read() 方法絕不會返回超出請求數(shù)量的數(shù)據(jù),但如果可用數(shù)量不足,它可能返回少于請求數(shù)量的數(shù)據(jù)。

size 參數(shù)指明要讀取并解碼的已編碼字節(jié)或碼位的最大數(shù)量近似值。 解碼器可以適當?shù)匦薷拇嗽O置。 默認值 -1 表示盡可能多地讀取并解碼。 此形參的目的是防止一次性解碼過于巨大的文件。

firstline 旗標指明如果在后續(xù)行發(fā)生解碼錯誤,則僅返回第一行就足夠了。

此方法應當使用“貪婪”讀取策略,這意味著它應當在編碼格式定義和給定大小所允許的情況下盡可能多地讀取數(shù)據(jù),例如,如果在流上存在可選的編碼結束或狀態(tài)標記,這些內容也應當被讀取。

readline(size=None, keepends=True)?

從輸入流讀取一行并返回解碼后的數(shù)據(jù)。

如果給定了 size,則將其作為 size 參數(shù)傳遞給流的 read() 方法。

如果 keepends 為假值,則行結束符將從返回的行中去除。

readlines(sizehint=None, keepends=True)?

從輸入流讀取所有行并將其作為一個行列表返回。

行結束符會使用編解碼器的 decode() 方法來實現(xiàn),并且如果 keepends 為真值則會將其包含在列表條目中。

如果給定了 sizehint,則將其作為 size 參數(shù)傳遞給流的 read() 方法。

reset()?

重置用于保持內部狀態(tài)的編解碼器緩沖區(qū)。

請注意不應當對流進行重定位。 使用此方法的主要目的是為了能夠從解碼錯誤中恢復。

除了上述的方法,StreamReader 還必須繼承來自下層流的所有其他方法和屬性。

StreamReaderWriter 對象?

StreamReaderWriter 是一個方便的類,允許對同時工作于讀取和寫入模式的流進行包裝。

其設計使得開發(fā)者可以使用 lookup() 函數(shù)所返回的工廠函數(shù)來構造實例。

class codecs.StreamReaderWriter(stream, Reader, Writer, errors='strict')?

創(chuàng)建一個 StreamReaderWriter 實例。 stream 必須為一個文件類對象。 ReaderWriter 必須為分別提供了 StreamReaderStreamWriter 接口的工廠函數(shù)或類。 錯誤處理通過與流式讀取器和寫入器所定義的相同方式來完成。

StreamReaderWriter 實例定義了 StreamReaderStreamWriter 類的組合接口。 它們還繼承了來自下層流的所有其他方法和屬性。

StreamRecoder 對象?

StreamRecoder 將數(shù)據(jù)從一種編碼格式轉換為另一種,這對于處理不同編碼環(huán)境的情況有時會很有用。

其設計使得開發(fā)者可以使用 lookup() 函數(shù)所返回的工廠函數(shù)來構造實例。

class codecs.StreamRecoder(stream, encode, decode, Reader, Writer, errors='strict')?

創(chuàng)建一個實現(xiàn)了雙向轉換的 StreamRecoder 實例: encodedecode 工作于前端 — 對代碼可見的數(shù)據(jù)調用 read()write(),而 ReaderWriter 工作于后端 — stream 中的數(shù)據(jù)。

你可以使用這些對象來進行透明轉碼,例如從 Latin-1 轉為 UTF-8 以及反向轉換。

stream 參數(shù)必須為一個文件類對象。

encodedecode 參數(shù)必須遵循 Codec 接口。 ReaderWriter 必須為分別提供了 StreamReaderStreamWriter 接口對象的工廠函數(shù)或類。

錯誤處理通過與流式讀取器和寫入器所定義的相同方式來完成。

StreamRecoder 實例定義了 StreamReaderStreamWriter 類的組合接口。 它們還繼承了來自下層流的所有其他方法和屬性。

編碼格式與 Unicode?

Strings are stored internally as sequences of code points in range U+0000--U+10FFFF. (See PEP 393 for more details about the implementation.) Once a string object is used outside of CPU and memory, endianness and how these arrays are stored as bytes become an issue. As with other codecs, serialising a string into a sequence of bytes is known as encoding, and recreating the string from the sequence of bytes is known as decoding. There are a variety of different text serialisation codecs, which are collectivity referred to as text encodings.

最簡單的文本編碼格式 (稱為 'latin-1''iso-8859-1') 將碼位 0--255 映射為字節(jié)值 0x0--0xff,這意味著包含 U+00FF 以上碼位的字符串對象無法使用此編解碼器進行編碼。 這樣做將引發(fā) UnicodeEncodeError,其形式類似下面這樣(不過詳細的錯誤信息可能會有所不同): UnicodeEncodeError: 'latin-1' codec can't encode character '\u1234' in position 3: ordinal not in range(256)。

還有另外一組編碼格式(所謂的字符映射編碼)會選擇全部 Unicode 碼位的不同子集并設定如何將這些碼位映射為字節(jié)值 0x0--0xff。 要查看這是如何實現(xiàn)的,只需簡單地打開相應源碼例如 encodings/cp1252.py (這是一個主要在 Windows 上使用的編碼格式)。 其中會有一個包含 256 個字符的字符串常量,指明每個字符所映射的字節(jié)值。

All of these encodings can only encode 256 of the 1114112 code points defined in Unicode. A simple and straightforward way that can store each Unicode code point, is to store each code point as four consecutive bytes. There are two possibilities: store the bytes in big endian or in little endian order. These two encodings are called UTF-32-BE and UTF-32-LE respectively. Their disadvantage is that if e.g. you use UTF-32-BE on a little endian machine you will always have to swap bytes on encoding and decoding. UTF-32 avoids this problem: bytes will always be in natural endianness. When these bytes are read by a CPU with a different endianness, then bytes have to be swapped though. To be able to detect the endianness of a UTF-16 or UTF-32 byte sequence, there's the so called BOM ("Byte Order Mark"). This is the Unicode character U+FEFF. This character can be prepended to every UTF-16 or UTF-32 byte sequence. The byte swapped version of this character (0xFFFE) is an illegal character that may not appear in a Unicode text. So when the first character in a UTF-16 or UTF-32 byte sequence appears to be a U+FFFE the bytes have to be swapped on decoding. Unfortunately the character U+FEFF had a second purpose as a ZERO WIDTH NO-BREAK SPACE: a character that has no width and doesn't allow a word to be split. It can e.g. be used to give hints to a ligature algorithm. With Unicode 4.0 using U+FEFF as a ZERO WIDTH NO-BREAK SPACE has been deprecated (with U+2060 (WORD JOINER) assuming this role). Nevertheless Unicode software still must be able to handle U+FEFF in both roles: as a BOM it's a device to determine the storage layout of the encoded bytes, and vanishes once the byte sequence has been decoded into a string; as a ZERO WIDTH NO-BREAK SPACE it's a normal character that will be decoded like any other.

There's another encoding that is able to encode the full range of Unicode characters: UTF-8. UTF-8 is an 8-bit encoding, which means there are no issues with byte order in UTF-8. Each byte in a UTF-8 byte sequence consists of two parts: marker bits (the most significant bits) and payload bits. The marker bits are a sequence of zero to four 1 bits followed by a 0 bit. Unicode characters are encoded like this (with x being payload bits, which when concatenated give the Unicode character):

范圍

編碼

U-00000000 ... U-0000007F

0xxxxxxx

U-00000080 ... U-000007FF

110xxxxx 10xxxxxx

U-00000800 ... U-0000FFFF

1110xxxx 10xxxxxx 10xxxxxx

U-00010000 ... U-0010FFFF

11110xxx 10xxxxxx 10xxxxxx 10xxxxxx

Unicode 字符最不重要的一個位就是最右側的二進制位 x。

由于 UTF-8 是一種 8 位編碼格式,因此 BOM 是不必要的,并且已編碼字符串中的任何 U+FEFF 字符(即使是作為第一個字符)都會被視為是 ZERO WIDTH NO-BREAK SPACE

Without external information it's impossible to reliably determine which encoding was used for encoding a string. Each charmap encoding can decode any random byte sequence. However that's not possible with UTF-8, as UTF-8 byte sequences have a structure that doesn't allow arbitrary byte sequences. To increase the reliability with which a UTF-8 encoding can be detected, Microsoft invented a variant of UTF-8 (that Python calls "utf-8-sig") for its Notepad program: Before any of the Unicode characters is written to the file, a UTF-8 encoded BOM (which looks like this as a byte sequence: 0xef, 0xbb, 0xbf) is written. As it's rather improbable that any charmap encoded file starts with these byte values (which would e.g. map to

LATIN SMALL LETTER I WITH DIAERESIS
RIGHT-POINTING DOUBLE ANGLE QUOTATION MARK
INVERTED QUESTION MARK

對于 iso-8859-1 編碼格式來說),這提升了根據(jù)字節(jié)序列來正確猜測 utf-8-sig 編碼格式的成功率。 所以在這里 BOM 的作用并不是幫助確定生成字節(jié)序列所使用的字節(jié)順序,而是作為幫助猜測編碼格式的記號。 在進行編碼時 utf-8-sig 編解碼器將把 0xef, 0xbb, 0xbf 作為頭三個字節(jié)寫入文件。 在進行解碼時 utf-8-sig 將跳過這三個字節(jié),如果它們作為文件的頭三個字節(jié)出現(xiàn)的話。 在 UTF-8 中并不推薦使用 BOM,通常應當避免它們的出現(xiàn)。

標準編碼?

Python 自帶了許多內置的編解碼器,它們的實現(xiàn)或者是通過 C 函數(shù),或者是通過映射表。 以下表格是按名稱排序的編解碼器列表,并提供了一些常見別名以及編碼格式通常針對的語言。 別名和語言列表都不是詳盡無遺的。 請注意僅有大小寫區(qū)別或使用連字符替代下劃線的拼寫形式也都是有效的別名;因此,'utf-8''utf_8' 編解碼器的有效別名。

CPython implementation detail: 有些常見編碼格式可以繞過編解碼器查找機制來提升性能。 這些優(yōu)化機會對于 CPython 來說僅能通過一組有限的別名(大小寫不敏感)來識別:utf-8, utf8, latin-1, latin1, iso-8859-1, iso8859-1, mbcs (Windows 專屬), ascii, us-ascii, utf-16, utf16, utf-32, utf32, 也包括使用下劃線替代連字符的的形式。 使用這些編碼格式的其他別名可能會導致更慢的執(zhí)行速度。

在 3.6 版更改: 可識別針對 us-ascii 的優(yōu)化機會。

許多字符集都支持相同的語言。 它們在個別字符(例如是否支持 EURO SIGN 等)以及給字符所分配的碼位方面存在差異。 特別是對于歐洲語言來說,通常存在以下幾種變體:

  • 某個 ISO 8859 編碼集

  • 某個 Microsoft Windows 編碼頁,通常是派生自某個 8859 編碼集,但會用附加的圖形字符來替換控制字符。

  • 某個 IBM EBCDIC 編碼頁

  • 某個 IBM PC 編碼頁,通常會兼容 ASCII

編碼

別名

語言

ascii

646, us-ascii

英語

big5

big5-tw, csbig5

繁體中文

big5hkscs

big5-hkscs, hkscs

繁體中文

cp037

IBM037, IBM039

英語

cp273

273, IBM273, csIBM273

德語

3.4 新版功能.

cp424

EBCDIC-CP-HE, IBM424

希伯來語

cp437

437, IBM437

英語

cp500

EBCDIC-CP-BE, EBCDIC-CP-CH, IBM500

西歐

cp720

阿拉伯語

cp737

希臘語

cp775

IBM775

波羅的海語言

cp850

850, IBM850

西歐

cp852

852, IBM852

中歐和東歐

cp855

855, IBM855

保加利亞語,白俄羅斯語,馬其頓語,俄語,塞爾維亞語

cp856

希伯來語

cp857

857, IBM857

土耳其語

cp858

858, IBM858

西歐

cp860

860, IBM860

葡萄牙語

cp861

861, CP-IS, IBM861

冰島語

cp862

862, IBM862

希伯來語

cp863

863, IBM863

加拿大語

cp864

IBM864

阿拉伯語

cp865

865, IBM865

丹麥語/挪威語

cp866

866, IBM866

俄語

cp869

869, CP-GR, IBM869

希臘語

cp874

泰語

cp875

希臘語

cp932

932, ms932, mskanji, ms-kanji

日語

cp949

949, ms949, uhc

韓語

cp950

950, ms950

繁體中文

cp1006

烏爾都語

cp1026

ibm1026

土耳其語

cp1125

1125, ibm1125, cp866u, ruscii

烏克蘭語

3.4 新版功能.

cp1140

ibm1140

西歐

cp1250

windows-1250

中歐和東歐

cp1251

windows-1251

保加利亞語,白俄羅斯語,馬其頓語,俄語,塞爾維亞語

cp1252

windows-1252

西歐

cp1253

windows-1253

希臘語

cp1254

windows-1254

土耳其語

cp1255

windows-1255

希伯來語

cp1256

windows-1256

阿拉伯語

cp1257

windows-1257

波羅的海語言

cp1258

windows-1258

越南語

euc_jp

eucjp, ujis, u-jis

日語

euc_jis_2004

jisx0213, eucjis2004

日語

euc_jisx0213

eucjisx0213

日語

euc_kr

euckr, korean, ksc5601, ks_c-5601, ks_c-5601-1987, ksx1001, ks_x-1001

韓語

gb2312

chinese, csiso58gb231280, euc-cn, euccn, eucgb2312-cn, gb2312-1980, gb2312-80, iso-ir-58

簡體中文

gbk

936, cp936, ms936

統(tǒng)一漢語

gb18030

gb18030-2000

統(tǒng)一漢語

hz

hzgb, hz-gb, hz-gb-2312

簡體中文

iso2022_jp

csiso2022jp, iso2022jp, iso-2022-jp

日語

iso2022_jp_1

iso2022jp-1, iso-2022-jp-1

日語

iso2022_jp_2

iso2022jp-2, iso-2022-jp-2

日語,韓語,簡體中文,西歐,希臘語

iso2022_jp_2004

iso2022jp-2004, iso-2022-jp-2004

日語

iso2022_jp_3

iso2022jp-3, iso-2022-jp-3

日語

iso2022_jp_ext

iso2022jp-ext, iso-2022-jp-ext

日語

iso2022_kr

csiso2022kr, iso2022kr, iso-2022-kr

韓語

latin_1

iso-8859-1, iso8859-1, 8859, cp819, latin, latin1, L1

西歐

iso8859_2

iso-8859-2, latin2, L2

中歐和東歐

iso8859_3

iso-8859-3, latin3, L3

世界語,馬耳他語

iso8859_4

iso-8859-4, latin4, L4

波羅的海語言

iso8859_5

iso-8859-5, cyrillic

保加利亞語,白俄羅斯語,馬其頓語,俄語,塞爾維亞語

iso8859_6

iso-8859-6, arabic

阿拉伯語

iso8859_7

iso-8859-7, greek, greek8

希臘語

iso8859_8

iso-8859-8, hebrew

希伯來語

iso8859_9

iso-8859-9, latin5, L5

土耳其語

iso8859_10

iso-8859-10, latin6, L6

北歐語言

iso8859_11

iso-8859-11, thai

泰語

iso8859_13

iso-8859-13, latin7, L7

波羅的海語言

iso8859_14

iso-8859-14, latin8, L8

凱爾特語

iso8859_15

iso-8859-15, latin9, L9

西歐

iso8859_16

iso-8859-16, latin10, L10

東南歐

johab

cp1361, ms1361

韓語

koi8_r

俄語

koi8_t

塔吉克

3.5 新版功能.

koi8_u

烏克蘭語

kz1048

kz_1048, strk1048_2002, rk1048

哈薩克語

3.5 新版功能.

mac_cyrillic

maccyrillic

保加利亞語,白俄羅斯語,馬其頓語,俄語,塞爾維亞語

mac_greek

macgreek

希臘語

mac_iceland

maciceland

冰島語

mac_latin2

maclatin2, maccentraleurope, mac_centeuro

中歐和東歐

mac_roman

macroman, macintosh

西歐

mac_turkish

macturkish

土耳其語

ptcp154

csptcp154, pt154, cp154, cyrillic-asian

哈薩克語

shift_jis

csshiftjis, shiftjis, sjis, s_jis

日語

shift_jis_2004

shiftjis2004, sjis_2004, sjis2004

日語

shift_jisx0213

shiftjisx0213, sjisx0213, s_jisx0213

日語

utf_32

U32, utf32

所有語言

utf_32_be

UTF-32BE

所有語言

utf_32_le

UTF-32LE

所有語言

utf_16

U16, utf16

所有語言

utf_16_be

UTF-16BE

所有語言

utf_16_le

UTF-16LE

所有語言

utf_7

U7, unicode-1-1-utf-7

所有語言

utf_8

U8, UTF, utf8, cp65001

所有語言

utf_8_sig

所有語言

在 3.4 版更改: utf-16* 和 utf-32* 編碼器將不再允許編碼代理碼位 (U+D800--U+DFFF)。 utf-32* 解碼器將不再解碼與代理碼位相對應的字節(jié)序列。

在 3.8 版更改: cp65001 現(xiàn)在是 utf_8 的一個別名。

Python 專屬的編碼格式?

有一些預定義編解碼器是 Python 專屬的,因此它們在 Python 之外沒有意義。 這些編解碼器按其所預期的輸入和輸出類型在下表中列出(請注意雖然文本編碼是編解碼器最常見的使用場景,但下層的編解碼器架構支持任意數(shù)據(jù)轉換而不僅是文本編碼)。 對于非對稱編解碼器,該列描述的含義是編碼方向。

文字編碼?

以下編解碼器提供了 strbytes 的編碼和 bytes-like objectstr 的解碼,類似于 Unicode 文本編碼。

編碼

別名

含意

idna

實現(xiàn) RFC 3490,另請參閱 encodings.idna 。僅支持 errors='strict' 。

mbcs

ansi, dbcs

Windows 專屬:根據(jù) ANSI 代碼頁(CP_ACP)對操作數(shù)進行編碼。

oem

Windows 專屬:根據(jù) OEM 代碼頁(CP_OEMCP)對操作數(shù)進行編碼。

3.6 新版功能.

palmos

PalmOS 3.5 的編碼格式

punycode

實現(xiàn) RFC 3492。 不支持有狀態(tài)編解碼器。

raw_unicode_escape

Latin-1 編碼格式附帶對其他碼位以 \uXXXX\UXXXXXXXX 進行編碼。 現(xiàn)有反斜杠不會以任何方式轉義。 它被用于 Python 的 pickle 協(xié)議。

undefined

所有轉換都將引發(fā)異常,甚至對空字符串也不例外。 錯誤處理方案會被忽略。

unicode_escape

適合用于以 ASCII 編碼的 Python 源代碼中的 Unicode 字面值內容的編碼格式,但引號不會被轉義。 對 Latin-1 源代碼進行解碼。 請注意 Python 源代碼實際上默認使用 UTF-8。

在 3.8 版更改: "unicode_internal" 編解碼器已被移除。

二進制轉換?

以下編解碼器提供了二進制轉換: bytes-like objectbytes 的映射。 它們不被 bytes.decode() 所支持(該方法只生成 str 類型的輸出)。

編碼

別名

含意

編碼器/解碼器

base64_codec 1

base64, base_64

將操作數(shù)轉換為多行 MIME base64 (結果總是包含一個末尾的 '\n')

在 3.4 版更改: 接受任意 bytes-like object 作為輸入用于編碼和解碼

base64.encodebytes() / base64.decodebytes()

bz2_codec

bz2

使用bz2壓縮操作數(shù)

bz2.compress() / bz2.decompress()

hex_codec

hex

將操作數(shù)轉換為十六進制表示,每個字節(jié)有兩位數(shù)

binascii.b2a_hex() / binascii.a2b_hex()

quopri_codec

quopri, quotedprintable, quoted_printable

將操作數(shù)轉換為 MIME 帶引號的可打印數(shù)據(jù)

quopri.encode()quotetabs=True / quopri.decode()

uu_codec

uu

使用uuencode轉換操作數(shù)

uu.encode() / uu.decode()

zlib_codec

zip, zlib

使用gzip壓縮操作數(shù)

zlib.compress() / zlib.decompress()

1

除了 字節(jié)類對象'base64_codec' 也接受僅包含 ASCII 的 str 實例用于解碼

3.2 新版功能: 恢復二進制轉換。

在 3.4 版更改: 恢復二進制轉換的別名。

文字轉換?

以下編解碼器提供了文本轉換: strstr 的映射。 它不被 str.encode() 所支持(該方法只生成 bytes 類型的輸出)。

編碼

別名

含意

rot_13

rot13

返回操作數(shù)的凱撒密碼加密結果

3.2 新版功能: 恢復 rot_13 文本轉換。

在 3.4 版更改: 恢復 rot13 別名。

encodings.idna --- 應用程序中的國際化域名?

此模塊實現(xiàn)了 RFC 3490 (應用程序中的國際化域名) 和 RFC 3492 (Nameprep: 用于國際化域名 (IDN) 的 Stringprep 配置文件)。 它是在 punycode 編碼格式和 stringprep 的基礎上構建的。

If you need the IDNA 2008 standard from RFC 5891 and RFC 5895, use the third-party idna module.

這些 RFC 共同定義了一個在域名中支持非 ASCII 字符的協(xié)議。 一個包含非 ASCII 字符的域名 (例如 www.Alliancefran?aise.nu) 會被轉換為兼容 ASCII 的編碼格式 (簡稱 ACE,例如 www.xn--alliancefranaise-npb.nu)。 隨后此域名的 ACE 形式可以用于所有由于特定協(xié)議而不允許使用任意字符的場合,例如 DNS 查詢,HTTP Host 字段等等。 此轉換是在應用中進行的;如有可能將對用戶可見:應用應當透明地將 Unicode 域名標簽轉換為線上的 IDNA,并在 ACE 標簽被呈現(xiàn)給用戶之前將其轉換回 Unicode。

Python 以多種方式支持這種轉換: idna 編解碼器執(zhí)行 Unicode 和 ACE 之間的轉換,基于在 section 3.1 of RFC 3490 中定義的分隔字符將輸入字符串拆分為標簽,再根據(jù)需要將每個標簽轉換為 ACE,相反地又會基于 . 分隔符將輸入字節(jié)串拆分為標簽,再將找到的任何 ACE 標簽轉換為 Unicode。 此外,socket 模塊可透明地將 Unicode 主機名轉換為 ACE,以便應用在將它們傳給 socket 模塊時無須自行轉換主機名。 除此之外,許多包含以主機名作為函數(shù)參數(shù)的模塊例如 http.clientftplib 都接受 Unicode 主機名(并且 http.client 也會在 Host 字段中透明地發(fā)送 IDNA 主機名,如果它需要發(fā)送該字段的話)。

當從線路接收主機名時(例如反向名稱查找),到 Unicode 的轉換不會自動被執(zhí)行:希望向用戶提供此種主機名的應用應當將它們解碼為 Unicode。

encodings.idna 模塊還實現(xiàn)了 nameprep 過程,該過程會對主機名執(zhí)行特定的規(guī)范化操作,以實現(xiàn)國際域名的大小寫不敏感特性與合并相似的字符。 如果有需要可以直接使用 nameprep 函數(shù)。

encodings.idna.nameprep(label)?

返回 label 經(jīng)過名稱處理操作的版本。 該實現(xiàn)目前基于查詢字符串,因此 AllowUnassigned 為真值。

encodings.idna.ToASCII(label)?

將標簽轉換為 ASCII,規(guī)則定義見 RFC 3490UseSTD3ASCIIRules 預設為假值。

encodings.idna.ToUnicode(label)?

將標簽轉換為 Unicode,規(guī)則定義見 RFC 3490。

encodings.mbcs --- Windows ANSI代碼頁?

此模塊實現(xiàn)ANSI代碼頁(CP_ACP)。

Availability: 僅Windows可用

在 3.3 版更改: 支持任何錯誤處理

在 3.2 版更改: 在 3.2 版之前, errors 參數(shù)會被忽略;總是會使用 'replace' 進行編碼,并使用 'ignore' 進行解碼。

encodings.utf_8_sig --- 帶BOM簽名的UTF-8編解碼器?

此模塊實現(xiàn)了 UTF-8 編解碼器的一個變種:在編碼時將把 UTF-8 已編碼 BOM 添加到 UTF-8 編碼字節(jié)數(shù)據(jù)的開頭。 對于有狀態(tài)編碼器此操作只執(zhí)行一次(當首次寫入字節(jié)流時)。 在解碼時將跳過數(shù)據(jù)開頭作為可選項的 UTF-8 已編碼 BOM。