本文旨在整理字符编码的信息以及 python 对字符编码的支持情况。

what is ASCII ?

回顾一下 ASCII 码是怎么一回事。

1968 年, American Standard Code for Information Interchange
制定了一个常用字符与数字的转换关系,这个关系就以机构名称的首字母命名,
即 ASCII,ASCII 码中使用了 1-127 的数字。

ASCII 码的问题是: 127 个的数字所能代表的字符数极为有限,存在大量显示不了的字符,
例如西欧的重音符,中国汉字字符等。

1980 年的时候,大部分电脑是 8 位的,也就是能使用的数字范围为 0-255,ASCII 码使
用了其中的一半。很多不同厂商的电脑于是把 128-255定义为其它的重音符号,不同机器
的定义不同,当机器间进行文件交换时出现了不少障碍。

然而,这也仅仅是解决了西欧的重音字符;如果要显示俄语字符时,又要重新定义;假如
要同时定义西欧的重音符以及俄语的西里尔字母时,就完全不够了。即,可以定义一个
KOI8 编码系统,用来存储所有俄语文档,另外定义一个 Latin1 编码系统来存储所有法
语文档,但如果想要在一个法语文档中引用几个俄语字符,就完全办不到了。

为了解决以上问题,出现了两个努力方向,ISO 10646 编码与 unicode 编码,两者后来
合并到了一起。

what is unicode ?

从上面我们看出增大用于表示字符的数字区间才能解决问题, 事实上 unicode 也确实是
这样干的。最初 unicode 采用 16 个比特位来表示数字,数量为 2^16=65536,预期能够
包含所有字符,但后来发现其实还不够。最终进化为今天的 unicode 标准,使用
0-1114111 这个数字范围,即十六进制 0x0-0x10ffff。

在介绍 unicode 之前,首先来明确两个名词:

字符 (character):文档的最小组成单元
码点 (code point): 一个 16 进制整数,用来代表一个字符

unicode 所定义的规则即是将每个字符对应到一个码点。码点的写法示例:U+12CA,其对
应的十六制数为 0x12ca。

unicode 码表就是像这样一张表:

0061    'a'; LATIN SMALL LETTER A
0062    'b'; LATIN SMALL LETTER B
0063    'c'; LATIN SMALL LETTER C
...
007B    '{'; LEFT CURLY BRACKET

字符在电脑中的显现形式是码点,但通常我们人类所熟悉的是其在屏幕或纸上的呈现形式,
叫作字形 (glyph)。以怎样的字形呈现一个字符,是 GUI 工具的责任,应用开发通常不
用关心。

what is encoding ?

有了 unicode,似乎任务已经完成了,直接将字符以 unicode 定义的码点的形式写入
磁盘或者内存就可以了;其实不然。

下面是将 Python 这个字符串直接转换为码点序列的结果,这种做法是有很多缺点的。

P           y           t           h           o           n
0x50 00 00 00 79 00 00 00 74 00 00 00 68 00 00 00 6f 00 00 00 6e 00 00 00
0  1  2  3  4  5  6  7  8  9 10 11 12 13 14 15 16 17 18 19 20 21 22 23
  1. 不同的处理器处理字节顺序不同,所以兼容性不好。
  2. 浪费空间,会有很多 0x00 ,很多常用字符其实占用大小超不过 255。
  3. 与已有 strlen() C 函数不兼容。
  4. 许多网络协议标准,处理不了内容中嵌入 0 值字节的情况。

由于直接使用 unicode 码点序列有以上诸多缺点,所以就需要编码 (encoding)。
编码就是将 unicode 码点序列转换成特定二进制序列的规则,其实 unicode 码点序列
本身已经是二进制序列,上面将 unicode 码点序列直接以其二进制值排列起来的做法
已经是一种编码方式,一种很笨有很多缺点的编码方式。

  • utf-8

    来看一个流行的编码方式:utf-8。
    规则:

    1. 如果码点小于 128,则使用一个字节的值来表示
    2. 如果码点大于 128, 则使用 2, 3 或 4 个字节来表示它,每个字节的值界于 128-255
      之间

    详细编码规则参见 UTF-8 Wikipedia,这里仅把我个人的表述罗列如下:

    1. 如果一个 utf-8 二进制串以 0 开头,则表明当前码点使用了一个字节。
    2. 如果一个 utf-8 二进制串以 1 开头,则表明当前码点使用了多个字节:
      假设有 n 个字节,则首字节先以 n-1 个 1 开头,剩余二进制位填充以实际的码点
      二进制位。所有实际的码点值二进制位都以 10 为前缀,故而一个多字节 utf-8 二
      进制串的组成如下(每个字节以[]包裹,x 为实际码点值二进制位):
      [(n-1)*1 + 10 + (8 – n – 1)*x] [10 + 6*x] [10 + 6*x] …

    以汉字”赵”为例, 其码点为 0x8d75,对应的二进制串为 ‘0b1000110101110101’, 共 16
    位,在 unicode 码表之中,需采用三个字节才能表示刚好 16 位二进制位,其为(x 为
    码点值二进制位)
    [2 * 1 + 10 + 4x] [10 + 6x] [10 + 6x] 即 [11 10 1000] [10 110101] [10 110101]。

    特点:

    1. 所有的 unicode 码点都能处理
    2. 编码后的字节序列中没有嵌入 0 值字节。
    3. ascii 文档,也同时是 utf-8 文档。
    4. 紧凑的,常用的字符,基本都可以使用 1 到 2 个字节来表示
    5. 如果字节坏了,是可能找到下一个仍旧完好的码点的位置的。随机的 8 位数据通常不会
      看起来像 utf-8 编码。
  • utf-8 与 ascii

    由于对于小于 128 的码点, utf-8 只采用了一个字节,所以在此范围内 utf-8 与 ascii
    是对等的。故而一个 ascii 文档同时是 utf-8 文档。

    有些编码方式中, a-z 的码点值是不连续的,如 IBM’s EBCDIC,其不可能与 utf-8 编码
    一一对应。

更多编码方式,如 gbk,gb2312 等,参见 codecs 模块

python2, python3 unicode support

  • python2:

    提供 unicode 类型,在 unicode 类型中字符以码点十六进制形式存在,使用如下方式
    生成(解码):

    unicode(<str>, [encoding])
    str.decode([encoding])
    

    对应的编码过程:

    unicode.encode([encoding])
    

    unicode 是由 unichr 字符组成的序列;
    unichr() 函数可以把一个整型数转化为一个 unichr;
    ord() 函数可以把一个 unichr 转化为一个整型数;
    unicode 类型支持传统 str 类型的各种操作;

  • python3:

    str 类型兼并了过去的 unicode 类型;
    而过去的 str 类型变为 bytes 类型;
    使用 chr() 与 ord() 在 unicode 码点与整型数之间进行转换;
    已经没有 unicode 类型与 unichr 函数;

    编解码:

    str.encode()
    bytes.decode()
    

unicode literal:

所展示的是 unicode 字符的码点的 16 进制形式,而不是字形。

在 python2 中,直接展示 unicode ,会显示其码点值序列,即以 ‘\u’ 开头的码点值,
在打印时才会显示其字形。

In [1]: s=u'赵'
In [2]: s
u'\u8d75'
In [3]: print s
赵
In [4]: sys.getdefaultencoding()
Out[5]: 'ascii'
In [19]: ord(s)
36213

在 python3 中,弱化 unicode literal,直接展示 s,会是其字形序列,要想展示出
码点序列,需要将 str 编码为 unicode-escape 形式。

In [1]: s='赵'
In [2]: s
Out[2]: '赵'
In [3]: print(s)
赵
In [4]: s.encode('unicode-escape')
Out[4]: b'\\u8d75'
In [5]: sys.getdefaultencoding()
Out[5]: 'utf-8'
In [5]: ord(s)
Out[5]: 36213

不过,使用 ord() 来循环打印 unicode literal,都可打印其码点值对应的十进制。
unicode-escape 是一种编码的名称,就如同 utf-8 一样,它是将 unicode 码点
的 utf-8 形式以字面表示。

参考:unicode in python2unicode in python3

convert

编码与解码的过程,即由 unicode 码点序列依据特定编码方式(如 utf-8, gbk, gb2312)转化为
二进制序列的过程,以及其逆过程。

unicode -> encode -> binary(str in python2)
binary(str in python2) -> decode -> unicode

unicodedata

unicodedata 模块
包含 unicode 码表的信息,码点的名称及其类型等。

unicode and IO

关于 unicode 与 IO,有一个原则:
在程序内部永远使用 unicode,当接收外面输入的时候,将其解码;当向外输出之前进行
编码,对于从网上拿到的数据,要格外小心,先检查有没有非法字符再根据其编码进行相
应转化。

数据库与文件,都有读入时自动转化为 unicode 的接口;
json.loads 与 json.dumps 也可以做相应事情;
一个约定是 unicode 文件以 U+FEFF 开头,这个字符叫作 byte-order mark (BOM),
utf-16 等需要该字符来声明文件编码类型, 但 utf-8 其实不需要,不过为了统一都可以有。

unicode filenames

使用 sys.getfilesystemencoding() 查询当前文件系统采用的编码;
在使用 open 操作时,指定 unicode 的文件名,其会自动转化为系统相应的编码;
os.stat() os.listdir() 等也都有自动行为,根据你传入的文件名的类型,
来决定输出的结果的类型,传入 unicode,就收到 unicode, 传入 bytes 就收到 bytes。

str + unicode

python2 之中,当将 str 类型的字符串与 unicode 类型的字符串进行组合的时候,
python 会有字符类型隐式转换,转换时会去猜测字符的编码类型,这时候往往容易出错。
例如:

>>> my_unicode = u"诸葛亮"
>>> my_utf8=my_unicode.encode('utf-8')
>>> u'abc' + my_utf8
Traceback (most recent call last):
File "<stdin>", line 1, in <module>
UnicodeDecodeError: 'ascii' codec can't decode byte 0xe8 in position 0: ordinal not in range(128)

这里将 my_utf8 这个 str 类型字符串转换为 unicode 字符串的过程中,编码被默认为
ascii,然而 my_utf8 其实不是 ascii 编码的。

python3 之中,没有隐式转换行为,开发者需要对自己手中的字符串编码类型保持清醒。
解决这些问题的根本办法即是上文提到的字符串处理原则。

参见:unipain