json.dumps(var,ensure_ascii=False)并不能完全解决中文乱码的问题
json.dumps在不同版本的Python下会有不同的表现, 注意下面提到的中文乱码问题在Python3版本中不存在。
注:下面的代码再python 2.7版本下测试通过
1
|
# -*- coding: utf-8 -*-odata = {'a' : '你好'}print odata
|
结果:
1
|
{ 'a' : '\xe4\xbd\xa0\xe5\xa5\xbd' }
|
1
|
print json.dumps(odata)
|
结果:
1
|
{ "a" : "\u4f60\u597d" }
|
1
|
print json.dumps(odata,ensure_ascii = False )
|
结果:
1
|
{ "a" : "浣犲ソ" }
|
1
|
print json.dumps(odata,ensure_ascii = False ).decode( 'utf8' ).encode( 'gb2312' )
|
结果:
1
|
{ "a" : "你好" }
|
要解决中文编码,需要知道python2.7对字符串是怎么处理的:
由于# -- coding: utf-8 --的作用,文件内容以utf-8编码,所以print odata
输出的是utf-8编码后的结果
1
|
{‘a ': ‘\xe4\xbd\xa0\xe5\xa5\xbd' }
|
json.dumps 序列化时对中文默认使用的ascii编码, print json.dumps(odata)
输出unicode编码的结果
print json.dumps(odata,ensure_ascii=False)
不使用的ascii编码,以gbk编码
‘你好'
用utf8编码是 %E4%BD%A0%E5%A5%BD
用gbk解码是 浣犲ソ
字符串在Python内部的表示是unicode编码。
因此,在做编码转换时,通常需要以unicode作为中间编码,即先将其他编码的字符串解码(decode)成unicode,再从unicode编码(encode)成另一种编码。
decode的作用是将其他编码的字符串转换成unicode编码
decode('utf-8')
表示将utf-8编码的字符串转换成unicode编码。
encode的作用是将unicode编码转换成其他编码的字符串
encode(‘gb2312')
表示将unicode编码的字符串转换成gb2312编码。
python3中没有这种问题,所以最简单的方法是引入__future__
模块,把新版本的特性导入到当前版本
1
|
from __future__ import unicode_literalsprint json.dumps(odata,ensure_ascii = False )
|
结果:
1
|
{ "a" : "你好" }
|
在写入文件的时候出现了Python2.7的UnicodeEncodeError: ‘ascii' codec can't encode异常错误
大神的解决方法:
不使用open打开文件,而使用codecs:
1
|
from __future__ import unicode_literalsimport codecsfp = codecs. open ( 'output.txt' , 'a+' , 'utf-8' )fp.write(json.dumps(m,ensure_ascii = False ))fp.close()
|
更多关于python 输出中文乱码问题请查看下面的相关链接