本文实例讲述了Python实现快速计算词频功能。分享给大家供大家参考,具体如下:
这几天看到一位同事的代码,方法如下:
1
2
3
4
5
6
7
8
9
|
def cut_word(body):
temp_dict = {}
if body is not None :
temp = jieba.cut(body)
for t in temp:
temp_dict[t] = 1
else :
pass
return temp_dict
|
这个函数的功能是,输入一段字符串,比如:'今天天气很不错',输出一个字典,key为使用结巴的cut方法之后切分的词,value为1,如:{'很':1,'今天天气':1,'不错': 1}。
然后我看到同事的另一个方法:
1
2
3
4
5
6
|
def union_dict(x,y):
_keys = set ( sum ([obj.keys() for obj in [x,y]],[]))
_total = {}
for _key in _keys:
_total[_key] = sum ([obj.get(_key, 0 ) for obj in [x,y]])
return _total
|
是这样调用的:
1
|
final_dict = reduce (union_dict,result)
|
result是这样产生的:
1
|
result = df[ 'body' ]. apply (cut_word)
|
也就是把df的body列每一行进行cut_word
函数操作(即将字符串转换成一个字典)。
result的类型是series,随后对result用reduce函数进行union_dict操作。
union_dict的作用是,输入两个字典,比如{'很':1,'今天天气':1,'不错': 1}和{'很':1,'今天天气':1,'差': 1},对key相同的进行value求和,也就是输出会变成{'很':2,'今天天气':2,'不错': 1,'差':1}。
所以这一系列的操作其实是为了计算一大堆文字的词频数,但同事使用的是对每一行分别进行拆分,生成字典,随后
对字典进行合并,其实有些麻烦。
再学习自然语言处理的时候,我了解到nltk有一个方法,可以直接计算词频,用在此处正好。
1
2
3
4
5
6
|
# -*- coding:utf-8 -*-
import nltk
import jieba
str = '今天天气很不错。今天天气很差'
a = list (jieba.cut( str ))
cfd = nltk.FreqDist(a)
|
结果直接是一个带有频数的字典:{'很':2,'今天天气':2,'不错': 1,'很差':1,'。'}
由于同事的函数cut_word
对每个词只计一次频数,所以不能直接拼接字符串后调用FreqDist
函数,需要对每个cut
出来的列表去重,随后再拼接为大字符串调用FreqDist
,这也比之前写这两个函数简单许多。
对于普通的计算频数的需求来说,这个函数能直接解决,十分方便。
希望本文所述对大家Python程序设计有所帮助。
原文链接:https://blog.csdn.net/chenkfkevin/article/details/76593900