WordEmbedding-WikiChinese:基于中文*文本数据训练词向量

时间:2024-03-11 12:46:08
【文件属性】:

文件名称:WordEmbedding-WikiChinese:基于中文*文本数据训练词向量

文件大小:4KB

文件格式:ZIP

更新时间:2024-03-11 12:46:08

JupyterNotebook

基于中文*文本数据训练词向量 一,数据获取 本词向量利用的是中文*的语料进行训练。 语料地址: (大小1.16G) 也可以在我的网盘上下载:链接: 提取码:ihu4 二,数据转换 原数据的格式是xml,我们可以将其转换为txt。 这里使用的是gensim自带的WikiCorpus,首先读取xml文件到input_file中,然后其中的get_texts方法会生成一个get_texts器,每一个继承蕴含了一篇文章,这样我们就可以将其写入新的txt文件中了。 三,繁体数据转换为简体数据 该Wiki数据是繁体中文数据,我们要把他们转换为简体中文数据。 利用zhconv包。 四,分词 利用结巴分词。 五,去除非中文词 一些单词中会包含非中文的词,我们要利用正则表达式将该词移除。 判断是否中文词的正则表达式为: ^[\u4e00-\u9fa5]+$ 六,词向量训练 利用from gens


【文件预览】:
WordEmbedding-WikiChinese-master
----基于中文wiki训练中文词向量.ipynb(15KB)
----README.md(1KB)

网友评论