Distributional Vector VS. Distributed Vector

时间:2025-01-14 11:37:02
  • 相同点
    • 都是基于distribution思想
    • 使用相同的语料库
  • Distributional models(BOW,LSI,LDA)
    • 共现在同一文本区域中词(如同一语句)相关,在语料中的共现语句越多,越相关
    • 使用共现语句个数构建词与词(上下文)的PMI/PPMI矩阵(高维稀疏矩阵),然后进行SVD得到每个词的低维稠密向量(隐向量)
  • Distributed models(NPLM,LBL,Word2vec,Glove)
    • 在相同上下文中出现的词具有相关性,相同的上下文在语料库中越多,越相关,不要求同时出现
    • 思想来源于深度学习(Inspired by deep learning), 使用预测代替共现计数
  • Example
    A dog is in the room.
    A cat is in the room.
    dog 与 room 是 Distributional
    dog 与 cat 是 Distributed
  • 思想区别
    • Distributional思想
      同一个语境中(上下文)出现的词相关。
      它是一种横向思想,如句子“今晚的天空有很多星星”,“天空”与“星星”横向相关。
    • Distributed思想
      相似的语境下(上下文)的词相关。
      这里相似的语境可以是同一个句子,也可以是不同的语句(纵向)。
      它包含一种纵向思想,如句子“今晚的天空有很多星星”,“今晚的天空有月亮”,“星星”与“月亮”纵向相关。
  • 方法区别
    • Distributional使用隐矩阵分解(Implicit Matrix Factorization)
    • Distributed使用神经网络词嵌入(Neural word embedding)
    • Distributional使用共现计数来构建原始矩阵
    • Distributed通过神经网络来进行上下文词预测