NLP语言模型隐私泄漏风险

时间:2023-05-11 12:30:56
【文件属性】:

文件名称:NLP语言模型隐私泄漏风险

文件大小:2.06MB

文件格式:PDF

更新时间:2023-05-11 12:30:56

NLP 隐私泄漏风险

我们发现,通用语言模型中的文本嵌入会从纯文本中捕获很多敏感信息。一旦被对手访问,嵌入信息可以被反向设计,以披露受害者的敏感信息,以进行进一步的骚扰。尽管这样的隐私风险可能会对这些有前途的NLP工具的未来影响造成真正的威胁,但是目前还没有针对主流行业级语言模型的公开攻击或系统评估。


网友评论