在碎片化阅读充斥眼球的时代,越来越少的人会去关注每篇论文背后的探索和思考。
在这个栏目里,你会快速 get 每篇精选论文的亮点和痛点,时刻紧跟 AI 前沿成果。
点击本文底部的「阅读原文」即刻加入社区,查看更多最新论文推荐。
这是 PaperDaily 的第 31 篇文章[ 自然语言处理 ]
@jerryshi 推荐
#Knowledge Graph
本文对当下流行的 Knowledge Graph Eembedding 进行汇总,主要介绍了两大类,Translational Distance Models 和 Semantic Matching Models,简要叙述了每中方式下的算法。最后又给出了 KG Embedding 的一些应用,包括 KG 内部知识补全及外部的关系抽取、QA、推荐等。
Parallel WaveNet: Fast High-Fidelity Speech Synthesis@wuhecong 推荐
#Deep Learning
DeepmMind 17 年 11 月份的论文,wavenet 的改良版本,实现了并行文本转语音。可以和百度的 Deep Voice 3 对比一下。
Deconvolutional Latent-Variable Model for Text Sequence Matching
@zhangjianhai 推荐
#Sentence Matching
利用 Convolution encoder - Deconvolution decoder 学习句子的语义表示,将 cnn-deconv 框架用于文本匹配任务中,如 Text Entailment、Paraphrase Identification 任务中,generation 和 discriminative 共同训练,提升特定任务的效果。
该论文方法优势是可以利用 unlabeled 数据帮助学习句子表示,当数据不足时非常有效,随着标注数据的增加,优势逐渐减小。
Exploring the Effectiveness of Convolutional Neural Networks for Answer Selection in End-to-End Question Answering@longquan 推荐
#QA System
本文尝试探索了从整个端到端问答系统的流程的角度去衡量卷积神经网络对于答案选择任务的有效性。使用的数据集是标准的 TrecQA 数据集。
Attention-based LSTM for Aspect-level Sentiment Classification@applenob 推荐
#Sentiment Classification
使用基于 Attention 的 LSTM 解决细粒度的情感分析问题,在 SemEval 2014 上取得 state-of-art 的结果。
Learning a Wavelet-like Auto-Encoder to Accelerate Deep Neural Networks@Aidon 推荐
#Neural Networks
文章提出一种加速 DNNs 的新方法(WAE: wavelet-like auto-encoder)来克服现有方法中存在的一个主要问题:如何保证网络加速而又不损失网络性能。
MAE 借助小波的思想,在 encoding 阶段利用 CNNs 分别提取图像的低频分量和高频分量,在 decoding 阶段利用这两个分量恢复出原始图像。
训练好 MAE 之后,可以用于提取图像的低频分量和高频分量,比如在图像分类任务中,将低频分量输入到标准的分类 DNNs(如 VGG-16,ResNet)中,然后与高频分量融合后一起用于分类。
这里提高效率的关键在于,相比于原始图像,提取的低频分量和高频分量都是低分率(原始图像的 1/4)的。
Targeted Backdoor Attacks on Deep Learning Systems Using Data Poisoning@snowwalkerj 推荐
#Face Recognition
在不直接接触模型和训练样本的前提下,只使用极少量的“污染样本”来迷惑模型,达到攻击(伪装)指定类别的目的。攻击者可以通过佩戴特定的装饰来达到把自己伪装成某个特定目标的目的。
@corenel 推荐
#Unsupervised Learning
本文来自 Facebook AI Research,提出了一种利用单一模型来 ensemle 不同 encoded features 来进行 self=training 的方法,就结果上来说很不错,值得一看。
@duinodu 推荐
#Image-to-image Translation
在很多 image-to-image 问题中,one-to-many 是大部分情况,而一般方法比如 pix2pix,仅仅能产生 one-to-one 的结果,但似乎 one-to-many 更符合常理。比如一张灰色的图,对应的彩色图片应该有很多种方式,不仅仅是一种。
困难在于,GAN 总是会让 G 产生某几种固定的模式输出,而如果简单地在输入加随机噪声,G 会在 D 的判别下,忽略随机噪声的作用,还是会有 mode collapse 问题。
文章提出一种 bicycle 的方式,显式地对隐含变量 z 进行表示,处理 one-to-many 中的 mode collapse 问题。
Video Object Segmentation with Re-identification@chenhong 推荐
#Video Object Segmentation
传统的视频分割方法依赖于生成掩膜的时间连续性,但是无法处理目标丢失或目较大的位移等情况。
论文为了克服这些问题,提出视频对象分割与重新识别( Video Object Segmentation with Re-identification,VSReID),包括掩码生成模块和 ReID 模块(Person re-identification,ReID,既给定一个监控行人图像,跨设备检索行人的图像)。
前者通过 flow warping 生成初始化概率图,后者自适应匹配检索丢失的目标实体。通过通过两个模块的迭代应用,本文的模型在 DAVIS-2017 取得冠军,验证了算法的性能。
本文由 AI 学术社区 PaperWeekly 精选推荐,社区目前已覆盖自然语言处理、计算机视觉、人工智能、机器学习、数据挖掘和信息检索等研究方向,点击「阅读原文」即刻加入社区!
我是彩蛋
解锁新功能:热门职位推荐!
PaperWeekly小程序升级啦
今日arXiv√猜你喜欢√热门职位√
找全职找实习都不是问题
解锁方式
1. 识别下方二维码打开小程序
2. 用PaperWeekly社区账号进行登陆
3. 登陆后即可解锁所有功能
职位发布
请添加小助手微信(pwbot01)进行咨询
长按识别二维码,使用小程序
*点击阅读原文即可注册
关于PaperWeekly
PaperWeekly 是一个推荐、解读、讨论、报道人工智能前沿论文成果的学术平台。如果你研究或从事 AI 领域,欢迎在公众号后台点击「交流群」,小助手将把你带入 PaperWeekly 的交流群里。