美国时间10月24日,《美国新闻和全球报道》(US News & World Report)公布了2018年全球大学最新排名。
其中在计算机科学(Computer science)学科上,清华大学计算机专业排名全球第一,其次华中科大和浙江大学的计算机专业分别排名第9和第10。香港城市大学、上海交通大学和东南大学分别排名第12、17和20名。而卡内基·梅隆大学仅排名第22名。
现任 Facebook AI Research(FAIR)的科学家何恺明,本科曾就读于清华大学基础科学班,他是2003年广东省理科高考状元,研究生就读于香港中文大学。
在2017ICCV国际计算机视觉*会议上,何恺明再次包揽两项最佳论文奖。ICCV、CVPR、ECCV是计算机视觉三大顶会,此前何恺明分别在CVPR 2009,CVPR 2016和ICCV 2017(Marr Prize)获得最佳论文奖,2011年ICCV最佳学生论文奖。
何恺明和他的同事开发了深度残差网络(ResNets),目前是计算机视觉中最常用的架构。ResNets也被广泛应用于机器翻译、语音合成、 语音识别和 AlphaGo!
根据Google学术数据,截至2017年6月:
"Deep Residual Learning for Image Recognition"是CVPR 2016发表的引用次数最多的论文。
"Faster R-CNN: Towards Real-Time Object Detection with Region Proposal Networks"是NIPS 2015中最佳推荐论文。
"Delving Deep into Rectifiers: Surpassing Human-Level Performance on ImageNet Classification"是ICCV 2015年引用次数最多的论文。
何恺明Mask R-CNN ICCV 2017最佳论文奖
我们提出了一个概念上简单、灵活和通用的用于目标实例分割(object instance segmentation)的框架。我们的方法能够有效地检测图像中的目标,同时还能为每个实例生成一个高质量的分割掩码(segmentation mask)。
这个方面被称为 Mask R-CNN,是在 Faster R-CNN 上的扩展——在其已有的用于边界框识别的分支上添加了一个并行的用于预测目标掩码的分支。Mask R-CNN 的训练很简单,仅比 Faster R-CNN 多一点计算开销,运行速度为 5 fps。
FAIR获得最佳学生论文奖
迄今为止最高精度的物体检测器,是基于由R-CNN的两级方法,其中分类器被应用于稀疏的候选对象位置集合。相比之下,通过对可能对象位置的密集采样应用的一级检测器具有更快更简单的潜力,但是已经追溯到目前为止的两级检测器的准确性。
在本论文中,我们探究了这种情况的原因。我们发现,在训练密集检测器时,极度前端-后端类不平衡是问题的主要原因。我们提出通过重塑标准交叉熵损失来解决这一类不平衡,以降低分配给分类范例的损失。我们提出的全新 Focal Loss 方法集中于稀疏、困难的样例中的训练,避免了训练过程中可能出现的大量负面因素。为了评估新损失函数的有效性,我们设计和训练一个简单的密度检测器——RetinaNet。
其他奖项:
终身成就奖
本届 ICCV 的终身成就奖授予 MIT 教授 Tomaso Poggio。Tomaso Poggio 是 MIT 计算机科学与人工智能实验室(CSAIL)成员。
杰出研究奖
杰出研究奖授予苏黎世联邦理工学院教授 Luc Van Gool 与 Facebook 研究科学家、计算摄影学团队创始人 Richard Szeliski。
Mark Everingham 奖
该奖项主要是为了奖励那些对计算机视觉社区作出无私贡献的研究员或者研究团队。ICCV 2017 的 Everingham Prize 授予贾扬清带领的 Caffe 团队,以及 ICVSS 组织者团队。
参会人数最多的国家中,美国、中国、德国、韩国、英国排名前五名。
何恺明网站:http://kaiminghe.com/
ICCV2017论文:http://openaccess.thecvf.com/ICCV2017_search.py
★推荐阅读★
长期招聘志愿者
加入「AI从业者社群」请备注个人信息
添加小鸡微信 liulailiuwang